INTELLIGENCE ARTIFICIELLE
Qu’est ce qu’un LLM ?
Sommaire
Introduction
LLM signifie “Modèle de Language Large” (Large Language Model en anglais). Un LLM est un modèle d’intelligence artificielle basé sur l’apprentissage profond (machine learning) capable de générer, comprendre et analyser du texte en langage naturel de manière très avancée.
Fonctionnement d’un LLM
Un LLM est entraîné sur d’immenses quantités de données textuelles pour apprendre les modèles statistiques et les relations entre les mots et les phrases.[8] Grâce à ses millions voire milliards de paramètres, il peut prédire de manière probabiliste la suite la plus pertinente d’une séquence de mots donnée en entrée.[1][3][4] Cependant, contrairement à une croyance répandue, un LLM ne “comprend” pas réellement le sens du texte, il effectue simplement des prédictions statistiques très avancées.[3]
Cas d’usage des LLM
Les LLM ont de multiples cas d’usage comme la génération de textes, le résumé automatique, la traduction, le questionnement-réponse, le codage informatique, etc. Ils sont utilisés dans des domaines variés : formation, technologie, santé, service client, marketing, juridique, etc.[1]
Les LLM sont notamment utilisés dans les applications de type Chat telles que ChatGPT, Gemini, (former Bard), Copilot, etc.[3][4]
ChatGPT n’est pas un LLM. ChatGPT est une application de Chat qui interagit avec les LLMs de la série GPT de OpenAI.
Limites des LLM
Malgré leurs performances impressionnantes, les LLM ont des limites importantes. Ils peuvent produire des hallucinations et inventer des informations erronées.[1][4] Ils posent aussi des risques en termes de sécurité, de confidentialité des données et de biais.[1][4] Leur fiabilité dépend grandement de la qualité des données d’entraînement et de celle des données fournies en entrée (prompt).[4]
Histoire des LLM
Les grands modèles de langage (LLM) ont une histoire relativement récente, mais leurs racines remontent aux années 1950 avec les premiers travaux sur les réseaux neuronaux et le traitement du langage naturel. Voici un bref aperçu de leur évolution :
Années 1950-1960 : Premiers pas
– 1950 : Expériences pionnières sur les réseaux neuronaux pour le traitement du langage naturel.
– 1966 : Création d’ELIZA, l’un des premiers chatbots, par Joseph Weizenbaum au MIT, jetant les bases du traitement du langage naturel.[5][6]
Années 1990-2000 : Émergence des modèles de langage neuronaux
– Années 1990 : Développement des premiers modèles de langage basés sur les réseaux de neurones, mais avec des performances modestes.[5]
Années 2010 : Avancées techniques clés
– 2017 : Introduction des transformers et des mécanismes d’auto-attention, permettant de mieux capturer les relations dans les données séquentielles.[5][8][9]
– 2018 : Arrivée des premiers grands modèles comme BERT (Google) et GPT-1 (OpenAI), exploitant les transformers.[7][8]
Années 2020 : Essor des LLM
– 2020 : GPT-3 (OpenAI) marque un tournant avec ses 175 milliards de paramètres et ses capacités accrues.[8]
– 2021-2023 : Émergence de nombreux autres LLM comme PaLM (Google), LLaMA (Meta), Claude (Anthropic), atteignant des centaines de milliards de paramètres.[5][8]
– Novembre 2022 : lancement de ChatGPT (OpenAI) qui démontre les capacités impressionnantes des LLM pour le dialogue naturel.[7]
Les progrès techniques comme l’augmentation de la puissance de calcul, les jeux de données massifs et les techniques d’entraînement efficaces ont permis le développement rapide des LLM ces dernières années.[5][6] Leur impact est désormais considérable dans de nombreux domaines comme la génération de texte, le dialogue, la programmation, etc.[7][8]
ChatGPT : la percée technologique du bulldozer
L’un des premiers modèle de langage à avoir attiré l’attention fut BERT. A l’époque Google avait investit quelques dizaines de milliers de dollars pour l’entraînement initial de BERT. [10] Pour l’époque, c’était déjà un pari et un investissement considérable. Les premiers retours de BERT furent excellent et un net progrès par rapport aux précédents modèles de traitement du language naturel (NLP) même s’il était loin d’être capable de gérer des discussions sur une multitude de sujets comme ce fut le cas avec l’introduction de ChatGPT en novembre 2022.
Mais alors quelle fut la recette du succès de OpenAI pour repousser les limites de ce type de modèles ? La réponse est relativement simple : l’argent. Jusque là, les modèles de type Transformers tels que BERT étaient principalement utilisé et étudié par des chercheurs ou des data scientists travaillant sur des sujets innovants. Or ces profils d’utilisateurs se focalisaient principalement sur des solutions techniques ou algorithmiques notamment l’exploration de différentes stratégies d’entrainement de modèles.
OpenAI a appliqué une autre stratégie basée sur une hypothèse simple : il suffit d’entrainer des modèles avec beacoup, beacoup plus de paramètres pour avoir des modèles de language plus performants. Et c’est ainsi que GPT-3 émerga en tant que modèle de language large (LLM). Le secret pour améliorer la performance des modèle de language était donc de les entrainer avec plus de paramètre et donc pendant plus longtemps et/ou sur des serveurs plus puissants. Ce qui signifiait accepter de dépenser des sommes astronomiques (plusieurs millions de dollars) pour l’entrainement d’un seul LLM.
Bien que le montant exact ne soit pas connu, certains ont estimés que l’entraînement initial de GPT-3 par OpenAI a probablement coûté dans les dizaines de millions de dollars, voire plus, en raison de l’énorme quantité de calculs nécessaires avec ses 175 milliards de paramètres.[8][11][12] Comme nous avons pu le constater avec le succès de ChatGPT, leur hypothèse se confirma et le pari fut payant.
Comparatif GPT-4 vs LLaMA vs Mistral
Depuis la percée de GPT-3, plusieurs LLM ont emergés. Les 3 principaux (ceux qui donnent les résultats les plus proches d’une interaction humaine) sont GPT-4, LLaMA et Mistral.[13][14][15]
GPT-4o (OpenAI)
GPT-4o est considéré comme le modèle de référence en termes de performances. Avec ses 1,76 trillion de paramètres, il surpasse largement les autres LLM dans des benchmarks comme Flask qui évalue la logique, les connaissances, la résolution de problèmes et l’alignement avec l’utilisateur.[13] GPT-4 obtient les meilleurs scores sur ces critères.[13][15]
LLaMA (Meta)
LLaMA est un LLM open source populaire, disponible en plusieurs versions avec jusqu’à 70 milliards de paramètres. Ses performances sont nettement inférieures à GPT-4 selon les benchmarks, mais il reste un modèle puissant, surtout dans sa version 70B.[13][15]
Mistral (Mistral AI)
Mistral AI a récemment lancé Mistral Large, un modèle multilingue (anglais, français, allemand, etc.) qui se rapproche des performances de GPT-4 sur certains benchmarks comme MMLU.[14][16] Ses capacités précises ne sont pas détaillées mais il semble rivaliser avec GPT-4 pour certaines tâches complexes.[16] Mistral a également des versions plus légères comme Mistral Medium et Small.[15]
En résumé, GPT-4 reste le LLM le plus performant de manière générale, mais Mistral Large s’en rapproche sur certains aspects, tandis que LLaMA est un bon modèle open source moins puissant.[13][14][15][16]
Conclusion
Les modèles de langage large (LLM) représentent une avancée significative dans le domaine de l’intelligence artificielle et du traitement du langage naturel. Leur capacité à générer, comprendre et analyser du texte de manière extrêmement sophistiquée a ouvert de nouvelles possibilités dans divers secteurs comme l’éducation, la technologie, la santé, et bien d’autres. Cependant, il est crucial de reconnaître leurs limites, notamment les risques liés à la sécurité, à la confidentialité des données et aux biais potentiels.
L’évolution rapide des LLM, marquée par des jalons comme BERT, GPT-3 et maintenant GPT-4, est rendue possible grâce à des investissements considérables en puissance de calcul et en données d’entraînement. L’essor de modèles comme LLaMA et Mistral montre également une diversification et une compétition croissante dans ce domaine. Malgré tout, GPT-4 reste actuellement la référence en termes de performances, bien que d’autres modèles commencent à s’en approcher pour certaines tâches spécifiques.
Bibliographie
[1] https://www.elastic.co/fr/what-is/large-language-models
[2] https://yourdreamschool.fr/etudier-dans-un-llm-aux-etats-unis-ou-en-angleterre/
[3] https://www.frandroid.com/culture-tech/intelligence-artificielle/1852573_cest-quoi-un-llm-comment-fonctionnent-les-moteurs-de-chatgpt-google-bard-et-autres
[4] https://www.cloudflare.com/fr-fr/learning/ai/what-is-large-language-model/
[5] https://www.edps.europa.eu/data-protection/technology-monitoring/techsonar/large-language-models-llm_en
[6] https://toloka.ai/blog/history-of-llms/
[7] https://www.britannica.com/topic/large-language-model
[8] https://en.wikipedia.org/wiki/Large_language_model
[9] https://www.dataversity.net/a-brief-history-of-large-language-models
[10] https://lesdieuxducode.com/blog/2019/4/bert–le-transformer-model-qui-sentraine-et-qui-represente
[11] https://hellofuture.orange.com/fr/le-modele-de-langage-gpt-3-revolution-ou-evolution/
[12] https://www.lebigdata.fr/openai-gpt-3-tout-savoir
[13] https://www.journaldunet.com/intelligence-artificielle/1525593-comparatif-des-llm-open-source-llama-2-et-mistral-font-la-course-en-tete/
[14] https://www.ictjournal.ch/news/2024-02-27/mistral-devoile-un-modele-rivalisant-avec-gpt-4-et-un-partenariat-avec-microsoft
[15] https://www.reddit.com/r/LocalLLaMA/comments/18yp9u4/comparaisontest_llm_%C3%A9dition_api_gpt4_vs_gemini_vs/fr/
[16] https://www.usine-digitale.fr/article/mistral-ai-lance-mistral-large-un-modele-multilingue-qui-rivalise-avec-gpt-4-et-s-allie-a-microsoft.N2208936
Keywords
Version
License
This work by Matthieu SONNATI is licensed under CC BY 4.0
10 Replies to “Qu’est ce qu’un LLM ?”
Comments are closed.