GLOSSAIRE IA · FONDAMENTAUX
LLM
Large Language Model
Un LLM, ou Large Language Model, est un modèle d'intelligence artificielle entraîné sur d'immenses quantités de texte pour comprendre une demande formulée en langage courant et y répondre par du texte cohérent. C'est la technologie qui fait fonctionner Claude, ChatGPT, Gemini ou Mistral.
- Sigle
- Large Language Model
- Traduction
- Grand modèle de langage
- Architecture
- Transformer (2017)
- Exemples 2026
- Claude, GPT-5.5, Gemini 3
- Unité de mesure
- Le token
- Catégorie
- IA générative
Ce qu'est vraiment un LLM
Un LLM est un programme qui a appris à prédire le mot suivant. Tout le reste découle de cette mécanique simple répétée à très grande échelle.
Un Large Language Model est un réseau de neurones entraîné sur des centaines de milliards de mots issus de livres, d'articles, de code et de pages web. Pendant cet entraînement, le modèle ajuste des milliards de paramètres internes jusqu'à savoir deviner, pour n'importe quel début de phrase, quelle suite est la plus probable.
Ce mécanisme paraît modeste, mais répété sur un corpus gigantesque, il produit un comportement d'apparence intelligente. Le modèle apprend la grammaire, les faits courants, les structures de raisonnement et les styles d'écriture, simplement parce que tout cela aide à mieux prédire la suite d'un texte.
Un LLM ne consulte aucune base de données et ne raisonne pas comme un humain. Il transforme votre demande en probabilités et génère une réponse mot après mot. Comprendre ce point évite la plupart des malentendus sur ce que ces outils savent faire, et sur ce qu'ils inventent.
Comment fonctionne un LLM, étape par étape
De votre question à la réponse affichée, le parcours passe par quatre étapes systématiques.
- 01
Tokenisation
Votre texte est découpé en tokens, des fragments de mots. Le modèle ne lit pas des lettres, il manipule ces unités numériques. En français, un token vaut environ trois quarts de mot.
- 02
Mise en contexte
Le modèle examine tous les tokens de votre demande en même temps grâce au mécanisme d'attention. Il pèse l'importance de chaque mot par rapport aux autres pour saisir le sens global.
- 03
Prédiction
Le modèle calcule la probabilité de chaque token possible pour la suite, en choisit un, l'ajoute au texte, puis recommence. La réponse se construit token après token.
- 04
Restitution
Les tokens générés sont reconvertis en texte lisible et affichés progressivement. C'est pour cela qu'une réponse apparaît mot à mot plutôt que d'un seul bloc.
À quoi sert un LLM au quotidien
La même technologie couvre des tâches très différentes selon la façon dont on la sollicite.
-
Rédiger et reformuler
Articles, emails, comptes rendus, résumés : le LLM produit un premier jet ou ajuste un ton en quelques secondes.
-
Analyser un document
Coller un contrat, un rapport ou un fil de discussion et demander une synthèse, une liste d'actions ou une réponse ciblée.
-
Traduire et corriger
Traduction nuancée tenant compte du contexte, relecture orthographique et reformulation dans un registre choisi.
-
Écrire et expliquer du code
Générer une fonction, repérer un bug, commenter un programme existant ou convertir un script d'un langage à un autre.
-
Réfléchir à voix haute
Structurer une idée, lister des options, jouer le rôle d'interlocuteur critique sur un plan ou une décision.
Ce qu'un LLM fait mal, ou pas du tout
Un LLM reste un outil de probabilités. Ses faiblesses sont prévisibles, donc gérables.
-
Il invente avec aplomb
Sur un chiffre précis, une date, une citation ou une référence, le modèle peut produire une réponse fausse formulée avec assurance. C'est l'hallucination. Toute donnée sensible se vérifie.
-
Sa connaissance s'arrête à une date
Un LLM ne sait rien des événements postérieurs à son entraînement, sauf s'il est couplé à une recherche web ou à une base documentaire.
-
Il reproduit les biais de ses données
Entraîné sur du texte humain, le modèle hérite des stéréotypes et angles morts présents dans ce corpus.
-
Il ne calcule pas, il estime
Sur une opération arithmétique ou une logique stricte, un LLM seul reste faillible. Les usages sérieux passent par des outils dédiés.
Les LLM en 2026 : un marché stabilisé
Après trois ans de course effrénée, le marché s'est resserré autour de quelques familles de modèles matures.
En 2026, le choix ne porte plus sur un modèle unique et définitif, mais sur le bon modèle pour chaque usage. Les écarts de qualité brute se sont réduits, et la vraie différence se joue sur les forces spécifiques de chaque famille.
-
Claude (Anthropic)
Référence sur l'écriture longue, le code et la fiabilité. Fenêtre de contexte d'un million de tokens sur Opus 4.7. Voir notre analyse complète de Claude.
-
GPT (OpenAI)
Modèle polyvalent, fort sur les usages agentiques et l'écosystème d'outils tiers.
-
Gemini (Google)
Excellent rapport performance-prix et capacités multimodales natives, dont la vidéo.
-
Mistral (Mistral AI)
Acteur européen, mis en avant pour la souveraineté des données et des modèles ouverts.
EN CLAIR
Pour le dire simplement
Un LLM ressemble à un collègue qui aurait tout lu mais ne se souvient de rien de précis. Il a absorbé une quantité colossale de textes et en a tiré une intuition très sûre de la langue et des idées. Demandez-lui de rédiger, de structurer ou d'expliquer : il excelle. Demandez-lui un chiffre exact de mémoire : croisez toujours la réponse.
Ce qu'il faut arrêter de croire.
-
IDÉE REÇUE
Un LLM cherche la réponse sur Internet.
EN RÉALITÉ
Par défaut, non. Il génère une réponse à partir de ce qu'il a appris pendant l'entraînement. L'accès au web est une fonction ajoutée, pas le fonctionnement de base.
-
IDÉE REÇUE
Un LLM comprend ce qu'il dit.
EN RÉALITÉ
Il modélise des régularités statistiques du langage. Le résultat est utile et souvent juste, mais il n'y a ni conscience ni compréhension au sens humain.
-
IDÉE REÇUE
Une réponse assurée est une réponse fiable.
EN RÉALITÉ
Le ton confiant d'un LLM est constant, qu'il ait raison ou tort. L'assurance n'est jamais un indicateur d'exactitude.
-
IDÉE REÇUE
Le LLM le plus puissant convient à tout.
EN RÉALITÉ
Un modèle plus lourd coûte plus cher et répond plus lentement. Pour beaucoup de tâches courantes, un modèle intermédiaire suffit largement.
Questions fréquentes.
Quelle est la différence entre un LLM et une IA ?
L'intelligence artificielle est un domaine très large qui couvre la vision, la robotique, les systèmes de recommandation et bien d'autres choses. Un LLM est un type précis d'IA, spécialisé dans le traitement et la génération de texte. Tout LLM est une IA, mais toute IA n'est pas un LLM.
Un LLM et ChatGPT, est-ce la même chose ?
Non. ChatGPT est une application grand public développée par OpenAI. Le LLM, c'est le modèle qui tourne derrière cette application, par exemple GPT-5.5. La même distinction vaut pour Claude, qui est l'interface, et le modèle Claude Opus qui la fait fonctionner.
Un LLM apprend-il de mes conversations ?
Pas en direct. Les paramètres du modèle sont figés après l'entraînement et ne changent pas pendant que vous l'utilisez. Certains éditeurs réutilisent les échanges pour entraîner de futures versions, ce qui se règle dans les paramètres de confidentialité du service.
Faut-il des compétences techniques pour utiliser un LLM ?
Non. Une interface comme Claude ou ChatGPT s'utilise en langage courant. La seule compétence utile est de formuler des demandes claires et précises, ce que l'on appelle le prompt engineering.
Pourquoi un LLM donne-t-il parfois des réponses fausses ?
Parce qu'il génère le texte le plus probable, pas le texte vérifié. Quand une information précise manque dans ce qu'il a appris, il produit une suite plausible mais inexacte. C'est le phénomène d'hallucination, à contrôler sur toute donnée sensible.
Termes liés.
- Agent IA Agent autonome LIRE LA DÉFINITION →
- RAG Retrieval-Augmented Generation LIRE LA DÉFINITION →
- Token Jeton de texte LIRE LA DÉFINITION →
- Fenêtre de contexte Context window LIRE LA DÉFINITION →
- Hallucination Hallucination IA LIRE LA DÉFINITION →
- Prompt Invite de commande IA LIRE LA DÉFINITION →
Révisé le 15 mai 2026