Aller au contenu
COCOWORK, INC.

GLOSSAIRE IA · FONDAMENTAUX

Hallucination

Hallucination IA

Une hallucination désigne une information fausse produite par une intelligence artificielle et présentée comme vraie. Le modèle ne ment pas volontairement : il génère le texte le plus probable, et ce texte n'est pas toujours exact.

Aussi appelée
Confabulation IA
Nature
Information fausse mais plausible
Cause
Génération par probabilité
Zones à risque
Chiffres, dates, citations
Parade principale
Vérification systématique
Catégorie
Fondamentaux IA
DÉFINITION [Hallucination.1]

Pourquoi une IA invente sans le savoir

Une hallucination n'est pas un bug. C'est une conséquence directe de la façon dont les modèles fonctionnent.

Un modèle de langage ne consulte pas une base de faits avant de répondre. Il génère sa réponse mot après mot, en choisissant à chaque étape la suite la plus probable selon ce qu'il a appris.

Quand une information précise manque dans cet apprentissage, le modèle ne s'arrête pas pour autant. Il produit la suite la plus vraisemblable, qui peut être un chiffre inventé, une citation imaginaire ou une référence qui n'existe pas.

Le piège tient à la forme. Une hallucination est rédigée avec la même assurance qu'une réponse exacte. Rien dans le ton ne signale l'erreur, ce qui la rend d'autant plus trompeuse.

ZONES À RISQUE [Hallucination.2]

Où les hallucinations se concentrent

Le risque n'est pas uniforme. Certains types d'informations sont nettement plus exposés.

  • Les chiffres précis

    Statistiques, dates exactes, montants : le modèle peut produire une valeur plausible mais fausse, surtout sur des données pointues.

  • Les citations et sources

    Titres d'articles, références, noms d'auteurs ou de pages web peuvent être inventés de toutes pièces.

  • Les faits récents

    Tout ce qui s'est passé après l'entraînement du modèle est inconnu de lui. Sans accès au web, il comble le vide en inventant.

  • Les domaines pointus

    Sur un sujet de niche peu présent dans les données d'entraînement, le modèle extrapole plus facilement à côté.

PARADES [Hallucination.3]

Comment réduire le risque d'hallucination

On ne supprime pas totalement les hallucinations, mais on peut fortement limiter leur impact.

  1. 01

    Vérifier les données sensibles

    Tout chiffre, toute date et toute citation destinés à être réutilisés doivent être recoupés avec une source fiable.

  2. 02

    Fournir la source dans le prompt

    Coller le document de référence dans la demande oblige le modèle à s'appuyer dessus plutôt que sur sa mémoire.

  3. 03

    Activer la recherche web

    Pour les sujets récents, un modèle connecté au web s'appuie sur des pages réelles au lieu d'inventer.

  4. 04

    Demander les sources

    Exiger que le modèle cite ses sources permet de repérer plus vite les références fabriquées.

USAGES [Hallucination.4]

Adapter son usage au niveau de risque

La bonne posture dépend de l'enjeu de la tâche.

  • Faible enjeu

    Brainstorming, reformulation, premier jet : l'hallucination a peu de conséquences, la vérification peut rester légère.

  • Enjeu fort

    Document juridique, chiffre publié, donnée médicale : chaque fait se contrôle avant diffusion, sans exception.

  • Le RAG comme garde-fou

    Coupler le modèle à une base documentaire fiable via le RAG ancre les réponses sur des textes réels.

  • Le doute comme réflexe

    Considérer toute affirmation factuelle précise comme à vérifier reste la habitude la plus sûre.

EN CLAIR

Pour le dire simplement

Une IA qui hallucine, c'est un orateur brillant qui déteste dire « je ne sais pas ». Plutôt que d'avouer une lacune, il comble le blanc par une phrase parfaitement tournée. Le style est impeccable, le fond peut être inventé. À vous de vérifier ce qui doit l'être.

IDÉES REÇUES [Hallucination.MYTH]

Ce qu'il faut arrêter de croire.

  • IDÉE REÇUE

    L'IA hallucine parce qu'elle est mal programmée.

    EN RÉALITÉ

    Ce n'est pas un défaut isolé mais une conséquence du principe même de génération par probabilité. Aucun modèle de 2026 n'en est totalement exempt.

  • IDÉE REÇUE

    Une réponse détaillée et assurée est forcément exacte.

    EN RÉALITÉ

    Le ton confiant est constant, que le modèle ait raison ou tort. L'assurance n'est jamais une preuve d'exactitude.

  • IDÉE REÇUE

    Les modèles récents n'hallucinent plus.

    EN RÉALITÉ

    Le taux a baissé, mais le risque demeure, en particulier sur les chiffres précis, les citations et les sujets de niche.

  • IDÉE REÇUE

    Si je demande à l'IA si elle est sûre, elle me corrigera.

    EN RÉALITÉ

    Le modèle peut confirmer une erreur avec le même aplomb. Son auto-évaluation n'est pas une garantie fiable.

FAQ [Hallucination.FAQ]

Questions fréquentes.

Pourquoi une IA invente-t-elle des informations ?

Parce qu'elle génère le texte le plus probable, pas le texte vérifié. Quand une information précise manque dans ce qu'elle a appris, elle produit une suite plausible plutôt que de signaler son ignorance. C'est le mécanisme de l'hallucination.

Peut-on empêcher totalement les hallucinations ?

Non, pas entièrement. On réduit fortement le risque en fournissant les sources dans la demande, en activant la recherche web et en vérifiant les données sensibles, mais aucun modèle de 2026 n'en est totalement exempt.

Comment repérer une hallucination ?

C'est difficile, car elle est rédigée avec assurance. Les signaux d'alerte sont les chiffres très précis, les citations et les références : tout ce qui peut se vérifier doit être recoupé avec une source fiable.

Le RAG supprime-t-il les hallucinations ?

Le RAG les réduit nettement, car le modèle s'appuie sur des documents réels plutôt que sur sa seule mémoire. Mais une source fausse ou une mauvaise récupération peut encore produire une erreur.

Les hallucinations concernent-elles aussi les images et la vidéo ?

Oui. Une IA générative d'images peut produire des détails incohérents, et un modèle multimodal peut mal décrire ce qu'il voit. Le principe est le même : un résultat plausible n'est pas forcément exact.

← Retour au glossaire

Révisé le 15 mai 2026