On entend souvent parler des « hallucinations » des IA. Le mot est accrocheur : on imagine une machine qui rêve ou qui voit des choses. En réalité, rien de mystique. Un modèle prédit simplement le prochain mot à partir de statistiques. Quand il n’a pas la bonne info, il invente.

Je suis toujours un peu amusé de voir à quel point on critique déjà une technologie qui, il y a à peine environ deux ans, était presque inconnue. On lui reproche ses « hallucinations », ses erreurs. En réalité, à mon avis, c’est plutôt rassurant qu’elle ne soit pas parfaite d’entrée de jeu : si la toute première version était infaillible et que les suivantes ne faisaient qu’accélérer, ce serait inquiétant pour l’avenir de nombreux emplois et du monde du travail. Une IA capable de tout faire parfaitement dès maintenant, sans relecture humaine, changerait brutalement l’équilibre des rôles. Mieux vaut s’émerveiller des progrès, rester critique et professionnel dans la lecture des résultats, et accepter qu’une IA imparfaite demande qu’on la questionne, comme on le ferait avec un·e jeune employé·e à qui l’on confie une nouvelle tâche.

Pourquoi on parle d’« hallucinations »

Aujourd’hui, on emploie « hallucination » pour décrire une réponse d’IA qui a l’air crédible mais qui invente des faits. L’image est parlante, mais trompeuse : la machine ne « voit » rien. Elle calcule des probabilités et, quand l’information manque, elle comble les trous. Ce mot s’est imposé parce qu’il parle au grand public, mais dans la pratique, il désigne simplement une erreur de contenu déguisée en certitude.

Quel vocabulaire privilégier

Dans un contexte professionnel, parler d’« hallucination » peut brouiller les idées. L’IA ne rêve pas, elle fait une prédiction erronée. Plusieurs préfèrent des mots plus clairs : « erreur de factualité », « confabulation », « invention ». Ces termes recentrent le problème sur ce qu’il est vraiment : une information fausse produite par un calcul, pas une vision. Adopter ce vocabulaire aide l’équipe à garder un regard critique et à décider quand une vérification humaine est indispensable.

Où en est la technologie

Les modèles d’IA font moins d’erreurs qu’il y a deux ans. Par exemple, dans le rapport technique de GPT-4, OpenAI indique une baisse significative des hallucinations par rapport à GPT-3.5, avec une amélioration mesurée d’environ 19 points de pourcentage dans certaines évaluations factuelles adversariales.

Les réponses sont en général plus fiables, surtout dans les tâches bien cadrées avec des données fournies. Mais dès qu’on élargit le champ (question ouverte, données floues, demande trop créative) les fausses affirmations réapparaissent. La tendance est claire : plus on ancre l’IA sur des sources précises, plus elle reste fidèle. Aucune version, même récente, ne garantit toutefois le « zéro invention ».

Pourquoi ça continue

Même les modèles les plus récents n’échappent pas totalement aux erreurs. La raison tient surtout à leur mode d’apprentissage.

  • Ils optimisent pour répondre, pas pour douter. On entraîne les modèles à produire une suite de mots la plus probable, donc à proposer quelque chose plutôt qu’à admettre un trou.
  • Ils travaillent avec des données incomplètes. Quand une question dépasse ce qu’ils connaissent, ils comblent les vides en extrapolant.

Résultat : une réponse peut paraître solide alors qu’elle repose sur une supposition. D’où l’importance de consignes claires et de vérifications humaines, surtout dans un contexte de formation où la précision compte.

19 pratiques pour éviter de se faire piéger

Regroupons-les en avant, pendant et après l’utilisation de l’IA. Chaque geste est court à lire, facile à appliquer.

Avant

1. Choisir l’IA selon la tâche
Sélectionnez un modèle reconnu pour la précision factuelle quand la justesse est critique. Ce tableau peut servir de repère rapide et être mis à jour au fil du temps :

Nom de l’IAModèleSpécialitéFaiblesse principale
ChatGPT (OpenAI)GPT-4 / GPT-4-TurboRédaction structurée, synthèse, codePeut inventer des chiffres ou des sources si la consigne est vague
Claude (Anthropic)Claude 3Raisonnement long, textes juridiquesRéponses parfois plus prudentes mais incomplètes
Gemini (Google)Gemini 1.5Recherche multilingue, intégration GoogleDonnées factuelles inégales hors de l’écosystème Google
Copilot (Microsoft)GPT-4 intégré à M365Intégration Word, Excel, TeamsMoins performant hors de l’univers Microsoft
PerplexityMixte (GPT-4 + moteurs internes)Recherche avec citations directesPeut manquer de profondeur analytique

2. Préparer des sources fiables
Donnez au modèle des documents solides dès le départ. Copiez directement dans votre requête les passages essentiels ou collez les URL des textes de référence. Plus l’IA dispose d’informations précises, moins elle a besoin de deviner.

3. Découper la demande
Divisez un gros mandat en plusieurs sous-prompts clairs. Par exemple : plutôt que « Crée-moi un module complet sur la cybersécurité », commencez par « Fais une liste des thèmes essentiels », puis « Rédige l’introduction », etc.

Pendant

4. Exiger des citations précises
Demandez au modèle de fournir, pour chaque information clé, une référence cliquable ou un extrait textuel exact. Cliquez sur les liens pour vous assurer qu’ils sont valides avant de réutiliser ou de publier le contenu.

5. Autoriser « Je ne sais pas »
Indiquez clairement au modèle que répondre « Je ne sais pas » est non seulement permis, mais souhaité lorsqu’il manque d’information.

6. Imposer un format contraint
Demandez une structure stricte (tableau, liste numérotée, JSON, plan) pour forcer l’IA à suivre un schéma de sortie. Des recherches sur les structured outputs montrent que ces contraintes réduisent les hallucinations.

7. Éviter les consignes vagues
Formulez votre demande avec précision. Au lieu de « Fais-moi un résumé complet », précisez « Résume en 5 points clés le document fourni, en citant chaque point ».

8. Double passe interne
Faites travailler l’IA en deux temps. D’abord un brouillon, puis une relecture avec la consigne « supprime ou signale toute information non sourcée ».

9. Vérification automatique (simple)
Copiez un paragraphe clé dans un moteur de recherche ou un outil de vérification de faits pour confirmer que les données existent vraiment.

10. Séparer faits et interprétations
Demandez explicitement deux sections distinctes : Faits vérifiables et Interprétations ou analyses.

11. Limiter le domaine de réponse
Spécifiez ce qui sort du cadre de la question pour éviter les digressions.

12. Lister les « points à valider »
Demandez au modèle de terminer chaque réponse par une courte section Points à valider.

13. Croiser les versions
Posez la même question sous plusieurs angles et comparez les réponses. Les divergences pointent les zones à risque.

14. Surveiller les données sensibles
Repérez en priorité les chiffres, les dates, les noms propres. Vérifiez-les manuellement.

Après

15. Vérifier manuellement les passages critiques
Regroupez relecture et validation des données sensibles. Confirmez les chiffres, dates, noms propres et citations avant toute diffusion.

16. Confirmer les sources externes
Ouvrez les liens fournis, comparez le texte cité avec le contenu original, assurez-vous que la page est bien accessible.

17. Créer un jeu de test interne
Glissez régulièrement quelques questions pièges pour mesurer la fiabilité du modèle dans votre contexte.

18. Optimiser un prompt de validation
Créez un prompt de validation que vous utiliserez systématiquement pour relire les réponses. Testez-le, observez où l’IA se trompe, puis ajustez ce prompt au fil du temps (voir la fin de cette liste pour un prompt de base).

19. Former l’équipe
Présentez ces bonnes pratiques à toutes les personnes qui utiliseront l’IA. Montrez comment appliquer le prompt de validation et expliquez les risques de fausses informations.


Prompt de validation à utiliser systématiquement

Relis le texte ci-dessous en appliquant ces consignes :

  1. Reste strictement dans le cadre précisé, n’ajoute rien qui n’est pas demandé.
  2. Vérifie chaque fait à partir des sources fournies. Donne pour chaque information clé un lien cliquable ou un extrait exact et confirme que le lien est actif.
  3. Signale clairement les passages où l’information est absente ou incertaine (« Je ne sais pas »).
  4. Sépare les Faits vérifiables et les Interprétations ou analyses.
  5. Termine par une section Points à valider listant les passages qui exigent une relecture humaine.
  6. Utilise le format demandé (tableau, liste numérotée, plan, etc.).
  7. Évite les formulations vagues : pas de généralités, pas de contenu hors sujet.
  8. Indique les passages chiffrés, datés ou nominatifs qui nécessitent une vérification manuelle par une personne compétente.
  9. Signale les contradictions internes (par exemple deux dates différentes pour un même événement) pour que la personne puisse les vérifier.
  10. Propose, si nécessaire, des ajustements pour corriger ou clarifier le texte.

(Ce prompt peut être adapté selon la tâche et amélioré au fil du temps, comme recommandé au point 18.)

Et après?

Les « hallucinations » rappellent surtout une chose : l’IA n’est pas une base de vérité, mais un outil qui devine. Les modèles s’améliorent vite, mais le risque d’erreur ne disparaît pas. Le défi est double : rester émerveillé·e par la puissance de ces outils et maintenir une discipline professionnelle dans leur utilisation.

L’objectif n’est pas de viser une IA parfaite, mais de mettre en place un processus fiable : des sources solides, un prompt de validation et une vérification humaine ciblée. C’est cette combinaison – et non la technologie seule – qui assurera la qualité d’un contenu de formation.


En savoir plus sur Anthony Mak

Abonnez-vous pour recevoir les derniers articles par e-mail.

Laisser un commentaire

Anthony Mak

Designer graphique passionné par l’apprentissage en milieu professionnel, j’explore les idées liées au design et aux technologies éducatives. Mon parcours m’a conduit à fusionner le design graphique et la formation, créant ainsi (je l’espère!) des expériences d’apprentissage engageantes et innovantes. Sur ce blogue, je partage mes réflexions, découvertes et pratiques autour de ces thèmes.

Catégories

On se rejoint ailleurs ?