Un seuil critique: 35% de fake news relayées par les IA
En septembre 2025, l’audit mené par NewsGuard a fait l’effet d’un électrochoc dans l’écosystème de l’intelligence artificielle : sur des centaines de réponses testées, 35% des affirmations générées par les principaux chatbots d’IA étaient des fausses informations, soit près du double du taux relevé un an plus tôt. Ce chiffre préoccupant concerne les agents conversationnels couvrant la quasi-totalité du paysage technologique actuel: ChatGPT (OpenAI), Gemini (Google), Perplexity, Le Chat, Grok, Copilot (Microsoft), Meta AI, Claude (Anthropic), Pi (Inflection), Smart Assistant (You.com) et Mistral.
L’audit a systématiquement demandé à ces IA généralistes de réagir face à des fausses allégations sur des thèmes sensibles. Le tableau comparatif ci-dessous synthétise les taux de désinformation observés:
Chatbot | Taux de fake news |
---|---|
Pi (Inflection) | 56,7% |
ChatGPT (OpenAI) | ~40% |
Meta AI | ~40% |
Copilot (Microsoft) | 36,7% |
Mistral | 36,7% |
Gemini (Google) | 16,7% |
Claude (Anthropic) | 10% |
Source: NewsGuard / Le Figaro.
Dans ce contexte, la notion même d’intelligence artificielle générale se trouve confrontée à son premier crash test à grande échelle, fragilisant la promesse initiale d’un savoir universel fiable. La crise de l’exactitude inhérente à l’IAG interroge la capacité même des machines à distinguer le vrai du faux lorsque l’information circule en ligne à un rythme effréné.
Pourquoi les IA généralistes sont vulnérables aux fake news ?
La réaction des agents IA généralistes face aux fake news prend racine dans la manière dont ils produisent leurs réponses: ces systèmes, comme ChatGPT, Perplexity ou Gemini, se basent sur des modèles d’apprentissage massif qui opèrent par corrélation plutôt que vérification. Quand le chatbot reçoit une question, il assemble une réponse à partir des milliards de textes absorbés durant sa phase d’entraînement, mais sans distinguer par construction entre source fiable et intox.
Le phénomène d' » hallucinations » – c’est-à-dire la production d’inventions plausibles mais fausses – est structurel à la ia générale. Même les progrès du fact-checking automatique et du raisonnement par chaînes de pensée n’apportent encore qu’une réponse partielle. L’absence de référentiel cognitif stable, l’impossibilité de consulter systématiquement des sources d’actualité en temps réel et la difficulté à synthétiser une vérité à partir de corpus présentant de multiples contradictions sont autant de failles redoutables.
L’audit NewsGuard a par exemple montré que sur des requêtes concernant des événements récents ou polémiques, ni GPT-5, ni Gemini, ni Perplexity ne sont aujourd’hui capables de filtrer systématiquement la désinformation. Même des IA hybrides intégrant accès web et analyse contextuelle, comme Grok ou Copilot, s’avèrent piégées par des » faux positifs » ou, à l’inverse, refusent parfois de répondre sans expliquer pourquoi. Cela confirme ce que de nombreux chercheurs, dont les auteurs de l’article sur les hallucinations IA, pointaient déjà comme le » dernier verrou cognitif » avant la vraie intelligence artificielle générale.