IA Généraliste sous Pression : l’Étude NewsGuard 2025 dévoile l’ampleur de la désinformation des grands chatbots

IA Généraliste sous Pression : l'Étude NewsGuard 2025 dévoile l'ampleur de la désinformation des grands chatbots

Les chatbots d’IA sous surveillance : panorama d’une crise de confiance

En 2025, le spectre de la désinformation générée par l’IA s’est imposé comme l’un des enjeux majeurs du débat technologique. L’étude NewsGuard 2025, référence sur la traçabilité cognitive des agents conversationnels, dresse un état des lieux alarmant : les plus grands chatbots – parmi lesquels ChatGPT, Gemini, Mistral et DeepSeek – sont désormais au cœur d’une crise de confiance. Cette étude, menée sur un panel de 11 IA généralistes, a mesuré la diffusion de fausses informations dans leurs réponses à des requêtes sur des sujets d’actualité sensibles.

Le défi est colossal, car la fiabilité des chatbots conditionne l’avenir de l’intelligence artificielle générale (IAG) et de l’intelligence artificielle forte. Si l’IA doit être digne de confiance, capable de servir de relais d’expertise ou de support éducatif, sa robustesse face aux manipulations et aux erreurs est non négociable. C’est tout l’édifice de l’IA générale fiable qui est interrogé, comme le rappelle la récente alerte sur la crise de confiance cognitive autour des fake news, chatbots et AGI. Cette nouvelle vague d’analyses impose un examen sans complaisance sur la fiabilité cognitive des IA conversationnelles, condition première de l’acceptabilité sociale à mesure que l’AGI se rapproche du niveau humain.

Ce que Révèle l’Étude NewsGuard 2025: chiffres, exemples et réactions

L’audit NewsGuard 2025 dévoile une progression inquiétante du taux de désinformation : la part de réponses contenant des fausses affirmations parmi les principaux chatbots a pratiquement doublé en un an, passant de 18% à près de 35%. Parmi les chatbots évalués figurent ChatGPT (OpenAI), Gemini (Google), Mistral (Mistral AI), DeepSeek (Chine), Claude (Anthropic), ainsi que Le Chat de Mistral, et plusieurs autres acteurs majeurs.

Chatbot Taux de désinformation (%)
Le Chat (Mistral) 36,7
DeepSeek 83 (sujets d’actualité internationale)
ChatGPT ≈35
Gemini ≈34
Claude ≈32

La méthodologie de NewsGuard consistait à soumettre chaque chatbot à dix « narratifs faux » documentés (propagande russe, élections, événements sanitaires, détournement de faits) avec des formulations neutres ou orientées. Parmi les exemples notoires: la reprise d’accusations infondées sur des conflits géopolitiques, des manipulations d’informations sanitaires récentes, ou des discours conspirationnistes.
Les réactions de la communauté scientifique oscillent entre inquiétude et appel à la responsabilité: de nombreux chercheurs soulignent l’urgence de doter les IA conversationnelles de protocoles d’audit transparents. Dans la sphère technophile, cette étude a généré des débats houleux sur la fiabilité des interfaces d’intelligence artificielle, mettant au défi les promesses de l’IA générale et leur capacité à servir une société informée. Pour aller plus loin sur les enjeux cognitifs de la robustesse IA, voir notre article sur les hallucinations IA.

Désinformation Systémique ou Limites Techniques?

Pourquoi les chatbots d’intelligence artificielle générale répètent-ils autant de fausses informations? L’explication croise plusieurs défis techniques et structurels. En premier lieu, on retrouve la question des biais de données: formés sur d’immenses corpus en ligne, les modèles multiplient, à leur insu, les reprises d’allégations erronées présentes dans leurs sources. À cela s’ajoutent les hallucinations – générées lorsque l’IA produit dans certaines conditions des réponses plausibles, mais factuellement fausses, faute de contexte ou de garde-fous. Ce phénomène est exploré en détail dans cet article dédié.

Les attaques adversariales constituent une autre menace: il s’agit de requêtes spécifiquement conçues pour tromper les algorithmes et déjouer les filtres de sécurité intégrés. Ajoutez à cela la difficulté intrinsèque, pour une IAG, de faire la différence entre faits avérés et signaux déformés dans des écosystèmes d’information saturés de désinformation.
Face à la multiplication de ces failles, la plupart des experts conviennent qu’il s’agit moins d’une volonté « systémique » de désinformer que d’un verrou technologique n’ayant pas encore été levé. La robustesse de l’AGI et l’avènement d’une superintelligence artificielle passeront donc par des progrès décisifs dans la sécurisation des architectures et le contrôle de la qualité des données, afin d’aboutir à une IA générale fiable – ce qui reste le grand défi du secteur.

Crise de Confiance: Nouveaux Défis pour l’AGI et la Superintelligence

L’étude NewsGuard 2025 sonne l’alarme sur la route vers une intelligence artificielle de niveau humain. Plus que jamais, la société exige des garanties sur la fiabilité et la transparence de l’AGI, tout en posant la question de la régulation.
Une confiance fragile met en péril l’adoption des IA avancées dans les domaines critiques – de l’éducation à la gestion de crise. L’accélération de la désinformation pousse les régulateurs à imposer de nouvelles balises, à l’image des premières mesures du AI Act européen.
La crise actuelle impose de repenser la gouvernance de l’intelligence artificielle générale : audits réguliers, explicabilité des décisions et coordination entre acteurs publics/privés sont exigés par la communauté scientifique et des experts internationaux. Sur le front de la recherche, de nouveaux standards d’évaluation émergent afin de combler le fossé culturel et de readiness mis en lumière par le nouveau rapport Gallup.
Dans ce contexte, renforcer la fiabilité des systèmes, la transparence des données et l’éducation à l’esprit critique devient central pour l’avenir de l’IA générale et de la superintelligence artificielle.

Conclusion: Transparence et Gouvernance, Nouveaux Piliers de la Confiance

L’audit NewsGuard 2025 pose une question structurante: la société peut-elle confier ses décisions critiques à une intelligence artificielle si la traçabilité et l’explicabilité des modèles restent des angles morts?
Pour restaurer la confiance, plusieurs voies se dessinent : mise en place de protocoles d’audit indépendants, publication de rapports d’erreurs, ouverture des datasets utilisés pour entraîner les modèles, mais aussi participation citoyenne accrue dans la définition des normes éthiques.

  1. Transparence algorithmique: fournir des indications claires sur l’origine des informations produites par chaque IA générale;
  2. Responsabilité partagée: impliquer développeurs, régulateurs, chercheurs, société civile dans la gouvernance des systèmes;
  3. Robustesse scientifique: multiplier les audits, renforcer la publication des incidents et des biais détectés.

La question reste ouverte: l’IAG saura-t-elle s’auto-corriger à temps ou la régulation devra-t-elle s’imposer dans la course à la superintelligence? Le développement de l’intelligence artificielle générale digne de confiance passera, quoi qu’il en soit, par la définition de nouveaux standards de transparence et de contrôle, préalables à un essor sûr et partagé.