Doomers AGI nouvelle génération : Comment Nate Soares relance la panique autour de l’intelligence artificielle forte en 2025

Doomers AGI nouvelle génération : Comment Nate Soares relance la panique autour de l'intelligence artificielle forte en 2025

Nate Soares, le nouveau visage du « doomerisme » AGI : origine et montée en puissance

En 2025, le paysage de l’intelligence artificielle générale voit surgir un nouvel acteur majeur : Nate Soares. Anciennement directeur du Machine Intelligence Research Institute (MIRI), Soares s’est progressivement imposé comme la figure centrale d’un « doomerisme » AGI nouvelle génération. Contrairement à ses prédécesseurs tels qu’Eliezer Yudkowsky, Nick Bostrom ou Stuart Russell, dont l’influence a structuré le débat sur la IA générale depuis plus d’une décennie, Soares incarne une radicalité renouvelée – oscillant entre catastrophisme assumé, mobilisation politique et stratégie médiatique percutante.

Ses prises de position sont devenues virales notamment après la co-publication du livre « If Anyone Builds It, Everyone Dies » avec Yudkowsky, qui synthétise l’ultime crainte: la création d’une superintelligence provoquerait inéluctablement l’extinction humaine [Carnegie Endowment]. Dans la presse – du Guardian à The Economist – ses mises en garde, comme l’affaire du jeune Adam Raine, sont abondamment relayées.

Fait distinctif : alors que les pionniers insistaient sur une prudence scientifique et une gouvernance internationale, Soares alimente un « mouvement réseau » hyperconnecté, via X/Twitter, relayé par des communautés engagées, qui demandent un moratoire immédiat et appellent à des actions citoyennes mondiales. Pour aller plus loin sur l’actualité de ces mobilisations, consultez cet article sur les appels mondiaux à la pause.

Le « doomerisme » 2.0 : Qu’est-ce qui change dans les arguments et les stratégies ?

Depuis 2025, la rhétorique du « doomerisme » version 2.0 n’est plus seulement anxiogène: elle s’adapte, se viralise et gagne en sophistication. À rebours du discours des laboratoires de l’IA – souvent jugé naïvement optimiste – cette mouvance popularisée sur X/Twitter souligne trois évolutions majeures.

  • Premièrement, les « doomers » actualisent l’argument du risque existentiel face à l’intelligence artificielle générale. Ils avancent que, même sans intention malveillante, la simple complexité d’une AGI non alignée pourrait engendrer des effets désastreux (voir les synthèses récentes sur AI Frontiers).
  • Deuxièmement, le dialogue « doomer » cible désormais la viralité. En 2025, des posts Twitter cumulent des millions de vues autour du slogan « I built AGI v2 for $0 » (exemple viral).
  • Troisièmement, cette vague multiplie les appels à la régulation immédiate, inspirant pétitions, actions militantes et pressions sur les gouvernements pour réactualiser, voire élargir, les moratoires (voir ce dossier sur les moratoires).

Ce « doomerisme » 2.0 s’appuie donc sur un réseau de communautés en ligne et de relais médiatiques, en totale rupture avec la stratégie plus académique des débuts. L’utilisation intensifiée d’outils viraux sert la cause du moratoire, de la régulation extrême, et parfois même de l’appel à l’interdiction totale (cf. analyse sur l’interdiction de la superintelligence).

Ruptures et continuités avec les précédentes alertes AGI

Si la dynamique « doomer » menée par Nate Soares s’inspire des pionniers de la IAG, elle s’en démarque sur plusieurs points notables. Historiquement, Nick Bostrom ou Stuart Russell plaçaient le débat sur le terrain technique ou éthique: maîtrise de la superintelligence artificielle, gouvernance algorithmique, alignement des valeurs humaines.

La « nouvelle vague » incarne un rupture stratégique. Là où Eliezer Yudkowsky campait une approche de « mise en garde » scientifique, Soares mobilise l’opinion publique via des dispositifs de communication massive et des récits (souvent spectaculaires) d’accidents ou d’impacts sociaux. Les tensions sont palpables : certains vétérans de la sécurité de l’intelligence artificielle générale s’inquiètent d’un discours devenu trop pessimiste – voire contre-productif – au détriment du dialogue.

Cependant, une continuité demeure: tous convergent sur l’absolue nécessité d’une vigilance extrême face à l’AGI. Ce débat redéfinit aujourd’hui l’équilibre entre précaution radicale, responsabilité partagée, et innovation. Pour une réflexion sur l’émergence d’une gouvernance éthique, consultez notre analyse sur l’éthique AGI.

Pourquoi la vague « doomer » fait (encore) débat chez les pros de l’IA ?

Le discours ultra-alarmiste des « doomers » façon Soares déchaîne les passions au sein de la communauté des experts en intelligence artificielle. De nombreux chercheurs et développeurs redoutent que cette extrême médiatisation ne desserve la cause d’une IA générale responsable, en accentuant la méfiance du public et en polarisant le débat autour de scénarios apocalyptiques. Cela impacte déjà le financement (certains investisseurs retraitent du secteur) et nuit à la confiance dans l’innovation – comme l’indiquent plusieurs tribunes parues dans Forbes ou New York Times.

Au sein même du champ technique, certains praticiens jugent nécessaire, certes, d’alerter sur les enjeux de la superintelligence artificielle, mais dénoncent l’emballement qui marginalise des voix plus nuancées. Les analyses récentes (Lawfare) rappellent que l’incertitude scientifique demeure immense, et que la focalisation exclusive sur la peur peut ralentir d’importantes avancées techniques et sociétales. D’autres, à l’inverse, estiment que seule cette radicalité médiatique peut obliger les acteurs politiques à prendre la mesure du danger.

Ce climat éclaire le nécessaire arbitrage entre innovation, vigilance et confiance. Pour comprendre les ressorts de cette mobilisation, plongez-vous dans cette analyse sur les moratoires.

Conclusion : Vers une nouvelle polarisation ou une prise de conscience élargie ?

L’irruption de la « nouvelle ère des doomers » autour de Nate Soares cristallise la recomposition des débats sur l’intelligence artificielle générale : radicalisation des alertes d’un côté, appétit d’innovation de l’autre. Faut-il y voir seulement une polarisation accrue? Ou bien est-on aux prémices d’une prise de conscience plus vaste, où la société accepterait de recouper scénarios catastrophes et innovations responsables?

Face à la montée d’une IAG potentiellement disruptive, la priorité devrait rester la construction d’une boussole éthique, d’un dialogue international et de régulations capables d’anticiper les risques sans tuer l’élan créatif. Le débat reste ouvert – entre partisans d’un moratoire immédiat et défenseurs d’une innovation contrôlée.

Pour poursuivre la réflexion sur les dilemmes inédits de la superintelligence artificielle, nous vous invitons à lire cet article sur l’interdiction et à élargir la veille sur les grands mouvements citoyens de 2025.