L’appel du 22 octobre 2025 : un signal ou un remake ?
Le 22 octobre 2025, un nouvel appel mondial pour un moratoire sur la superintelligence artificielle a marqué l’actualité. Plus de 700 personnalités, dont des figures telles que Steve Wozniak (cofondateur d’Apple) et Richard Branson (Virgin), ainsi que des chercheurs, politiciens et leaders religieux, ont signé une lettre ouverte pour suspendre le développement d’IA susceptibles de dépasser l’humain. L’initiative, portée notamment par le Future of Life Institute, fait ainsi écho aux appels précédents de 2023-2024 mais s’en distingue par la diversité extrême de ses signataires et un ton plus urgent.
Comparée aux mobilisations d’il y a deux ans et un an, l’action 2025 cible désormais la superintelligence (ASI) et non plus uniquement la intelligence artificielle générale (AGI). Les arguments avancés se veulent plus pragmatiques : nécessité d’attendre un vrai consensus international sur la gouvernance des risques.
Les signataires réclament des garanties sur la sécurité, la transparence, et la possibilité de stopper tout projet potentiellement hors de contrôle. Les réactions de l’écosystème IA sont contrastées: les constructeurs technologiques hésitent entre déclarations de soutien, prudence, voire cynisme sur la faisabilité du moratoire, pendant que certains gouvernements, relayant des initiatives onusiennes ou européennes, voient là une chance d’avancer vers une régulation effective (lire aussi: cet article sur l’appel mondial).
Les arguments ne sont pas fondamentalement nouveaux, souvent recyclés des précédentes alertes, mais ils émergent cette fois dans une temporalité où les algorithmes s’approchent de franchir le seuil de la superintelligence artificielle selon certains experts (source).
L’effet des moratoires sur la course à la Superintelligence : Analyse rétrospective
Depuis le moratoire du Future of Life Institute au printemps 2023, plusieurs initiatives de gel du développement de l’intelligence artificielle générale et de la superintelligence ont été lancées (ONU, OCDE, pétitions d’experts, recommandations européennes cf. analyse du AI Act). Ces moratoires ont-ils ralenti le progrès technologique?
L’analyse montre que les effets sont ambivalents. Sur le plan de la R&D, les grandes entreprises du secteur, comme OpenAI, xAI ou DeepMind, ont publiquement adopté des mesures d’auto-régulation ou des pauses techniques limitées – souvent plus symboliques que réelles. Pourtant, selon des rapports analysés par la commission sénatoriale française, l’innovation a plutôt accéléré, l’écosystème profitant des pauses publiques pour avancer discrètement ou déplacer certaines recherches hors des radars médiatiques.
À l’international, la compétition s’est aussi intensifiée avec la multiplication des « stratégies de contournement »: externalisation de travaux vers des pays moins régulés, recours massif au open source, ou encore nouvelles alliances privées (cf. Future of Life Institute).
Exemples concrets : après chaque pétition ou prise de position forte, les budgets et l’activité de R&D n’ont jamais baissé; l’Europe a orienté les efforts sur la sécurité et la transparence pendant que la Chine et les États-Unis redoublaient d’investissements en coulisse. Les moratoires semblent donc avoir surtout généré des débats publics et des ajustements stratégiques, sans jamais stopper la course (source).
Industrie et États : Moratoire réel ou course en sous-marin ?
Malgré les déclarations officielles, la compétition internationale pour la superintelligence artificielle ne connaît pas de véritable pause. Les grandes puissances et les BigTech jonglent entre annonces publiques et actions discrètes. Ainsi, tandis que l’Union européenne cherche à impulser une alternative open source via des programmes comme OpenGPT-X (Global Trend Watcher), la Chine déploie massivement ses propres modèles propriétaires et open source, mieux adaptés à un contrôle étatique et une accélération interne (lire sur la rivalité : Projet ATOM).
Les entreprises US, soutenues (souvent discrètement) par le gouvernement, mènent une double stratégie: affichage de moratoires et investissements dans l’innovation de rupture, contournant parfois les restrictions en délocalisant la R&D (Institut Delors). Une partie de la recherche passe dans le domaine open source, ouvrant la voie à des communautés parallèles hors contrôle des États et des régulateurs traditionnels.
Côté public, l’Europe tente d’incarner l’exemplarité réglementaire, accentuant la trame juridique autour des projets à risques, mais peine à freiner les ambitions américaines et chinoises, où la dynamique est considérablement moins entravée par des préoccupations éthiques ou citoyennes (voir aussi: rôle des instances onusiennes).
Au total, la « pause médiatique » des moratoires cache mal une vaste course en sous-marin, chaque acteur développant de nouveaux fronts, publicitaires ou occultes, dans un contexte de rivalités exacerbées autour de l’AGI.
Moratoires, communication et opinion publique : efficacité ou illusion de contrôle ?
Dans le tumulte des moratoires, le rôle de la communication est central. Pour une grande partie du public et du monde politique, l’annonce d’une suspension du développement de la superintelligence artificielle rassure : elle donne le sentiment que la société peut reprendre le contrôle sur une technologie qui inquiète (voir Studysmarter).
Cependant, une lecture plus critique, notamment relayée dans les médias spécialisés et chez le législateur, souligne le caractère souvent illusoire de ces mesures, qui servent parfois de levier pour influencer l’opinion ou gagner du temps dans une guerre d’influence géopolitique. Comme l’analysent plusieurs experts (Clionautes), la communication sur les moratoires est instrumentalisée autant pour ralentir la concurrence que pour renforcer la légitimité de certains acteurs.
Pour le monde de la recherche ou les milieux technophiles, l’impact réel est questionné: beaucoup voient les moratoires comme des « rituels de crise », sans effet sur les avancées concrètes de la ia générale et de l’IAG. Ils mettent en garde contre une instrumentalisation des peurs auprès du grand public alors que, dans les coulisses, la compétition (voire la surenchère) s’intensifie entre leaders de l’intelligence artificielle générale.
La méfiance et la tech fatigue augmentent, aboutissant à une crise de confiance envers les promesses répétées de contrôle. On observe que la régulation avance, mais souvent par petites touches, tandis que la « guerre des récits » autour de la superintelligence bat son plein.
Conclusion : Vers un nouveau modèle d’autorégulation ou simple rituel de crise?
Au terme de cette analyse, une conviction émerge: les moratoires successifs sur l’intelligence artificielle générale et la superintelligence tiennent autant de la négociation symbolique que de la véritable régulation technique. S’ils contribuent à freiner certains excès et à susciter un débat collectif sur la gouvernance, ils montrent aussi les limites d’un modèle fondé sur la seule auto-discipline ou sur des annonces spectaculaires au moment des crises.
Pour l’avenir, il apparaît crucial d’articuler ces appels à un travail de fond sur la mise en place de régulations transnationales robustes, intégrant à la fois la dimension industrielle, citoyenne et éthique de la ia générale et de la superintelligence artificielle. D’autres pistes s’esquissent: création de forums de gouvernance globaux (cf. Forum mondial AGI à l’ONU), alliances publiques/privées pour la transparence algorithmique, implication directe des citoyens dans les choix de société (analyse ici).
Loin de n’être qu’un simple rituel médiatique, ces débats traduisent la prise de conscience d’une révolution qui redéfinit les équilibres entre gouvernance humaine et avancées techniques. Le chemin vers un modèle d’autorégulation digne de confiance reste à inventer, mais le défi de l’AGI impose d’aller au-delà des effets d’annonce.