L’appel à l’interdiction : quand la grève de la faim relance la peur de la superintelligence
En 2025, la question de l’interdiction pure et simple de la superintelligence artificielle n’a jamais été aussi présente dans l’espace public. Des militants, parfois issus du monde scientifique, ont choisi des formes d’action radicales pour alerter sur les dangers potentiels de l’intelligence artificielle générale. L’événement marquant de cette année : plusieurs grèves de la faim devant le siège de sociétés innovantes comme Anthropic à San Francisco ou DeepMind à Londres, largement relayées par les médias internationaux (Le Point, sept. 2025).
Ces actions, citées dans une analyse récente, marquent une radicalisation du militantisme anti-superintelligence : pancartes listant le nombre de jours sans nourriture, vidéos virales, appels au boycott et campagnes mondiales pour mettre fin à la « course à la superintelligence ». Les enjeux soulevés sont vertigineux : peur de la perte de contrôle humain, menaces existentielles, risques pour la stabilité géopolitique.
Pourquoi ces appels refont-ils surface en 2025 ? D’abord parce que les progrès de l’IAG sont de plus en plus tangibles. Ensuite, le contexte politique est marqué par des débats sur la régulation mondiale (voir le rôle de l’ONU) et l’échec perçu des mesures de précaution existantes. Enfin, la parole militante puise dans le sentiment diffus que les élites techno-scientifiques accélèrent vers l’inconnu sans garde-fou.
La question d’interdire la superintelligence artificielle s’inscrit donc plus que jamais dans une actualité brûlante, nourrie par la peur, mais aussi par une volonté d’ouvrir un véritable débat sur les frontières du progrès.
Interdire une technologie : leçons d’histoire et échecs annoncés ?
L’humanité a déjà tenté d’interdire ou de restreindre des technologies jugées trop dangereuses. Peut-on s’inspirer de ces précédents pour la ia générale ?
Armes nucléaires : le cas emblématique reste le Traité sur la non-prolifération des armes nucléaires (TNP), signé en 1968. S’il a freiné la diffusion de l’arme atomique, il n’a pas empêché la constitution d’arsenaux mondiaux ni la prolifération clandestine. L’équilibre fragile de la dissuasion s’est maintenu, mais l’illusion d’un contrôle absolu s’est vite dissipée.
Biotechnologies : les tentatives d’encadrement de la modification génétique ou de la biologie de synthèse se sont heurtées à la porosité entre innovation civile et militaire, mais aussi au dynamisme du secteur privé. Malgré des bioéthiques nationales (comme en France ou en Allemagne), la recherche s’est poursuivie ailleurs, créant un » tourisme scientifique « .
Crypto-monnaies : la multiplication des interdictions nationales (Algérie, Bolivie, Égypte, Irak, Maroc, Népal, Pakistan, Viêt Nam, etc.) n’a pas freiné l’usage des monnaies décentralisées. Les contournements sont légion, via VPN ou plateformes offshore, et la traçabilité demeure complexe pour les États.
Ces exemples soulignent une réalité : si l’interdiction freine parfois le développement, elle se heurte aux logiques d’innovation, de marché noir et de compétition internationale. Pour l’intelligence artificielle générale, ces leçons plaident pour une approche nuancée, misant davantage sur la coopération internationale et la gouvernance que sur la répression pure et simple. En la matière, l’histoire tend à montrer que les interdits absolus ne tiennent jamais bien longtemps face à la puissance de l’innovation.
Les défis uniques à l’interdiction de l’AGI : un casse-tête global
La superintelligence artificielle et l’intelligence artificielle générale posent des défis inédits lorsqu’il s’agit d’envisager une interdiction. Contrairement aux technologies du passé, ce ne sont pas des machines imposantes ou des matières premières contrôlables à la frontière, mais des logiciels, du code, des algorithmes diffusables partout sur Terre-instantanément.
L’intangibilité du logiciel complique toute action. À l’ère de l’open source et du savoir accessible en ligne, contrôler la diffusion ou l’utilisation de modèles d’AGI devient un véritable défi logistique et légal. Qui dit interdiction, dit aussi marché noir : le risque est de provoquer une recherche clandestine, sans garde-fous ni supervision, potentiellement plus dangereuse encore.
La mondialisation accélère la difficulté : chaque pays (ou entreprise) souhaite prendre l’avantage, accentuant la compétition et les risques de prolifération. Les défis de la gouvernance sont bien exposés dans cet article sur la régulation mondiale. De plus, la dissémination rapide (par des copies sauvages ou des fuites de données comme dans la cybercriminalité) rend tout système de contrôle obsolète dès sa mise en place.
Enfin, un moratoire peut être contourné par des États ou des acteurs privés non signataires. D’où la nécessité, selon certains, d’un effort international concerté – mais jamais atteint à ce jour, comme l’illustre le débat sur la possible « pause » proposée par Eliezer Yudkowsky (analyse ici).
Faut-il réguler plutôt qu’interdire ? Panorama des alternatives possibles
Face aux limites de l’interdiction, la régulation s’invite en force dans le débat sur la intelligence artificielle et la superintelligence artificielle. Plusieurs outils sont déjà testés à l’échelle internationale :
- Moratoires temporaires : proposés pour geler la recherche sur certaines formes d’IA avancée, ils peinent à s’imposer faute d’unanimité et de dispositifs de contrôle crédibles. Le dilemme est analysé dans cet article.
- Codes de conduite volontaires : L’UE a fait avancer ce modèle en 2025 avec un code spécifique pour les modèles d’IA à usage général (voir texte officiel).
- Législations sectorielles : comme l’AI Act européen ou les chartes éthiques en Asie et aux États-Unis. Elles tentent de classifier les IA selon les risques et d’imposer des obligations de transparence, responsabilité et contrôle humain (détails ici).
- Initiatives globales : tels que le Forum mondial pour l’AGI à l’ONU (analyse ici) ou les réflexions sur la création d’agences nouvelles pour superviser le développement et la diffusion des systèmes d’AGI.
Chacune de ces pistes présente ses propres limites. Les codes volontaires manquent souvent de force obligatoire. Les législations nationales encouragent le « forum shopping » réglementaire, menant à des délocalisations d’entreprises ou de laboratoires. La gouvernance mondiale progresse (voir analyse sur les lignes rouges), mais se heurte à la souveraineté et aux rivalités géopolitiques. Réguler oui, mais comment imposer une discipline à l’échelle de la planète, sur un sujet aussi explosif?
Conclusion : Interdiction, régulation ou utopie ?
Au terme de ce panorama, un enseignement domine : l’interdiction totale de la superintelligence artificielle ressemble à une illusion. Les leçons de l’histoire (nucléaire, biotech, crypto-monnaies) montrent l’échec des interdits absolus face à l’innovation, la concurrence et la débrouillardise humaine. L’intelligence artificielle générale partage, en pire, les mêmes traits: intangibilité, diffusion mondiale, compétitivité exacerbée.
Pour autant, la régulation peut-elle réellement encadrer l’IAG ou l’AGI? Les tentatives en cours (AI Act, codes de conduite, forums mondiaux) offrent un cadre, mais aussi leurs limites. On avance, mais trop lentement pour certains, trop rapidement pour d’autres. La solution passera-t-elle par une gouvernance mondiale, comme évoqué dans cette analyse éthique?
Au fond, le débat « interdiction ou régulation » met en jeu nos choix de société, nos valeurs et notre rapport au progrès. Peut-on négocier les frontières de l’intelligence artificielle sans céder à la peur ni à l’angélisme ? La gestion responsable de la superintelligence n’est ni une fatalité, ni une utopie : elle exige innovation démocratique, vigilance citoyenne et coopération internationale. L’histoire est loin d’être écrite – et il nous appartient de ne pas la subir, mais de la façonner.