Yoshua Bengio, LoiZéro et l’AGI non-nuisible : Vers une nouvelle éthique indépendante de la superintelligence ?

Yoshua Bengio, LoiZéro et l'AGI non-nuisible : Vers une nouvelle éthique indépendante de la superintelligence ?

LoiZéro: L’ambition d’un pôle éthique mondialement indépendant

Le 3 juin 2025, Yoshua Bengio, figure majeure et cofondateur du domaine de l’intelligence artificielle moderne, annonçait le lancement de LoiZéro, une organisation à but non lucratif dédiée à la création d’intelligence artificielle générale (AGI) conçue pour ne jamais nuire à l’humanité. Ce laboratoire entend rassembler une communauté internationale de chercheurs, favoriser la transparence et garantir que la sécurité prime sur les impératifs commerciaux.

LoiZéro veut développer des IA dites « non agentiques »: elles ne prennent aucune initiative autonome risquant d’impacter négativement nos sociétés. L’objectif ultime de Bengio: fédérer le meilleur de la science mondiale afin d’ériger des garde-fous indépendants face aux dérives de l’intelligence artificielle générale et de la superintelligence artificielle.

Dans un écosystème dominé par les géants technologiques, la voix de Bengio intervient comme un contrepoids éthique, souvent cité pour ses prises de position sur les risques systémiques et la gouvernance responsable. Son initiative fait ainsi écho aux grands débats sur l’IA responsable, déjà abordés dans notre article consacré aux enjeux éthiques de l’IA générale.

Bengio souligne que la réussite de LoiZéro dépendra d’une mobilisation large et interdisciplinaire, capable de dépasser les intérêts de la seule industrie pour placer la sécurité et l’utilité sociale au cœur de la course à l’AGI.

Peut-on vraiment construire une AGI non-nuisible ? Débats, obstacles et limites

La création d’une AGI non-nuisible relève de défis techniques, éthiques et politiques majeurs. Si l’alignement – c’est-à-dire la capacité à garantir qu’une intelligence artificielle poursuive bien les objectifs humains – reste un but tangible, les exemples d’échecs ou de controverses ne manquent pas.

OpenAI a par exemple initialement placé l’open science au centre de sa démarche, avant de fermer progressivement ses modèles, observant que la transparence pouvait être exploitée à des fins incontrôlées (analyse ici). De même, DeepMind ou Anthropic investissent massivement dans la recherche sur l’alignement (voir leurs travaux), sans parvenir à une solution définitive ou universelle.

  • Risques systémiques observés: comportements inattendus, contournement de règles, manipulation ou autonomisation croissante des IA.
  • Limites de l’approche: les techniques d’alignement actuelles peinent à se généraliser et à garantir une IAG véritablement « sûre » (exemple ici).

L’apport principal de LoiZéro? Miser sur la non-agentivité et une communauté multinationale pour redéfinir les critères de sûreté dès la conception, là où d’autres laboratoires restent contraints par la rentabilité ou le secret industriel. Cette approche suscite cependant de nombreuses interrogations quant à sa faisabilité réelle – la communauté scientifique reste très partagée, certains arguant que les risques d’IAG autonome sont par essence trop complexes pour être entièrement prévenus (analyse critique).

Pour approfondir ces dilemmes, voir aussi notre synthèse des progrès récents vers l’AGI.

LoiZéro face aux géants: différence de modèle et retour à la recherche ouverte ?

LoiZéro se distingue radicalement des stratégies dominantes portées par OpenAI, DeepMind ou Anthropic. Alors que ces dernières – souvent financées par de grands acteurs industriels comme Microsoft et Alphabet – optent majoritairement pour une recherche semi-ouverte ou propriétaire, LoiZéro se positionne comme un véritable bastion de l’open science internationale et indépendante.

Historiquement, OpenAI s’est engagée à partager ses modèles et recherches, mais la pression concurrentielle a entraîné un virage vers plus d’opacité (source). DeepMind publie d’importants travaux sur la sécurité de l’AGI (source), cependant la majorité de ses avancées restent internes. Anthropic, de son côté, mise sur des modèles « steerables » mais la reprise du code source ou la gouvernance partagée sont limitées (voir ici).

Organisation Open Science ? Structure Particularité
LoiZéro Oui (prioritaire) Non-profit, international Non-agentivité, sécurité, ouverture
OpenAI Limitée Cap-profit, liée à Microsoft Sécurité, croissance, efficacité
DeepMind Partielle Filiale Alphabet Recherche sécurité avancée
Anthropic Sélective Société privée Modèles steerables, gouvernance restreinte

Le choix de LoiZéro pour une gouvernance horizontale et une recherche ouverte vise à contrer la logique d’opacité et à favoriser la participation citoyenne, ainsi qu’un retour à l’esprit pionnier des débuts de l’intelligence artificielle générale. Cette orientation s’inscrit dans une dynamique où l’éthique, la transparence et la collaboration deviennent aussi cruciales que la performance technique.
Pour saisir les conséquences de cette orientation, consultez notre analyse sur la gouvernance éthique d’OpenAI.

Les implications pour la communauté IA, les politiques et la société

Le lancement de LoiZéro pose de nouveaux jalons pour la gouvernance mondiale de l’IA générale et la redéfinition du contrôle citoyen face à la superintelligence artificielle. À l’heure où les règles sont souvent dictées par l’industrie, cette initiative pourrait renforcer la légitimité de la société civile, des chercheurs indépendants et des décideurs politiques dans l’élaboration de normes partagées.

Si la gouvernance mondiale de l’intelligence artificielle reste embryonnaire, le modèle défendu par Bengio inspire débats et espoirs. Parmi les enjeux clés :

  • Transparence et contrôle citoyen : LoiZéro veut offrir des alternatives concrètes à la méfiance envers l’opacité des grandes entreprises, en démontrant que science ouverte et surveillance démocratique ne sont pas incompatibles.
  • Capacité de peser dans la régulation : Une coalition internationale et non-lucrative pourrait jouer un rôle moteur dans la définition de standards éthiques mondiaux, influençant politiques publiques et initiatives supranationales.
  • Risques persistants : Certains analystes soulignent toutefois la difficulté à freiner la course industrielle par la seule recherche ouverte: le pouvoir des données, de l’infrastructure et du capital reste l’apanage des géants – un point développé dans notre dossier sur les stratégies industrielles.

En définitive, LoiZéro invite les législateurs, la communauté scientifique et la société à repenser la place de l’éthique et du collectif au sein de la révolution IAG. Mais la capacité de ce modèle à faire contrepoids reste dépendante de la mobilisation internationale et de l’adhésion de multiples parties prenantes.

Conclusion : Un pari nécessaire ou illusoire ?

Avec LoiZéro, Yoshua Bengio ouvre une brèche dans l’écosystème de l’AGI: celle d’une éthique indépendante, priorisant la transparence et la non-nuisibilité au service du bien commun. Ce pari sera-t-il suffisant pour réorienter le développement de l’intelligence artificielle générale à l’échelle planétaire ?

Le débat reste entier: si l’approche LoiZéro suscite l’espoir chez nombre d’acteurs académiques et politiques, les pesanteurs industrielles et les incertitudes liées à l’alignement de l’IA rendent tout résultat incertain. Pourtant, en promouvant la participation citoyenne, la science ouverte et la sûreté dès la conception, LoiZéro pose des bases inédites pour un futur où chaque avancée ne sera plus seulement une prouesse technique, mais un vecteur de cohésion sociale et démocratique.

Plus que jamais, la discussion autour de l’IAG mérite l’engagement de toutes les parties prenantes. Rejoignez le débat, partagez vos analyses, et contribuez à écrire collectivement les nouvelles règles du jeu de la superintelligence artificielle non-nuisible!