AGI : Ce que révèlent les grands sommets IA de novembre 2025 (Londres/Copenhague) – Tensions, signaux faibles et nouvelles frontières

AGI : Ce que révèlent les grands sommets IA de novembre 2025 (Londres/Copenhague) – Tensions, signaux faibles et nouvelles frontières

Introduction : Les sommets qui redessinent la course à l’AGI

En novembre 2025, Londres et Copenhague ont été le théâtre d’un moment charnière dans l’histoire de l’intelligence artificielle générale (AGI) avec la tenue des plus grandes conférences mondiales : AI Conference London, AI for Good, AI in Science Summit et Future AI Summit. Ces événements ont réuni une diversité remarquable de participants : chercheurs pionniers, géants de la tech, startups audacieuses, investisseurs, membres de la société civile et décideurs politiques, accentuant la pluralité des visions sur l’avenir de l’IA.

Les médias généralistes et la presse spécialisée ont couvert avec ferveur les enjeux – de la sécurité de l’AGI jusqu’à la gouvernance mondiale. L’attente était palpable: allait-on assister à l’annonce d’une percée, à la naissance de nouveaux standards ouverts, ou à la consolidation du pouvoir par certaines Big Tech ? Les keynotes centrales ont aussi abordé la notion de souveraineté cognitive et de diplomatie scientifique, alors que l’Europe (notamment sous Présidence danoise de l’UE: voir programme) affirmait son ambition de peser dans la course mondiale à l’IAG. Plus de 50 pays étaient représentés, reflétant une montée en puissance de la pluralité des approches, du rôle de l’ia générale dans la science à la question du contrôle éthique.

La scène AGI se complexifie: montée en puissance de l’interdisciplinarité, prolifération des nouveaux benchmarks (cf. tests de référence) et tensions autour des talents (guerre mondiale). Les prochains mois promettent de rebattre les cartes de l’intelligence artificielle générale.

Open Science vs. Privatisation : La bataille de l’AGI

Au cœur des discussions, la tension entre l’essor de la science ouverte et la privatisation croissante de la recherche sur l’AGI est apparue comme la grande fracture de 2025. D’un côté, les défenseurs du modèle open source vantent l’importance des modèles publics et de l’accès élargi aux données pour garantir l’auditabilité, la sécurité et la diversité de l’innovation (voir rapport). De l’autre, les industriels et certaines puissances étatiques verrouillent de plus en plus l’accès aux datasets stratégiques et aux architectures avancées, invoquant des impératifs de sécurité ou de rentabilité.

Des stratégies différenciées émergent:

  • Europe : forte promotion des plateformes collaboratives, standards d’interopérabilité et initiatives publiques/privées, avec l’UE en médiatrice entre Chine et États-Unis (Modern Diplomacy).
  • États-Unis : Big Tech (OpenAI, Google, Meta) poussant pour la privatisation des « modèles fondation » tout en lançant ponctuellement des versions open-source ou restreintes pour la communauté scientifique.
  • Asie (Chine, Corée) : multiplication des alliances public-privé et montée en gamme des clusters nationaux, souvent avec des restrictions fortes sur la diffusion des technologies jugées critiques (Debuglies Intel).

L’intelligence artificielle générale se retrouve à la croisée des chemins: les prochaines années détermineront si la concentration de la connaissance prime sur le partage, avec des conséquences cruciales sur l’ensemble des secteurs économiques et sociaux (veille stratégique).

Signaux faibles: Avancées, blocages et illusions sur l’AGI

Les conférences de novembre ont mis en lumière l’écart grandissant entre annonces marketing et véritables percées scientifiques. Plusieurs signaux faibles se sont dessinés:

  • Percées techniques: Un nouveau benchmark phare, ARC-AGI-2, se concentre sur des tâches accessibles à l’humain mais ardues pour l’IA, et introduit la notion de mémoire à long terme pour les LLMs (AI Evaluation Digest). D’autres tests visent désormais la compréhension causale, la robustesse face à l’adversité, ou la capacité à apprendre sans supervision (AGI-Eval).
  • Blocages: Les débats récurrents sur les limites du hardware, la consommation énergétique et la difficulté à recruter/aligner les meilleurs talents (guerre des talents IA).
  • Illusions: Les keynotes appellent à la prudence face au « mythe de l’accélération » – les progrès sont réels mais largement surinterprétés par le marketing industriel (AI Frontiers).

Nouveauté marquante: la sophistication croissante des méthodes d’évaluation du niveau d’IAG, qui intègrent désormais des scénarios ouverts, des critères d’autonomie et de généralisation (voir agents IA intelligents). La détection de véritables ruptures (hardware quantique, nouvelles architectures cérébrales artificielles) reste affaire d’experts et alimente de nombreux débats confidentiels dans les couloirs.

Vers une fracture mondiale ? Inégalités, diplomatie et nouveaux leaders

Les événements de Londres et Copenhague ont mis en exergue les risques de fracture mondiale autour de l’AGI. On observe l’émergence de coalitions scientifiques inédites, avec la Présidence danoise de l’UE jouant le rôle de plateforme de dialogue entre l’Europe, les États-Unis, et l’Asie (AI in Science Summit).

Indices marquants de 2025:

  • Emergence de pays non traditionnels dans la recherche sur l’intelligence artificielle générale: Israël, Corée du Sud, et Émirats arabes unis, investissant massivement dans les infrastructures et la formation.
  • Multiplication des « alliances scientifiques », de la European Laboratory for Learning and Intelligent Systems (ELLIS) aux cluster IA paneuropéens, qui cherchent à éviter la fragmentation technologique et à mutualiser compétences et ressources.
  • Diplomatie scientifique en action: Les coalitions internationales présentes sur ces sommets posent les premières pierres d’une diplomatie cognitive (voir les initiatives COST sur cost.eu), essentielle pour éviter des dérives d’accaparement technologique ou d’inégalités croissantes d’accès à l’IA générale.

Pour 2026, tout porte à croire qu’une nouvelle configuration multipolaire va s’imposer, où la coopération entre États, laboratoires privés et organisations citoyennes pourrait rééquilibrer la gouvernance mondiale de l’AGI.

Conclusion: L’AGI à l’épreuve du réel – Ce que les pionniers n’osent pas dire

Le bilan de ces grands rendez-vous de 2025 est à la fois riche et contrasté. Si la « mythologie de l’accélération » et l’annonce d’une rupture prochaine dominent parfois l’espace publicitaire, la réalité du terrain impose une vigilance accrue: la conquête de l’intelligence artificielle générale reste semée d’incertitudes (hardware, éthique, gouvernance) et dépendantes de choix sociétaux fondamentaux.

En coulisses, les pionniers de l’AGI débattent ouvertement des nouveaux défis éthiques (risques de biais massifs, nouveaux écarts de puissance cognitive), des dilemmes industriels (fragmentation du marché, standards ouverts vs. fermés) et du besoin d’institutions robustes pour réguler la transition. Il devient impératif de maintenir l’exigence critique, la pluralité des approches, et la veille active collective face à des signaux faibles de plus en plus sophistiqués (veille stratégique).

L’enjeu? Éviter de transformer la promesse de l’IAG en mythe ou en mirage, et soutenir des démarches responsables, informées et collaboratives pour que l’AGI serve l’humanité en toute lucidité.