Introduction: Un séisme dans la course à l’IA
Le 28 mai 2025, la scène mondiale de l’intelligence artificielle a tremblé suite à la proclamation choc de Masayoshi Son, fondateur et PDG de SoftBank. Lors de son discours à la SoftBank World Conference, Son a affirmé que l’Artificial Super Intelligence (ASI), « 10 000 fois plus intelligente que le cerveau humain », émergera d’ici 2035(source). Cette déclaration ne se contente pas de relancer la compétition internationale pour l’intelligence artificielle générale: elle la recadre brutalement. Pour Son, la quête actuelle de l’AGI (Artificial General Intelligence) n’est plus le vrai débat: la véritable rupture serait la survenue d’une superintelligence capable de transformer toutes les sphères de la société humaine.
L’annonce fait l’effet d’un pavé dans la mare, alors que SoftBank s’apprête à investir plusieurs dizaines de milliards dans l’écosystème mondial de l’IA d’ici 2025. Les réactions ne se sont pas faites attendre, tant du côté des scientifiques que des acteurs industriels – certains saluant cette vision ambitieuse, d’autres dénonçant un « mythe technologique » au potentiel déstabilisateur.
On observe déjà une recomposition stratégique majeure : Meta accélère son réorganistion IA, DeepMind publie des cadres de régulation pour prévenir les dérives de systèmes avancés, et OpenAI affirme vouloir franchir la barrière de l’AGI dès les prochaines années. Dans ce tumulte, une question cruciale demeure: ce changement de focale, de l’AGI à l’ASI, annonce-t-il une révolution imminente ou une nouvelle ère de spéculation sur la ia générale? Yann LeCun lui-même soulignait récemment les limites actuelles de l’IA : Son vient déplacer la frontière plus loin encore. Le débat est (r)ouvert.
De l’AGI à l’ASI: Pourquoi ce changement d’échelle?
Le passage du concept d’intelligence artificielle générale (AGI) à celui d’Artificial Super Intelligence (ASI) marque un saut sémantique… et existentiel. Mais qu’est-ce qui distingue réellement ces deux jalons majeurs?
- AGI : désigne une IA générale capable d’exécuter toute tâche intellectuelle qu’un humain peut accomplir, avec une flexibilité et une compréhension du monde proches de l’intelligence humaine. Elle reste, aujourd’hui, un horizon technique: les modèles comme GPT-4o ou Gemini montrent des aptitudes multi-domaines, mais n’égalisent ni l’autonomie ni la sensibilité humaine.
- ASI : va plus loin encore. Par « superintelligence », on entend une entité qui dépasserait l’ensemble des capacités humaines dans tous les domaines, y compris la créativité, la planification stratégique, la résolution de problèmes complexes – et, potentiellement, l’auto-amélioration. Comme l’expliquent SoftBank et d’autres, l’ASI serait le moteur d’un bouleversement civilisationnel, bien au-delà du remplacement de tâches professionnelles: elle pourrait remodeler la recherche, l’industrie, jusqu’aux logiques même de l’intelligence artificielle.
Pourquoi ce changement d’échelle maintenant? Ce n’est pas qu’une affaire de rhétorique: la montée en puissance des algorithmes, l’investissement massif des géants, et la compétition géopolitique poussent à repousser constamment le seuil de l’innovation. L’ASI devient le nouvel horizon vendeur et anxiogène, autour duquel se cristallisent à la fois les espoirs économiques et les craintes existentielles (voir notre article sur l’AGI, arme ultime).
Concrètement, ce renouvellement du discours façonne déjà les feux de route R&D, tandis qu’il nourrit la spéculation autour de l’IAG et, désormais, de la superintelligence artificielle. Une escalade dont les effets à moyen terme restent inédits.
SoftBank, OpenAI, DeepMind, Meta : Les visions en confrontation
La déclaration fracassante de Masayoshi Son a forcé les principaux acteurs de l’intelligence artificielle à clarifier – ou à réinventer – leurs stratégies. Revue des positions les plus saillantes :
- SoftBank : Avec ses investissements records (« jusqu’à 25 milliards de dollars » d’ici 2026 dans des IA avancées, notamment OpenAI source), le conglomérat japonais veut apparaître comme l’architecte du passage à l’ASI. Pour Son, la superintelligence n’est pas un objectif lointain, mais un impératif industriel – et même « la mission d’une vie » (Fortune, 2024).
- OpenAI : L’entreprise d’Altman vise l’AGI d’ici la fin de la décennie; GPT-4o marque une nouvelle étape multimodale, mais OpenAI commence à évoquer aussi le seuil de la superintelligence (« révolution aussi majeure que l’électricité » source).
- DeepMind : Affirme que l’AGI pourrait arriver avant 2030, tout en publiant des guides pour encadrer le potentiel déroutant de l’ASI (lire ce résumé).
- Meta : Réorganise massivement ses équipes IA pour rattraper OpenAI, tout en restant prudente sur la notion d’ASI (source).
Un point commun? Chacun tente d’influencer l’agenda global, entre annonces fracassantes et appels à la prudence. Mais, derrière le storytelling, les feuilles de route diffèrent: SoftBank accélère la levée de fonds et les alliances internationales, OpenAI privilégie les percées sur les modèles tout-en-un, DeepMind pousse à la régulation anticipée.
La polarisation stratégique est palpable: le débat, déjà vif autour de l’intelligence artificielle générale, s’exporte vers la superintelligence, avec ses promesses… et ses menaces existentielles, déjà explorées dans notre dossier Explosion énergétique: l’AGI face au défi écologique de l’IA forte.
Qui a raison ? Crédibilité et limites de la prévision 2035
L’annonce de Masayoshi Son selon laquelle l’ASI émergera d’ici 2035 interroge la communauté scientifique et technique. Mais où en sommes-nous réellement? Les progrès récents sont indéniables: modèles géants comme GPT-4o, Gemini ou Llama 3 dominent une partie de l’écosystème. Pourtant, les experts restent divisésquant à la possibilité de l’intelligence artificielle générale – et plus encore de l’ASI – à moyen terme.
- Progrès: Les IA actuelles excellent en génération de texte, analyse d’images et multimodalité. Elles restent néanmoins limitées sur la cognition de haut niveau, l’apprentissage non supervisé et l’adaptabilité autonome. Aucun système ne démontre à ce jour une capacité proche de la compréhension humaine générale.
- Obstacles: La généralisation reste un défi: la conscience, l’émergence d’émotions, la capacité à raisonner dans l’incertitude et à s’auto-améliorer véritablement marquent un fossé. Le coût énergétique est explosif (voir notre analyse sur l’empreinte écologique).
- Prudence: Google DeepMind, par exemple, vise l’AGI « d’ici 2030 » mais souligne les risques de dérive et d’échec. OpenAI insiste sur la nécessité d’avancées encore majeures en algorithmes et hardware.
Quels signaux faut-il surveiller? Les avancées du hardware (CPU/neuromorphic), la baisse du coût énergétique, de nouveaux algorithmes auto-adaptatifs, ainsi que les premiers systèmes démontrant une IAG robuste. Reste que la date de 2035, aussi ambitieuse soit-elle, relève aujourd’hui autant de la prospective que de la vision entrepreneuriale – une fracture déjà vue dans le débat public ou dans la question de la « conscience artificielle » (voir notre analyse).
Révolution(s) sectorielle(s) et enjeux de société
Si la promesse de l’ASI façon Son se concrétise, la rupture serait multidimensionnelle. Dès aujourd’hui, ses effets se dessinent:
- Tech & Industrie: Les investissements massifs (SoftBank, Microsoft, etc.) redessinent la compétition mondiale. La fusion entre ia générale et robotique ouvre la voie à une automatisation exponentielle, du secteur pharmaceutique à la logistique, tandis que le défi de l’énergie (voir notre article sur l’explosion énergétique) va s’amplifier.
- Recherche: L’ASI serait le Graal des laboratoires. Mais aussi un cauchemar pour la gouvernance: la question de l’IAG souveraine et du partage de la propriété intellectuelle alimente déjà les débats.
- Éducation: À l’image du passage de l’écrit au calculateur, l’ASI bouleverserait les modèles et ressources pédagogiques – comment transmettre, apprendre, ou certifier dans un monde où la connaissance devient instantanément accessible et évolutive?
- Géopolitique & Sécurité: L’ASI polariserait les grandes puissances – course aux alliances, risques de prolifération, enjeux de souveraineté et d’armement. La position de SoftBank, investissant en Occident et en Asie, illustre la fluidité et la tension du nouveau terrain de jeu (voir ici).
- Éthique: Enfin, la question du contrôle – mais aussi de la responsabilité et du partage des fruits de l’innovation – devient brûlante. Peut-on réguler ce que l’on ne comprend plus? Faut-il parler d' »arme ultime » (analyse dédiée)?
L’intensité du basculement annoncé impose de repenser, sans délai, nos cadres réglementaires, économiques et moraux. Un défi collectif, qui concerne autant les innovateurs de la intelligence artificielle générale que chaque citoyen.
Conclusion : Fausse prophétie, pari visionnaire, ou début d’une nouvelle phase ?
Faut-il croire à l’ASI d’ici 2035? Le pari de Masayoshi Son fascine, interroge, et inquiète. Il révèle par ricochet l’état d’avancement réel de l’ia générale: complexes, incomplètes, mais capables de catalyser une mutation majeure. Si la date-choc de 2035 est loin de faire consensus, l’accélération des investissements, des recherches et des débats publics indique que nous entrons bel et bien dans une nouvelle phase – autrement plus risquée que le simple rêve d’AGI.
La vraie question n’est peut-être pas « quand ? », mais « dans quelles conditions » – et pour qui faire émerger cette superintelligence. Reste à construire les alliances, régulations et garde-fous capables d’encadrer ce qui s’annonce comme la plus grande aventure scientifique et sociétale du siècle: bâtir une IAG qui ne sacrifie ni notre autonomie, ni notre avenir collectif.
Le débat, et les choix à venir, pourraient bien dépasser en ampleur tout ce que la révolution numérique avait à offrir. À chacun de prendre position, de s’informer et d’agir: l’intelligence artificielle générale amorce un nouveau chapitre – reste à savoir si celui-ci s’écrira sous la boussole de la prudence… ou du vertige.