Introduction : Un panorama inédit sur la perception mondiale de l’IA
En juin 2025, l’Université de Melbourne a publié une étude mondiale d’envergure sur la perception de l’intelligence artificielle. Menée dans 47 pays auprès de plus de 48 000 participants, cette enquête éclaire de façon inédite les espoirs et les craintes que suscite l’intelligence artificielle générale (AGI) et les systèmes d’intelligence artificielle forte. À l’heure où l’essor des technologies IA bouleverse les économies, les modalités de gouvernance et les imaginaires, l’étude bouleverse les débats en révélant de profondes fractures au cœur de l’opinion mondiale.
Ce diagnostic chiffré et transversal revêt une importance stratégique: il met à nu non seulement l’enthousiasme global, mais aussi la montée d’une défiance structurante vis-à-vis des futurs développements tels que l’AGI ou l’ASI (Artificial Superintelligence), des sujets déjà abordés dans nos dossiers sur les inégalités globales ou les défis éthiques de ces technologies. La photographie dressée par Melbourne 2025 s’impose déjà comme une ressource clé pour comprendre l’avenir de l’ia générale.
Loin d’un consensus, l’opinion mondiale oscille entre espoirs radicaux et risques inédits, dessinant de nouvelles lignes de faille qui forcent aussi bien chercheurs qu’industriels et politiques à repenser leurs stratégies.
Adhésion à l’IA et défiance croissante : état des lieux chiffré et moteurs de l’enthousiasme
L’étude KPMG–Université de Melbourne 2025 met en avant une adoption massive de l’intelligence artificielle: près de 66% des personnes interrogées déclarent utiliser régulièrement des outils d’IA. Ce phénomène concerne tous les continents, avec toutefois des taux particulièrement élevés dans les économies émergentes, où l’outil technologique est souvent perçu comme un accélérateur de transformation sociétale.
Cependant, seule 46% de la population globale fait aujourd’hui confiance à l’IA [source]. Ce chiffre recule par rapport à 2024, sous l’effet de plusieurs polémiques et incidents médiatisés. La défiance s’avère moins forte chez les jeunes adultes (53% de confiance chez les 18-30 ans) et parmi les utilisateurs ayant un profil technique, alors qu’elle atteint un sommet chez les seniors (32% chez les plus de 60 ans).
Quels sont les moteurs de l’enthousiasme ? Les avancées médicales (diagnostic assisté, personnalisation des soins), l’autonomisation dans la gestion de tâches quotidiennes et la promesse de progrès dans l’éducation et la recherche sont les trois raisons principales citées pour justifier un engouement envers l’AGI. Ce tableau est nuancé par la perception de l’IA via le prisme de ses applications concrètes, comme la santé ou l’énergie, qui emportent une adhésion supérieure à celle des usages relevant de la surveillance ou de la sécurité.
La confiance, pierre angulaire de l’adoption durable de l’IA, dépend donc étroitement de la nature des usages… et de la capacité du secteur à répondre aux inquiétudes.
AGI et ASI: Fractures générationnelles, peurs globales et disparités d’attentes
L’étude Melbourne 2025 réserve un focus aux formes avancées d’intelligence artificielle générale (AGI) et d’Artificial Superintelligence (ASI). C’est dans ce domaine que les peurs deviennent le plus saillantes: 72 % des personnes interrogées s’inquiètent de la perte de contrôle humain, tandis que près de 64 % évoquent des « risques existentiels » (voir aussi notre analyse sur la sécurité internationale).
La fracture est nette entre générations et régions: les moins de 35 ans se disent plus ouverts à voir émerger une IAG pour résoudre des problèmes complexes (changement climatique, maladies), là où les plus âgés redoutent l’autonomisation des machines. Les pays du Sud affichent une espérance technologique plus marquée, tandis que l’Europe occidentale et le Japon figurent en tête des pays sceptiques quant à la superintelligence.
Enfin, l’étude documente une fracture entre profils techniques et le grand public. Les spécialistes du numérique mettent en avant les bénéfices potentiels d’une AGI bien encadrée, là où le grand public se concentre sur les risques d’accroissement des inégalités, de manipulations ou de dérives sécuritaires (cf. fracture numérique mondiale).
Ce mélange d’espoir et d’inquiétude façonne des attentes radicalement opposées selon les milieux, ce qui pose un défi inédit aux décideurs et chercheurs de l’intelligence artificielle générale.
Vers une confiance conditionnelle : leviers et défis pour solidifier l’adhésion mondiale
Le rapport Melbourne 2025 détaille plusieurs leviers identifiés pour stabiliser et renforcer la confiance autour des avancées en AGI et intelligence artificielle générale :
- Formation massive: 72 % des actifs utilisateurs de l’IA se déclarent demandeurs de formation pour mieux comprendre enjeux, limites, et potentiels de la intelligence artificielle [source].
- Transparence et clarté des usages: Les répondants expriment la volonté que les entreprises rendent lisibles les finalités et les fonctionnements des systèmes IA utilisés au quotidien.
La demande de transparence s’accompagne d’attentes fortes vis-à-vis des acteurs publics, perçus comme garants d’un encadrement éthique fort (voir notre dossier sur les défis éthiques et la régulation). - Impliquer davantage les citoyens dans la gouvernance de l’IA générale: 68 % souhaitent participer à des débats citoyens ou des consultations publiques sur le développement de l’IA.
- Renforcement de la régulation internationale: la moitié des interrogés demandent des normes mondiales pour éviter « l’anarchie technologique » ou la captation des bénéfices par quelques acteurs privés.
L’avenir de l’IA et la progression vers l’AGI semblent donc indissociables d’une confiance conditionnelle, ancrée sur l’accord collectif, la régulation et la pédagogie.
Conclusion: Diagnostiquer la confiance pour piloter la transition vers l’AGI
L’étude Melbourne 2025 apporte une photographie mondiale sans précédent de l’opinion face à l’intelligence artificielle, pilier essentiel pour orienter le développement futur de l’ia générale et de la superintelligence. Elle pose la question clé: comment accompagner, anticiper et contenir la fracture croissante entre confiance et défiance?
Le diagnostic chiffré, les disparités d’attentes et la montée des peurs rendent d’autant plus cruciale l’ouverture d’un grand chantier de dialogue participatif – entre experts, gouvernants, industriels et société civile – pour piloter la transition vers une AGI au service de l’humain. De l’éducation à la régulation, chaque acteur doit désormais contribuer à éviter que la crainte ne l’emporte sur l’espoir, et à soutenir un développement durable et inclusif des technologies avancées. La pluralité d’opinions mondiale, révélée par l’étude, impose un nouvel équilibre entre ouverture à la IAG et vigilance collective.
Pour approfondir les expériences pilotes et les missions concrètes des systèmes avancés dès 2025, retrouvez aussi nos analyses sur les premières missions d’AGI dans la recherche.