L’actualité du jour : le Guardian met l’AGI face au miroir (9 août 2025)
Le Guardian consacre aujourd’hui une enquête fouillée au » grand récit » de l’AGI et de la superintelligence, en soulignant un paradoxe: la course des géants américains et chinois s’intensifie, mais » il manque quelque chose » sur le plan technique. L’article ( » It’s missing something « , 9 août 2025) rappelle que les promesses de systèmes au niveau humain se heurtent à des limites persistantes: compréhension causale du monde, robustesse hors distribution, planification fiable et sécurité. Dans la même édition, le quotidien note qu’OpenAI refuse de publier la consommation énergétique de GPT‑5 ( » OpenAI will not disclose GPT‑5’s energy use « ), alimentant le débat sur les coûts matériels et environnementaux des modèles de pointe.
Pourquoi cela compte: une publication grand public crédible déplace le centre de gravité du débat – des promesses marketing vers les critères qui feront (ou non) émerger une véritable intelligence artificielle au niveau humain. Pour les décideurs et investisseurs, c’est un signal de cadrage: transparence des ressources, évaluation de l’agentivité et sécurité deviennent des prérequis stratégiques, pas des » nice to have « .
Dans les 24–48 heures, d’autres signaux médiatiques ont nourri la conversation: Business Insider relaie la position de David Sacks selon laquelle la peur d’une destruction massive d’emplois par l’AGI est » exagérée » à court terme (source), tandis que Yahoo/BI rappelle qu’Altman lui‑même juge GPT‑5 en deçà d’une intelligence artificielle au niveau humain (source). Ensemble, ces éléments situent l’état réel de la course: progrès visibles, mais briques manquantes mesurables.
Enjeux de cadrage: distinguer le » manque perçu » (un vernis d' » esprit » ou de » compréhension « ) des lacunes techniques objectivables: modèles du monde, mémoire durable, métacognition, ancrage dans l’action, vérité/robustesse et contrôle d’agent. C’est précisément ce que nous détaillons ci‑dessous, en cohérence avec les critiques techniques mises en avant par LeCun en 2025 et par les nouvelles batteries d’évaluations d’agentivité.
Ce qui manque vraiment : 6 briques techniques vers l’intelligence artificielle complète
Au‑delà des slogans, six briques techniques conditionnent l’émergence d’une intelligence artificielle générale robuste – et donc d’une véritable IAG :
- World models et bon sens incarné – Représenter un monde stable (objets, physiques implicites), raisonner causalement et planifier à longue portée. Les récents travaux de Meta sur V‑JEPA2 montrent le virage vidéo → » modèles du monde » avec planification zéro‑shot (Meta).
- Mémoire à long terme et identité d’agent – Rétention/récupération, consolidation, apprentissage continu sans oubli catastrophique, et une » identité » stable dans le temps. Sans mémoire durable, pas d’intelligence artificielle fiable.
- Métacognition et auto‑correction – Réflexion explicite, chaînage de vérifications, délibération multi‑étapes, et outillage programmatique. Le débat 2025 autour des modèles de raisonnement (p.ex. DeepSeek‑R1) illustre cette tendance (papier).
- Action et ancrage (embodiment/simulation) – Apprendre par perception‑action dans des environnements riches, puis transférer sim→réel. C’est une voie pour combler le » sens commun » (voir notre analyse sur l’IA incarnée).
- Robustesse, vérité et généralisation OOD – Résister aux hallucinations, calibrer l’incertitude, produire des chaînes de preuves vérifiables. Les échecs récents sur des tâches complexes rappellent l’ampleur du chantier (The Guardian).
- Agency alignée – Objectifs explicites, contrôle humain, garde‑fous de sécurité. Les évaluations d’agentivité type ARC‑AGI‑2 mettent la barre haut (seuils d’efficience, réussite attendue) et montrent que les systèmes actuels restent loin d’une AGI sûre.
Sur le plan conceptuel, ce diagnostic rejoint les critiques de Yann LeCun sur » ce qu’il manque vraiment » pour atteindre une intelligence artificielle au niveau humain – à lire dans notre décryptage orienté R&D (analyse de LeCun).
Trois voies R&D qui s’accélèrent (2025–2026)
1) Physical/Embodied AI – La manipulation fine, le RL + imitation à grande échelle et l’industrialisation des humanoïdes avancent. Agility Robotics vise un tour de $400M (valorisation ~1,75Md$) pour accélérer Digit (GeekWire; Yahoo Finance). Figure AI a levé 675M$ en 2024 auprès de Microsoft, Nvidia et autres (Reuters). Pourquoi c’est clé pour l’AGI? L’ancrage sensorimoteur fait émerger du » bon sens » via l’expérience. Approfondir dans notre dossier sur l’IA incarnée.
2) World‑model pretraining multimodal – Pré‑entraîner sur vidéo/3D/physique implicite pour apprendre des dynamiques, puis utiliser ces modèles comme simulateurs ou planificateurs. Exemple récent: V‑JEPA2 de Meta, qui rapproche représentation, prédiction et contrôle robotique. Cette voie converge avec le » cognitive computing « : mémoire, perception et raisonnement s’architecturent autour d’un » modèle du monde » commun – un passage obligé vers une intelligence artificielle plus générale.
3) Architectures hybrides et agents outillés – Neuro‑symbolique, graphes de connaissances, retrieval + reasoning et réflexion itérative attaquent les angles morts des LLM. Les modèles de raisonnement ouverts comme DeepSeek‑R1 (papier; modèles) montrent que l’ingénierie de la délibération et de l’efficience peut combler une partie de l’écart. Côté évaluation/sécurité, le nouveau test ARC‑AGI‑2 resserre les contraintes: d’après l’équipe, les précisions restaient très basses (< 5% sur l'ensemble d'éval au 14mai2025) et un prix de 700k$ est promis à 85% de réussite sous contraintes d'efficience (annonce; couverture). Pour un panorama grand public, voir aussi notre focus » test d’agentivité « .
Impacts immédiats pour la stratégie : compute, énergie, gouvernance et emploi
Compute et énergie. Les trajectoires 2025 montrent un mur de ressources. Nvidia Blackwell B200 frôle ~1 200W par GPU selon Forbes (source), et le GB200 double la mise (Nvidia). L’IEA documente l’ascension de la demande électrique de l’intelligence artificielle (IEA). Le Guardian note l’opacité autour de GPT‑5 côté consommation (source). Microsoft prévoit jusqu’à 80Md$ d’investissement data centers en FY2025 (Reuters).
Sujet | Données 2024–2025 | Sources |
---|---|---|
GPU Blackwell B200 | Jusqu’à ~1 200W | Forbes |
Plateforme GB200 | Deux puces Blackwell reliées | Nvidia |
Demande d’énergie IA | Hausse marquée attendue | IEA |
Transparence GPT‑5 | Consommation non divulguée | The Guardian |
Gouvernance et conformité. Les » manques » techniques impliquent des politiques d’intelligence artificielle générale readiness: audits de sécurité/agentivité (p.ex. ARC‑AGI‑2), divulgations de capacités, et suivi énergétique.
Open source vs fermé. Des modèles de raisonnement ouverts (DeepSeek‑R1) dynamisent la reproductibilité et l’attraction de talents, tout en posant des défis de sécurité. Les organisations devront arbitrer entre vitesse d’innovation et contrôle.
Emploi et métiers cognitifs. Au‑delà du buzz, certains postes (analystes juniors, support, paralegals, data ops) seront augmentés avant d’être remplacés. La ligne officielle diverge: DavidSacks juge l’onde de choc d’AGI sur l’emploi » pas imminente » (BI), tandis qu’un ex‑cadre Google anticipe une pression accrue sur les cols blancs (BI).
À surveiller (4–6semaines). La conférence AGI‑25 (10–13août, Reykjavik), de nouvelles batteries d’évals d’agentivité et d’éventuelles annonces d’agents autonomes grand public (cf. » deep research » d’OpenAI).
Conclusion – Du récit au plan d’action
Synthèse. L’enquête du Guardian confirme un » manque » structurant: la route vers l’AGI passe par des capacités d’agent vraiment ancrées dans le monde, une mémoire durable, une métacognition fiable, et des garanties de vérité/robustesse – le tout sous contrôle humain. Les derniers tests d’agentivité (p.ex. ARC‑AGI‑2) objectivent l’écart.
Feuille de route (lectorat pro). 1) Prototyper des boucles perception‑action: robots/humanoïdes en environnement semi‑réel, avec transfert sim→réel; approfondir via notre dossier » IA incarnée « . 2) Investir dans le world‑model pretraining multimodal (cf. V‑JEPA2) et une mémoire à long terme exploitable en ligne. 3) Outiller la métacognition: agents de recherche, vérification programmatique, neuro‑symbolique. 4) Standardiser les evals d’agentivité (y compris contraintes d’efficience) et publier les métriques d’énergie. 5) Explorer l’axe matériel » cerveau‑inspiré » pour la sobriété: voir notre analyse » supercalculateurs neuromorphiques « .
Ouverture. La voie vers une superintelligence sûre n’est pas un slogan, c’est un protocole de mesure. En rendant les » briques manquantes » mesurables (monde, mémoire, métacognition, ancrage, robustesse, alignement) et testables à coût/énergie contraints, la communauté rapprochera enfin récit et réalité – jusqu’à une intelligence artificielle générale de confiance.