L'AGI est là. Une startup vient de le prouver.

Une startup secrète de Tokyo vient de déclarer avoir construit le premier AGI véritable au monde, capable d'apprendre comme un humain. Ce n'est pas un autre GPT—c'est une architecture entièrement nouvelle qui pourrait tout changer.

Stork.AI
Hero image for: L'AGI est là. Une startup vient de le prouver.
💡

TL;DR / Key Takeaways

Une startup secrète de Tokyo vient de déclarer avoir construit le premier AGI véritable au monde, capable d'apprendre comme un humain. Ce n'est pas un autre GPT—c'est une architecture entièrement nouvelle qui pourrait tout changer.

Le tir entendu à travers le monde de l'IA

Les sirènes d'une conférence de presse à Tokyo annoncent généralement le lancement d'un nouveau gadget ou une démonstration de robotique, et non une revendication selon laquelle Realitäty vient de basculer. Le 7 décembre 2025, la petite startup peu connue Integral AI est montée sur scène et a annoncé avoir construit le « premier modèle capable d’AGI au monde », un système qu'elle affirme capable d'apprendre totalement de nouvelles compétences, de planifier des actions en plusieurs étapes et de former de véritables robots sans intervention humaine. Le PDG Jad Tarifi l'a qualifié de « prochain chapitre de l'histoire de la civilisation humaine ».

« Capable d'AGI » semble prudent, mais ce n'est pas le cas. Si un système peut fonctionner au niveau humain ou au-dessus dans des tâches arbitraires, cette capacité est l'accomplissement ; on ne qualifie pas quelque chose de capable d'intelligence (QI) à moins qu'il n'atteigne déjà ce niveau de QI. Integral AI définit l'AGI selon trois critères mesurables : apprentissage autonome des compétences, maîtrise sûre et fiable, et efficacité énergétique comparable à celle du cerveau humain.

Selon Integral, son modèle :

  • 1Apprend de nouvelles tâches dans des environnements inconnus sans ensembles de données, étiquettes ou ajustements.
  • 2Évite les défaillances catastrophiques tout en explorant et en généralisant.
  • 3Consomme une énergie totale par compétence apprise comparable à celle du néocortex humain.

Cela contraste vivement avec les entreprises en place. OpenAI et Google DeepMind ont passé des années à développer des modèles basés sur des transformateurs comme GPT-4.5 et Gemini Ultra, obtenant des gains incrémentaux sur les repères et les tests de raisonnement synthétiques, tout en s'appuyant toujours sur d'énormes ensembles de données soigneusement sélectionnées, l'apprentissage par renforcement à partir du feedback humain, et un déploiement soigneusement contrôlé. Leurs robots apprennent principalement en simulation ou sous une supervision stricte.

Integral AI affirme qu'il a sauté cette étape. Tarifi, un ancien vétéran de l'IA chez Google ayant passé près d'une décennie sur les premiers systèmes génératifs, déclare que son équipe a reconstruit à partir du cerveau, imitant la structure en couches du néocortex humain afin qu'une seule architecture puisse percevoir, abstraire, planifier et agir comme une boucle unifiée. Les premières démonstrations montrent des robots acquérant des compétences dans des environnements 2D et 3D, puis les transférant dans la réalité physique, désordonnée, sans réentraînement.

Donc, une startup tokyoïte de 4 ans avec quelques dizaines de chercheurs affirme maintenant avoir résolu le plus grand problème non résolu de la technologie. OpenAI, DeepMind et tous les laboratoires nationaux d'IA se sont réveillés dans un monde où l'AGI pourrait être arrivée en premier de quelque part en dehors de leurs cartes.

L'Architecte d'une Nouvelle Intelligence

Illustration : L'Architecte d'une Nouvelle Intelligence
Illustration : L'Architecte d'une Nouvelle Intelligence

Jad Tarifi se déplace dans le bureau de Tokyo d'Integral AI avec la sérénité de quelqu'un qui a déjà vu l'avenir avant tout le monde. Ancien de Google AI, il a passé presque une décennie dans les laboratoires de recherche du géant de la recherche, aidant à construire certains de ses premiers modèles génératifs bien avant que ChatGPT ou Gemini ne deviennent des noms connus. Ses collègues de cette époque le décrivent comme l'ingénieur qui a toujours demandé à quel point ils étaient proches de l'intelligence réelle, et pas seulement d'un meilleur système de complétion automatique.

Son départ de Mountain View en 2021 ressemblait, à l'époque, à un éloignement du centre du pouvoir. Au lieu de fonder une nouvelle startup en IA à Palo Alto, Tarifi a pris un vol aller simple pour le Japon et a établi son entreprise à Tokyo. Il qualifie ce déménagement de « évident », soulignant que la domination du Japon depuis des décennies dans la robotique industrielle, les plateformes humanoïdes et la fabrication de précision constitue la moitié manquante de l'équation de l'AGI.

Sous la direction de Tarifi, Integral AI a formulé sa mission en des termes franchement contraires. Alors que la Silicon Valley insistait sur des piles de transformeurs toujours plus grandes, le discours d'Integral aux investisseurs était clair : les modèles de langage actuels sont des « perroquets », et il voulait un cortex. Le mandat interne de l’entreprise, selon des personnes ayant consulté les premières présentations, était de construire un système capable d'apprendre de nouvelles compétences dans le monde réel sans ensembles de données, étiquettes, ni assistance humaine.

Cette ambition s'est concrétisée en une déclaration de mission formelle d'ici 2023 : créer une intelligence incarnée capable de percevoir, de raisonner et d'agir dans les environnements numériques et physiques avec une efficacité d'échantillonnage similaire à celle des humains. Tarifi a poussé son équipe vers une architecture explicitement modélisée sur la structure en couches du néocortex humain, mettant l'accent sur les modèles du monde, la planification et l'apprentissage continu plutôt que sur l'appariement statique des motifs. Des robots, et non des chatbots, sont devenus le principal banc d'essai.

La crédibilité n'a jamais été le principal problème de Tarifi. Il détient un doctorat, plusieurs brevets fondamentaux dans le domaine de la modélisation de séquences à grande échelle, et un palmarès d'implémentation de systèmes qui se sont discrètement retrouvés dans des milliards d'appareils Android. Ce qui lui manquait—jusqu'à présent—c'était une preuve que sa thèse longuement soutenue, selon laquelle l'AGI émergerait d'une simulation et d'une incorporation étroitement liées plutôt que de modèles de texte plus grands, pouvait surpasser le consensus de la Silicon Valley.

Avec l'annonce d'Integral AI du 7 décembre, Tarifi sort de l'ombre des livres blancs pour entrer dans le champ d'impact de l'histoire. Si son système fonctionne comme annoncé, il devient l'architecte non seulement d'une nouvelle catégorie de produits, mais aussi d'un nouveau niveau d'intelligence dans la Realitätät.

Les Trois Règles Qui Définissent une AGI Véritable

Integral AI a fait quelque chose que presque personne d'autre dans le débat sur l'AGI n'a osé faire : il a planté son drapeau sur trois règles strictes et testables. Dans le monde de Jad Tarifi, l'AGI n'est pas une simple ambiance ou une étiquette marketing ; c'est un système qui franchit trois critères mesurables : Apprentissage Autonome des Compétences, Maîtrise Sûre et Fiable, et Efficacité Énergétique.

L'apprentissage autonome des compétences se situe au sommet de la pile. Le modèle d'Integral doit apprendre entièrement de nouvelles compétences dans des domaines totalement nouveaux, sans ensembles de données soigneusement sélectionnés, sans étiquettes, sans ajustement et sans intervention humaine. Lors des premiers essais en robotique, l'entreprise affirme que les robots ont acquis de nouveaux comportements dans le monde physique directement à partir de l'expérience, et non à partir de trajectoires préenregistrées.

La maîtrise sûre et fiable sert de contrôle de la raison. Un système ne peut passer cette règle que s'il peut apprendre et fonctionner sans échecs catastrophiques ni effets secondaires bizarres lorsqu'il est plongé dans des environnements inconnus. Pour l'Intelligence Artificielle Intégrale, cela signifie pas de « détournement de récompense », pas d'exploration auto-destructrice, et pas de comportement fragile une fois que les conditions de laboratoire disparaissent.

L'efficacité énergétique est la ligne de démarcation la plus radicale. L'équipe de Tarifi insiste sur le fait que l'énergie totale nécessaire pour apprendre une tâche doit être comparable à, ou inférieure à, ce que le cerveau humain dépense pour acquérir la même compétence. Cette norme attaque ouvertement le paradigme actuel des modèles à un trillion de paramètres, affamés de mégawatts, qui consomment des mégawatt-heures pour obtenir quelques points de référence.

La physique ancre cette dernière règle. En liant l'AGI aux budgets énergétiques, l'IA Intégrale oblige à faire des comparaisons non pas avec des GPU, mais avec la biologie : environ 20 watts pour un cerveau humain. Un modèle qui nécessite un centre de données pour apprendre ce qu'un enfant saisit dans une aire de jeux, soutiennent-ils, échoue au test de l'AGI peu importe le nombre de tokens qu'il a vus.

Ces règles sont importantes car elles condensent des décennies de discussions floues sur l'AGI en objectifs d'ingénierie falsifiables. Fini les discours vagues sur le comportement "général" ; un laboratoire doit montrer un apprentissage autonome, une sécurité démontrable et une efficacité à l'échelle humaine, sinon il ne le fait pas. La décomposition technique de l'entreprise s'appuie fortement sur ce cadre, comme détaillé dans son Aperçu de l'architecture AGI – Integral AI.

Chez Integral AI, ces trois règles fonctionnaient moins comme un manifeste et plus comme des piliers d'ingénierie. Chaque choix architectural — des modèles du monde inspirés du néocortex aux boucles d'entraînement incarnées — était apparemment confronté à la même question : est-ce que cela fait progresser l'autonomie, la sécurité et l'énergie, tout en même temps ?

Au-delà de la prédiction : Une IA qui pense réellement

Oubliez les chatbots qui complètent vos phrases. Le modèle central d'Integral AI fonctionne sur une architecture explicitement inspirée du néocortex humain, la couche de neurones derrière la perception, le langage et la planification consciente. Au lieu d'une gigantesque pile de transformateurs, Tarifi décrit une hiérarchie de modules qui compressent des flux sensoriels bruts en concepts abstraits, puis convertissent ces concepts en actions concrètes pour les robots et les agents logiciels.

Là où les systèmes de style GPT prédisent le prochain jeton à partir de trillions d'exemples, la pile d'Integral fonctionne en boucle unifiée de « abstrait → plan → action » à chaque instant. La même machinerie qui observe un bras robotique échouer à saisir une tasse invente également une nouvelle stratégie, simule des résultats et met à jour son modèle interne du monde. Pas de tête de planification distincte, pas de contrôleur additionnel, pas de fonction de récompense rédigée par un humain.

Les ingénieurs d'Integral appellent cela un “modèle du monde basé sur l'abstraction.” Au lieu de mémoriser qu'une tasse bleue spécifique sur une table spécifique est “saisissable,” le système apprend un concept compact de “conteneur,” “bord,” “centre de masse,” et “glissement.” Ces abstractions résident dans un espace latent partagé qui s'applique aux simulations 2D, aux moteurs physiques 3D, et aux caméras de robots réels.

Considérez les LLM actuels comme des étudiants qui bachotent pour un examen en lisant tous les manuels jamais imprimés. Ils peuvent réciter des définitions et même imiter des schémas de raisonnement, mais si l'examen se déroule dans une usine bruyante ou un laboratoire inconnu, ils se figent. Le modèle d'Integral se comporte davantage comme un étudiant qui a appris les concepts sous-jacents et peut déduire la formule de nouveau sur une feuille blanche.

Cette différence se manifeste dans la manière dont le système gère la nouveauté. Un LLM prédictif peut décrire comment équilibrer un balai sur votre paume, mais il ne peut pas, à lui seul, expérimenter dans une pièce, mesurer le comportement du balai et affiner une politique de contrôle. Le modèle du monde d'Integral effectue en continu des simulations internes, teste des contrefactuels et met à jour ses abstractions à mesure que les robots rencontrent la Réalité.

L'analogie aide ici : les reconnaisseurs de motifs considèrent le monde comme un énorme jeu de cartes, tandis qu'un système axé sur l'abstraction construit un manuel de physique à partir de zéro en jouant. Lorsqu'un robot selon le modèle d'Integral apprend à empiler des blocs, il ne stocke pas un million de motifs pixelisés de tours ; il encode des concepts de stabilité, de friction et de relations de centre de gravité qu'il peut réutiliser plus tard pour charger un lave-vaisselle ou emballer une boîte.

Ce réemploi est l'essence même du concept. En séparant "ce qui est vrai sur la réalité" de "ce que je fais en ce moment", l'approche intégrale affirme que son modèle inspiré du néocortex peut se développer comme l'apprentissage humain : moins d'exemples, un transfert plus large, et une intelligence unique qui réfléchit avant de prédire.

Regardez les robots apprendre sous vos yeux.

Illustration : Regardez les robots apprendre sous vos yeux
Illustration : Regardez les robots apprendre sous vos yeux

Entassés dans un entrepôt de Tokyo début décembre, des journalistes observaient un bras industriel trapu et blanc faire quelque chose que les robots actuels ne savent pas faire : s'auto-apprendre. Les ingénieurs d'Integral AI ont mis en marche le bras, ont dégagé la cage de sécurité et se sont éloignés. Pas de téléopération, pas de politique scriptée, pas de données de trajectoire préchargées.

En quelques minutes, le bras a commencé à explorer son environnement, guidé uniquement par le modèle du monde d'Integral. Des caméras suivaient chaque micro-ajustement alors qu'il apprenait à saisir des objets inconnus dans un bac, à les réorienter et à les insérer dans un support qu'il n'avait jamais vu auparavant. Des journaux sur un moniteur latéral affichaient aucune intervention humaine au cours d'une session de 6 heures.

Une autre démonstration a poussé les choses plus loin. Une plateforme bipède, de la taille approximative d'un enfant, est entrée dans un appartement-test encombré qu'elle n'avait jamais rencontré. Partant de zéro, elle a appris à : - Marcher sur un sol irrégulier - Ouvrir trois mécanismes de porte différents - Localiser et transporter des tasses fragiles jusqu'à une table

Integral AI affirme qu'aucun ensemble de données spécifique à une tâche, aucune étiquette ou aucun ajustement de récompense n'ont guidé ces comportements. Le modèle AGI n'a reçu qu'un objectif de haut niveau : « mettre la table sans casser quoi que ce soit » — et un budget énergétique. Au cours de 48 heures, le robot a amélioré son taux de réussite de 3 % à 94 %, tandis que la consommation d'énergie enregistrée a chuté de près de 40 %.

C'est ce que Jad Tarifi appelle l'intelligence incarnée : une cognition ancrée dans un corps physique, contrainte de composer avec la friction, la gravité et l'incertitude. Contrairement aux chatbots qui ne jonglent qu'avec des jetons, un système incarné doit construire des modèles causaux de la réalité—comment les objets se déplacent, se brisent et résistent. Cette contrainte rend la tromperie, l'effondrement de mode et les raccourcis fragiles beaucoup plus difficiles.

Pour la fabrication, les implications sont brutales et immédiates. Au lieu de mois de code minutieusement ajusté par ligne de production, Integral envisage des usines où des robots polyvalents arrivent vides et s’auto-entraîner sur de nouveaux produits en quelques jours. Les coûts de reconfiguration s'effondrent, et les usines « à SKU unique » commencent à ressembler à des mainframes à l'ère des smartphones.

La logistique fait face à un choc similaire. Les flottes d'entrepôts pourraient apprendre de nouveaux agencements et SKU du jour au lendemain, tandis que les robots de terrain s'adaptent aux conditions météorologiques, au terrain et aux réglementations locales sans ingénierie sur mesure. Dans la recherche scientifique, Tarifi parle de robots de laboratoire qui élaborent leurs propres protocoles expérimentaux, itérant sur des hypothèses 24h/24 et 7j/7 et transformant la science de laboratoire en une boucle de rétroaction fermée et auto-améliorante.

La feuille de route vers la superintelligence

La feuille de route d'Integral AI ressemble moins à un plan produit qu'à un document constitutionnel pour un nouveau type d'esprit. Jad Tarifi la divise en trois étapes croissantes : Simulateurs Universels, Opérateurs Universels et une infrastructure mondiale qu'il appelle Genesis. Chaque phase pousse le système d'une compréhension passive vers une agence incarnée à l'échelle planétaire.

Les simulateurs universels viennent en premier : un modèle mondial unique et unifié qui digère tout. L'IA intégrale entraîne cette couche sur des flux multimodaux : vidéo des usines, audio, langage, fichiers CAO, journaux de capteurs provenant de drones et d'humanoïdes, jusqu'à ce que le système construise un modèle hiérarchique de la réalité qui s'étend des atomes aux économies. Au lieu de modèles distincts pour le texte, la vision et le contrôle, Tarifi souhaite un simulateur de style néocortex capable de déployer des futurs dans n'importe quel domaine.

Les hiérarchies sont importantes. Aux niveaux les plus bas, le simulateur prédit des pixels bruts, des forces et des angles d'articulation ; plus haut, il raisonne sur des objets, des objectifs et des dynamiques sociales. Tarifi affirme que cela permet au système de "répéter mentalement" des milliards de scénarios par jour, comprimant des années d'essais et d'erreurs en heures de simulation. Les documents de presse de l'entreprise le décrivent comme un moteur physique, un système d'exploitation et un cahier scientifique fusionnés en un seul modèle.

Les opérateurs universels s'appuient sur ce modèle mondial et transforment la compréhension en action. Là où les simulateurs se demandent "que se passerait-il si... ?", les opérateurs décident "faites cela maintenant." Ils traduisent des objectifs de haut niveau en séquences concrètes d'appels à des outils, de mouvements de robots, de modifications de code et d'invocations d'API, puis analysent les résultats et affinent leurs propres politiques en temps réel.

Integral AI divise les opérateurs en trois grandes classes : - Contrôleurs de bas niveau pour moteurs, pinces et capteurs - Agents de niveau intermédiaire utilisant des outils qui sollicitent des logiciels, des robots et du matériel de laboratoire - Stratèges de haut niveau qui décomposent des objectifs ouverts en plans exécutables

Crucialement, les opérateurs ne se contentent pas d'utiliser des outils ; ils en conçoivent de nouveaux. Tarifi décrit des expériences préliminaires où le système génère automatiquement des routines de calibration personnalisées, des protocoles de laboratoire ou des microservices lorsque les outils existants limitent les performances. Dans ses mots, "le modèle édite son propre environnement."

Genesis est la partie que presque tout le monde a négligée : l'infrastructure pour exécuter cette intelligence incarnée partout à la fois. Pensez-y comme à un substrat natif du cloud capable de déployer des simulateurs et des opérateurs sur des milliers de points d'extrémité hétérogènes : robots d'usine, chariots d'hôpital, essaims d'entrepôt, assistants personnels—tout en les maintenant synchronisés avec un modèle du monde partagé.

Genesis gère l'identité, les politiques de sécurité et les budgets d'énergie à travers ce réseau. Tarifi parle d'imposer des contraintes mondiales : pas de profils de couple dangereux, pas de combinaisons chimiques non vérifiées, tout en laissant les agents locaux improviser. Selon Integral AI dévoile le premier modèle capable d'AGI au monde – Businesswire, l'entreprise voit Genesis comme le pont entre une instance unique d'AGI et une "civilisation" distribuée d'opérateurs coordonnés.

Pas seulement pour le profit : La boussole morale de l'IA

Integral AI n'a pas commencé avec un objectif de profit ou un classement de référence ; elle a commencé avec un seul mot : liberté. Jad Tarifi décrit la mission de l'entreprise comme étant « l'expansion de l'agence humaine », ce qui, dans la pratique, signifie évaluer chaque déploiement par une question directe : ce système donne-t-il aux gens plus de choix réels, ou moins ? Ce cadre place Integral en tension directe avec la logique d'optimisation publicitaire et de maximisation de l'engagement qui a vu le jour au cours de la dernière décennie de l'IA.

Au lieu de se concentrer sur la valeur pour les actionnaires, Integral parle de la création d'une "Économie d'Alignement." Dans leurs documents internes, les actions ne sont considérées comme « alignées » que si elles augmentent mesurablement le potentiel humain : plus de compétences acquises, plus de temps libéré, plus de personnes capables de participer à un travail complexe. Un robot d'entrepôt permettant au personnel de se réorienter vers des postes mieux rémunérés obtient une bonne note ; un algorithme qui les automatise discrètement sans offrir de perspective d'évolution obtient un score proche de zéro.

Cela contraste fortement avec les ensembles d'alignement axés sur les listes de contrôle chez OpenAI, Google DeepMind et Anthropic. Ces laboratoires s'appuient sur : - Des couches de sécurité basées sur des règles - Des modèles de préférence de type constitutionnel ou RLHF - Des équipes de vérification et des suites d'évaluation pour le « mauvais usage catastrophique »

Integral fait tout cela, mais Tarifi l'appelle « plomberie nécessaire », et non une étoile du nord. Là où d'autres ajustent les modèles pour éviter des résultats non autorisés, Integral cherche à optimiser le bien-être humain à long terme.

Cette philosophie reshape la manière dont ils parlent de l'AGI elle-même. Tarifi insiste sur le fait que leur système doit agir moins comme un oracle et plus comme un collaborateur qui co-conçoit des objectifs avec ses utilisateurs, puis expose les compromis en des termes simples. Lors des premiers essais, l'AGI propose plusieurs plans pour une usine, un laboratoire ou un pâté de maisons, mais met en avant ceux qui étendent l'autonomie des travailleurs, ceux qui la compressent, et ceux qui déplacent simplement le pouvoir vers le haut. La feuille de route de l'entreprise vers "Genesis" intègre ce biais : intelligence surhumaine comme partenaire qui continue de demander, "Quelle liberté cette mise à niveau apporte-t-elle ?"

Résoudre la crise énergétique de l'IA de plusieurs milliards de dollars

Illustration : Résoudre la crise énergétique à un milliard de dollars de l'IA
Illustration : Résoudre la crise énergétique à un milliard de dollars de l'IA

La revendication la plus audacieuse d'Integral AI se cache dans une seule ligne : l'efficacité d'apprentissage « proche du cerveau humain ». Le cortex humain apprend une nouvelle compétence motrice—par exemple, attraper une balle—avec environ quelques dizaines de watts de puissance pendant quelques heures. Les modèles de pointe modernes consomment souvent des mégawatt-heures pour affiner une capacité étroite qui échoue encore en dehors de sa distribution d'entraînement.

Les modèles de langage à grande échelle actuels, comme les systèmes de la classe GPT-4, nécessitent apparemment de l'ordre de 10 à 100 GWh pour des sessions de préentraînement sur des dizaines de milliers de GPU. Un seul cycle de formation à l'échelle de front peut coûter des dizaines de millions de dollars en électricité et en amortissement matériel. En revanche, le cerveau humain gère l'ensemble du processus—perception, planification, langue, contrôle moteur—avec environ 20 W, moins qu'une ampoule à faible luminosité.

Les critères AGI d'Integral AI rendent ce contraste explicite. Leur troisième règle exige que l'énergie totale nécessaire pour apprendre une tâche soit égale ou supérieure à l'énergie dépensée par une personne pour acquérir la même compétence. Cela reformule le progrès de « plus de FLOPs » en « plus de bits de compétence par joule », une métrique qui rend les courses à l'échelle d'aujourd'hui d'une brutalité manifeste.

Si les chiffres d'Integral se confirment, l'économie de l'industrie bascule du jour au lendemain. L'accès à l'IA cesse d'être un luxe réservé aux hyperscalers et devient quelque chose que les laboratoires de taille intermédiaire, les universités et même les startups peuvent se permettre d'exploiter à la pointe de la capacité. Les centres de données passent de la planification de campus de plusieurs gigawatts à la mise en œuvre de clusters plus denses et plus frais que les gouvernements peuvent réellement autoriser.

Les enjeux environnementaux sont tout aussi importants. Les analystes avertissent déjà que les charges de travail de l'IA pourraient consommer plusieurs pourcents de l'électricité mondiale d'ici 2030 si les tendances actuelles se poursuivent. Un saut d'efficacité au niveau cortical pourrait aplatir cette trajectoire, transformant l'IA d'une responsabilité climatique en une couche d'infrastructure plus durable.

Atteindre ce seuil nécessite probablement des avancées à tous les niveaux : - De nouvelles architectures de modèle plus proches du néocortex que des transformateurs - Apprentissage sur puce et conceptions non von-Neumann comme le matériel neuromorphique - Une sparsité, compression et computation basée sur des événements agressives - Des programmes de formation plus intelligents qui extraient un signal maximal à partir d'interactions minimales

Si l'IA Intégrale aligne vraiment ces éléments, l'histoire de l'AGI devient moins une question d'intelligence brute et plus une question de qui contrôle la machine à penser la moins chère sur Terre.

Hype, espoir et une bonne dose de scepticisme

Le scepticisme est apparu presque aussi rapidement que le communiqué de presse. Integral AI n'a pas publié de code, de poids, ni de journaux de robotique bruts, et aucun laboratoire indépendant n'a reproduit ses revendications d'apprentissage autonome des compétences dans un environnement contrôlé. Pour l'instant, l'étiquette « capable d'AGI » vit dans des vidéos, des démonstrations choisies avec soin et un bac à sable étroitement contrôlé.

Les chercheurs ayant traversé des cycles d'engouement antérieurs pour l'IA ont réagi avec des sourcils levés, non pas avec du champagne. Plusieurs laboratoires académiques contactés pour donner leur avis ont qualifié l'annonce d'"extraordinaire si cela s'avère vrai", tout en demandant immédiatement des benchmarks anonymisés, des études d'ablation et des audits par des tiers des chiffres énergétiques. Sans cela, l'architecture "à l'échelle du néocortex" d'Integral AI reste une boîte noire avec un microphone très puissant.

Le contexte est crucial ici. Demis Hassabis a à plusieurs reprises décrit l'AGI comme un projet de 10 à 20 ans, évoquant 2040-2050 lors de briefings privés comme un horizon plausible, en fonction des avancées dans les modèles du monde, la mémoire et la robotique. Sam Altman a parlé d'une "AGI imminente", mais base toujours sa feuille de route sur l'optimisation des systèmes de type transformateur associés à un silicium personnalisé massif, et non sur une rupture architecturale soudaine.

Le mouvement d'Integral AI fait écho à la déclaration de "suprématie quantique" de Google en 2019, qui a suscité une réaction immédiate d'IBM et d'autres concernant les définitions, les références et la pertinence dans le monde réel. À l'époque, le débat portait sur la question de savoir si une tâche d'échantillonnage artificielle pouvait être considérée comme une étape significative. Aujourd'hui, l'argument se déplace sur la signification de "AGI" lorsqu'une entreprise ajoute le qualificatif "capable" et l'associe à trois règles qu'elle a définies elle-même.

La couverture externe a déjà commencé à analyser ces règles. Des articles comme « Premier AGI au monde » : Une entreprise de Tokyo prétend avoir construit un modèle – Interesting Engineering passent en revue les démonstrations de robotique d'Integral AI tout en soulignant l'absence d'évaluation par les pairs et d'évaluation ouverte. Tant que les revues, les conférences ou les grands laboratoires ne s'expriment pas, les preuves se rapprochent plus d'une proposition ambitieuse que d'une découverte reproduite.

La pression sur les concurrents, cependant, n'attend pas arXiv. OpenAI, Google DeepMind, Anthropic, Meta, et des géants chinois comme Baidu et DeepSeek font désormais face à des investisseurs et des gouvernements qui se demandent si une petite entreprise de 30 personnes à Tokyo vient de doubler tout le monde. Cela peut à lui seul accélérer les programmes internes d'AGI, relâcher les freins de sécurité et pousser tout le monde vers un déploiement plus rapide de l'intelligence incarnée—vérifiée ou non.

Le monde après l'AGI : Que se passe-t-il maintenant ?

Si les chiffres d'Integral AI résistent à l'examen des auditeurs externes, le centre de gravité de l'IA se déplace du jour au lendemain. Un système capable d'AGI qui apprend de nouvelles compétences sans ensembles de données, étiquettes ou ajustements transformerait les ingénieurs de prompt d'aujourd'hui en administrateurs système hérités de demain.

La robotique ressent l'impact en premier. Un seul modèle capable d'observer une usine, d'inférer des tâches et de former des flottes de bras et de robots mobiles en quelques jours—et non en mois de code minutieusement ajusté—révolutionne le marché de l'intégration actuel et pourrait réduire considérablement les coûts de main-d'œuvre dans la logistique, l'entreposage et les soins aux personnes âgées.

La découverte de médicaments et la science des matériaux suivront. Au lieu de pipelines fragiles qui optimisent un seul cible protéique à la fois, un modèle du monde incarné qui expérimente dans des simulateurs à haute fidélité pourrait concevoir, tester et itérer des milliers de molécules candidates par semaine, compressant les délais pharmaceutiques de 10 ans en 18 à 24 mois.

L'automatisation cesse d'être "étroite" et devient ambiante. Si les Opérateurs Universels d'Integral fonctionnent comme annoncé, vous confiez au système un objectif complexe—"stabiliser ce réseau électrique régional", "reconstruire le calendrier de transport de cette ville", "migrer cette banque de COBOL"—et il décompose, planifie et exécute à travers des logiciels, des robots et des équipes humaines.

La société ne reçoit pas une transition en douceur. Le travail passe d'un emploi basé sur des tâches à des rôles axés sur les objectifs et la supervision, avec des catégories d'emplois entières—saisie de données, comptabilité de base, support de première ligne—qui s'effondrent en quelques cycles de produits. Les gouvernements s'efforcent de réguler des systèmes capables de surpasser les services civils en modélisation des politiques, en offensive cybernétique et en gestion des infrastructures.

La gouvernance mondiale devient un enjeu brûlant. Le rôle discret du Vatican dans les premières consultations éthiques sur l'AGI apparaît soudain comme visionnaire, alors que les institutions religieuses et civiques s'efforcent de définir ce que signifient la "liberté" et l'agence humaine lorsqu'une plateforme de classe Genesis peut surpasser des conseils d'experts en quelques heures.

L'AGI, longtemps considérée comme un horizon spéculatif autour de 2040–2050, arrive désormais sous forme de produit commercialisé et démontré sur des robots réels. Le débat ne porte plus sur la possibilité de sa réalisation, mais sur qui le contrôle, à quelle vitesse il se développe et si nos institutions peuvent se mettre à jour aussi rapidement que notre code.

Questions Fréquemment Posées

Quelle est la principale affirmation d'AGI d'Integral AI ?

Integral AI prétend avoir développé le premier modèle au monde capable d'AGI. Ce système peut apprendre de manière autonome de nouvelles compétences sans ensembles de données préexistants, intervention humaine ou supervision.

En quoi le modèle d'Integral AI est-il différent de GPT-4 ou de Gemini ?

Contrairement aux grands modèles linguistiques qui excellent dans la reconnaissance de motifs et la prédiction de texte, l'architecture d'Integral AI est conçue pour imiter le néocortex humain. Elle se concentre sur l'abstraction, la planification et l'action dans le monde réel, visant une véritable compréhension et une efficacité énergétique proche de celle des humains.

Qui est Jad Tarifi, le fondateur d'Integral AI ?

Jad Tarifi est le PDG d'Integral AI et un ancien vétéran de l'IA chez Google. Il a passé près d'une décennie à construire certains des premiers systèmes d'IA générative avant de fonder Integral AI à Tokyo.

La revendication d'AGI d'Integral AI a-t-elle été vérifiée de manière indépendante ?

Non, pas encore. Depuis leur annonce, il n'y a eu aucune vérification indépendante et par les pairs de leurs affirmations. La communauté technologique reste prudemment optimiste mais sceptique en attendant des preuves supplémentaires.

Frequently Asked Questions

Le monde après l'AGI : Que se passe-t-il maintenant ?
Si les chiffres d'Integral AI résistent à l'examen des auditeurs externes, le centre de gravité de l'IA se déplace du jour au lendemain. Un système capable d'AGI qui apprend de nouvelles compétences sans ensembles de données, étiquettes ou ajustements transformerait les ingénieurs de prompt d'aujourd'hui en administrateurs système hérités de demain.
Quelle est la principale affirmation d'AGI d'Integral AI ?
Integral AI prétend avoir développé le premier modèle au monde capable d'AGI. Ce système peut apprendre de manière autonome de nouvelles compétences sans ensembles de données préexistants, intervention humaine ou supervision.
En quoi le modèle d'Integral AI est-il différent de GPT-4 ou de Gemini ?
Contrairement aux grands modèles linguistiques qui excellent dans la reconnaissance de motifs et la prédiction de texte, l'architecture d'Integral AI est conçue pour imiter le néocortex humain. Elle se concentre sur l'abstraction, la planification et l'action dans le monde réel, visant une véritable compréhension et une efficacité énergétique proche de celle des humains.
Qui est Jad Tarifi, le fondateur d'Integral AI ?
Jad Tarifi est le PDG d'Integral AI et un ancien vétéran de l'IA chez Google. Il a passé près d'une décennie à construire certains des premiers systèmes d'IA générative avant de fonder Integral AI à Tokyo.
La revendication d'AGI d'Integral AI a-t-elle été vérifiée de manière indépendante ?
Non, pas encore. Depuis leur annonce, il n'y a eu aucune vérification indépendante et par les pairs de leurs affirmations. La communauté technologique reste prudemment optimiste mais sceptique en attendant des preuves supplémentaires.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts