TL;DR / Key Takeaways
La revendication d'AGI que personne n'a entendue
Un ancien chercheur de Google a discrètement affirmé avoir créé une AGI le mois dernier, et presque personne ne semble l'avoir remarqué. Jad Tarifi, PDG et co-fondateur de Integral AI, affirme que sa startup basée à Tokyo a construit le premier « modèle capable d'AGI » au monde, un système qu'il soutient pouvoir être étendu en une intelligence générale artificielle complète, et finalement en une superintelligence. Pas de grande présentation, pas de démonstration en direct lors d'une grande conférence—juste un communiqué de presse, une page web et un tweet.
Sur X, l'annonce de Tarifi a à peine fait sensation. Le post déclarant "le premier modèle AGI capable au monde" atteignait environ 565 vues, 5 retweets et 6 likes lorsque le YouTuber AI TheAIGRID a enregistré une analyse, des chiffres plus typiques d'un journal de développeur aléatoire que d'une avancée significative en IA. Dans un domaine qui s'emballe pour chaque mise à jour incrémentielle de GPT, ce genre de silence semble presque surréaliste.
Integral ne propose pas un chatbot gadget ou un autre modèle de langage finement réglé. Tarifi affirme que son système répond à une définition plus stricte et en trois parties de l'AGI : apprentissage autonome de compétences sans ensembles de données sélectionnés, maîtrise sûre et fiable sans échecs catastrophiques, et efficacité énergétique comparable ou meilleure que celle d'un humain apprenant la même compétence. Il positionne cela comme une réponse directe aux modèles de langage volumineux d'aujourd'hui, gourmands en données et basés sur la force brute.
L'entreprise décrit son approche comme la construction de « simulateurs universels » qui élaborent des modèles du monde hiérarchiques à partir d'entrées multimodales : vision, langage, audio et capteurs physiques. Ces simulateurs compresseraient apparemment l'expérience en abstractions stratifiées qui ressemblent au néocortex humain, puis utiliseraient la prédiction future pour planifier des actions. Dans une démonstration, un agent incarné navigue dans une maison en 3D, répond à des questions telles que « Ai-je laissé mon ordinateur portable quelque part dans la maison ? » et raisonne sur des meubles, des murs et des objets qu'il n'a jamais vus auparavant.
Alors pourquoi une affirmation aussi audacieuse a-t-elle suscité un engagement à un chiffre et presque aucune couverture médiatique ? Les possibilités se divisent en deux catégories inconfortables. Soit Integral a réalisé une véritable avancée architecturale et a si mal géré le lancement que le monde de l'IA s'en est désintéressé, soit l'affirmation est si grandiose, et si peu étayée, que les chercheurs ont décidé qu'il ne valait même pas la peine de la contredire.
Cette enquête suivra cette tension : qui est Jad Tarifi, ce qu'a réellement construit Integral AI, et pourquoi un système prétendument capable d'AGI est arrivé à un silence presque total.
Du cœur de Google à une révolution silencieuse
Jad Tarifi ne ressemble pas à un marchand de hype. C'est un ancien chercheur de Google avec un doctorat en IA, un CV qui traverse la modélisation probabiliste et l'apprentissage profond, et une obsession de longue date pour les systèmes inspirés par le néocortex humain plutôt que par la mise à l'échelle brute. Chez Google, il a contribué à diriger les premiers efforts en matière d'IA générative, travaillant sur des modèles qui précèdent la vague actuelle de modèles linguistiques de grande envergure comportant des milliards de paramètres.
Au sein de la machine de recherche de Google, Tarifi a plaidé pour des systèmes plus structurés et conscients des enjeux mondiaux, tandis que l'entreprise a doublé la mise sur les lois de mise à l'échelle et les vastes corpus de textes. Cette tension aide à expliquer pourquoi il s'est éloigné de l'un des laboratoires d'IA les plus puissants au monde. En 2022, il a discrètement fondé Integral AI à Tokyo, pariant que la prochaine phase de l'IA ne serait pas davantage de jetons et de GPU, mais des agents capables de comprendre et d'évoluer dans le monde physique.
Le Japon peut sembler être un endroit étrange pour fonder une entreprise d'IA de pointe, jusqu'à ce que l'on se souvienne où se trouvent les robots. Tarifi parle de "l'AGI incarnée" comme d'une exigence essentielle, et non d'une fantaisie de science-fiction : des systèmes qui apprennent comme les animaux et les humains, avec des capteurs, des corps et des contraintes. La solide expertise du Japon en robotique industrielle, en robots de consommation et en fabrication lui donne accès à des partenaires matériels et à des plates-formes d'essai que la Silicon Valley touche rarement.
En public, Tarifi est devenu un critique acerbe de l'orthodoxie actuelle de la scalabilité de l'IA. Il soutient que l'empilement aveugle de paramètres et de données mène à des boîtes noires fragiles qui mémorisent des références au lieu de modéliser la réalité. Dans des interviews et de longs fils Twitter, il propose une recette différente : l'efficacité, la modélisation explicite du monde et des agents qui acquièrent des compétences de manière autonome plutôt que de régurgiter passivement des données d'entraînement.
Cette position le met en désaccord avec des fondateurs comme Sam Altman, Dario Amodei et Demis Hassabis, qui considèrent toujours le progrès comme une fonction de puissance de calcul et d'échelle. Contrairement à de nombreux prophètes bruyants de l'AGI, Tarifi a réellement construit de grands modèles dans l'une des rares entreprises capables de se les offrir, puis est parti pour poursuivre un paradigme concurrent. Donc, quand il dit que sa startup revendique le premier système AGI capable au monde et que personne n'en parle, cette revendication ne vient pas de la périphérie, mais de quelqu'un qui a contribué à dessiner le consensus.
Un nouveau manuel pour l'intelligence générale
Les discussions sur l'AGI commencent souvent par des impressions et se terminent par des gestes vagues. Integral AI essaie de remplacer cela par une fiche technique. Sur sa page de lancement et dans ses documents de presse, la startup de Tokyo définit l'AGI comme un système qui satisfait trois contraintes strictes : l'apprentissage autonome des compétences, la maîtrise sûre et fiable, et une efficacité énergétique de niveau humain (ou mieux).
Cette définition met immédiatement de côté les grands modèles de langage d’aujourd’hui. Les systèmes de type GPT peuvent interpoler à partir de textes d’internet préalablement digérés, mais ils ne fixent pas leurs propres objectifs, n’endurent pas leurs propres données et n’apprennent pas de nouveaux domaines à partir de zéro. La revendication d'Integral est que, à moins qu'un système ne puisse faire les trois, il n'est pas simplement « pas encore AGI » — il est architecturalement orienté dans la mauvaise direction.
Le premier critère, l'apprentissage autonome des compétences, cible les chaînes d'entraînement gourmandes en données qui dominent l'IA aujourd'hui. Integral affirme qu'un système capable d'AGI doit « s'auto-enseigner indépendamment de nouvelles compétences dans des domaines novateurs sans s'appuyer sur des ensembles de données préexistants ou l'intervention humaine. » Cela signifie pas de corpus de référence sélectionnés, pas de modelage de récompense par apprentissage par renforcement, et pas d'étiquetage par un humain pour amorcer chaque nouvelle tâche.
En pratique, cela ressemble davantage à un robot curieux qu'à une interface de chat. Le modèle reçoit un objectif dans un nouvel environnement, explore, construit un modèle du monde et affine son comportement au fil du temps. Si cela se vérifie sous examen, ce serait un rejet direct de l'idée selon laquelle la mise à l'échelle de jeux de données statiques et de paramètres est suffisante pour atteindre une intelligence générale.
Le critère deux, maîtrise sûre et fiable, s'attaque à l'éthos du "se déplacer vite et casser des choses" dans l'apprentissage par renforcement. Integral insiste sur le fait que le système doit apprendre "sans effets secondaires ni échecs catastrophiques". Leur propre exemple est direct : un robot de cuisine qui met le feu à la maison en apprenant à cuisiner a déjà échoué au test d'AGI.
Cela intègre la sécurité directement dans le processus d'apprentissage, et pas seulement comme un filtre a posteriori. Un système de qualification devrait disposer de mécanismes intégrés pour anticiper les états dangereux, quantifier l'incertitude et éviter les chemins d'exploration risqués tout en continuant à s'améliorer. Dans la robotique et l'IA incarnée, c'est un problème beaucoup plus complexe que de faire converger une politique.
Le critère trois, l'efficacité énergétique, peut être la critique la plus silencieuse mais la plus pointue de l'IA actuelle. Integral précise que « le coût total de l'apprentissage doit être comparable ou inférieur à celui d'un humain maîtrisant la même compétence. » Former un LLM de pointe peut consommer des mégawatt-heures ; un humain apprend à conduire en quelques centaines d'heures de pratique et avec environ 20 watts de puissance cérébrale.
En liant l'AGI aux budgets énergétiques, Integral affirme que l'escalade par la force brute est, par définition, disqualifiée. Tout chemin vers l'intelligence générale qui nécessite des centres de données de la taille de petites villes échoue à leur critère. Leur argument complet, ainsi que les environnements de démonstration « capables d'AGI », se trouvent sur le site de l'entreprise : Integral AI – Site Officiel.
Échapper à la prison du 'moteur de prédiction'
Les modèles de langage actuels vivent et meurent par la prédiction du prochain jeton. Nourrissez-les de trillions de mots et ils deviennent des moteurs de saisie automatique troublants, mais ils fonctionnent toujours comme des systèmes de prédiction uniquement : pas de modèle persistant du monde, pas de concepts explicites, pas de sens ancré de cause et d'effet. La proposition d'Integral AI commence par sortir de cette prison.
Au lieu d'apprendre simplement des corrélations statistiques, Integral affirme que son modèle construit un modèle du monde hiérarchique et explicite. Inspiré par la structure en couches du néocortex humain, il compresse les flux sensoriels bruts—vision, langage, audio, données de capteurs simulés—en abstractions réutilisables : objets, relations, dynamiques. Ces abstractions s'empilent, formant une tour allant des pixels à la physique, puis aux plans.
Integral décrit cela comme un « simulateur universel » qui se développe en structurant l'expérience de manière récursive. Au niveau le plus bas, le modèle ingère des entrées multimodales provenant d'environnements 2D et 3D. Les couches supérieures représentent des pièces, des objectifs et des stratégies, permettant à l'agent de répondre à des questions comme « Ai-je laissé mon ordinateur portable quelque part dans la maison ? » en raisonnant sur une carte interne, et non en mémorisant un script.
La formation renverse également le cycle d'apprentissage passif habituel. Au lieu d'absorber des ensembles de données statiques, l'agent utilise l'apprentissage interactif : il explore, pose des questions, définit des sous-objectifs et réalise des expériences internes pour affiner son modèle. Integral montre l'agent échantillonnant des "futurs possibles", notant chaque trajectoire imaginée selon sa capacité à répondre à une requête ou à accomplir une tâche.
Cette boucle ressemble davantage à celle d'un scientifique humain qu'à un jalon LLM figé. Le système propose des hypothèses sur l'environnement, les teste en simulation, met à jour ses abstractions, puis recommence. La supervision provient des erreurs de prédiction et du succès des tâches, et non d'étiquettes humaines ou de critères élaborés.
Une telle structure attaque directement l'un des échecs les plus hideux de l'apprentissage profond : l'oubli catastrophique. Les réseaux traditionnels écrasent les anciennes connaissances lorsqu'ils sont ajustés à de nouvelles tâches. Un modèle mondial hiérarchique, soutient Integral, peut localiser les mises à jour—ajustant uniquement le niveau d'abstraction pertinent—de sorte que l'apprentissage de « où se trouve la tasse » n'efface pas « comment fonctionnent les portes ».
Parce que l'agent peut revisiter et recomprimer ses expériences, Integral affirme qu'il supporte un véritable apprentissage tout au long de la vie. Les compétences s'accumulent au lieu d'être échangées à travers des ajustements fins. Si l'architecture est évolutive, vous ne formez pas un nouveau modèle pour chaque domaine ; vous développez un cerveau qui conserve son passé tout en absorbant la prochaine nouveauté.
AGI en Action : Ce que les Démos Révèlent Vraiment
AGI, de style Intégral, commence dans une maison 3D peuplée de manière éparse. Un agent incarné apparaît dans un environnement inconnu sans carte, seulement avec des entrées RGB égocentriques et une liste de requêtes en langage naturel : « Ai-je laissé ma tasse dans la chambre ? », « De quelle couleur est le mur du salon ? ». Il explore, construit une « carte mentale » latente, et utilise la prédiction future pour choisir où regarder ensuite, puis répond aux questions de mémoire au lieu de rescanner la scène.
Sous le capot, Integral affirme que l'agent échantillonne plusieurs futurs possibles, les évalue en fonction de leur probabilité de résoudre sa question actuelle, puis agit selon la trajectoire à la valeur la plus élevée. C'est du renforcement basé sur des modèles classique habillé d'une métaphore du néocortex : planifier sur un modèle du monde appris, et non pas simplement réagir image par image. Une ingénierie impressionnante, mais des configurations similaires d'exploration et de réponse aux questions apparaissent dans le DeepMind Lab de DeepMind et les travaux Habitat de Meta depuis des années.
La deuxième démo se réduit à une seule image et à un œil virtuel qui s'agite. Au lieu de traiter chaque pixel à pleine résolution, le système exécute de rapides « saccades » à travers la scène, ne prélève qu'une poignée de zones pour classifier un objet. Integral présente cela comme une analogie énergétiquement efficace de la vision humaine, affirmant une reconnaissance précise à partir de données considérablement réduites.
Cette idée remonte à des décennies de modèles de « coup d'œil » et de vision fovéale, des réseaux d'attention récurrents sur MNIST aux propres architectures DRAW et RAM de Google. La revendication de nouveauté repose sur la manière dont Integral couple cela à sa machine d'abstraction et sur la manière dont cela se développe au-delà des images de démonstration. Sans références ou chiffres comparatifs face à des CNN standards ou des Vision Transformers, la démo de saccade semble davantage un proof-of-concept qu'une révolution.
Le troisième showcase cible la planification : Sokoban, le casse-tête de manutention apprécié par les scientifiques cognitifs et les chercheurs en apprentissage par renforcement. Integral entraîne un agent qui résout d'abord les niveaux par une recherche lente et explicite — ce que les psychologues appellent le raisonnement Système 2 — puis distille progressivement cela en coups rapides et « intuitifs » Système 1 qui résolvent de nouveaux casse-tête en quelques étapes.
Encore une fois, le mouvement conceptuel fait écho aux travaux existants : recherche à la manière d'AlphaZero distillée en réseaux de politique, et architectures "penser-puis-agir" comme TreeQN et MuZero. Sokoban est un banc d'essai légitime pour la généralisation combinatoire, mais le domaine a vu de nombreux agents apprendre des heuristiques réutilisables. Jusqu'à ce qu'Integral publie des courbes d'apprentissage, des statistiques d'efficacité d'échantillonnage, et des généralisation vers des variantes plus difficiles, ces démonstrations semblent solides mais pas encore uniques.
Les Drapeaux Rouges : Où est la Preuve ?
Les signaux d'alerte commencent par l'absence, et Integral AI en possède un énorme : pas de publication évaluée par des pairs, pas de code open source, pas d'API publique, même pas de rapport technique avec suffisamment de détails pour reproduire les résultats. Pour une affirmation aussi forte que « le premier modèle capable d'AGI au monde », ce vide compte plus que n'importe quelle démonstration enlevée. Actuellement, la seule preuve réside dans une page marketing, un communiqué de presse et une vidéo soigneusement montée.
Les conditions de victoire auto-définies rendent la situation plus floue. L'IA intégrale ne montre pas de performances sur des références standards comme Atari, Procgen ou MineRL, et ne se compare pas à des références telles que DreamerV3 ou Gato. Au lieu de cela, elle introduit une définition sur mesure en trois parties de l'AGI, puis déclare le succès selon ses propres critères sans mesures externes.
Ce mouvement fait écho à un schéma familier dans l'engouement autour de l'IA : inventer une nouvelle métrique, obtenir de bons résultats, et éviter les comparaisons difficiles. Sans chiffres comparatifs sur des tâches établies, personne ne peut dire si le "simulateur universel" d'Integral surpasse réellement un agent PPO bien réglé accompagné d'un grand modèle de langage, ou s'il se contente de reproduire ce que les systèmes disponibles sur le marché font déjà. Les affirmations concernant l'efficacité énergétique et la sécurité restent également purement qualitatives, sans chiffres en kWh, temps de formation en temps réel, ni courbes d'efficacité des échantillons.
Contrairement à cela, le travail de DeepMind sur les agents augmentés par l'imagination en 2017. DeepMind a publié un article complet, a diffusé des architectures et des détails d'entraînement, et a évalué dans des environnements RL standard comme Sokoban et la navigation dans des labyrinthes. Les chercheurs pouvaient examiner des études d'ablation, reproduire des courbes d'apprentissage, et discuter de savoir si le « module d'imagination » améliorait vraiment la planification sous incertitude.
La démo de visite virtuelle en 3D d'Integral AI semble conceptuellement proche de ces agents augmentés par l'imagination : un agent explore, construit une carte latente et répond à des questions comme « Ai-je laissé mon ordinateur portable quelque part dans la maison ? » La version de DeepMind a été soumise à une revue par les pairs lors de l'ICML ; la version d'Integral vit derrière une boîte noire, sans spécifications d'environnement, sans fonctions de récompense et sans comparaison avec d'autres planificateurs.
Cette opacité est la raison pour laquelle la communauté AI au sens large reste en grande partie indifférente. Sans code, journaux ou même un préprint technique expurgé, les chercheurs ne peuvent pas analyser les modes de défaillance, tester l’adéquation à un seul simulateur, ou voir comment le système se développe au-delà de simples appartements. Tant qu'Integral AI n'offrira rien de concret comme DeepMind l'a fait en 2017, les laboratoires sérieux et les examinateurs considéreront l'étiquette « capable d'AGI » comme du marketing, et non comme un jalon, peu importe le CV de Jad Tarifi ou son profil LinkedIn de Jad Tefri.
"L'IA basée sur la liberté : Un changement de jeu pour l'alignement ?"
La liberté est au cœur de l'argument de Jad Tarifi en matière d'alignement. Pas de filtres de contenu de style "ne dites pas de mauvais mots", ni de liste rigide de règles à la Asimov, mais un système qui considère l'agence humaine elle-même comme la variable à maximiser. Dans son cadre, une AGI alignée ne se contente pas d'éviter le mal ; elle élargit activement ce que les humains peuvent savoir, choisir et faire.
Au lieu d'une pile fragile de correctifs de sécurité, Integral AI vise un seul objectif explicite : maximiser l'autonomie humaine et collective. Tarifi parle d'« IA basée sur la liberté » comme d'un problème d'optimisation où la récompense est plus élevée lorsque davantage de personnes disposent d'options significatives. Cela déplace la question de « Est-ce autorisé ? » à « Cette action augmente-t-elle la liberté humaine à long terme ? »
Concrètement, l'AGI simulerait des futurs possibles et les évaluerait en fonction de la manière dont ils modifient notre espace d'actions. Un plan qui centralise le pouvoir, renforce la surveillance ou rend les gens plus dépendants d'un unique acteur serait pénalisé. Un plan qui diversifie les connaissances, améliore la coordination et réduit la dépendance serait récompensé.
Cela nécessite un modèle de liberté plus riche que des arguments en faveur de la liberté d'expression. La version de Tarifi suit trois axes d'autonomie : - Savoir : accès à des modèles précis du monde et de soi-même - Choisir : vraies alternatives, pas d'options fausses ou forcées - Agir : outils, ressources et droits pour exécuter les décisions
Enveloppé autour de cela se trouve ce qu'il appelle une “Économie d'Alignement.” Au lieu que la valeur soit liée à l'engagement ou aux clics publicitaires, la valeur serait indexée sur les augmentations mesurables de la liberté humaine. En principe, les produits, les politiques et les comportements de l'IA seraient tous évalués en fonction de leur impact sur l'agence, transformant l'alignement d'un débat philosophique en un signal économique.
Les sceptiques demanderont comment vous quantifiez la liberté, qui définit la base de référence et comment vous empêchez les jeux de manipulation. La réponse de Tarifi, jusqu'à présent, est que toute solution évolutive à l'alignement doit s'attaquer directement à ces questions et les intégrer dans la fonction de perte.
Le 'Supernet' : Un Internet de machines pensantes
Integral AI ne veut pas seulement un chatbot plus intelligent. Il veut un « Supernet » : un réseau planétaire d'agents AGI incarnés connectés directement aux usines, laboratoires, entrepôts et réseaux électriques, tous partageant un modèle mondial en constante évolution.
Dans la présentation d'Integral, chaque agent exécute son architecture de simulateur universel localement, connectée à des caméras, des capteurs de force, des robots et des automates programmables industriels (API). Ces agents ne se contentent pas de prédire des textes ; ils manipulent des tapis roulants, ajustent des réactions chimiques et reconfigurent des lignes d'assemblage, tout en échangeant en continu des abstractions et des compétences à travers le réseau.
Supernet ressemble moins aux appels API d'OpenAI d'aujourd'hui et plus à un système de contrôle distribué pour la réalité. Là où GPT‑4o ou Gemini se trouvent derrière une boîte de saisie, Integral imagine des flottes de robots et de contrôleurs intégrés capables de :
- 1Apprendre de manière autonome de nouvelles tâches dans l'espace physique.
- 2Coordonnez-vous avec d'autres agents via des abstractions partagées.
- 3Exécutez des plans complexes de bout en bout sans microgestion humaine.
Cela le rend fondamentalement différent de l'IA orientée vers le texte. OpenAI, Google et Anthropic exposent principalement des modèles en tant que services qui répondent à des questions, écrivent du code ou résument des documents. La vision d'Integral est orientée vers l'action : le langage devient juste une interface d'accès à un substrat qui déplace directement des biens, des outils et finalement des chaînes d'approvisionnement entières.
Si Supernet fonctionne comme annoncé, l'impact économique va bien au-delà des centres d'appels et de la rédaction. Imaginez un responsable des opérations tapant : « Établir une nouvelle usine de batteries au Vietnam et atteindre 10 GWh/an d'ici 2029 », et le réseau décomposant cela en études de site, simulations, achats, conception de lignes et plannings de construction, puis pilotant les robots et les entrepreneurs qui l'exécutent.
Un tel système réduit le décalage entre l'intention humaine et l'action physique. Les réseaux logistiques pourraient se reconfigurer d'eux-mêmes en réponse à des chocs de demande, les laboratoires de découverte de médicaments pourraient itérer 24/7 avec des chimistes robotiques, et les petites entreprises pourraient diriger une puissance de fabrication rivalisant avec celle des méga-corporations d'aujourd'hui, simplement en émettant des objectifs de haut niveau.
Les conséquences sociétales seraient tout aussi frappantes. Un Supernet qui obéit de manière fiable à des objectifs alignés pourrait propulser la productivité et la décarbonisation ; celui qui interprète mal ou qui est détourné pourrait mal allouer des ressources, perturber les infrastructures ou militariser la capacité industrielle à la vitesse des machines. Le « superintelligence incarnée » d'Integral n'est pas simplement un autre niveau de modèle — c'est une proposition de connecter l'AGI directement au système nerveux mondial.
Le Son du Silence : Pourquoi cette Réaction Muette ?
Le silence entourant l'annonce d'Integral AI commence par le timing et l'épuisement. Après des années de teasers sur l'AGI de la part des laboratoires et des fondateurs, le monde de l'IA a développé de solides callosités face aux revendications du « premier au monde ». Un tweet avec 565 vues, cinq retweets et six likes d'un ancien fondateur de Google peine à s'imposer dans un contexte de lancements de modèles quotidiens et de gros titres déclarant que « GPT-5 sera l'AGI ».
La fatigue de l'engouement se croise avec le format. La grande révélation d'Integral se concentre sur un agent 3D explorant discrètement des salles synthétiques, et non sur un chatbot viral que l'on peut interagir. Pas de chatbot, pas d'API publique, pas d'entrée au classement des benchmarks signifie pas de mème évident, pas de captures d'écran, et pas de moment prêt pour TikTok pour tirer cette affirmation vers le grand public.
La hiérarchie des signaux dans l'IA fonctionne également contre elles. Les startups qui bouleversent les marchés arrivent généralement avec : - Un document de conférence prestigieux ou un préprint arXiv - Une feuille de termes de capital-risque d'un poids lourd - Un résultat de benchmark en tête du classement
Integral n’offre encore rien de tout cela, seulement un communiqué de presse et une bande démo soignée. Sans un article à NeurIPS ou un tour de financement de 100 millions de dollars, cette affirmation manque des repères institutionnels que les journalistes, investisseurs et chercheurs utilisent comme filtres.
L'architecture ajoute une couche supplémentaire de friction. Tarifi ne modifie pas les transformateurs ; il propose des "simulateurs universels" d’abstraction et de prédiction inspirés par le néocortex. Pour les chercheurs immergés dans les couches d'attention et les lois d'échelle, évaluer une pile propriétaire, non transformateur, sans code ou mathématiques open source est un effort considérable avec un retour sur investissement peu clair.
Le calcul des risques pour les experts et les tendances de la presse sont conservateurs ici. Soutenir un système "capable d'AGI" sans réplication indépendante comporte des inconvénients réputationnels et presque aucun avantage. Les analystes qui souhaitent s'engager en profondeur se tournent plutôt vers des analyses plus lentes et plus sceptiques, comme MIT Technology Review – Le système d'Integral AI peut-il vraiment être de l'AGI ?, tandis que l'écosystème plus large hausse les épaules et fait défiler.
Histoire ou Hype ? L'Analyse Finale
L'histoire pourrait se souvenir d'Integral AI comme le début discret de quelque chose de grand, ou comme une autre détours confiant dans le cycle de hype de l'IA. Sur le papier, le dossier de l'entreprise semble remarquablement solide : un fondateur, Jad Tarifi, qui a dirigé les premiers travaux sur l'IA générative chez Google, détient un doctorat en IA et a passé des années à réfléchir à des systèmes inspirés du néocortex. Ce n'est pas un YouTuber aléatoire avec un diaporama ; c'est le genre de personne que les grands laboratoires embauchent pour construire la prochaine génération de modèles.
La critique d'Integral des systèmes actuels est pertinente. Les modèles de langage de grande taille d'aujourd'hui restent des moteurs de prédiction uniquement : ils associent des entrées à des sorties, mémorisent des référentiels et consomment des budgets énergétiques étonnants sans former de modèles explicites du monde. La proposition d'Integral — des simulateurs hiérarchiques d'« abstraction et de prédiction » qui apprennent des compétences de manière autonome, restent sûrs pendant l'apprentissage et atteignent une efficacité énergétique équivalente à celle des humains — cible directement les trois principales critiques de l'IA actuelle.
Puis la réalité frappe : il n'y a presque aucune preuve vérifiable. Aucun article évalué par des pairs sur arXiv. Aucun code source ouvert. Pas d'API ni même un aperçu de recherche restreint pour les laboratoires tiers. La démonstration 3D phare ressemble davantage à un modeste prototype de recherche qu'à un aperçu de superintelligence incarnée, et l'entreprise ne propose aucun indicateur quantitatif par rapport aux tâches standard de navigation, de planification ou d'efficacité d'échantillonnage.
La communication n'a pas été utile. Une startup prétend avoir créé le premier système AGI au monde capable, et personne n'en parle parce que son lancement s'est limité à un communiqué de presse BusinessWire, un tweet à faible engagement, et un site web élégant mais pauvre en contenu. Pas de rapport technique, pas d'études d'ablation, pas de comparaison avec des modèles comme GPT-4, Claude, ou des agents de modélisation de pointe.
Pour l'instant, la vision d'Integral AI semble révolutionnaire, mais cette affirmation reste non prouvée. Le fardeau de la preuve incombe entièrement à Tarifi et à son équipe, et dans le domaine de l'IA, les diagrammes architecturaux et les discours philosophiques ne comptent pas comme preuve.
Si vous vous souciez de savoir si c'est de l'histoire ou du battage médiatique, surveillez trois choses : un article technique détaillé avec des résultats expérimentaux, des évaluations indépendantes reproduisant leurs affirmations, et un tour de financement significatif ou un partenariat de laboratoire. Jusqu'à ce qu'au moins l'un de ces éléments apparaisse, Integral AI est soit en train de construire silencieusement l'avenir — soit en train de se rédiger discrètement dans une note de bas de page.
Questions Fréquemment Posées
Qu'est-ce que l'IA Intégrale ?
Integral AI est une startup basée à Tokyo, fondée par l'ancien chercheur en IA de Google, Jad Tarifi. Ils affirment avoir développé le premier "modèle capable d'AGI" au monde, axé sur l'intelligence incarnée et la robotique.
Qu'est-ce qui rend la revendication d'AGI d'Integral AI différente ?
Ils définissent l'AGI par trois critères stricts : apprentissage autonome de compétences sans données humaines, maîtrise sécurisée sans échecs catastrophiques, et efficacité énergétique comparable à celle des humains. C'est un niveau d'exigence plus élevé que la plupart des définitions.
Pourquoi les experts en IA sont-ils sceptiques à propos de cette affirmation ?
Le scepticisme principal provient d'un manque de preuves vérifiables. Integral AI n'a pas publié de document technique, n'a pas rendu son code open source et n'a pas soumis son modèle à une évaluation indépendante par des tiers.
Qu'est-ce que l'intelligence superintelligente incarnée ?
C'est le concept d'une IA générale qui ne se contente pas de traiter du texte ou des images, mais qui peut percevoir et agir dans le monde physique grâce à la robotique. La vision à long terme d'Integral AI est un réseau mondial de ces agents, qu'ils appellent le 'Supernet'.