Der stille Durchbruch der AGI?

Ein ehemaliger AI-Chef von Google sagt, dass sein Startup das weltweit erste AGI-fähige Modell entwickelt hat. Hier ist der Grund, warum die AI-Welt einen potenziell geschichtsträchtigen Durchbruch ignoriert.

Stork.AI
Hero image for: Der stille Durchbruch der AGI?
💡

TL;DR / Key Takeaways

Ein ehemaliger AI-Chef von Google sagt, dass sein Startup das weltweit erste AGI-fähige Modell entwickelt hat. Hier ist der Grund, warum die AI-Welt einen potenziell geschichtsträchtigen Durchbruch ignoriert.

Der AGI-Anspruch, den niemand gehört hat

Ein ehemaliger Google-Forscher hat letzten Monat heimlich AGI beansprucht, und fast niemand schien es zu bemerken. Jad Tarifi, CEO und Mitgründer von Integral AI, sagt, sein in Tokio ansässiges Startup habe das weltweit erste „AGI-fähige Modell“ entwickelt, ein System, das seiner Meinung nach auf vollständige künstliche allgemeine Intelligenz und schließlich Superintelligenz skaliert werden kann. Kein auffälliger Vortrag, keine Live-Demo auf einer großen Konferenz – nur eine Pressemitteilung, eine Webseite und ein Tweet.

Auf X wurde Tarifis Ankündigung kaum wahrgenommen. Der Beitrag, der „das erste AGI-fähige Modell der Welt“ verkündete, hatte etwa 565 Aufrufe, 5 Retweets und 6 Likes, als der AI-YouTuber TheAIGRID seine Analyse aufnahm – Zahlen, die eher typisch für ein beliebiges Entwicklungsprotokoll als für einen revolutionären Meilenstein im Bereich KI sind. In einem Feld, das bei jedem kleinen GPT-Update ausflippt, kommt solch eine Stille fast surreal vor.

Integral präsentiert keinen kniffligen Chatbot oder ein weiteres fein abgestimmtes Sprachmodell. Tarifi behauptet, sein System erfülle eine strengere dreiteilige Definition von AGI: autonomes Fähigkeitenlernen ohne kuratierte Datensätze, sichere und zuverlässige Beherrschung ohne katastrophale Fehler und Energieeffizienz, die mit der eines Menschen, der dieselbe Fähigkeit erlernt, gleichwertig oder besser ist. Er positioniert dies als direkte Herausforderung an die heutigen datenhungrigen, brutalen großen Sprachmodelle.

Das Unternehmen beschreibt seinen Ansatz als den Bau von „universellen Simulatoren“, die hierarchische Weltmodelle aus multimodalen Eingaben erstellen: Vision, Sprache, Audio und physikalische Sensoren. Diese Simulatoren komprimieren angeblich Erfahrungen in geschichtete Abstraktionen, die dem menschlichen Neokortex ähneln, und nutzen zukünftige Vorhersagen, um Handlungen zu planen. In einer Demo navigiert ein verkörperter Agent durch ein 3D-Zuhause, beantwortet Fragen wie „Habe ich meinen Laptop irgendwo im Haus liegen gelassen?“ und schlussfolgert über Möbel, Wände und Gegenstände, die er noch nie zuvor gesehen hat.

Warum landete eine so gewagte Behauptung mit nur geringem Engagement und fast keiner Berichterstattung in den Mainstream-Medien? Die Möglichkeiten lassen sich in zwei unbequeme Kategorien einteilen. Entweder hat Integral einen echten architektonischen Durchbruch erzielt, den die Einführung so schlecht durchgeführt hat, dass die KI-Welt lediglich mit den Schultern zuckte – oder die Behauptung ist so großspurig und so schwach belegt, dass die Forscher entschieden haben, dass es sich nicht einmal lohnt, sie zu widerlegen.

Diese Untersuchung wird diese Spannung nachzeichnen: Wer Jad Tarifi ist, was Integral AI tatsächlich entwickelt hat und warum ein angeblich AGI-fähiges System in nahezu völliges Schweigen eingetreten ist.

Vom Google-Kern zu einer stillen Revolution

Illustration: Vom Kern von Google zu einer stillen Revolution
Illustration: Vom Kern von Google zu einer stillen Revolution

Jad Tarifi sieht nicht aus wie ein Hype-Händler. Er ist ein ehemaliger Google-Forscher mit einem Doktortitel in KI, einem Lebenslauf, der sich über probabilistische Modellierung und Deep Learning erstreckt, und einer langjährigen Besessenheit für Systeme, die vom menschlichen Neocortex inspiriert sind, anstatt auf brutaler Skalierung zu basieren. Bei Google half er, die frühen Anstrengungen im Bereich der generativen KI zu leiten und arbeitete an Modellen, die der aktuellen Welle von milliardenschweren Sprachmodellen vorausgingen.

Innerhalb von Googles Forschungsmaschine drängte Tarifi auf strukturiertere, weltbewusste Systeme, während das Unternehmen auf Skalierungsgesetze und massive Textkorpora setzte. Diese Spannung hilft zu erklären, warum er sich von einem der mächtigsten KI-Labore der Welt abwandte. 2022 gründete er still und leise Integral AI in Tokio und wettete darauf, dass die nächste Phase der KI nicht mehr Tokens und GPUs, sondern Agenten sein würde, die die physische Welt verstehen und sich darin bewegen.

Japan mag zwar wie ein ungewöhnlicher Ort erscheinen, um ein Frontier-AI-Unternehmen zu gründen, bis man sich daran erinnert, wo die Roboter sind. Tarifi bezeichnet „verkörperte AGI“ als eine harte Voraussetzung, nicht als einen Science-Fiction-Schmuck: Systeme, die wie Tiere und Menschen lernen, mit Sensoren, Körpern und Einschränkungen. Japans umfassende Expertise in der Industrierobotik, den Konsumrobotern und der Fertigung verschafft ihm Zugang zu Hardware-Partnern und Testumgebungen, die im Silicon Valley selten betreten werden.

Öffentlich ist Tarifi zu einem scharfen Kritiker der aktuellen Orthodoxtheorie des AI-Scale geworden. Er argumentiert, dass ein blindes Ansammeln von Parametern und Daten zu spröden Black Boxes führt, die Benchmarks auswendig lernen, anstatt die Realität abzubilden. In Interviews und langen Twitter-Threads plädiert er für ein anderes Rezept: Effizienz, explizite Modelling der Welt und Agenten, die autonom Fähigkeiten erwerben, anstatt passiv Trainingsdaten wiederzugeben.

Diese Haltung bringt ihn in Konflikt mit Gründern wie Sam Altman, Dario Amodei und Demis Hassabis, die Fortschritt weiterhin als Funktion von Rechenleistung und Skalierung betrachten. Im Gegensatz zu vielen lautstarken AGI-Propheten hat Tarifi tatsächlich große Modelle bei einem der wenigen Unternehmen entwickelt, die sich diese leisten können, und ist dann gegangen, um ein rivalisierendes Paradigma zu verfolgen. Wenn er also sagt, seine Startup beanspruche das weltweit erste AGI-fähige System und niemand spricht darüber, stammt die Behauptung nicht aus dem Abseits, sondern von jemandem, der an der Gestaltung des Mainstreams mitgewirkt hat.

Ein neues Regelwerk für Allgemeine Intelligenz

AGI-Gespräche beginnen meist mit Vibes und enden mit Gesten. Integral AI versucht, dies durch ein Spezifikationsblatt zu ersetzen. Auf seiner Launch-Seite und in den Presseunterlagen definiert das Startup aus Tokio AGI als ein System, das drei harte Anforderungen erfüllt: autonomes Fähigkeitslernen, sichere und zuverlässige Beherrschung sowie Energieeffizienz auf menschlichem Niveau (oder besser).

Diese Definition stellt die heutigen großen Sprachmodelle sofort in Frage. GPT-ähnliche Systeme können innerhalb vorverarbeiteter Internettexte interpolieren, aber sie setzen sich keine eigenen Ziele, sammeln keine eigenen Daten und lernen keine neuen Bereiche von Grund auf. Integrals Behauptung ist, dass ein System, das all dies nicht kann, nicht nur „noch keine AGI“ ist – es ist architektonisch in die falsche Richtung ausgerichtet.

Kriterium eins, autonomes Fähigkeitslernen, richtet sich an die datenhungrigen Trainingspipelines, die heute die KI dominieren. Integral sagt, ein AGI-fähiges System muss „sich selbstständig neue Fähigkeiten in neuartigen Bereichen beibringen, ohne auf vorhandene Datensätze oder menschliches Eingreifen angewiesen zu sein.“ Das bedeutet kein kuratiertes Benchmark-Korpus, keine Belohnungsformung durch verstärkendes Lernen und kein menschliches Feedback zur Anstoßgebung jeder neuen Aufgabe.

In der Praxis sieht das eher aus wie ein neugieriger Roboter als wie eine Chat-Oberfläche. Das Modell erhält ein Ziel in einer neuen Umgebung, erkundet, baut ein Weltmodell auf und verfeinert im Laufe der Zeit sein Verhalten. Wenn das einer genauen Prüfung standhält, wäre das ein direkter Widerspruch zu der Idee, dass das Skalieren statischer Datensätze und Parameter ausreicht, um allgemeine Intelligenz zu erreichen.

Kriterium zwei, sichere und zuverlässige Beherrschung, stellt sich dem Ethos „schnell handeln und Dinge kaputt machen“ im Bereich des Reinforcement Learning entgegen. Integral besteht darauf, dass das System „ohne Nebenwirkungen oder katastrophale Fehler“ lernen muss. Ihr eigenes Beispiel ist eindeutig: Ein Küchenroboter, der während des Kochens das Haus in Brand setzt, hat den AGI-Test bereits bestanden.

Das bringt Sicherheit direkt in den Lernprozess, nicht nur als nachträglichen Filter. Ein Qualifizierungssystem müsste integrierte Mechanismen besitzen, um gefährliche Zustände vorherzusehen, Unsicherheiten zu quantifizieren und riskante Erkundungswege zu vermeiden, während es dennoch Fortschritte macht. In der Robotik und bei verkörperter KI ist das ein weitaus schwierigeres Problem, als eine Richtlinie zur Konvergenz zu bringen.

Kriterium drei, Energieeffizienz, mag die leiseste, aber schärfste Kritik an der aktuellen KI sein. Integral stellt fest, dass „die Gesamtkosten des Lernens mit denen eines Menschen, der dieselbe Fähigkeit erlernt, vergleichbar oder geringer sein müssen.“ Das Training eines modernen LLM kann Megawattstunden verbrauchen; ein Mensch lernt das Autofahren in ein paar hundert Stunden Übung und mit etwa 20 Watt Gehirnleistung.

Durch die Bindung von AGI an Energiebudgets erklärt Integral, dass brutale Skalierung definitionsgemäß ausgeschlossen ist. Jeder Weg zur allgemeinen Intelligenz, der Rechenzentren in der Größe kleiner Städte erfordert, erfüllt nicht ihre Anforderungen. Ihr gesamtes Argument sowie die „AGI-fähigen“ Demo-Umgebungen sind auf der Website des Unternehmens zu finden: Integral AI – Offizielle Website.

Flucht aus dem 'Vorhersagemaschinen'-Gefängnis

Aktuelle große Sprachmodelle leben und sterben durch die Vorhersage des nächsten Tokens. Füttert man sie mit Billionen von Wörtern, werden sie zu unheimlichen Autocomplete-Engines, aber sie funktionieren immer noch als nur-vorhersagende Systeme: kein persistentes Modell der Welt, keine expliziten Konzepte, kein fundiertes Gefühl für Ursache und Wirkung. Der Ansatz von Integral AI beginnt damit, aus diesem Gefängnis auszubrechen.

Statt nur statistische Korrelationen zu erlernen, sagt Integral, dass sein Modell ein explizites, hierarchisches Weltmodell aufbaut. Inspiriert von der geschichteten Struktur des menschlichen Neokortex komprimiert es rohe sensorische Ströme – visuelle, sprachliche, auditive, simulierte Sensordaten – in wiederverwendbare Abstraktionen: Objekte, Beziehungen, Dynamik. Diese Abstraktionen stapeln sich und bilden einen Turm von Pixeln über Physik bis hin zu Plänen.

Integral beschreibt dies als einen „universellen Simulator“, der durch rekursive Strukturierung von Erfahrungen wächst. An der Basis nimmt das Modell multimodale Eingaben aus 2D- und 3D-Umgebungen auf. Höhere Ebenen repräsentieren Räume, Ziele und Strategien, wodurch der Agent Fragen wie „Habe ich meinen Laptop irgendwo im Haus liegen lassen?“ beantworten kann, indem er über eine interne Karte nachdenkt, und nicht, indem er ein Skript auswendig lernt.

Das Training kehrt auch die übliche passive Lernschleife um. Anstatt statische Datensätze aufzusaugen, nutzt der Agent interaktives Lernen: Er erkundet, stellt Fragen, setzt Teilziele und führt interne Experimente durch, um sein Modell zu verfeinern. Integral zeigt, wie der Agent „mögliche Zukünfte“ sampelt und jede vorgestellte Trajektorie danach bewertet, wie gut sie eine Anfrage beantwortet oder eine Aufgabe abschließt.

Dieser Loop wirkt näher an einem menschlichen Wissenschaftler als an einem eingefrorenen LLM-Checkpoint. Das System schlägt Hypothesen über die Umwelt vor, testet sie in Simulationen, aktualisiert seine Abstraktionen und wiederholt dann den Prozess. Die Aufsicht erfolgt durch Vorhersagefehler und den Erfolg bei Aufgaben, nicht durch menschliche Labels oder kuratierte Maßstäbe.

Eine solche Struktur greift direkt einen der schlimmsten Fehler des Deep Learnings an: katastrophales Vergessen. Traditionelle Netzwerke überschreiben altes Wissen, wenn sie auf neue Aufgaben feinjustiert werden. Ein hierarchisches Weltmodell, so Integral, kann Aktualisierungen lokalisieren – indem es nur die relevante Abstraktionsebene anpasst – sodass das Lernen „wo die Tasse ist“ nicht „wie Türen funktionieren“ löscht.

Da der Agent seine Erfahrungen erneut besuchen und komprimieren kann, behauptet Integral, dass es echtes lebenslanges Lernen unterstützt. Fähigkeiten sammeln sich an, anstatt durch Feinanpassungen ausgetauscht zu werden. Wenn die Architektur skalierbar ist, trainierst du kein neues Modell für jede Domäne; du entwickelst ein Gehirn, das seine Vergangenheit bewahrt, während es das Nächste aufnimmt.

AGI in Aktion: Was die Demos wirklich zeigen

Illustration: AGI in Aktion: Was die Demos Wirklich Zeigen
Illustration: AGI in Aktion: Was die Demos Wirklich Zeigen

AGI, im Integral-Stil, beginnt in einem spärlichen 3D-Haus. Ein verkörperter Agent erscheint in einer unbekannten Umgebung ohne Karte, nur mit egocentrischem RGB-Eingang und einer Liste natürlicher Sprachabfragen: „Habe ich meine Tasse im Schlafzimmer gelassen?“, „Welche Farbe hat die Wand im Wohnzimmer?“ Er durchstreift den Raum, erstellt eine latente „mentale Karte“ und nutzt Zukunftsvorhersage, um auszuwählen, wohin er als Nächstes schauen soll, und beantwortet dann Fragen aus dem Gedächtnis, anstatt die Szene erneut zu scannen.

Unter der Haube sagt Integral, dass der Agent multiple mögliche Zukünfte sampling, sie danach bewertet, wie wahrscheinlich es ist, dass sie die aktuelle Frage beantworten, und dann auf die wertvollste Trajektorie handelt. Das ist klassisches modellbasiertes Reinforcement Learning, verpackt in eine Neocortex-Metapher: Planung über ein gelerntes Weltmodell, nicht nur reaktive Reaktionen von Frame zu Frame. Beeindruckende Technik, aber ähnliche Erkundungs- und Frage-Antwort-Setups sind seit Jahren in DeepMinds DeepMind Lab und Metas Habitat-Arbeiten zu sehen.

Die zweite Demo verkleinert sich auf ein einzelnes Bild und ein schnell bewegendes virtuelles Auge. Anstatt jedes Pixel in voller Auflösung zu verarbeiten, führt das System schnelle, diskrete „Sakkaden“ über die Szene aus und probiert nur eine Handvoll Bereiche, um ein Objekt zu klassifizieren. Integral präsentiert dies als eine energieeffiziente Analogie zur menschlichen Sicht und behauptet, mit dramatisch weniger Daten eine genaue Erkennung zu erreichen.

Diese Idee stammt aus Jahrzehnten von "Blick"- und foveierten Sehen-Modellen, von wiederkehrenden Aufmerksamkeitsnetzwerken auf MNIST bis hin zu Googles eigenen DRAW- und RAM-Architekturen. Der Neuheitsanspruch hängt davon ab, wie eng Integral dies mit seiner Abstraktionsmaschine koppelt und wie gut es über Spielzeugbilder hinaus skaliert. Ohne Benchmarks oder direkte Vergleiche mit Standard-CNNs oder Vision-Transformern wirkt die Sakkade-Demonstration eher wie ein Proof-of-Concept als wie eine Revolution.

Die dritte Präsentation fokussiert auf das Planen: Sokoban, das Lager-Puzzle, das von Kognitionswissenschaftlern und RL-Forschern geliebt wird. Integral trainiert einen Agenten, der zu Beginn die Levels durch langsame, explizite Suche löst—was Psychologen als System 2-Denken bezeichnen—und dann allmählich in schnelle, "intuitive" System 1-Züge destilliert, die neue Rätsel in wenigen Schritten lösen.

Wiederholt spiegelt der konzeptionelle Ansatz bestehende Arbeiten wider: AlphaZero-ähnliche Suchmethoden, die in Politiknetzwerke destilliert wurden, sowie "denken-dann-handeln"-Architekturen wie TreeQN und MuZero. Sokoban ist ein legitimes Testfeld für kombinatorische Generalisierung, aber das Feld hat viele Agenten gesehen, die dort wiederverwendbare Heuristiken erlernen. Bis Integral Lernkurven, Stichproben-Effizienzstatistiken und die Generalisierung auf schwierigere Varianten veröffentlicht, wirken diese Demos stark, aber noch nicht einzigartig.

Die roten Flaggen: Wo ist der Beweis?

Rote Flags beginnen mit Abwesenheit, und Integral AI hat eine riesige: kein begutachtetes Papier, kein Open-Source-Code, keine öffentliche API, nicht einmal einen technischen Bericht mit genügend Details, um Ergebnisse zu reproduzieren. Bei einer Behauptung so stark wie „das weltweit erste AGI-fähige Modell“ ist dieses Vakuum bedeutender als jedes schicke Demovideo. Im Moment existiert der einzige Beweis auf einer Marketingseite, in einer Pressemitteilung und in einem sorgfältig bearbeiteten Video.

Selbstdefinierte Siegbedingungen machen die Situation undurchsichtiger. Integral AI zeigt keine Leistungen auf Standardbenchmarks wie Atari, Procgen oder MineRL, noch vergleicht es sich mit Baselines wie DreamerV3 oder Gato. Stattdessen wird eine maßgeschneiderte dreiteilige AGI-Definition eingeführt und anschließend wird der Erfolg anhand eigener Kriterien ohne externe Maßstäbe erklärt.

Dieser Schritt spiegelt ein vertrautes Muster im Hype um KI wider: Erfinde eine neue Metrik, meistere sie und umgehe die schwierigen Vergleiche. Ohne direkte Zahlen zu etablierten Aufgaben kann niemand sagen, ob Integrals „universeller Simulator“ tatsächlich einen gut abgestimmten PPO-Agenten plus ein großes Sprachmodell übertrifft oder einfach das erreicht, was handelsübliche Systeme bereits leisten. Ansprüche an die Energieeffizienz und Sicherheit bleiben ebenfalls rein qualitativ, ohne kWh-Zahlen, reale Trainingszeiten oder Effizienzkurven der Stichproben.

Im Gegensatz dazu steht die Arbeit von DeepMind zu vorstellungs­ver­stärkten Agenten aus dem Jahr 2017. DeepMind veröffentlichte eine vollständige Studie, stellte Architekturen und Trainingsdetails zur Verfügung und evaluierte in standardisierten RL-Umgebungen wie Sokoban und Labyrinthnavigation. Forscher konnten Ablationsstudien überprüfen, Lernkurven reproduzieren und darüber diskutieren, ob das „Vorstellungsmodul“ tatsächlich die Planung unter Unsicherheit verbesserte.

Die 3D-Hausbesichtigungs-Demo von Integral AI sieht konzeptionell ähnlich aus wie diese imaginationserweiternden Agenten: ein Agent erkundet, erstellt eine latente Karte und beantwortet Fragen wie „Habe ich meinen Laptop irgendwo im Haus liegen gelassen?“ Die Version von DeepMind durchlief eine Begutachtung auf der ICML; die Version von Integral bleibt hinter einer Blackbox verborgen, ohne Umgebungs-Spezifikationen, ohne Belohnungsfunktionen und ohne Vergleich zu alternativen Planern.

Diese Undurchsichtigkeit ist der Grund, warum die breitere KI-Gemeinschaft größtenteils mit den Schultern zuckt. Ohne Code, Protokolle oder sogar ein redigiertes technisches Preprint können Forscher die Fehlermodi nicht untersuchen, nicht auf Überanpassung an einen einzelnen Simulator testen oder sehen, wie das System über Spielzeugwohnungen hinaus skaliert. Bis Integral AI etwas so Konkretes bietet wie DeepMind im Jahr 2017, werden ernsthafte Labore und Gutachter das Label AGI-fähig als Marketing und nicht als Meilenstein betrachten, unabhängig von Jad Tarifis Lebenslauf oder seinem Jad Tefri – LinkedIn-Profil.

„Freiheitsbasierte KI“: Ein Spielveränderer für die Ausrichtung?

Freiheit steht im Mittelpunkt von Jad Tarifis Vorschlag zur Ausrichtung. Nicht Inhalte, die im Stil von „Sag keine schlechten Wörter“ gefiltert werden, und nicht eine festgelegte Liste von Asimov-ähnlichen Regeln, sondern ein System, das die menschliche Handlungsfähigkeit selbst als die Größe behandelt, die maximiert werden soll. In seiner Darstellung vermeidet ein ausgerichtetes AGI nicht nur Schaden; es erweitert aktiv, was Menschen wissen, wählen und tun können.

Statt eines brüchigen Stapels von Sicherheits-Patches verfolgt Integral AI ein einziges, ausdrückliches Ziel: die menschliche und kollektive Handlungsfähigkeit zu maximieren. Tarifi spricht von „freiheitbasierter KI“ als einem Optimierungsproblem, bei dem die Belohnung höher ist, wenn mehr Menschen mehr bedeutungsvolle Optionen haben. Das verschiebt die Frage von „Ist das erlaubt?“ zu „Erhöht diese Handlung die langfristige menschliche Freiheit?“.

Konkreter würde die AGI mögliche Zukünfte simulieren und sie danach bewerten, wie sie unseren Handlungsspielraum verändern. Ein Plan, der Macht zentralisiert, Überwachung verankert oder die Menschen abhängiger von einem einzelnen Akteur macht, würde bestraft. Ein Plan, der Wissen diversifiziert, die Koordination verbessert und Lock-in-Effekte verringert, würde belohnt werden.

Das erfordert ein Freiheitsmodell, das reichhaltiger ist als die üblichen Argumente zur freien Meinungsäußerung. Tarifis Version umfasst drei Achsen der Handlungsfähigkeit: - Wissen: Zugang zu genauen Modellen der Welt und von sich selbst - Wählen: echte Alternativen, keine falschen oder erzwungenen Optionen - Handeln: Werkzeuge, Ressourcen und Rechte, um Entscheidungen umzusetzen

Darum herum befindet sich das, was er eine „Alignierungswirtschaft“ nennt. Anstatt dass der Wert an Engagement oder Anzeigenklicks gebunden ist, würde der Wert an messbaren Zuwächsen an menschlicher Freiheit ausgerichtet. Grundsätzlich würden Produkte, Politiken und KI-Verhalten nach ihrem Einfluss auf die Handlungsfähigkeit bewertet, wodurch die Ausrichtung von einem philosophischen Diskurs zu einem wirtschaftlichen Signal wird.

Skeptiker werden fragen, wie man Freiheit quantifiziert, wer die Grundlage definiert und wie man Manipulationen verhindert. Tarifi's Antwort bisher ist, dass jede skalierbare Lösung zur Ausrichtung sich direkt mit diesen Fragen auseinandersetzen und sie in die Verlustfunktion einbetten muss.

Das 'Supernetz': Ein Internet der denkenden Maschinen

Illustration: Das 'Supernetz': Ein Internet der denkenden Maschinen
Illustration: Das 'Supernetz': Ein Internet der denkenden Maschinen

Integral AI möchte nicht nur einen schlaueren Chatbot. Es strebt ein „Supernetz“ an: ein planetarisches Netz aus verkörperten AGI-Agenten, die direkt mit Fabriken, Labors, Lagern und Stromnetzen verbunden sind und alle ein sich entwickelndes Weltmodell teilen.

In Integrals Präsentation führt jeder Agent seine universelle Simulator-Architektur lokal aus, angeschlossen an Kameras, Kraftsensoren, Roboter und SPS. Diese Agenten sagen nicht nur Texte voraus; sie steuern Förderbänder, stimmen chemische Reaktionen ab und konfigurieren Fertigungsstraßen neu, während sie kontinuierlich Abstraktionen und Fähigkeiten im Netzwerk austauschen.

Supernet sieht weniger aus wie die heutigen API-Aufrufe an OpenAI und mehr wie ein verteiltes Steuerungssystem für die Realität. Wo GPT‑4o oder Gemini hinter einem Eingabefeld sitzen, stellt Integral Flotten von Robotern und integrierten Steuerungen vor, die in der Lage sind:

  • 1Autonomes Erlernen neuer Aufgaben im physischen Raum
  • 2Koordiniere dich mit anderen Agenten über gemeinsame Abstraktionen.
  • 3Führen Sie komplexe Pläne von Anfang bis Ende ohne menschliches Mikromanagement aus.

Das unterscheidet es grundlegend von Text‑zuerst-KI. OpenAI, Google und Anthropic stellen hauptsächlich Modelle als Dienste zur Verfügung, die Fragen beantworten, Code schreiben oder Dokumente zusammenfassen. Integrals Vision ist Handlungs‑zuerst: Sprache wird nur eine Schnittstelle zu einem Substrat, das direkt Waren, Werkzeuge und letztendlich ganze Lieferketten bewegt.

Wenn Supernet wie beworben funktioniert, geht die wirtschaftliche Auswirkung weit über Callcenter und Texterstellung hinaus. Stellen Sie sich einen Betriebsleiter vor, der eingibt: „Errichten Sie ein neues Batteriewerk in Vietnam und erreichen Sie bis 2029 10 GWh/Jahr“, und das Netzwerk zerlegt das in Standortanalysen, Simulationen, Beschaffung, Liniengestaltung und Bauzeitpläne, um dann die Roboter und Auftragnehmer zu steuern, die dies umsetzen.

Ein solches System verringert die Verzögerung zwischen menschlicher Absicht und physischer Handlung. Logistiknetzwerke könnten sich als Reaktion auf Nachfrageschocks selbst neu konfigurieren, Labore zur Arzneimittelforschung könnten rund um die Uhr mit robotergestützten Chemikern iterieren, und kleine Unternehmen könnten übergeordnete Ziele setzen, die ihnen Fertigungskapazitäten verleihen, die mit den heutigen Großkonzernen konkurrieren.

Die gesellschaftlichen Konsequenzen wären ebenso drastisch. Ein Supernetz, das zuverlässig ausgerichteten Zielen gehorcht, könnte die Produktivität und Dekarbonisierung enorm steigern; eines, das falsch interpretiert wird oder entführt wird, könnte Ressourcen fehlerhaft zuweisen, die Infrastruktur stören oder industrielle Kapazitäten mit Maschinen-Speed bewaffnen. Integrals "verkörperte Superintelligenz" ist nicht nur eine weitere Modelleinstufung – es ist ein Vorschlag, AGI direkt mit dem globalen Nervensystem zu verbinden.

Der Klang der Stille: Warum die gedämpfte Reaktion?

Die Stille rund um die Ankündigung von Integral AI beginnt mit Timing und Erschöpfung. Nach Jahren von AGI-Teasern aus Labors und von Gründern haben sich in der KI-Welt dicke Schwielen gegen die Behauptungen der "ersten der Welt" gebildet. Ein Tweet mit 565 Aufrufen, fünf Retweets und sechs Likes von einem ehemaligen Google-Gründer hat kaum Gewicht im Kontext täglicher Modellerweiterungen und Schlagzeilen wie "GPT-5 wird AGI sein".

Hype-Müdigkeit trifft auf Format. Integrals große Enthüllung dreht sich um einen 3D-Agenten, der stillschweigend synthetische Räume erkundet, und nicht um einen viralen Chatbot, den jeder anstubsen kann. Kein Chatbot, keine öffentliche API, kein Eintrag in der Benchmark-Rangliste bedeutet kein offensichtliches Meme, keine Screenshots und keinen TikTok-bereiten Moment, um die Aussage in den Mainstream zu ziehen.

Die Signalhierarchie in der KI arbeitet auch gegen sie. Startups, die Märkte bewegen, kommen normalerweise mit: - Einem herausragenden Konferenzpapier oder arXiv-Vorabdruck - Einem gewichtigen VC-Termsheet - Einem Benchmark-Ergebnis an der Spitze der Rangliste

Integral bietet davon noch nichts an, nur eine Pressemitteilung und einen ausgefeilten Demofilm. Ohne ein NeurIPS-Papier oder eine Finanzierungsrunde von 100 Millionen Dollar fehlt der Anspruch die institutionellen Hinweise, die Journalisten, Investoren und Forscher als Filter verwenden.

Architektur fügt eine weitere Ebene an Reibung hinzu. Tarifi verändert keine Transformer; er schlägt Abstraktions- und Vorhersage „universelle Simulatoren“ vor, inspiriert vom Neokortex. Für Forscher, die in Aufmerksamkeits-Schichten und Skalierungsgesetzen vertieft sind, ist die Bewertung eines proprietären, nicht-transformer-basierten Stacks ohne Open-Source-Code oder Mathematik mit hohem Aufwand und unklarem Nutzen verbunden.

Risikoabwägung für Experten und pressetrends steht hier konservativ. Die Unterstützung eines „AGI-fähigen“ Systems ohne unabhängige Überprüfung birgt einen Reputationsnachteil und fast keinen Vorteil. Analysten, die sich intensiver mit dem Thema befassen möchten, verweisen stattdessen auf langsamere, skeptischere Analyseansätze wie MIT Technology Review – Kann das System von Integral AI wirklich AGI sein?, während das breitere Ecosystem meist nur mit den Schultern zuckt und scrollt.

Geschichte oder Hype? Die endgültige Analyse

Die Geschichte könnte Integral AI als den stillen Beginn von etwas Großem oder als einen weiteren selbstbewussten Umweg im KI-Hype-Zyklus in Erinnerung behalten. Auf dem Papier sieht der Fall des Unternehmens ungewöhnlich stark aus: ein Gründer, Jad Tarifi, der frühzeitig an generativen KI-Projekten bei Google gearbeitet hat, einen Doktortitel in KI besitzt und Jahre damit verbracht hat, über neokortex-inspirierte Systeme nachzudenken. Er ist kein zufälliger YouTuber mit einer Präsentation; er ist die Art von Person, die große Labore einstellen, um die nächste Generation von Modellen zu entwickeln.

Integrals Kritik an den heutigen Systemen trifft ebenfalls ins Schwarze. Aktuelle große Sprachmodelle sind nach wie vor vorhersagebasierte Maschinen: Sie ordnen Eingaben Ausgaben zu, merken sich Benchmarks und verbrauchen erstaunliche Energiemengen, ohne explizite Weltmodelle zu bilden. Integrals Vorschlag – hierarchische „Abstraktions- und Vorhersagesimulatoren“, die autonom Fähigkeiten erlernen, während des Lernens sicher bleiben und ein energieneffizientes Niveau erreichen, das mit dem des Menschen vergleichbar ist – zielt direkt auf die drei größten Kritikpunkte an der heutigen KI ab.

Dann trifft die Realität: Es gibt fast keine überprüfbaren Beweise. Keine peer-reviewed Studien auf arXiv. Kein Open-Source-Code. Keine API oder sogar eine eingeschränkte Forschungsanwendung für Drittanbieter-Labore. Die Flagship-3D-Demo wirkt eher wie ein bescheidenes Forschungsprototyp als ein Einblick in verkörperte Superintelligenz, und das Unternehmen bietet keine quantitativen Benchmarks im Vergleich zu Standardaufgaben in Navigation, Planung oder Proben-Effizienz an.

Die Kommunikation hat nicht geholfen. Ein Startup behauptet, das weltweit erste AGI-fähige System entwickelt zu haben, und niemand spricht darüber, weil die Einführung aus einer BusinessWire-Pressemitteilung, einem Tweet mit niedriger Interaktion und einer schicken, aber spärlichen Website besteht. Kein technischer Bericht, keine Ablationsstudien, kein Vergleich zu Modellen wie GPT-4, Claude oder modernen Weltmodell-Agenten.

Bis jetzt erscheint die Vision von Integral AI revolutionär, doch die Behauptung selbst bleibt unbewiesen. Die Beweislast liegt vollständig bei Tarifi und seinem Team, und in der KI zählen Architekturdiagramme und philosophische Diskussionen nicht als Beweis.

Wenn es Ihnen wichtig ist, ob dies Geschichte oder Hype ist, achten Sie auf drei Dinge: ein detailliertes technisches Papier mit experimentellen Ergebnissen, unabhängige Drittanbieter-Benchmarks, die ihre Behauptungen reproduzieren, und eine bedeutende Finanzierungsrunde oder Laborpartnerschaft. Bis mindestens eines davon erscheint, baut Integral AI entweder stillschweigend die Zukunft auf – oder schreibt sich stillschweigend in eine Fußnote.

Häufig gestellte Fragen

Was ist Integral AI?

Integral AI ist ein in Tokio ansässiges Startup, das von dem ehemaligen Google-AI-Forscher Jad Tarifi gegründet wurde. Sie behaupten, das weltweit erste „AGI-fähige Modell“ entwickelt zu haben, das sich auf verkörperte Intelligenz und Robotik konzentriert.

Was macht den Anspruch von Integral AI auf AGI anders?

Sie definieren AGI anhand von drei strengen Kriterien: autonomes Lernen von Fähigkeiten ohne menschliche Daten, sichere Beherrschung ohne katastrophale Fehler und Energieeffizienz, die mit der von Menschen vergleichbar ist. Dies setzt die Messlatte höher als bei den meisten Definitionen.

Warum sind KI-Experten skeptisch gegenüber dieser Behauptung?

Der primäre Skeptizismus rührt von einem Mangel an überprüfbaren Beweisen her. Integral AI hat kein technisches Papier veröffentlicht, ihren Code nicht als Open Source bereitgestellt und ihr Modell nicht für unabhängige, externe Benchmark-Tests eingereicht.

Was ist verkörperte Superintelligenz?

Es ist das Konzept einer AGI, die nicht nur Texte oder Bilder verarbeitet, sondern auch in der Lage ist, die physische Welt durch Robotik wahrzunehmen und zu handeln. Die langfristige Vision von Integral AI ist ein globales Netzwerk dieser Agenten, das sie 'Supernet' nennen.

Frequently Asked Questions

Die roten Flaggen: Wo ist der Beweis?
Rote Flags beginnen mit Abwesenheit, und Integral AI hat eine riesige: kein begutachtetes Papier, kein Open-Source-Code, keine öffentliche API, nicht einmal einen technischen Bericht mit genügend Details, um Ergebnisse zu reproduzieren. Bei einer Behauptung so stark wie „das weltweit erste AGI-fähige Modell“ ist dieses Vakuum bedeutender als jedes schicke Demovideo. Im Moment existiert der einzige Beweis auf einer Marketingseite, in einer Pressemitteilung und in einem sorgfältig bearbeiteten Video.
„Freiheitsbasierte KI“: Ein Spielveränderer für die Ausrichtung?
Freiheit steht im Mittelpunkt von Jad Tarifis Vorschlag zur Ausrichtung. Nicht Inhalte, die im Stil von „Sag keine schlechten Wörter“ gefiltert werden, und nicht eine festgelegte Liste von Asimov-ähnlichen Regeln, sondern ein System, das die menschliche Handlungsfähigkeit selbst als die Größe behandelt, die maximiert werden soll. In seiner Darstellung vermeidet ein ausgerichtetes AGI nicht nur Schaden; es erweitert aktiv, was Menschen wissen, wählen und tun können.
Der Klang der Stille: Warum die gedämpfte Reaktion?
Die Stille rund um die Ankündigung von Integral AI beginnt mit Timing und Erschöpfung. Nach Jahren von AGI-Teasern aus Labors und von Gründern haben sich in der KI-Welt dicke Schwielen gegen die Behauptungen der "ersten der Welt" gebildet. Ein Tweet mit 565 Aufrufen, fünf Retweets und sechs Likes von einem ehemaligen Google-Gründer hat kaum Gewicht im Kontext täglicher Modellerweiterungen und Schlagzeilen wie "GPT-5 wird AGI sein".
Was ist Integral AI?
Integral AI ist ein in Tokio ansässiges Startup, das von dem ehemaligen Google-AI-Forscher Jad Tarifi gegründet wurde. Sie behaupten, das weltweit erste „AGI-fähige Modell“ entwickelt zu haben, das sich auf verkörperte Intelligenz und Robotik konzentriert.
Was macht den Anspruch von Integral AI auf AGI anders?
Sie definieren AGI anhand von drei strengen Kriterien: autonomes Lernen von Fähigkeiten ohne menschliche Daten, sichere Beherrschung ohne katastrophale Fehler und Energieeffizienz, die mit der von Menschen vergleichbar ist. Dies setzt die Messlatte höher als bei den meisten Definitionen.
Warum sind KI-Experten skeptisch gegenüber dieser Behauptung?
Der primäre Skeptizismus rührt von einem Mangel an überprüfbaren Beweisen her. Integral AI hat kein technisches Papier veröffentlicht, ihren Code nicht als Open Source bereitgestellt und ihr Modell nicht für unabhängige, externe Benchmark-Tests eingereicht.
Was ist verkörperte Superintelligenz?
Es ist das Konzept einer AGI, die nicht nur Texte oder Bilder verarbeitet, sondern auch in der Lage ist, die physische Welt durch Robotik wahrzunehmen und zu handeln. Die langfristige Vision von Integral AI ist ein globales Netzwerk dieser Agenten, das sie 'Supernet' nennen.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts