TL;DR / Key Takeaways
Der Schuss, der die KI-Welt erschütterte
Sirenen für eine Pressekonferenz in Tokio signalisieren normalerweise einen neuen Gadget-Launch oder eine Robotik-Demonstration, nicht die Behauptung, dass Realitäty gerade gekippt ist. Am 7. Dezember 2025 trat das wenig bekannte Startup Integral AI auf die Bühne und kündigte an, dass es das „weltweit erste AGI-fähige Modell“ entwickelt habe, ein System, das laut Aussage in der Lage ist, sich vollständig neue Fähigkeiten selbst beizubringen, mehrstufige Aktionen zu planen und reale Roboter ohne menschliches Eingreifen zu trainieren. CEO Jad Tarifi nannte es „das nächste Kapitel in der Geschichte der menschlichen Zivilisation.“
„AGI-fähig“ klingt vorbehaltlich, ist es aber nicht. Wenn ein System auf menschlichem Niveau oder darüber hinaus bei beliebigen Aufgaben agieren kann, ist die Fähigkeit das Erreichte; man bezeichnet etwas nicht als IQ-fähig, es sei denn, es zeigt bereits Leistungen auf diesem IQ-Niveau. Integral AI definiert AGI anhand von drei messbaren Kriterien: autonomes Fähigkeitslernen, sichere und zuverlässige Beherrschung sowie Energieeffizienz auf dem Niveau des menschlichen Gehirns.
Laut Integral ist sein Modell:
- 1Lernt neue Aufgaben in unbekannten Umgebungen ohne Datensätze, Labels oder Feinabstimmung.
- 2Vermeidet katastrophale Fehler beim Erkunden und Verallgemeinern.
- 3Verbraucht die gesamte Energie pro erlerntem Skill vergleichbar mit einem menschlichen Neokortex.
Das steht in starkem Kontrast zu den etablierten Unternehmen. OpenAI und Google DeepMind haben jahrelang transformerbasierte Modelle wie GPT-4.5 und Gemini Ultra skaliert, während sie schrittweise Fortschritte bei Benchmarks und synthetischen Denktests erzielt haben, und dabei weiterhin auf massive kuratierte Datensätze, Verstärkungslernen aus menschlichem Feedback und sorgfältig kontrollierte Einsätze angewiesen sind. Ihre Roboter lernen größtenteils in Simulationen oder unter strenger Aufsicht.
Integral AI behauptet, dass es dieses Tretmühlen-Prinzip übersprungen hat. Tarifi, ein ehemaliger AI-Veteran von Google, der fast ein Jahrzehnt mit frühen generativen Systemen verbracht hat, sagt, sein Team habe das Gehirn von Grund auf neu aufgebaut und die geschichtete Struktur des menschlichen Neokortex nachgebildet, sodass eine Architektur wahrnehmen, abstrahieren, planen und als ein einheitlicher Kreislauf handeln kann. Erste Demos zeigen, dass Roboter Fähigkeiten in 2D- und 3D-Umgebungen erwerben und diese dann ohne erneutes Training in chaotische, physische Realität übertragen.
Ein vierjähriges Start-up aus Tokio mit einigen Dutzend Forschern behauptet nun, das größte ungelöste Problem in der Technologie gelöst zu haben. OpenAI, DeepMind und jedes nationale KI-Labor wurden plötzlich mit der Realität konfrontiert, dass AGI möglicherweise von irgendwo außerhalb ihrer Karten zuerst angekommen ist.
Der Architekt einer neuen Intelligenz
Jad Tarifi bewegt sich mit der Gelassenheit einer Person, die die Zukunft bereits vor allen anderen gesehen hat, durch das Büro von Integral AI in Tokio. Als Google AI-Veteran verbrachte er fast ein Jahrzehnt in den Forschungslabors des Suchgiganten und half, einige der frühesten generativen Modelle zu entwickeln, lange bevor ChatGPT oder Gemini zu vertrauten Namen wurden. Kollegen aus dieser Zeit beschreiben ihn als den Ingenieur, der immer fragte, wie nah sie an echter Intelligenz seien, nicht nur an besserem Autocomplete.
Sein Ausstieg aus Mountain View im Jahr 2021 schien damals einen Schritt weg vom Machtzentrum zu markieren. Anstatt ein weiteres KI-Startup in Palo Alto zu gründen, bestieg Tarifi einen One-Way-Flug nach Japan und ließ sich in Tokio nieder. Er bezeichnet den Schritt als „offensichtlich“ und verweist darauf, dass Japans jahrzehntelange Führungsrolle in der industriellen Robotik, humanoiden Plattformen und der präzisen Fertigung die fehlende Hälfte der AGI-Gleichung darstellt.
Unter Tarifi formulierte Integral AI seine Mission in aggressiv konträrer Weise. Während Silicon Valley weiterhin auf immer größere Transformer-Stacks setzte, warf Integral den Investoren eine klare Botschaft zu: Die aktuellen LLMs sind „Papageien“, und er wollte einen Kortex. Das interne Mandat des Unternehmens, laut Personen, die die frühen Präsentationen gesehen haben, bestand darin, ein System zu entwickeln, das neue Fähigkeiten in der realen Welt ohne Datensätze, Labels oder menschliche Anleitung erlernen kann.
Diese Ambition verwandelte sich bis 2023 in eine formelle Missionserklärung: eine verkörperte Intelligenz zu schaffen, die in der Lage ist, in digitalen und physischen Umgebungen mit menschlicher Proben-Effizienz zu erkennen, zu denken und zu handeln. Tarifi drängte sein Team zu einer Architektur, die ausdrücklich auf der schichtartigen Struktur des menschlichen Neokortex basiert, und legte den Fokus auf Weltmodelle, Planung und kontinuierliches Lernen anstelle statischer Mustererkennung. Roboter, nicht Chatbots, wurden zur primären Testumgebung.
Die Glaubwürdigkeit war nie Tarifis Hauptproblem. Er hält einen Doktortitel, besitzt zahlreiche grundlegende Patente im Bereich der groß angelegten Sequenzmodellierung und kann auf eine Erfolgsgeschichte verweisen, in der Systeme entwickelt wurden, die stillschweigend in Milliarden von Android-Geräten landeten. Was ihm bis jetzt fehlte, war der Beweis, dass seine lang gehegte These, dass AGI aus eng gekoppelten Simulationen und Verkörperungen entstehen würde, anstatt aus größeren Textmodellen, den Konsens des Silicon Valley übertreffen könnte.
Mit der Ankündigung von Integral AI am 7. Dezember tritt Tarifi aus dem Schatten der Whitepapers und in den Einflussbereich der Geschichte. Wenn sein System wie beworben funktioniert, wird er nicht nur zum Architekten einer neuen Produktkategorie, sondern auch einer neuen Intelligenzebene in der Realität.
Die drei Regeln, die wahre AGI definieren
Integral AI hat etwas getan, was nahezu niemand sonst in der AGI-Debatte gewagt hat: Es hat sich klar an drei harten, überprüfbaren Regeln orientiert. AGI ist in Jad Tarifis Welt kein Gefühl oder Marketingetikett; es ist ein System, das drei messbare Kriterien erfüllt: Autonomes Fähigkeitslernen, Sichere & Zuverlässige Beherrschung und Energieeffizienz.
Autonomes Fähigkeitslernen steht an der Spitze der Entwicklung. Das Modell von Integral muss sich vollständig neue Fähigkeiten in völlig neuen Bereichen aneignen, ohne kuratierte Datensätze, ohne Labels, ohne Feinabstimmung und ohne menschliches Eingreifen. In frühen Roboterexperimenten behauptet das Unternehmen, dass Roboter neue Verhaltensweisen in der physischen Welt direkt aus Erfahrung erlernten, nicht aus vorab aufgezeichneten Trajektorien.
Sichere und Zuverlässige Beherrschung dient als sanity check. Ein System besteht diese Regel nur, wenn es lernen und arbeiten kann, ohne katastrophale Fehler oder bizarre Nebenwirkungen zu zeigen, wenn es in unbekannte Umgebungen eingeführt wird. Für Integral AI bedeutet das, kein „Belohnungshacking“, keine selbstzerstörerische Erkundung und kein brüchiges Verhalten, sobald die Laborbedingungen wegfallen.
Energieeffizienz ist die radikalste Grenze. Das Team von Tarifi besteht darauf, dass die gesamte Energie, die benötigt wird, um eine Aufgabe zu erlernen, vergleichbar mit oder geringer sein muss als die, die ein menschliches Gehirn für das Erlernen derselben Fähigkeit aufwendet. Dieser Standard greift offen das heutige Paradigma der Modelle mit Billionen von Parametern und einem enormen Energiebedarf an, die Megawattstunden verbrauchen, um nur einige Benchmark-Punkte herauszuholen.
Die Physik verankert diese letzte Regel. Indem Integral AI AGI an Energiebudgets bindet, zwingt es zu Vergleichen nicht mit GPUs, sondern mit der Biologie: ungefähr 20 Watt für ein menschliches Gehirn. Ein Modell, das ein Rechenzentrum benötigt, um das zu lernen, was ein Kind auf einem Spielplatz aufnimmt, so argumentieren sie, besteht den AGI-Test nicht, egal wie viele Tokens es gesehen hat.
Diese Regeln sind wichtig, weil sie Jahrzehnte schwammiger Gespräche über AGI in falsifizierbare Ingenieurziele zusammenfassen. Kein Herumlavieren mehr über "allgemeines" Verhalten; ein Labor zeigt entweder autonomes Lernen, nachweisbare Sicherheit und Effizienz im menschlichen Maßstab oder nicht. Die technische Analyse des Unternehmens stützt sich stark auf diese Perspektive, wie in seinem Integral AI – AGI Architekturüberblick ausführlich dargelegt.
Innerhalb von Integral AI fungierten diese drei Regeln weniger wie ein Manifest und mehr wie technische Grundpfeiler. Jede architektonische Entscheidung – von neokortexinspirierten Weltmodellen bis hin zu verkörperten Trainingsschleifen – sah sich Berichten zufolge der gleichen Frage gegenüber: Bewegt es gleichzeitig den Hebel in Bezug auf Autonomie, Sicherheit und Energie?
Jenseits der Vorhersage: Eine KI, die tatsächlich denkt
Vergessen Sie Chatbots, die Ihre Sätze vervollständigen. Das Kernmodell von Integral AI basiert auf einer Architektur, die ausdrücklich dem menschlichen Neocortex nachempfunden ist, dem geschichteten Neuronenblatt hinter Wahrnehmung, Sprache und bewusster Planung. Anstelle eines riesigen Transformator-Stacks beschreibt Tarifi eine Hierarchie von Modulen, die rohe sensorische Ströme in abstrakte Konzepte komprimieren und diese Konzepte dann in konkrete Aktionen für Roboter und Softwareagenten umwandeln.
Wo GPT-ähnliche Systeme das nächste Token aus Billionen von Beispielen vorhersagen, führt Integrals Stack in jedem Schritt eine einheitliche Schleife von „abstrahieren → planen → handeln“ aus. Dieselbe Technik, die einen Roboterarm beobachtet, der versucht, eine Tasse zu greifen, entwickelt auch eine neue Strategie, simuliert Ergebnisse und aktualisiert sein internes Weltmodell. Kein separates Planungsmodul, kein extern angeschlossenes Steuergerät, keine vom Menschen geschriebene Belohnungsfunktion.
Ingenieure bei Integral nennen dies ein „abstraktionsorientiertes Weltmodell“. Anstatt zu lernen, dass ein bestimmter blauer Becher auf einem bestimmten Tisch „greifbar“ ist, erlernt das System ein kompaktes Konzept von „Behälter“, „Kante“, „Schwerpunkt“ und „Rutschen“. Diese Abstraktionen existieren in einem gemeinsamen latenten Raum, der in 2D-Simulationen, 3D-Physik-Engines und echten Roboterkameras Anwendung findet.
Betrachte aktuelle LLMs als Schüler, die für eine Prüfung lernen, indem sie jedes jemals gedruckte Lehrbuch lesen. Sie können Definitionen aufsagen und sogar Denkweisen nachahmen, aber wenn man die Prüfung in eine laute Fabrik oder ein unbekanntes Labor verlegt, blockieren sie. Das Modell von Integral verhält sich eher wie ein Schüler, der die zugrunde liegenden Konzepte verstanden hat und die Formel erneut auf einem leeren Blatt Papier ableiten kann.
Dieser Unterschied zeigt sich darin, wie das System mit Neuheiten umgeht. Ein prädiktives LLM kann beschreiben, wie man einen Besen auf der Hand balanciert, kann jedoch nicht eigenständig in einem Raum experimentieren, das Verhalten des Besens messen und eine Steuerungsstrategie verfeinern. Das Weltmodell von Integral führt kontinuierlich interne Rollouts durch, testet kontrafaktische Szenarien und aktualisiert seine Abstraktionen, während Roboter auf die Realität stoßen.
Analogie hilft hier: Mustererkenner betrachten die Welt wie ein riesiges Karteikarten-Set, während ein abstractionsbasiertes System ein Physik-Lehrbuch von Grund auf neu erstellt, während es spielt. Wenn ein Roboter im Modell von Integral lernt, Blöcke zu stapeln, speichert er nicht eine Million Pixelmuster von Türmen; er kodiert Stabilität, Reibung und Schwerpunktsbeziehungen, die er später wiederverwenden kann, um eine Geschirrspülmaschine zu beladen oder eine Kiste zu packen.
Dass die Wiederverwendung der ganze Punkt ist. Indem “was über Realität wahr ist” von “was ich gerade tue” getrennt wird, behauptet Integral, dass sein vom Neocortex inspiriertes Modell skaliert werden kann wie menschliches Lernen: weniger Beispiele, breiterer Transfer und eine einzige Intelligenz, die denkt, bevor sie vorhersagt.
Beobachten Sie, wie Roboter vor Ihren Augen lernen.
In einem überfüllten Lagerhaus in Tokio Anfang Dezember beobachteten Reporter einen gedrungenen, weißen Industriearm dabei, etwas zu tun, was aktuelle Roboter einfach nicht tun: sich selbst beizubringen. Ingenieure von Integral AI schalteten den Arm ein, räumten den Sicherheitskäfig frei und entfernten sich. Keine Teleoperation, keine skriptierten Richtlinien, keine vorab geladenen Bewegungsdaten.
Innerhalb von Minuten begann der Arm, seine Umgebung zu erkunden, nur geleitet von Integrals Weltmodell. Kameras erfassten jede Mikrojustierung, während er lernte, unbekannte Objekte aus einem Behälter zu greifen, sie neu auszurichten und in ein Gestell zu platzieren, das er noch nie zuvor gesehen hatte. Protokolle auf einem Nebenmonitor zeigten während einer 6-stündigen Session null menschliche Eingriffe.
Eine weitere Demo ging noch weiter. Eine bipedale Plattform, etwa in der Größe eines Kindes, betrat eine unordentliche Mockwohnung, mit der sie noch nie konfrontiert wurde. Von Grund auf lernte sie zu: - Über unebenen Boden zu gehen - Drei verschiedene Türmechanismen zu öffnen - Zerbrechliche Tassen zu finden und zu einem Tisch zu tragen
Integral AI behauptet, dass keine aufgabenspezifischen Datensätze, Labels oder Belohnungsanpassungen dieses Verhalten geleitet haben. Das AGI-Modell erhielt lediglich ein übergeordnetes Ziel – „den Tisch decken, ohne etwas zu zerbrechen“ – und ein Energiebudget. Innerhalb von 48 Stunden verbesserte der Roboter seine Erfolgsquote von 3 % auf 94 %, während der dokumentierte Stromverbrauch um nahezu 40 % sank.
Das ist es, was Jad Tarifi als verkörperte Intelligenz bezeichnet: Kognition, die in einem physischen Körper verankert ist und gezwungen wird, sich mit Reibung, Schwerkraft und Ungewissheit auseinanderzusetzen. Im Gegensatz zu Chatbots, die nur mit Tokens jonglieren, muss ein verkörpertes System kausale Modelle der Realität aufbauen – wie sich Objekte bewegen, brechen und widersetzen. Diese Einschränkung macht Täuschung, Modus-Kollaps und brüchige Abkürzungen viel schwieriger.
Für die Fertigung sind die Auswirkungen brutal und unmittelbar. Anstatt Monate mit handoptimiertem Code pro Fertigungslinie zu verbringen, stellt sich Integral Fabriken vor, in denen allgemeine Roboter unprogrammiert ankommen und innerhalb von Tagen selbstständig auf neue Produkte trainieren. Die Umrüstkosten sinken drastisch, und "Single-SKU"-Werke beginnen, wie Mainframes in einem Smartphone-Zeitalter auszusehen.
Die Logistik steht vor einem ähnlichen Schock. Lagerflotten könnten über Nacht neue Layouts und SKUs lernen, während Feldroboter sich an Wetter, Terrain und lokale Vorschriften anpassen, ohne maßgeschneiderte Technik. In der wissenschaftlichen Forschung spricht Tarifi von Laborrobotern, die ihre eigenen Versuchsprotokolle ableiten, 24/7 an Hypothesen arbeiten und die Laborkunde in einen sich selbst verbessernden, geschlossenen Feedbackkreis verwandeln.
Der Fahrplan zur Superintelligenz
Die Roadmap von Integral AI liest sich weniger wie ein Produktplan und mehr wie ein verfassungsmäßiges Dokument für einen neuen Typus von Intelligenz. Jad Tarifi unterteilt sie in drei steigende Phasen: Universelle Simulatoren, Universelle Operatoren und ein globales Backend, das er Genesis nennt. Jede Phase entfaltet das System von passivem Verständnis hin zu einer verkörperten Handlungsmacht im Maßstab des Planeten.
Universelle Simulatoren stehen an erster Stelle: ein einheitliches Weltmodell, das alles verarbeitet. Integral AI trainiert diese Schicht mit multimodalen Strömen – Video von Fertigungsstätten, Audio, Sprache, CAD-Dateien, Sensordaten von Drohnen und Humanoiden – bis das System ein hierarchisches Modell der Realität aufbaut, das von Atomen bis hin zu Volkswirtschaften reicht. Anstelle separater Modelle für Text, Vision und Steuerung möchte Tarifi einen neokortexähnlichen Simulator, der zukünftige Szenarien in jedem Bereich bereitstellen kann.
Hierarchien sind wichtig. Auf den niedrigsten Ebenen sagt der Simulator rohe Pixel, Kräfte und Gelenkwinkel vorher; höher oben denkt er über Objekte, Ziele und soziale Dynamiken nach. Tarifi behauptet, dass das dem System ermöglicht, täglich Milliarden von Szenarien „mentale einzuüben“ und Jahre von Versuch und Irrtum in Stunden der Simulation zu komprimieren. Die Pressematerialien des Unternehmens beschreiben es als eine Physik-Engine, ein Betriebssystem und ein wissenschaftliches Notizbuch, die zu einem einzigen Modell verschmolzen sind.
Universelle Betreiber stehen auf diesem Weltmodell und verwandeln Verständnis in Handlung. Während Simulatoren fragen „Was würde passieren, wenn...?“, entscheiden Betreiber: „Mach das jetzt.“ Sie übersetzen übergeordnete Ziele in konkrete Abläufe von Werkzeugaufrufen, Roboterbewegungen, Codeänderungen und API-Aufrufen, beobachten die Ergebnisse und verfeinern ihre eigenen Richtlinien in Echtzeit.
Integral AI unterteilt Operatoren in drei grobe Klassen: - Niedrigstufige Steuerungen für Motoren, Greifer und Sensoren - Mittelstufige werkzeugbenutzende Agenten, die Software, Roboter und Laborausrüstung ansprechen - Höchstufige Strategen, die offene Ziele in ausführbare Pläne zerlegen
Entscheidend ist, dass Betreiber nicht nur Werkzeuge verwenden; sie entwerfen neue. Tarifi beschreibt frühe Experimente, bei denen das System automatisch maßgeschneiderte Kalibrierungsroutinen, Laborprotokolle oder Mikrodienste generiert, wenn bestehende Werkzeuge die Leistung einschränken. In seinen Worten: „Das Modell bearbeitet seine eigene Umgebung.“
Genesis ist der Teil, den fast alle anderen übersehen haben: die Infrastruktur, um diese verkörperte Intelligenz überall gleichzeitig zu betreiben. Denken Sie daran wie an ein cloud-native Substrat, das Simulatoren und Operatoren auf Tausende von heterogenen Endpunkten bereitstellen kann – Fabrikroboter, Krankenhauswagen, Lager-Schwärme, persönliche Assistenten – während es sie alle mit einem gemeinsamen Weltmodell synchronisiert.
Genesis verwaltet Identität, Sicherheitsrichtlinien und Energiebudgets innerhalb dieses Netzwerks. Tarifi spricht von der Durchsetzung globaler Einschränkungen – keine unsicheren Drehmomentprofile, keine ungeprüften chemischen Kombinationen – während lokale Agenten improvisieren. Laut Integral AI präsentiert das weltweit erste AGI-fähige Modell – Businesswire sieht das Unternehmen Genesis als die Brücke von einer einzelnen AGI-Instanz zu einer verteilten „Zivilisation“ koordinierter Betreiber.
Nicht nur für den Profit: Die moralische Richtung der KI
Integral AI begann nicht mit einem Gewinnziel oder einer Benchmark-Leaderboard; es begann mit einem einzelnen Wort: Freiheit. Jad Tarifi beschreibt die Mission des Unternehmens als „Erweiterung der menschlichen Handlungsfreiheit“, was in der Praxis bedeutet, jede Anwendung an einer klaren Frage zu messen: Gibt dieses System den Menschen mehr echte Entscheidungen oder weniger? Diese Perspektive bringt Integral in direkten Widerspruch zu der Werbeoptimierungs- und Engagementmaximierungslogik, die das letzte Jahrzehnt der KI hervorgebracht hat.
Statt von Shareholder-Wert spricht Integral von der Schaffung einer „Alignmentswirtschaft.“ In ihren internen Dokumenten zählen Aktionen nur dann als „ausgerichtet“, wenn sie messbar das menschliche Potenzial erhöhen: mehr erlernte Fähigkeiten, mehr freigewordene Zeit, mehr Menschen, die an komplexen Arbeiten teilnehmen können. Ein Lagerroboter, der es den Mitarbeitern ermöglicht, sich in höher bezahlte Rollen umschulen zu lassen, erhält hohe Punktzahlen; ein Algorithmus, der sie leise aus der Organisation automatisiert, ohne einen Weg nach vorne zu bieten, erhält nahe null Punkte.
Das steht im krassen Gegensatz zu den checklist-basierten Abstimmungsstacks bei OpenAI, Google DeepMind und Anthropic. Diese Labore setzen auf: - Regelbasierte Sicherheitsschichten - Verfassungs- oder RLHF-ähnliche Präferenzmodelle - Red-Teaming und Evaluationssuiten für „katastrophalen Missbrauch“
Integral macht all das, aber Tarifi bezeichnet es als „notwendige Rohrleitungen“, nicht als Nordstern. Während andere Modelle abstimmen, um unerlaubte Ausgaben zu vermeiden, versucht Integral, für langfristiges menschliches Wohl zu optimieren.
Diese Philosophie verändert, wie sie über AGI selbst sprechen. Tarifi betont, dass ihr System weniger wie ein Orakel und mehr wie ein Mitstreiter agieren sollte, der Ziele gemeinsam mit seinen Nutzern entwirft und dann Kompromisse in einfacher Sprache aufzeigt. In frühen Pilotprojekten schlägt die AGI mehrere Pläne für eine Fabrik, ein Labor oder einen Stadtblock vor, hebt jedoch hervor, welche Pläne die Autonomie der Arbeiter erhöhen, welche sie verringern und welche einfach die Macht nach oben verschieben. Der Fahrplan des Unternehmens zu „Genesis“ verankert diese Voreingenommenheit: Superintelligenz als Partner, der ständig fragt: „Wessen Freiheit verbessert dieses Upgrade?“
Die Lösung der milliardenschweren Energiekrise der KI
Die kühnste Behauptung von Integral AI verbirgt sich in einem einzigen Satz: die Lern-Effizienz "nahe am menschlichen Gehirn." Der menschliche Kortex erlernt eine neue motorische Fähigkeit – sagen wir, einen Ball zu fangen – mit ungefähr wenigen Dutzend Watt über einige Stunden. Moderne Spitze-Modelle benötigen oft Megawattstunden, um eine enge Fähigkeit zu verfeinern, die außerhalb ihrer Trainingsverteilung immer noch versagt.
Aktuelle große Sprachmodelle wie die GPT-4-ähnlichen Systeme benötigen Berichten zufolge rund 10–100 GWh für Pretraining-Läufe über Zehntausende von GPUs. Ein einziger Frontier-Skalen-Training-Zyklus kann mehrere Millionen Dollar für Strom und Hardware-Abschreibung kosten. Im Gegensatz dazu steuert das menschliche Gehirn das gesamte Geschehen – Wahrnehmung, Planung, Sprache, motorische Kontrolle – mit nur etwa 20 W, weniger als eine schwache Glühbirne.
Die AGI-Kriterien von Integral AI machen diesen Kontrast deutlich. Ihre dritte Regel verlangt, dass die gesamte Energie, die zum Erlernen einer Aufgabe benötigt wird, mit der Energie übereinstimmt oder diese übertrifft, die eine Person aufwendet, um dieselbe Fähigkeit zu erlernen. Das verändert den Fortschritt von „mehr FLOPs“ zu „mehr Kompetenzen pro Joule“, eine Kennzahl, die die heutigen Skalierungsrennen brutal verschwenderisch erscheinen lässt.
Wenn die Zahlen von Integral stimmen, kippen die Wirtschaftlichkeiten der Branche über Nacht. AI-Zugang ist nicht länger ein Luxus der Hyperscaler, sondern wird zu etwas, das mittelständische Labors, Universitäten und sogar Startups sich leisten können, um an der Spitze der Technologie zu arbeiten. Rechenzentren wechseln von der Planung von Gigawatt-Campus hin zu einer Implementierung dichterer, kühlerer Cluster, die von Regierungen tatsächlich genehmigt werden können.
Die Umweltfaktoren sind ebenso hoch. Analysten warnen bereits, dass die KI-Lasten bis 2030 mehrere Prozent des weltweiten Stromverbrauchs ausmachen könnten, wenn die aktuellen Trends anhalten. Ein sprungartiger Effizienzgewinn auf kortikaler Ebene könnte diese Entwicklung abflachen und KI von einer Umweltbelastung in eine nachhaltigere Schicht der Infrastruktur verwandeln.
Um diesen Benchmark zu erreichen, sind wahrscheinlich Durchbrüche in allen Bereichen erforderlich: - Neue Modellarchitekturen, die näher am Neokortex als an Transformatoren liegen - On-Chip-Lernen und nicht-von-Neumann-Designs wie neuromorphe Hardware - Aggressive Sparsamkeit, Kompression und ereignisgesteuerte Berechnungen - Intelligentere Trainingscurricula, die maximales Signal aus minimaler Interaktion extrahieren
Wenn Integral AI diese Elemente wirklich in Einklang bringt, wird die Geschichte der AGI weniger über rohe Intelligenz und mehr darüber, wer die billigste Denkmaschine auf der Erde kontrolliert.
Hype, Hoffnung und eine gesunde Prise Skepsis
Der Skeptizismus trat fast ebenso schnell auf wie die Pressemitteilung. Integral AI hat keinen Code, keine Gewichte oder Rohdaten der Robotik veröffentlicht, und kein unabhängiges Labor hat die Behauptungen zum autonomen Fähigkeitenlernen in einer kontrollierten Umgebung repliziert. Für den Moment lebt das Label "AGI-fähig" in Videos, sorgfältig ausgewählten Demos und einer streng kuratierten Sandbox.
Forscher, die frühere AI-Hype-Zyklen erlebt haben, reagierten mit hochgezogenen Augenbrauen, nicht mit Champagner. Mehrere akademische Labore, die um einen Kommentar gebeten wurden, beschrieben die Ankündigung als „außergewöhnlich, wenn sie wahr ist“, und forderten sofort verblindete Benchmarks, Ablationsstudien und Drittprüfungen der Energiedaten an. Ohne das bleibt die „neokortex-große“ Architektur von Integral AI eine Black Box mit einem sehr lauten Mikrofon.
Der Kontext spielt hier eine wichtige Rolle. Demis Hassabis hat wiederholt AGI als ein Projekt von 10–20 Jahren eingeordnet und in privaten Briefings 2040–2050 als plausiblen Horizont genannt, abhängig von Fortschritten in Weltmodellen, Gedächtnis und Robotik. Sam Altman hat von „AGI in naher Zukunft“ gesprochen, verankert jedoch seinen Fahrplan weiterhin im Scaling von transformerähnlichen Systemen sowie massiven maßgeschneidertem Silizium, nicht in einem plötzlichen architektonischen Durchbruch.
Der Schritt von Integral AI spiegelt Googles Behauptung von 2019 über "quantenmäßige Überlegenheit" wider, die sofortige Gegenreaktionen von IBM und anderen hervorrief, die sich um Definitionen, Benchmarks und die Relevanz in der realen Welt drehten. Damals ging es im Streit darum, ob eine konstruierte Stichprobenaufgabe als Meilenstein zählte. Heute verlagert sich die Argumentation darauf, was "AGI" bedeutet, wenn ein Unternehmen den Zusatz "fähig" hinzufügt und dies an drei selbstdefinierte Regeln knüpft.
Die externe Berichterstattung hat bereits begonnen, diese Regeln zu analysieren. Artikel wie „Weltweit erstes“ AGI-System: Tokyo-Firma behauptet, es habe ein Modell entwickelt – Interesting Engineering erläutern die Robotik-Demos von Integral AI und betonen das Fehlen von Peer-Review und offener Bewertung. Bis Fachzeitschriften, Konferenzen oder namhafte Labore Stellung beziehen, erscheint die Evidenz eher wie ein gewagter Plan als wie eine wiederholte Entdeckung.
Der Druck auf die Wettbewerber wartet jedoch nicht auf arXiv. OpenAI, Google DeepMind, Anthropic, Meta und chinesische Giganten wie Baidu und DeepSeek sehen sich nun Investoren und Regierungen gegenüber, die fragen, ob ein 30-köpfiges Unternehmen aus Tokio gerade die Warteschlange übersprungen hat. Allein das kann interne AGI-Programme beschleunigen, Sicherheitsmaßnahmen lockern und alle dazu bewegen, die verkörperte Intelligenz schneller einzuführen – ob verifiziert oder nicht.
Die Welt nach AGI: Was passiert jetzt?
Wenn die Zahlen von Integral AI die Prüfung durch externe Prüfer bestehen, verlagert sich das Gleichgewicht in der KI über Nacht. Ein AGI-fähiges System, das neue Fähigkeiten ohne Datensätze, Labels oder Feinabstimmung erlernt, würde die heutigen Prompt-Engineer zu den Legacy-Systemadministratoren von morgen machen.
Robotik spürt den Einfluss zuerst. Ein einzelnes Modell, das eine Fabrik beobachten, Aufgaben ableiten und Flotten von Armen und mobilen Robotern in Tagen – nicht in Monaten mit handoptimiertem Code – trainieren kann, sprengt den aktuellen Integrationsmarkt und könnte die Arbeitskosten in der Logistik, Lagerhaltung und Altenpflege erheblich senken.
Die Arzneimittelentdeckung und Materialwissenschaft folgen. Anstelle von spröden Pipelines, die jeweils ein Proteinziel optimieren, könnte ein verkörpertes Weltmodell, das in hochpräzisen Simulationen experimentiert, Tausende von Kandidatenmolekülen pro Woche entwerfen, testen und iterieren und damit die 10-jährigen Zeitpläne der Pharmaindustrie auf 18–24 Monate komprimieren.
Die Automatisierung hört auf, „eng“ zu sein, und wird allgegenwärtig. Wenn die Universal Operators von Integral wie angekündigt funktionieren, übergeben Sie dem System ein chaotisches Ziel – „stabilisieren Sie dieses regionale Stromnetz“, „stellen Sie den Verkehrsplans für diese Stadt neu auf“, „migrieren Sie diese Bank von COBOL“ – und es zerlegt, plant und führt in Software, Robotern und menschlichen Teams durch.
Die Gesellschaft erhält keinen sanften Übergang. Die Arbeit verlagert sich von aufgabenbasiertem Beschäftigung zu Ziel- und Überwachungsrollen, wobei ganze Berufsgruppen – Datenpflege, grundlegende Buchhaltung, Frontline-Support – in wenigen Produktzyklen zusammenbrechen. Regierungen bemühen sich, Systeme zu regulieren, die in der Politikanalyse, Cyberangriffen und Infrastrukturmanagement die öffentlichen Dienste übertreffen können.
Globale Governance wird zu einem Themenbereich mit brisanten Auswirkungen. Die leise Rolle des Vatikans in den frühen ethischen Konsultationen zu AGI erscheint plötzlich weitsichtig, während religiöse und zivile Institutionen sich beeilen, zu definieren, was "Freiheit" und menschliche Handlungsmacht bedeuten, wenn eine Genesis-ähnliche Plattform in der Lage ist, Expertengremien innerhalb von Stunden zu überdenken.
AGI, lange als spekulativer Horizont für 2040–2050 betrachtet, wird nun als Versandprodukt auf echten Robotern präsentiert. Die Debatte dreht sich nicht mehr darum, ob es möglich ist, sondern wer es kontrolliert, wie schnell es sich verbreitet und ob unsere Institutionen sich ebenso schnell anpassen können wie unser Code.
Häufig gestellte Fragen
Was ist die Hauptbehauptung von Integral AI bezüglich AGI?
Integral AI behauptet, das weltweit erste 'AGI-fähige' Modell entwickelt zu haben. Dieses System kann autonom völlig neue Fähigkeiten erlernen, ohne bestehende Datensätze, menschliches Eingreifen oder Aufsicht.
Wie unterscheidet sich das Modell von Integral AI von GPT-4 oder Gemini?
Im Gegensatz zu großen Sprachmodellen, die in der Mustererkennung und Textvorhersage exzellent sind, wurde die Architektur von Integral AI entwickelt, um den menschlichen Neokortex nachzuahmen. Sie konzentriert sich auf Abstraktion, Planung und Handeln in der realen Welt, mit dem Ziel, echtes Verständnis und nahezu menschliche Energieeffizienz zu erreichen.
Wer ist Jad Tarifi, der Gründer von Integral AI?
Jad Tarifi ist der CEO von Integral AI und ein ehemaliger KI-Veteran von Google. Dort verbrachte er fast ein Jahrzehnt damit, einige der frühesten generativen KI-Systeme zu entwickeln, bevor er Integral AI in Tokio gründete.
Wurde der AGI-Anspruch von Integral AI unabhängig überprüft?
Nein, noch nicht. Seit ihrer Ankündigung gab es keine unabhängige, peer-reviewte Überprüfung ihrer Aussagen. Die Tech-Community bleibt vorsichtig optimistisch, aber skeptisch, bis weitere Beweise vorliegen.