TL;DR / Key Takeaways
Das AGI-Lotterieticket
Investoren bewerten OpenAIAI, als ob es bereits die Zukunft besitzt. Sekundäre Aktienverkäufe und interne Ziele schwingen die Bewertungen jetzt im Bereich von 500 Milliarden bis 1 Billion Dollar, Zahlen, die ein siebenjähriges Startup in die gleiche Liga wie Meta und Nvidia katapultieren. Dieses Preisschild spiegelt kein Geschäft wider, das API-Anfragen und Unternehmenskonten verkauft; es spiegelt ein fantasievolles Szenario wider, in dem OpenAIAI eine weltbeherrschende künstliche allgemeine Intelligenz hervorbringt.
Dies ist die Theorie des AGI-Lotterietickets. Unterstützer kaufen keine Rabattströme von einem SaaS-Unternehmen; sie erwerben eine Kaufoption auf die Erfindung eines „digitalen Gottes“, der jede Branche gleichzeitig auf den Kopf stellen kann. Wenn AGI eintrifft und OpenAIAI es kontrolliert, wirkt die heutige Bewertung günstig; wenn dies nicht der Fall ist, stürzt die Bewertung bei Kontakt mit der Realität zusammen.
So betrachtet, erscheint OpenAI nicht mehr wie ein Unternehmen, sondern wie eine strukturierte Wette. Die Geschichte funktioniert nur, wenn man die vier fragilen Säulen, die die Struktur stützen, ignoriert, wie David Shapiro sie nennt: Graben, Ökosystem, Geschäftsmodell und Finanzierung. Jede dieser Säulen wirkt fragil in einer Welt, in der Gemini, Claude, DeepSeek und OpenAI-Quellmodelle um die Modellparität konkurrieren.
Auf dem Papier ist OpenAIAI ein Token-Nutzungsmodell. Es verkauft Text-, Bild- und Videoerstellungen, gemessen in Millionen von Tokens, eine commodity API, die Unternehmen gegen Gemini, Claude, Llama oder Mistral mit einer Konfigurationsänderung austauschen können. Als Sam Altman "Intelligenz, die zu günstig ist, um sie zu messen" versprach, untergrub er implizit das einzige, was OpenAIAI derzeit misst.
Die Umsatzschätzungen liegen im Jahr 2024 zwischen 3 und 4 Milliarden Dollar, möglicherweise sogar bis zu 10 bis 20 Milliarden Dollar bei den optimistischsten Prognosen in den kommenden Jahren. Die Kosten für Training und Inferenz sowie die Verpflichtungen für Chips und Rechenzentren sind um Größenordnungen höher, mit öffentlichen Berichten über Hunderte von Milliarden an geplanten Investitionen durch Partner wie Microsoft, Oracle und CoreWeave. Diese Kalkulation erfordert exponentielles Wachstum und Premiumpreise in einem Markt, der bereits um die untersten Preise konkurriert.
Der Hype besagt, dass OpenAIAI eine unaufhaltsame Billionen-Dollar-Inevitabilität ist. Die Bilanz, die Wettbewerbssituation und die Stückkosten zeigen jedoch, dass es sich um ein Hochrisikolotterieticket handelt, dessen Hauptgewinn möglicherweise niemals gezogen wird.
Säule 1: Der unglaubliche verschwindende Graben
Früher hatte der Begriff "Moat" eine Bedeutung in der KI. Anfang 2023 überragte GPT-4 Bard und jedes Experiment mit OpenAI-Quellen. Ende 2024 hatten Gemini 1.5 Pro, Claude 3.5 Sonnet und DeepSeek-V3 entweder gleichgezogen oder GPT-4 bei den zentralen Benchmarks wie MMLU, GSM8K und HumanEval übertroffen, und Gemini 2.0 sowie Gemini 3 zielen bereits auf die neuesten Modelle von OpenAI ab, nicht auf die des letzten Jahres.
Google behauptet nun, dass Gemini 1.5 Pro in mehr als 80 % seiner internen Bewertungen besser abschneidet als GPT-4, während Anthropic Claude 3.5 Sonnet als überlegen bei der Code-Generierung und beim langen Kontextverständnis anpreist. Die chinesischen und zweisprachigen Benchmarks von DeepSeek zeigen eine Gleichwertigkeit oder eine bessere Leistung als GPT-4 in mehreren Sprachaufgaben zu einem Bruchteil der Kosten. Der Vorsprung der Modelle hat sich von Jahren auf Quartale und dann auf Monate reduziert.
Die sogenannte Geheimsauce hinter diesen Systemen ist längst kein Geheimnis mehr. Die Skalierungsgesetze von OpenAI, DeepMind und Anthropic besagen alle dasselbe: mehr Daten, mehr Rechenleistung, vorhersehbare Gewinne. Varianten von Transformern, Mischungen von Experten, retrieval-unterstützte Generierung und Instruktionsfeinabstimmung sind Standardrezepte, keine mystische Kunst.
Jedes große Labor veröffentlicht mittlerweile genügend Architektur- und Trainingsdetails, sodass Wettbewerber die groben Züge nachzeichnen können. Nvidias CUDA-Stack, PyTorch, JAX und die Trainingsbibliotheken von OpenAI verkürzen die Distanz zwischen einem Forschungspapier und einem produktionsreifen Modell. Der Vorteil liegt in den Implementierungsdetails und der Infrastruktur, nicht in einem geheimen algorithmischen Durchbruch.
Inzwischen haben sich OpenAI-Modelle von Spielzeugen zu Standards entwickelt. Llama 3 70B und Mistral Large erreichen oder nähern sich der Leistung von GPT-4 bei vielen Unternehmensanwendungen, wenn sie feinabgestimmt sind. Unternehmen setzen zunehmend ein:
- 1Llama 3 Varianten auf privaten GPUs
- 2Mistral 7B/8x22B für latenzarme APIs
- 3Maßgeschneiderte Anpassungen für domänenspezifische Aufgaben
Kontrolle, Datenspeicherung und Kosten treiben diesen Wandel voran. Eine Bank oder ein Krankenhaus kann Llama 3 auf eigener Hardware betreiben, PHI oder Handelsdaten intern speichern und einen Abbruch durch einen einzelnen Anbieter vermeiden. Für viele CIOs hat „gut genug und im Besitz“ Vorrang vor „etwas besser und gemietet“.
Technologische Überlegenheit in der KI verwässert jetzt in einem 6–12-monatigen Zyklus. Man kann keine 1 Billion Dollar Bewertung für eine Führungsposition aufstellen, die jedes Mal verschwindet, wenn ein Rivale einen neuen Meilenstein bei Hugging Face setzt.
Säule 2: Ein Ökosystem, das auf Sand gebaut ist
OpenAIAI verkauft nur eine Sache: Tokens. Der Umsatz stammt aus der Abrechnung von API-Anfragen und der Nutzung von ChatGPT, ein Modell, das weniger wie das Ökosystem von Apple aussieht und mehr wie ein Versorgungsunternehmen. Selbst optimistische Berichte wie OpenAIAI überschreitet 12 Milliarden USD ARR: Der 3-Jahres-Sprint, der neu definiert hat, was beim Skalieren von Software möglich ist räumen stillschweigend ein, dass das Kerngeschäft „nutzungsbasierte KI-Infrastruktur“ ist.
Apple, Google und Microsoft verkaufen keine Modelle; sie verkaufen Umgebungen. iOS, Android und Windows laufen auf Milliarden von Geräten, mit Standardassistenten, Tastaturen, Browsern und Produktivitätssuiten, in denen KI zu einem Feature und nicht zu einem Produkt wird. Diese Integration ermöglicht es ihnen, stillschweigend Gemini, Claude oder ein hauseigenes Modell einzufügen, ohne die Nutzer zu fragen.
Betriebssysteme machen Fundamentmodelle zu austauschbaren Bausteinen. Microsoft kann Copilot direkt integrieren in: - Windows-Shell und Systemsuche - Office-Apps wie Word, Excel und Outlook - Azure-Entwicklertools und GitHub
Unter diesen Oberflächen wird das tatsächliche Modell zu einem Implementierungsdetail. GPT-4 heute, Gemini oder ein selbstentwickeltes Azure-Modell morgen.
Microsoft zeigt bereits diese Haltung. Copilot Studio und Azure AI Studio fördern die Modellweiterleitung über GPT-4, GPT-4o, Meta Llama, Mistral und proprietäre Unternehmensmodelle. Wenn OpenAI die Preise erhöht, in der Qualität nachlässt oder bei der Sicherheit stolpert, kann Microsoft seinen Verkehr mit einer Konfigurationsänderung woanders hinlenken.
Entwickler sehen dasselbe. Jeder große Anbieter von LLMs stellt eine REST-API mit JSON-Eingabe und JSON-Ausgabe zur Verfügung. Tools wie LangChain, LlamaIndex und maßgeschneiderte „Modell-Router“ ermöglichen es Teams, mit wenigen Zeilen Konfiguration zwischen GPT-4, Claude 3.5, Gemini 2.0 oder DeepSeek zu wechseln. Der Vendor-Lock-in verschwindet, wenn alle APIs wie `POST /v1/chat/completions` aussehen.
Nutzer empfinden ebenfalls nahezu keinen Reibungsverlust. Ein Startup kann sein Backend über ein Wochenende von OpenAIAI zu Anthropic wechseln und am Montag mit „jetzt schneller und günstiger“ werben. Für einen Produktmanager ist GPT-4 keine heilige Infrastruktur; es ist eine Kostenstelle, die jedes Mal Arbitrage einlädt, wenn ein Rivale die Preise senkt oder einen besseren Benchmark veröffentlicht.
Säule 3: Das Paradoxon der 'Zu Billig zum Messen'
OpenAIAI verkauft kein Produkt, sondern vielmehr ein Messinstrument. Jeder Dollar Umsatz fließt durch eine Abstraktionsebene: Tokens. Rufen Sie die API auf, streamen Sie etwas Text, erhalten Sie eine Rechnung für die Nutzung, genau wie Kilowattstunden auf einer Stromrechnung oder Gigabyte in einem Mobilfunktarif.
Das lässt OpenAIAI weniger wie Apple und mehr wie Con Edison erscheinen. Es gibt enorme Investitionen in Rechenzentren, Nvidia-GPUs und maßgeschneiderte Beschleuniger aus, um „Intelligenz“ als commoditisierte Dienstleistung bereitzustellen, und verlangt dann Bruchteile eines Cent pro tausend Tokens, während Rivalen darum wetteifern, diesen Preis zu unterbieten.
Sam Altmans Mantra „Intelligenz zu günstig, um sie zu messen“ untergräbt versehentlich das gesamte Setup. Wenn der zukünftige Preis für Inferenz gegen null tendiert, verschwindet das einzige, was OpenAI derzeit verkaufen kann – gemessene Intelligenz – als Gewinnquelle.
Catch-22: Die Bewertung von OpenAIAI berücksichtigt Hunderte von Milliarden zukünftiger Cashflows aus dem Verkauf von Tokens, während die eigene Führung eine Welt verspricht, in der Tokens kaum etwas kosten. Man kann nicht sowohl ein Billionen-Dollar-Dienst sein als auch in einer Welt leben, in der die Nutzung praktisch kostenlos ist.
Die Geschichte hat dieses Experiment mit der Kernenergie bereits durchgeführt. In den 1950er Jahren versprachen US-Behörden Strom „zu billig, um ihn zu messen“ und entdeckten dann, dass der Bau, die Versicherung und die Stilllegung von Kernkraftwerken zig Milliarden Dollar kosteten, während Regulierungsbehörden und Märkte die Endverbraucherpreise niedrig hielten.
Nukleare Versorgungsunternehmen wurden niemals zu margenstarken Techniklieblingen; sie wurden stark regulierte, einkommensschwache Infrastrukturprojekte. Ihre astronomischen Fixkosten konnten nicht durch den Verkauf von ultra‑preiswerten Elektronen gedeckt werden, sodass Steuerzahler und Verbraucher stillschweigend die Lücke auffüllten.
OpenAIAI steht vor einem ähnlichen strukturellen Missverhältnis. Das Training von Grenzmodellen kostet pro Generation Milliarden, und die Branchenfahrpläne sprechen von Einrichtungen im "Stargate"-Maßstab von über 100 Milliarden Dollar, dennoch fühlt sich die API-Preisgestaltung bereits dem Druck eines Wettlaufs nach unten durch DeepSeek, Llama und Mistral ausgesetzt.
Da OpenAI-Quellmodelle eine Leistung erreichen, die mit der von GPT-4 vergleichbar ist, nutzen Unternehmen zunehmend Selbsthosting oder günstigere Cloud-Lösungen und behandeln LLMs eher wie Linux oder Python als wie ein hochwertiges SaaS. Die Margen pressen sich genau in dem Moment, in dem die kapitalintensive Nutzung steigt.
Investoren setzen effektiv darauf, dass OpenAI die Gesetze der Nutzenökonomie außer Kraft setzen kann: die teuersten „Kraftwerke“ der Welt zu bauen und dann irgendwie der Anziehungskraft zu entkommen, billig austauschbare Watt an Intelligenz zu verkaufen.
Säule 4: Das finanzielle schwarze Loch
OpenAIAI sieht weniger wie ein Startup aus und mehr wie ein finanzielles schwarzes Loch. Das Trainieren von Grenzmodellen, das Hochfahren von Inferenzclustern und das Betreiben von Rechenzentren verschlingen jährlich Milliarden, während die gemeldeten Einnahmen bestenfalls näher an den Zehntausenden Milliarden liegen. Die Kluft zwischen Einkommen und Infrastrukturkosten zwingt zu einem ständigen Zustand der Kapitalbeschaffung.
Dieser Druck erklärt die moonshot-artigen Projekte wie Stargate, den Gerüchten zufolge über 100 Milliarden Dollar schweren Ausbau eines Supercomputers. OpenAI kann das nicht allein stemmen, daher verlässt es sich auf kapitalintensive Partner wie Microsoft, Oracle und GPU-Vermietungsunternehmen wie CoreWeave. Diese Partner finanzieren den Traum wiederum mit ihren eigenen Schulden- und Eigenkapitalinvestitionen.
Oracle verdeutlicht die Fragilität dieses Stacks. Kommentatoren wie David Shapiro beziffern die Verbindlichkeiten von Oracle auf etwa 126–127 Milliarden US-Dollar an Schulden, von denen ein großer Teil in den nächsten drei Jahren fällig wird. Steigende Zinsen und massive Investitionen in KI machen die Refinanzierung dieses Schuldenberges zunehmend teuer, selbst wenn ein vollständiger Zahlungsausfall unwahrscheinlich bleibt.
Wenn ein wichtiger Unterstützer solche Hebelwirkungen besitzt, hängt OpenAIs Finanzierungszeitraum von der Bilanz eines anderen ab. Wenn Oracle oder ein anderer Hyperscaler die Ausgaben einschränkt, rücken Projekte in Stargate-Größe in den Hintergrund oder verkleinern sich. OpenAIs muss dann entweder einen neuen Förderer finden oder Kapital mit noch aggressiveren AGI-Versprechen aufbringen.
Der Finanzierungszyklus beginnt weniger wie ein Geschäftsplan und mehr wie eine perpetuum mobile, die von Hype angetrieben wird, auszusehen. Das Muster sieht folgendermaßen aus:
- 1Versprechen AGI und weltverzehrende Produktivitätsgewinne
- 2Geld von Investoren und strategischen Partnern sammeln.
- 3Gib dieses Geld für GPUs, Datenzentren und Trainingsläufe aus.
- 4Erhebliche fixe Kosten und langfristige Schuldenverpflichtungen eingehen
- 5Brauchen Sie ein noch schnelleres Wachstum, um die nächste Finanzierungsrunde zu rechtfertigen.
- 6Versprechen Sie eine noch engere, reichhaltigere AGI, um den Kapitalfluss aufrechtzuerhalten.
Jede Unterbrechung dieser Kette legt die zugrunde liegenden Einheitökonomiken offen. Der Verkauf von gemessenen Tokens in einem von Preiskämpfen geprägten Markt kann die Infrastrukturwetten im Umfang von 100 Milliarden Dollar nicht decken, ohne außergewöhnliche Margen, die commoditisierte APIs selten aufrechterhalten. Wenn die Preise des Modells sinken, während die Compute-Kosten und Zinsaufwendungen steigen, vergrößert sich die Lücke.
Investoren sichern effektiv ein Unternehmen mit negativem Cashflow ab, während sie es wie ein hochmargiges Softwaremonopol bewerten. Das funktioniert nur, solange Kapital günstig bleibt, Partner solvent sind und die AGI-Erzählung weiter aufgebläht wird. Wenn einer dieser Säulen wackelt, kollidiert die Billionen-Dollar-Geschichte von OpenAIAI mit ihrer Bilanz.
Drei Wege ins Verderben
Drei Wege führen von OpenAIAIs aktueller Richtung weg, und keiner sieht aus wie das saubere Billionen-Dollar-Technik-Märchen, das durch die Bewertung im privaten Markt angedeutet wird. Jeder Pfad resultiert aus demselben strukturellen Problem: einem kapitalhungrigen Labor, das an einer gemeinnützigen Mission befestigt ist und über den Investoren, die größtenteils an Cashflows und nicht an Philosophie interessiert sind, einen spekulativen AGI-Jackpot baumeln lässt.
Szenario eins ist das IP-Strip-Mining. Microsoft verfügt bereits über eine perpetuelle Lizenz für die Modelle und die zugrunde liegende Technologie von OpenAIAI und setzt diese Modelle in Azure, Windows, Office und Copilot ein. Wenn sich die Wirtschaftlichkeit von OpenAIAI verschlechtert, kann Microsoft die wertvollsten Assets – Gewichte, Code und Talente durch selektive Einstellungen – behalten, während die gewinnbegrenzte Hülle zu einem schuldenbeladenen Zombie-F&E-Labor verkümmert.
Unter diesem Szenario wird OpenAIAI zu einer glorifizierten Skunkworks für seinen größten Unterstützer. Microsoft verkauft weiterhin Copilot und Azure AI mit minimalen Störungen und ersetzt, falls OpenAIAI schwächelt, einfach durch Gemini, Claude oder ein internes Modell. Investoren, die das AGI-Lottoticket gekauft haben, stellen fest, dass sie tatsächlich Microsofts KI-Tools zu Preisen der Risikokapitalfinanzierung und Margen des Dienstleistungssektors finanziert haben.
Szenario zwei ist die WeWork-Implosion. Berichten zufolge hat OpenAIAI Verbindungen oder Gespräche über Computerkapazitäten und Chipverpflichtungen in Höhe von Hunderten Milliarden Dollar über ein Jahrzehnt hinweg in Aussicht gestellt, wobei einige Analysen Infrastrukturbedarfe von bis zu 1 Billion Dollar projizieren; siehe OpenAIAIs 1 Billion Dollar Infrastrukturaufwendungen. Wenn das Umsatzwachstum ins Stocken gerät, verwandeln sich diese langfristigen Verpflichtungen von strategischen Vermögenswerten in einen vertraglichen Albtraum.
Eine Verlangsamung der API-Nutzung oder Unternehmensgeschäfte könnte eine Krise auslösen, in der OpenAI nicht in der Lage ist, die Take-or-Pay-Verpflichtungen gegenüber Cloud- und Rechenzentrums-Partnern zu erfüllen. Zu diesem Zeitpunkt drängen Gläubiger und strategische Investoren auf eine Aufspaltung: Verkauf des Modell-IP an Hyperscaler, Abgabe von Rechenzentrums-Mietverträgen und Abspaltung des Forschungsteams. Was übrig bleibt, sieht weniger aus wie ein Generationenunternehmen und mehr wie die Schale von WeWork nach dem Börsengang – versteigerte Vermögenswerte, beschädigter Markenname, Vision übergeben an denjenigen, der die Trümmer kauft.
Szenario drei ist der IPO-Aussteigbetrug. Mit privaten Bewertungen im Bereich von 500–750 Milliarden Dollar gibt es nur einen Weg, frühe Investoren zu einem Aufpreis auszuzahlen: ein spektakulärer Börsengang, der um "GPT-6" oder "frühe AGI" herum formuliert ist. Die Präsentation schreibt sich von selbst: rasch wachsender Umsatz, einmalige Marktmöglichkeiten und eine beinahe mythische Roadmap von Denkmodellen, die angeblich die Arbeitskosten in der gesamten Wirtschaft senken werden.
Öffentliche Märkte bepreisen jedoch letztendlich die Wirtschaftlichkeit pro Einheit und nicht die Stimmung. Wenn OpenAI vor der Behebung seiner Abhängigkeit von zeitabhängigen Token, subventionierten Preisen und massivem Investitionsaufwand an die Börse geht, werden Privatanleger die Dummen sein. Institutionen und Insider ziehen sich auf das Versprechen digitaler Gottheiten zurück; alle anderen wachen auf und besitzen ein glorifiziertes Versorgungsunternehmen mit Erwartungen an Luxus-Technologie und Margen wie in einem Kraftwerk.
Der falsche Kapitän für ein sinkendes Schiff?
Sam Altman hat sich den Ruf eines Startup-Bros erarbeitet, der eine Superkraft besitzt: Geld zu beschaffen und Narrative zu kreieren. Von Loopt über Y Combinator bis hin zu OpenAIAI war seine Kernkompetenz, Kapital davon zu überzeugen, dass die Zukunft nur eine Finanzierungsrunde entfernt ist. Dieses Talent hat dabei geholfen, OpenAIAI auf eine gemunkelte Bewertung von 500 Milliarden bis 1 Billion Dollar zu treiben, basierend auf dem Versprechen von AGI und nicht auf langweiligen Kennzahlen wie Margen oder vorhersehbarem Cashflow.
Das Skalieren dieses Versprechens sieht jedoch weniger nach einem YC-Demotag aus und mehr nach dem Betrieb einer globalen Versorgungsinfrastruktur. Satya Nadella verwandelte Microsoft in ein 3-Billionen-Dollar-Cloud-Ungeheuer, indem er sich intensiv mit Logistik beschäftigte: dem Ausbau von Azure, Unternehmensverträgen und regulatorischem Grabenkampf. Tim Cook verwandelte Apple leise in eine Supermacht der Lieferkette, die in der Lage ist, Hunderte von Millionen iPhones pro Jahr mit einer Fehlerquote im einstelligen Bereich und unerbittlicher Kostenkontrolle zu bewegen.
OpenAIAI hingegen verbrennt Milliarden für GPUs, Strom und Rechenzentren, während es auf Partner wie Microsoft und Oracle für die Infrastruktur angewiesen ist. Dieses Modell erfordert einen Betreiber, der besessen ist von Investitionsausgaben, Verfügbarkeit und Wirtschaftlichkeit, nicht nur jemanden, der auf der Bühne „AGI bald” anpreisen kann. Nadella oder Cook leiten Systeme, bei denen ein Scheitern wie ein Ausfall oder ein verfehltes Quartal aussieht; Altman leitet eine Hype-Maschine, bei der ein Scheitern wie das Zusammenbrechen der Erzählung aussieht.
Altmans umstrukturiertes gekapptes Gewinn-Modell verstärkte diese Bedenken. Der gemeinnützige Vorstand kontrolliert technisch den gewinnorientierten Teil, aber das Design fungierte als eine Governance-Giftpille, die Altman half, Einfluss zu konsolidieren, während OpenAI von normalem Aktionärsdruck isoliert blieb. Der Vorstandscoup von 2023 und die schnelle Wiederherstellung zeigten, wie undurchsichtig diese Kontrolle tatsächlich ist und wie wenig traditionelle Rechenschaftspflicht für ein Unternehmen besteht, das potenziell Technologien im Maßstab der Zivilisation handhabt.
Dann gibt es das Problem der Optik. Altman spricht davon, „alle Menschen zu begünstigen“, während er Berichten zufolge Luxusimmobilien kauft, in maßgeschneiderte Chipfabriken investiert und ultra-exklusive Projekte wie Worldcoin unterstützt. Dieser auffällige Konsum untergräbt den moralischen Nimbus und lässt OpenAI’s AGI-Kreuzzug weniger wie Altruismus erscheinen und mehr wie eine riskante, hochprofitale persönliche Wette.
Der Beginn des 'Solar' KI-Zeitalters
Nennen wir es das Große Auseinanderbrechen. Nach einer kurzen Phase, in der GPT-4 wie ein zentrales Gehirn in der Cloud erschien, zerfällt KI in Tausende von kleineren, günstigeren und lokaleren Modellen, denen es egal ist, wer den größten Transformer zuerst trainiert hat.
In den letzten zwei Jahren hat KI ihre Nukleare Ära erlebt. OpenAI, Microsoft, Oracle und CoreWeave haben Projekte wie „Stargate“ als Billionen-Dollar-Wetten auf Megaskalen-Datenzentren präsentiert, die jeweils Zehntausende von Gigawatt an Energie, Millionen von Nvidia- und AMD-Beschleunigern sowie Investitionen erfordern, die eher einem nationalen Infrastrukturausbau als einem Software-Upgrade gleichen.
Dieses Modell geht von einer Zukunft aus, in der jeder Intelligenz von einer Handvoll Hyperscale-Reaktoren mietet. Doch der Entwicklungstrend in der Hardware zeigt in eine andere Richtung. Apple, Qualcomm, Google und Intel statten Telefone, Laptops und Edge-Boxen mit immer leistungsfähigeren NPUs aus und verwandeln „KI in der Cloud“ in „KI in deiner Tasche“.
Apples A18- und M4-Chips bieten über 38 TOPS an ML-Leistung auf dem Gerät; Qualcomms Snapdragon X Elite bewirbt über 45 TOPS auf seinem NPU. Googles Pixel 9 läuft lokal mit Gemini Nano. Metas Llama 3.2 in den Varianten 3B und 1B läuft auf Consumer-Laptops und sogar auf hochwertigen Smartphones, ohne die Batterien zu überhitzen.
Das ist das Solarzeitalter der KI: überall viele kleine, preiswerte „Panels“ anstelle von wenigen riesigen Reaktoren. Sie laden ein 3B-Parameter-Modell herunter, passen es auf Ihrem Laptop an, und es erledigt still und heimlich E-Mail-Triage, Code-Vervollständigung und Dokumentensuche, ohne jemals die API von OpenAI zu berühren.
Entwickler optimieren bereits für diese Welt. Beliebte Stacks leiten Anfragen über: - Winzige Modelle auf Geräten für Latenz und Datenschutz - Mittlere OpenAI-Modelle (Llama, Mistral, DeepSeek) in günstigen Clouds - Nur die schwierigsten Probleme zu Premium-Frontier-Modellen
Jeder Schritt dieser Routing-Logik commodifiziert OpenAIAI weiter. Wenn 80 % der Benutzerinteraktionen auf kostenlose oder festpreisliche lokale Modelle und margenarme OpenAI-Quellen-Backends treffen, schrumpft der insgesamt adressierbare Markt für gemessene GPT-Token dramatisch.
Das Gewinner-nimmt-alles-Prinzip funktioniert nur, wenn jeder deine Mautstation passieren muss. Im Solarzeitalter ähnelt Intelligenz weniger einem Monopoldienst und mehr Wi-Fi: allgegenwärtig, austauschbar und in die Hardware integriert, die du bereits gekauft hast.
Ihre Unternehmensstrategie in einer Welt nach OpenAI
Vergessen Sie, Ihre Roadmap auf einen einzigen "KI-Gott"-Anbieter zu setzen. Entwickler und CIOs sollten Modellparität als Standard annehmen und für Fluktuation planen: Erwarten Sie, dass das beste Modell von heute morgen im Mittelfeld ist und dass das Preis-/Leistungsverhältnis weiter sinkt. Die Strategie wechselt von "Welches Modell gewinnt?" zu "Wie günstig kann ich sie austauschen und kombinieren?"
Unternehmen stimmen bereits mit ihren Clustern ab. Große Banken, Versicherer und Pharmaunternehmen standardisieren zunehmend auf Llama 3 und Mistral 7B/8x22B für interne Arbeitslasten, da sie diese auf ihren eigenen GPUs ausführen, Gewichte und Daten vor Ort speichern und eine Abrechnung pro Token vermeiden können. Wenn Sie ein 70B-Parameter-Modell einmal feinabstimmen und die Kosten über Tausende von Workflows amortisieren können, wird die gemessene API von OpenAI schnell zur Premium-Lösung, nicht zur Standardwahl.
Modellunabhängige Architekturen werden zwingend erforderlich. Teams sollten alle LLM-Aufrufe mit einem Modell-Router versehen, der dynamisch zwischen Folgendem wählen kann: - Lokalen OpenAI-Quellmodellen für kostengünstige, latenzarme Aufgaben - Cloud-APIs (GPT-4.1, Claude 3.5, Gemini 2.0) für komplexes Denken - Spezialmodellen für Code, Vision oder Sprache
Dieser Router sollte Qualität, Latenz und Kosten pro Anfrage überwachen und dann in Echtzeit arbitragefertig handeln.
Echte Abwehrkraft liegt in Daten, Infrastruktur und Produkt, nicht im Wiederverkauf eines fremden Grundmodells. Priorisieren Sie: - Strenge Datenpipelines, Reinigung und Kennzeichnung - Abruf-unterstützte Generierung über Ihr proprietäres Korpus - Enge Integration in bestehende Systeme (CRM, ERP, EMR, IDEs)
Investoren und Vorstände sollten jedes Startup hinterfragen, dessen Trumpfkarte „wir verwenden GPT“ ist. Wenn man DeepSeek, Claude oder Llama mit einer Konfigurationsänderung einsetzen kann, können das auch die Wettbewerber. Um eine nüchterne Gegengewicht zu den Präsentationen der Anbieter zu schaffen, kombinieren Sie OpenAIs eigenen The State of Enterprise AI 2025 Report - OpenAIAI mit Ihren internen Kostenkurven und betrachten Sie Basis-Modelle als austauschbare Dienstprogramme, nicht als Schicksal.
Ist der digitale Gott bereits tot?
Die Trillionen-Dollar-Fantasie von OpenAI stützt sich auf vier Säulen, die bereits rissig erscheinen. Der Graben ist verschwunden, da Gemini 3, Claude und DeepSeek bei Benchmarks von MMLU bis zu Programmiertests gleichauf oder besser als GPT-4 abschneiden. Das „Ökosystem“ hat sich über APIs und ChatGPT hinaus nie materialisiert, das Geschäftsmodell reduziert sich auf den Verkauf von gemessenen Tokens, und die Finanzierungsstruktur ähnelt einer Perpetuum-Mobile-Maschine, bei der neues Kapital alte Verluste jagt.
Die Nachfrage nach KI scheint eindeutig kein Ende zu finden. Jeder Unternehmensworkflow, jede Verbraucher-App und jeder Backend-Service kann mehr Automatisierung, mehr Zusammenfassungen und mehr Denkprozesse aufnehmen. Die Einschränkung liegt auf der Angebotsseite, wo das nuklear‑maßstäbige Modell gigantischer, zentralisierter Trainingsläufe auf physikalische Gesetze, Investitionskosten und Stromnetze trifft.
Das Training von GPT-Klassenmodellen verbraucht bereits Milliarden für GPUs, Rechenzentren und Elektrizität pro Zyklus. OpenAI und Partner haben Zusagen von über 1 Billion Dollar für zukünftige Chips und Rechenleistung abgegeben, eine Zahl, die nur aufginge, wenn Nutzung, Preise und die Geduld der Investoren unbegrenzt gemeinsam steigen. In der Zwischenzeit laufen OpenAIs Llama und DeepSeek-V3 auf handelsüblicher Hardware und unterbieten die Margen von „Intelligenz als Dienstleistung“.
Investoren bewerten ein normales SaaS-Unternehmen nicht mit 40–50x Umsatz; sie preisen ein Monopol auf AGI selbst. Die stillschweigende Wette: Ein Unternehmen erfasst einen „digitalen Gott“, sichert das geistige Eigentum und vermietet es an die Welt zurück. Diese Fantasie ignoriert die Modellparität, die regulatorische Kontrolle und die brutale Geschichte von Versorgungsunternehmen und Telekommunikation, wo kapitalintensive Strukturen überdurchschnittliche Renditen zertrampelten.
Märkte durchlaufen Manien, in denen ein einzelner Name zum Synonym für eine ganze Technologie wird: Netscape für das Web, BlackBerry für Smartphones, MySpace für soziale Netzwerke. Jede dieser Entwicklungen schien unvermeidlich, bis sich das Ökosystem weiterentwickelte, Standards gefestigt wurden und der Wert sich woanders hin verlagerte. Künstliche Intelligenz befindet sich nun an diesem Wendepunkt.
KI wird nicht verschwinden, wenn die Bewertung von OpenAI sinkt; sie wird sich verbreiten. Modelle werden in Chips, Betriebssysteme, Browser und spezielle Werkzeuge eingebettet, während die OpenAI-Gewichte wie Linux-Distributionen zunehmen. Das Unternehmen, das der Welt zuerst eine Chat-Schnittstelle zu "Intelligenz" verkauft hat, könnte sich als spektakuläre, aber vorübergehende Brücke zwischen dem vor-AI-Internet und dem, was nach dem Hype-Zyklus kommt, herausstellen.
Häufig gestellte Fragen
Was sind die wichtigsten Argumente gegen die massive Bewertung von OpenAI?
Die zentralen Argumente sind, dass OpenAI keinen wettbewerbsfähigen Rückhalt hat, kein Ökosystem-Lock-in besteht, ein unnachhaltiges und commodifiziertes Geschäftsmodell betreibt und extremen finanziellen Risiken ausgesetzt ist aufgrund seiner enormen Investitionsausgaben und Burn-Rate.
Warum wird das Geschäftsmodell von OpenAI mit dem eines Versorgungsunternehmens verglichen?
OpenAIs Hauptgeschäft besteht darin, API-Token zu verkaufen, ähnlich wie ein Versorgungsunternehmen Strom verkauft. Dieses Modell erfordert hohe Anfangsinvestitionen (Rechenzentren) für ein commodifiziertes Produkt mit niedrigen Gewinnmargen und einem hohen Risiko von Kundenabwanderung, im Gegensatz zu Softwaremonopolen mit hohen Gewinnmargen.
Was ist das 'Stargate'-Projekt?
Stargate ist Berichten zufolge ein Supercomputer-Projekt im Wert von mehreren Hundert Milliarden Dollar, das von OpenAI und seinen Partnern wie Microsoft geplant wird. Es steht für die enormen Investitionen, die erforderlich sind, um KI-Modelle der nächsten Generation zu trainieren, was Kritiker als finanziell nicht tragfähig ansehen.
Gibt es praktikable Alternativen zu OpenAI für Unternehmen?
Ja. Viele Unternehmen entscheiden sich für Open-Source-Modelle wie Llama und Mistral oder nutzen Wettbewerbsmodelle von Google (Gemini) und Anthropic (Claude). Diese Alternativen bieten mehr Kontrolle, Datenschutz und oft eine bessere Kosten-Effizienz.