OpenAI's Code Red: Krisenmodus aktiviert

OpenAI hat gerade seine höchste interne Warnstufe ausgerufen und versucht, ChatGPT zu reparieren, dessen Beliebtheit sinkt. Dies ist die Hintergrundgeschichte darüber, wie Googles Gemini und ein massiver Brain Drain den KI-Riesen in die Enge treiben.

Hero image for: OpenAI's Code Red: Krisenmodus aktiviert
💡

TL;DR / Key Takeaways

OpenAI hat gerade seine höchste interne Warnstufe ausgerufen und versucht, ChatGPT zu reparieren, dessen Beliebtheit sinkt. Dies ist die Hintergrundgeschichte darüber, wie Googles Gemini und ein massiver Brain Drain den KI-Riesen in die Enge treiben.

Das Memo, das Silicon Valley erschütterte

„Code Red“-Memos bleiben normalerweise in den Unternehmens-Slack-Kanälen verborgen. Sam Altmans jedoch nicht. Seine interne „Code Red“-Nachricht, die durch mehrere Leaks bestätigt wurde, versetzte OpenAI in den höchsten Dringlichkeitszustand, eine Art Kriegszustand, in dem fast jedes Team seine aktuellen Aufgaben niederlegen und sich auf ein Produkt konzentrieren muss: ChatGPT.

Bei OpenAI bedeutet Code Red jetzt eine umfassende Krisenreaktion und keine Anpassung des Fahrplans. Teams müssen Stellen umverteilen, Produkteinführungen pausieren und jede Arbeit rechtfertigen, die nicht direkt die Geschwindigkeit, Zuverlässigkeit oder Nutzerbindung von ChatGPT verbessert. Es spiegelt Googles eigenes „Code Red“ nach dem Debüt von ChatGPT im Jahr 2022 wider, doch diesmal spielt OpenAI auf der Defensive.

Altmans Memo schiebt ausdrücklich mehrere auffällige Initiativen auf die lange Bank. Laut Berichten von The Information und dem Wall Street Journal priorisiert OpenAI Folgendes herab: - Lange versprochene KI-Agenten, die autonom mehrstufige Aufgaben erledigen können - Den Echtzeit-„Pulse“-Feed mit trendenden Eingabeaufforderungen und KI-Inhalten - Geplante Werbemodelle und Experimente, um Werbung in ChatGPT einzufügen

Diese Projekte verschwinden nicht, aber sie verlieren an technischer Kraft und exekutiver Aufmerksamkeit. Ressourcen fließen stattdessen in Kernprodukt-Updates: schnellere Reaktionen unter Last, weniger Ausfälle, bessere Handhabung komplexer Abfragen und personalisierteres Verhalten, das die Nutzer bindet. Die Bildgenerierung und -bearbeitung, die schon lange ein Unterscheidungsmerkmal für OpenAI ist, rückt ebenfalls höher auf der Prioritätenliste.

Der Ton des Memos klingt weniger wie eine Motivationsrede und mehr wie eine klare Diagnose. Berichten zufolge warnt Altman, dass Wettbewerber wie Googles Gemini und Anthropic nun OpenAIs Vorsprung bedrohen und dass ChatGPT sich nicht mehr eindeutig überlegen anfühlt. Intern signalisiert das Besorgnis über Nutzerabwanderung, Markenwahrnehmung und das Risiko, ein weiteres commodifiziertes Interface über ähnlichen Modellen zu werden.

Unter der Dringlichkeit liegt ein klarer emotionaler roten Faden: die Angst, die Kontrolle über die Erzählung zu verlieren. Altman stützt sich auf Begriffe wie „Fokus“, „Dringlichkeit“ und „Besitz“, und drängt die Teams, jede Rückschritt von ChatGPT als existenzielle Bedrohung zu betrachten. Die Botschaft an die Mitarbeiter ist unmissverständlich – die Identität, Bewertung und Zukunft von OpenAI hängen davon ab, ChatGPT schnell spürbar zu verbessern, selbst wenn das bedeutet, die ehrgeizigsten Nebenprojekte auf Eis zu legen.

Zurück zu den Grundlagen: Ein Blick in die Triage von OpenAI

Illustration: Zurück zu den Grundlagen: Einblick in das Triage von OpenAI
Illustration: Zurück zu den Grundlagen: Einblick in das Triage von OpenAI

Code Red bei OpenAI bedeutet Triage, nicht Theater. Innerhalb des Unternehmens werden Teams von Experimenten und unterhaltsamen Nebenprojekten abgezogen und auf drei brutale Metriken umgeschichtet: Geschwindigkeit, Zuverlässigkeit und Personalisierung. Wenn sich ChatGPT nicht sofort, stabil und maßgeschneidert anfühlt, betrachten die Führungskräfte dies jetzt als einen Bug, nicht als eine Lücke im Angebot.

Geschwindigkeit ist am einfachsten zu messen und am schwierigsten zu fälschen. Berichten zufolge wurden die Latenz-Ziele strenger, während OpenAI darum kämpft, Reaktionszeiten von unter einer Sekunde selbst bei Spitzenlasten zu erreichen, wobei die Infrastruktur-Ausgaben bereits auf Hunderte von Milliarden im nächsten Jahrzehnt geschätzt werden. Zuverlässigkeit folgt dicht dahinter: weniger Fehler „Modell ist überlastet“, weniger stille Ausfälle und ein konsistenteres Verhalten über Web, Mobile und API hinweg.

Personalisierung ist das Ass im Ärmel. OpenAI möchte, dass ChatGPT Vorlieben, Schreibstil und wiederkehrende Aufgaben im Gedächtnis behält, ohne zum Datenschutz-Albtraum zu werden. Das bedeutet eine sicherere Langzeitgedächtnis, bessere Kontextverarbeitung über Sitzungen hinweg und subtile UI-Hinweise, die den Chatbot mehr wie ein Werkzeug, das Sie trainiert haben, erscheinen lassen, als einen generischen Assistenten.

Über all dem schwebt das Problem der übermäßigen Verweigerung. Nutzer haben im vergangenen Jahr Screenshots von ChatGPT gepostet, die zeigen, wie der Bot sich weigert, grundlegende Fragen zu Politik, Programmierung oder sogar Kochen zu beantworten, aufgrund übermäßiger Sicherheitsfilter. Wenn das Modell bei einer harmlosen Anfrage sagt: „Ich kann dabei nicht helfen“, verliert OpenAI das Vertrauen, und diese Nutzer probieren oft stattdessen Gemini oder Anthropic aus.

Das bedeutet, dass Moderationssysteme und -richtlinien neu abgestimmt werden müssen, damit sie zwischen tatsächlichem Schaden und Randfällen unterscheiden, die nur für einen automatisierten Filter bedrohlich erscheinen. Ingenieure betrachten jetzt falsche Positivmeldungen – unnötige Ablehnungen – als Produktfehler, die mit Abstürzen gleichzusetzen sind. Das Ziel: Die strikten Grenzen bei Missbrauch und Desinformation beizubehalten, während die Fläche für „Entschuldigung, das kann ich nicht tun“ drastisch verkleinert wird.

Bilder stehen ebenfalls wieder im Rampenlicht. OpenAIs DALL·E-Modelle haben einst KI-Kunst für die breite Masse definiert, aber Googles Gemini und Konkurrenten wie Midjourney haben diesen Vorsprung verringert. Code Red legt den Fokus darauf, die Bildgenerierung und -bearbeitung wie integrierte Bestandteile von ChatGPT erscheinen zu lassen und nicht wie eine angehängte Demo.

Das bedeutet eine engere Integration von Text-zu-Bild, Photoshop-ähnliche Bearbeitungswerkzeuge und schnellere Iterationszyklen. Wenn Sie ein Präsentationsdeck, eine Logoanpassung oder ein Produkt-Mockup beschreiben und in Sekundenschnelle verfeinern können, glaubt OpenAI, dass Sie in seinem Ökosystem bleiben werden, anstatt zu einem konkurrierenden Tab zu wechseln.

All diese Veränderungen lassen sich auf eine Sache zurückführen: das Nutzerverhalten. Interne Kennzahlen zeigen Berichten zufolge, dass Power-User zu Gemini wechseln für Programmierung, suchähnliche Anfragen und Bilder, während Anthropic leise Entwickler gewinnt, die Stabilität und weniger Ablehnungen schätzen. Code Red kodifiziert im Wesentlichen, was Nutzer seit Monaten in Unterstützungsforen und sozialen Netzwerken lautstark äußern.

OpenAI entfernt Ablenkungen – Werbung, Agenten, experimentelle Funktionen – und baut den Kern neu auf. Wenn ChatGPT in den nächsten Monaten schneller, weniger sprunghaft und visuell fähiger wird, werden Sie die direkten Ergebnisse dieser Priorisierung sehen.

Der Geist von Googles Vergangenheit

Die Geister von 2017 spuken noch immer in diesem Moment. Bevor ChatGPT „KI“ in ein App-Symbol verwandelte, saßen Google und DeepMind bequem an der Spitze des Feldes und veröffentlichten Papiere, die die Disziplin prägten, während alle anderen mitlasen. Wenn Sie KI damals verfolgt haben, fand die Action auf arXiv statt und nicht im Tab Ihres Browsers.

Googles entscheidender Schritt kam 2017 mit „Attention Is All You Need“, dem Papier, das die Transformer-Architektur einführte. Dieses Design – Selbstaufmerksamkeits-Ebenen, positionsabhängige Kodierung, massive Parallelität – wurde zum Rückgrat jedes modernen großen Sprachmodells, von GPT-4 über Gemini bis Claude. OpenAI, Anthropic, xAI: Alle bauen effektiv auf Googles Blaupause auf.

Innerhalb von Google waren die auf dem Transformer basierenden internen Systeme, Übersetzungstools und Suchversuche lange bevor die Öffentlichkeit etwas wie ChatGPT sah, bereits im Einsatz. Das Unternehmen verfügte über das perfekte Dreigespann: erstklassige Forschungstalente, Petabytes an Daten und Rechenzentren, die mit TPUs vollgepackt waren. Auf dem Papier sah niemand besser positioniert aus, um den ersten Mainstream-KI-Assistenten zu liefern.

Vorsicht hatte Vorrang. Die KI-Strategie von Google war stark auf forschungsorientierte Metriken und Markensicherheit ausgerichtet, mit endlosen Rot-Team-Bewertungen und Bewertungen des Reputationsrisikos. Produkte wie Duplex und frühe Konversationsagenten wurden auf der Bühne gut präsentiert, verschwanden dann jedoch in begrenzten Pilotprojekten und halbgeführten Funktionen.

Diese Zurückhaltung ließ eine Lücke, die gerade groß genug war, damit ein Startup hindurchsprinten konnte. Als OpenAI im November 2022 eine Chat-Oberfläche um ein optimiertes GPT-Modell wickelte, lieferte es, was Google über Jahre hinweg leise prototypisierte, aber nie auf Milliarden von Nutzern skalierte. ChatGPT erreichte in etwa zwei Monaten 100 Millionen Nutzer; Google erschien plötzlich langsam in einem Rennen, das es selbst angestoßen hatte.

Diese Wende führte zur aktuellen Pattsituation: Google bemüht sich, Gemini in großem Maßstab zu kommerzialisieren, während OpenAI unter Code Red zu kämpfen hat und der ursprüngliche Erfinder des Transformers nun darum kämpft, zu beweisen, dass er weiterhin die Zukunft, die er entworfen hat, bestimmen kann. Für weitere Informationen darüber, wie dieser Druck zur aktuellen Krise bei OpenAI führte, siehe OpenAIs Altman erklärt Code Red zur Verbesserung von ChatGPT, während Google die KI-Führung bedroht.

Wie ChatGPT die Krone stahl

ChatGPT wurde nicht einfach im November 2022 gestartet; es sorgte für Aufsehen. Innerhalb von fünf Tagen hatte der Chatbot von OpenAI Berichten zufolge die Marke von 1 Million Nutzern überschritten, und bis Januar 2023 schätzten Analysten ihn als die am schnellsten wachsende Verbraucher-App der Geschichte, die die Akzeptanzkurven von TikTok und Instagram übertraf. Screenshots von unheimlich kompetenten Essays, passablem Code und bemerkenswerten Dad-Jokes überschwemmten über Nacht die Twitter- und TikTok-Feeds.

Generative KI existierte jahrelang als Forschungsspielzeug – Forschungsarbeiten, Demos und obskure GitHub-Repos. ChatGPT verwandelte das in ein öffentliches Dienstprogramm. Jeder mit einem Browser konnte plötzlich juristische Texte entwerfen, Python debuggen, PDFs zusammenfassen oder als Therapeut agieren, und das alles durch ein einziges Textfeld, das mehr wie iMessage als eine Labor-Schnittstelle wirkte.

Was entstand, sah weniger nach einem Feature aus und mehr wie eine neue Produktkategorie: der universelle KI-Assistent. ChatGPT setzte die Erwartungen, dass KI folgendes sein sollte: - Immer verfügbar - Konversational - Gratis oder günstig - Gut genug für echte Arbeit, nicht nur für Gags

Diese Veränderung überraschte die Etablierten. Google, das 2017 die Transformer-Architektur erfunden und stillschweigend KI in Search, Photos und Translate integriert hatte, wirkte plötzlich träge. Die eigenen Forscher hatten Systeme entwickelt, die so leistungsfähig waren wie das frühe ChatGPT, doch die Führungskräfte hatten sie hinter Sicherheitsüberprüfungen und internen Werkzeugen eingeschlossen.

Bis Dezember 2022 erklärten Google-Manager Berichten zufolge ihren eigenen Code Rot, ein Ausdruck, der später OpenAI verfolgen würde. CEO Sundar Pichai befahl den Teams, generative KI schnell in die Kernprodukte zu integrieren, und rief Larry Page und Sergey Brin zu Notfall-Strategiesitzungen zurück. Die Gründer, die sich von den täglichen Geschäften zurückgezogen hatten, begannen wieder, Produktvorschläge und Modell-Demos zu überprüfen.

Die Erzählung verhärtete sich schnell: Google hatte alle Zutaten – außergewöhnliche Talente, Datencenter im Weltmaßstab, den Transformer selbst – und schaffte es dennoch, den Vorsprung zu verlieren. Bards unbeholfene frühe Enthüllung, zurückhaltende Botschaften und begrenzte Einführung standen im scharfen Kontrast zur chaotischen, öffentlichen Beta-Energie von ChatGPT. Während OpenAI öffentlich lieferte und iterierte, wirkte Google, als würde es eine 20 Jahre alte Cash Cow im Bereich Suche schützen, anstatt die Zukunft des Rechnens zu gestalten.

Risse im OpenAI Imperium

Illustration: Risse im OpenAI-Imperium
Illustration: Risse im OpenAI-Imperium

Chaos brach bei OpenAI lange vor Code Red aus. Im November 2023 entließ der Vorstand abrupt Sam Altman und beschuldigte ihn, nicht „konsequent offen“ zu sein, und setzte die CTO Mira Murati als interimistische CEO ein. Innerhalb weniger Tage unterschrieben mehr als 700 der rund 770 Mitarbeiter einen Brief, in dem sie drohten, Altman zu Microsoft zu folgen, falls der Vorstand seine Entscheidung nicht zurücknehme.

Die Vorstandsmitglieder unterschätzten, wie zentral Altman für die Identität und die Fundraising-Maschine von OpenAI geworden war. Microsofts Satya Nadella begrüßte Altman und Greg Brockman öffentlich, um eine neue Gruppe für fortschrittliche KI zu leiten, und forderte damit den gemeinnützigen Vorstand heraus, seine Position zu halten. Unter außergewöhnlichem Druck gab der Vorstand nach, stellte Altman wieder ein und gestaltete sich dabei neu.

Der Schleudertrauma hinterließ Narben. Forscher und Ingenieure, die sich einem missionorientierten Labor angeschlossen hatten, erkannten plötzlich, wie fragil dessen Governance war, als sie auf die Probe gestellt wurde. Das interne Vertrauen erlitten einen Rückschlag: Wenn ein CEO innerhalb von fünf Tagen abgesetzt und wieder eingesetzt werden konnte, was bedeuteten dann „Sicherheit“, „Nonprofit-Überwachung“ oder die berühmte OpenAI-Charta tatsächlich?

Diese Krise beschleunigte einen langsamen Brain-Drain. Mitgründer und Chief Scientist Ilya Sutskever, einst das moralische und technische Zentrum des Unternehmens, zog sich stillschweigend von der täglichen Arbeit zurück und verließ später das Unternehmen, um ein neues labor zu gründen, das sich auf Sicherheit konzentriert. Der ehemalige Tesla-AI-Leiter Andrej Karpathy kam Anfang 2023 zu OpenAI zurück, verließ das Unternehmen jedoch innerhalb eines Jahres erneut, was signalisiert, dass selbst hochkarätige Wiedereinsteller keine langfristige Stabilität sahen.

Mira Murati, die als öffentliche Gesicht des Unternehmens etabliert und während des Umsturzes kurzzeitig als Interim-CEO eingesetzt wurde, verließ ebenfalls das Unternehmen. Gemeinsam mit ihr verließen zahlreiche weniger bekannte, aber entscheidende Mitarbeiter – politische Forscher, Sicherheitsleiter und Infrastruktur-Ingenieure – die Firma, gingen zu Konkurrenten oder gründeten eigene Unternehmen. Jeder Abgang trug dazu bei, OpenAIs Ruf als unvermeidliches Zuhause für erstklassige KI-Talente zu erodieren.

Die Innovationsfähigkeit hängt von mehr ab als nur von GPUs und Geld. Diese Abgänge schwächten den internen Feedback-Kreis, der GPT-3, GPT-4 und den frühen ChatGPT-Zauber hervorgebracht hatte: mutige Forschung, aggressive Produktentwicklung und enge Abstimmung zwischen Sicherheit und Ingenieurwesen. Die Moral sank, als Teams zusahen, wie Mentoren und Befürworter das Unternehmen verließen, während das verbleibende Personal unter zunehmendem Druck stand, schneller in Konkurrenz zu Gemini und Anthropic zu liefern.

Interne Instabilität schuf eine seltene Gelegenheit auf einem Markt, der einst fest verschlossen schien. Rivalen wie Google, Anthropic und xAI konnten sich plötzlich als ruhigere, prinzipientreuere oder technisch ambitioniertere Alternativen präsentieren. Für einige entscheidende Quartale hörte OpenAI auf, unvermeidlich zu wirken – und das war alles, was die Wettbewerber benötigten, um aufzuholen.

Googles Rache: Der Gemini-Juggernaut

Googles lange versprochene Rache ist endlich mit Gemini 3 angekommen, einem Modell, das nicht länger wie ein Wissenschaftsprojekt aussieht, sondern wie ein produktiver Gigant. Nach jahrelangen Fehlstarts mit Bard und frühen Gemini-Versionen hat Google die Forschung von DeepMind, Daten in YouTube-Größe und seine Cloud-Kapazitäten zu einem einzigen, führenden KI-Portfolio verschmolzen.

Gemini 3 hat schnell die Erwartungen an Benchmarks zurückgesetzt, über die das Silicon Valley heimlich obsessiert ist. Bei Standardtests und Codierungs-Suiten wie MMLU, GSM8K und HumanEval zeigten unabhängige Tests, dass Gemini 3 die besten Modelle von OpenAI um mehrere Prozentpunkte übertrifft, insbesondere bei mehrstufigen logischen Aufgaben und Werkzeugnutzung, die Agenten und Co-Piloten antreiben.

Unternehmenskäufer haben aufmerksam zugehört. Die Verkaufsteams von Google Cloud begannen, in RFPs mit Präsentationen zu treten, die zeigten, dass Gemini 3 in Bezug auf Kosten pro Token, Latenz und Genauigkeit für Produktionslasten besser abschnitt als GPT-Modelle. Für Unternehmen, die bereits für Google Workspace zahlen oder auf Google Cloud arbeiten, wurde das Umschalten ihres Standardassistenten auf Gemini zu einem Formalitätscheck im Einkaufsprozess, nicht zu einem wagemutigen Ziel.

Dann kam der Moment, der die Nerd-Blase durchbrach: Salesforce-CEO Marc Benioff veröffentlichte einen viralen Tweet, in dem er verkündete, dass er von ChatGPT abrückt und auf Gemini in ganz Salesforce umstellt. Die Botschaft diente gleichzeitig als Signal an die CIOs, dass es nun karrieresicher sei, auf Googles Technologie-Stack statt auf die APIs von OpenAI zu setzen.

Soziale Feeds, die mit nebeneinanderstehenden Screenshots gefüllt sind, zeigen Gemini, wie es komplexe Tabellenkalkulationsformeln, rechtliche Entwürfe und Code-Refaktorisierungen meistert, während ChatGPT entweder versagte oder abgelehnt hat. Entwickler berichteten, dass Gemini längere Kontextfenster zuverlässiger bearbeitete und sich reibungsloser in Google Docs, Gmail und Drive integrierte.

Die Nutzerwachstumszahlen verwandelten diese Anekdoten in eine Krisenmetrik. Gemini erreichte in nur drei Monaten 200 Millionen monatlich aktive Nutzer und profitierte von der Verbreitung über Android, Chrome und die Suche, ähnlich wie Chrome einst die Startseite von Google zur Dominanz nutzte. Zum Vergleich: ChatGPT benötigte ungefähr ein Jahr, um eine ähnliche Größenordnung zu erreichen.

Branchenspezialisten begannen, OpenAI lediglich als den „Standard“ zu beschreiben. Berichterstattung wie OpenAI Code Red: ChatGPT stellte den Aufstieg von Gemini als die erste echte Bedrohung für ChatGPTs kulturelle Verankerung dar, nicht nur für deren Benchmark-Ergebnisse.

Unter dem Hype sah die Gemini-Strategie von Google brutal einfach aus: schneller liefern, überall integrieren und OpenAI nicht nur gegen ein Modell, sondern gegen ein ganzes Ökosystem kämpfen lassen.

Der unfaire Vorteil, über den niemand spricht

Google betritt das Wettrüsten im Bereich KI mit etwas, das OpenAI nicht kaufen kann: einer umfangreichen, vertikal integrierten Maschine, die bereits täglich Milliarden von Menschen berührt. Das beginnt auf der Silizium-Ebene mit TPU-Clustern, an denen Google seit fast einem Jahrzehnt arbeitet und die speziell für das Trainieren und Bereitstellen gigantischer Modelle wie Gemini optimiert sind.

Unter Gemini läuft Google Cloud, das leise auf diesen maßgeschneiderten Chips in industriellem Maßstab arbeitet. Google muss Nvidia keine H100s auf dem offenen Markt abbitten; es kann interne Kapazitäten in seinen eigenen Rechenzentren hochfahren und die verbleibenden Ressourcen dann an zahlende Cloud-Kunden verkaufen.

Darüber hinaus wirkt die Verteilungsgeschichte fast unfair. Gemini kann direkt in Search, YouTube, Gmail, Docs, Chrome und Android integriert werden, die alle auf einer Nutzerbasis von über 3 Milliarden Menschen basieren. Google kann ein neues KI-Feature aktivieren und sofort testen über:

  • 1Milliarden von täglichen Suchanfragen
  • 2Über 2 Milliarden Android-Geräte
  • 31+ Milliarden Gmail- und YouTube-Konten

Jede dieser Oberflächen fungiert sowohl als Datenfeuerhose als auch als Echtzeit-Feedbackschleife. Wenn Gemini eine Suche beantwortet, eine Gmail-Antwort entwirft oder ein langes YouTube-Video zusammenfasst, erhält Google Nutzungssignale, die in die Produktoptimierung und Monetarisierungsexperimente einfließen können.

Geld verwandelt diesen Vorteil in eine Verteidigungsstellung. Such- und YouTube-Anzeigen spülen weiterhin zig Milliarden Dollar pro Quartal in die Kasse, wodurch Google ein Geldmikrofon erhält, das stillschweigend die KI-Forschung und -Entwicklung subventionieren kann. Das Training eines fortschrittlichen Modells, das Hunderte von Millionen Dollar kostet, wird zu einer Nebensache, nicht zu einem existenziellen Gesprächsthema im Vorstand.

OpenAI hingegen folgt immer noch dem klassischen Startup-Spielbuch: Risikokapital und Partnergelder verbrennen, dann hoffen, dass die Nutzung in nachhaltige Einnahmen umschlägt, bevor die Rechnungen fällig werden. Die Unterstützung von Microsoft und die Azure-Gutschriften helfen, ändern jedoch nichts daran, dass OpenAI vieles von dem mietet, was Google bereits besitzt.

Diese strukturelle Lücke ist über ein Jahrzehnt hinweg von Bedeutung. Google kann es sich leisten, verlustbringende KI-Funktionen in Search, Android und Workspace zu betreiben, um sein Kerngeschäft mit Werbung zu verteidigen und die Nutzer in seinem Ökosystem zu halten. OpenAI hingegen muss ChatGPT und seine APIs viel früher rentabel machen.

Kombinieren Sie maßgeschneiderte Chips, globale Cloud-Dienste, etablierte Produkte und einen stetigen Strom von Werbeeinnahmen, und Google erscheint nicht nur wettbewerbsfähig. Es wirkt so, als wäre es darauf ausgelegt, fast jeden in einem langanhaltenden, rechnerintensiven KI-Krieg zu überdauern.

Dieses AI-Rennen ist kein Duopol.

Illustration: Dieses KI-Rennen ist kein Duopol
Illustration: Dieses KI-Rennen ist kein Duopol

Google vs. OpenAI ergibt eine prägnante Schlagzeile, doch dieser Rahmen entspricht nicht mehr der Realität. Macht entweicht aus dem Duopol und strömt zu einer Vielzahl von Wettbewerbern, die sich spezialisieren, differenzieren und leise Marktanteile dort stehlen, wo es am meisten schmerzt: bei Entwicklern, Unternehmen und leidenschaftlichen Bastlern.

Anthropics Claude-Reihe steht nun im Mittelpunkt dieses Wandels. Bei Programmierbenchmarks wie HumanEval und LiveCodeBench schneidet Claude 3.5 Sonnet regelmäßig gleich gut oder besser ab als die Modelle von OpenAI, während die längeren Kontextfenster und das konservative Sicherheitsprofil die CIOs beruhigen, wenn es darum geht, es in Rechts-, Finanz- und Gesundheitsteams einzuführen. AWS und Google Cloud bewerben Claude beide als erstklassige Option, was Anthropic eine Vertriebsmacht verleiht, die OpenAI nie vollständig sichern konnte.

Innerhalb der Fortune 500-Unternehmen ist Claude zum „ernsten Arbeits“-Bot geworden. Ingenieure setzen auf ihn für Refaktorierungen und Code-Überprüfungen, und die Richtlinienteams nutzen ihn für die Zusammenfassung komplexer Vorschriften. Call-Center-Anbieter tauschen heimlich ihre Copiloten gegen Claude-gesteuerte aus, da diese in hochriskanten Kundeninteraktionen weniger Halluzinationen produzieren. Unternehmensgeld folgt der Zuverlässigkeit, und Anthropic positioniert Claude als die verlässliche Wahl.

xAIs Grok geht aus einem anderen Blickwinkel an die Sache heran: Geschwindigkeit, Einstellung und Zugang zu dem Live-Feed von X. In vielen Denk- und Mathematik-Benchmarks erzielt Grok 2 Ergebnisse, die mit GPT-4-Klassensystemen vergleichbar sind oder diese übertreffen, und seine Echtzeit-Suche über X verschafft ihm einen nativen Vorteil bei Nachrichten, Märkten und kulturellen Trends. Entwickler loben seine geringe Latenz und die Bereitschaft, provokante oder grenzwertige Antworten zu liefern, die risikoscheue Modelle meiden.

Die Fragmentierung geht noch weiter. Open-Source-Modelle wie Llama und Mistral sind mit Verbrauchertechnologie weit voraus, während regionale Akteure in China, Europa und dem Nahen Osten Datenhoheit-Implementierungen anstreben, die OpenAI nicht leicht bedienen kann. Das Ergebnis: OpenAI bestimmt nicht mehr das Tempo der KI; es verhandelt um Relevanz innerhalb einer Gruppe von Spitzenwettbewerbern, von denen jeder einen anderen Teil seines früheren Vorsprungs erodiert.

Wird ChatGPT tatsächlich dümmer?

Die Nutzer beschweren sich seit Monaten, dass ChatGPT "dümmer" wirkt. Reddit-Threads, X-Beiträge und Entwicklerforen dokumentieren dasselbe Muster: kürzere Antworten, mehr Ablehnungen und merkwürdig brüchige Logik bei Aufgaben, die vor einigen Modellversionen noch einwandfrei funktionierten. OpenAI hat öffentlich absichtlich Änderungen zurückgewiesen, aber die Wahrnehmung einer Regression hat sich zu einem Meme verfestigt.

Diese Wahrnehmung ist wichtig. Wenn Ihr Flaggschiffprodukt ein KI-gestützter Assistent ist, trifft jeder Hinweis darauf, dass es schlechter wird, nicht besser, sowohl das Vertrauen als auch das Engagement. Intern liest sich Code Red wie ein Eingeständnis, dass OpenAI die Qualität vernachlässigt hat, während es Wachstum, neue Modalitäten und Unternehmensgeschäfte verfolgte.

Einige Abwertungen haben plausibel technische Wurzeln. OpenAI trainiert und optimiert Modelle ständig neu, um sie sicherer, kostengünstiger und skalierbarer zu machen; jeder Schritt kann die Grenzfähigkeiten abschleifen. Schutzmaßnahmen gegen schädliche Inhalte können überkorrekt in „Das kann ich nicht helfen“ für harmlose Anfragen umschlagen, was Nutzer als Dummheit und nicht als Vorsicht interpretieren.

Ein weiterer wahrscheinlicher Übeltäter ist die Optimierung für Latenz und Kosten. Das Betreiben von Grenzmodellen im Internetmaßstab ist brutal teuer, und OpenAI hat jeden Anreiz, mehr Traffic zu kleineren, kostengünstigeren Varianten zu lenken oder Antworten aggressiv zwischenzuspeichern. Das kann dazu führen, dass das System weniger sensibel für Nuancen reagiert, auch wenn die Benchmarkwerte konstant bleiben.

Gerüchte in der Forschungsgemeinschaft deuten auf ein neues, schwergewichtiges Überlegungsmodell hin, das in Entwicklung ist und sich auf Mathematik, Programmierung und mehrstufige Planung konzentriert. Denken Sie an weniger Vibes, mehr Beweise: logische Gedankengänge, die tatsächlich einer Prüfung standhalten, nicht nur eloquentes Geschwafel. Code Red setzt effektiv die Erwartung, dass dieses Modell oder etwas Ähnliches bald verfügbar sein muss und sichtbar besser sein muss.

Das Timing fällt mit externem Druck zusammen. Googles Gemini 3 hat in wenigen Monaten Hunderte Millionen Nutzer gesammelt, mit starken Leistungen bei Programmier- und Denkbenchmarks, und die Claude-Modelle von Anthropic erzielen weiterhin Erfolge bei Power-Usern. Für eine detaillierte Analyse dieses Wandels siehe OpenAI-CEO erklärt Code Red, während Gemini in 3 Monaten 200 Millionen Nutzer gewinnt.

Hat die Besessenheit von OpenAI nach Skalierung und Funktionsvielfalt die Kernintelligenz abgeflacht? Beweise deuten zumindest teilweise darauf hin. Code Red ist die Wette des Unternehmens, dass eine Rückbesinnung auf Tiefe statt Breite diesen Abwärtstrend umkehren kann, bevor die Nutzer dauerhaft entscheiden, dass „dümmer werden“ nicht nur eine Phase, sondern eine Richtung ist.

Der nächste Schritt: Was diese Krise offenbart

Code Red klingt sowohl wie ein Feueralarm als auch wie eine Motivationsveranstaltung. Intern hat OpenAI gerade zugegeben, dass ChatGPT in Bezug auf Geschwindigkeit, Zuverlässigkeit und tägliche Nützlichkeit hinterherhinkt, während Google und Anthropic aufholen. Extern fungiert ein geleaktes Memo, das von einem „höchsten Dringlichkeitsgrad“ spricht und Werbepläne pausiert, als lautstarkes Signal an Investoren, Partner und Talente, dass OpenAI weiterhin angreift und nicht nur einen schwindenden Vorsprung verteidigen will.

Für die Nutzer sieht die kurzfristige Auswirkung weniger nach Science-Fiction aus und mehr nach Klempnerarbeit. Erwarten Sie schneller eintreffende Antworten, weniger Zeitüberschreitungen und weniger Ablehnungen harmloser Anfragen. Wenn OpenAI tatsächlich das liefert, was Code Red verspricht – bessere Personalisierung, stärkere Werkzeuge und leistungsfähigere Bilderzeugung – könnte sich ChatGPT weniger wie ein generischer Assistent und mehr wie ein fokussierter, ständig aktiver Arbeitsplatz anfühlen.

Übermäßige Ablehnungen wurden aus einem bestimmten Grund zum Meme. Die Leute sahen zu, wie ChatGPT harmlosen Programmierfragen oder harmlosen kreativen Anfragen absagte, während Konkurrenten stillschweigend mehr erlaubten. Das Zurückrollen dieser Ablehnungen, ohne eine neue Welle von Sicherheitsenskandalen auszulösen, ist der Drahtseilakt: OpenAI will „weniger Nanny“, die Regulierungsbehörden wünschen sich „weniger Chaos“, und beide wollen eine Wiederholung der frühen Jailbreak-Ära vermeiden.

Die Produktpriorisierung offenbart auch einen strategischen Neuanfang. Indem OpenAI Agenten, Pulse und Anzeigen beiseitelegt, gesteht das Unternehmen im Grunde ein, dass es versucht hat, eine Plattform zu schaffen, bevor die Kernanwendung wirklich ausgearbeitet wurde. Code Red richtet den Fokus zurück auf die eine Kennzahl, die in einem Markt, in dem Nutzer mit einem Klick wechseln können, wirklich zählt: Ist ChatGPT heute offensichtlich besser als Gemini und Claude, nicht nur auf einer Benchmark-Folie?

Für die breitere Branche ist dies pure Beschleunigung. Wenn das Unternehmen, das "KI-Chatbot" zu einem alltäglichen Begriff gemacht hat, sich bemüht, aufzuholen, erhalten alle anderen die Erlaubnis, ebenfalls schneller voranzukommen. Erwarten Sie schnellere Veröffentlichungen, mehr Modell-Spezialisierung und eine klarere Unterscheidung zwischen "Forschungslabor", "Consumer Brand" und "Enterprise Stack".

Eine Ära, in der OpenAI als unangefochtener König der KI galt, ist vorbei. Code Red ist die Antwort des Unternehmens auf eine neue Realität: Die Führung ist nun ein bewegliches Ziel, das in Produktupdates, Latenzdiagrammen und Vertrauen der Nutzer umkämpft wird. Wie auch immer sich dieser Neuanfang gestalten mag, die nächsten Quartale von OpenAI werden den Rhythmus – und den Ton – für die nächste Phase des KI-Rennens vorgeben.

Häufig gestellte Fragen

Was ist der OpenAI 'Code Red'?

Es ist die höchste interne Dringlichkeitsstufe von OpenAI, die von CEO Sam Altman erklärt wurde, um alle Unternehmensressourcen auf die Verbesserung des Kernprodukts ChatGPT zu konzentrieren, angesichts zunehmender Wettbewerbsbedingungen und interner Herausforderungen.

Warum hat OpenAI eine Code-Red ausgerufen?

Die Hauptgründe sind der intensive Wettbewerb durch Googles Gemini und Anthropics Claude, der Verlust von Boden in den Leistungsbenchmarks, ein erheblicher „Brain Drain“ von Spitzenkräften sowie eine verwässerte Konzentration auf zu viele nicht zentrale Projekte.

Wer sind die größten Wettbewerber von OpenAI derzeit?

Google mit seinen Gemini-Modellen ist der bedeutendste Wettbewerber aufgrund seiner umfangreichen Ressourcen und Nutzerbasis. Anthropic mit seinen Claude-Modellen, die bei Entwicklern beliebt sind, sowie xAIs Grok sind ebenfalls bedeutende Rivalen.

Welche Funktionen pausiert OpenAI aufgrund des Code Red?

OpenAI setzt mehrere geplante Initiativen, einschließlich fortgeschrittener Agentenfunktionen, der 'Pulse'-Funktion und der Integration von Anzeigen in ChatGPT, herab, um sich ausschließlich auf Verbesserungen des Kernmodells zu konzentrieren.

Frequently Asked Questions

Wird ChatGPT tatsächlich dümmer?
Die Nutzer beschweren sich seit Monaten, dass ChatGPT "dümmer" wirkt. Reddit-Threads, X-Beiträge und Entwicklerforen dokumentieren dasselbe Muster: kürzere Antworten, mehr Ablehnungen und merkwürdig brüchige Logik bei Aufgaben, die vor einigen Modellversionen noch einwandfrei funktionierten. OpenAI hat öffentlich absichtlich Änderungen zurückgewiesen, aber die Wahrnehmung einer Regression hat sich zu einem Meme verfestigt.
Was ist der OpenAI 'Code Red'?
Es ist die höchste interne Dringlichkeitsstufe von OpenAI, die von CEO Sam Altman erklärt wurde, um alle Unternehmensressourcen auf die Verbesserung des Kernprodukts ChatGPT zu konzentrieren, angesichts zunehmender Wettbewerbsbedingungen und interner Herausforderungen.
Warum hat OpenAI eine Code-Red ausgerufen?
Die Hauptgründe sind der intensive Wettbewerb durch Googles Gemini und Anthropics Claude, der Verlust von Boden in den Leistungsbenchmarks, ein erheblicher „Brain Drain“ von Spitzenkräften sowie eine verwässerte Konzentration auf zu viele nicht zentrale Projekte.
Wer sind die größten Wettbewerber von OpenAI derzeit?
Google mit seinen Gemini-Modellen ist der bedeutendste Wettbewerber aufgrund seiner umfangreichen Ressourcen und Nutzerbasis. Anthropic mit seinen Claude-Modellen, die bei Entwicklern beliebt sind, sowie xAIs Grok sind ebenfalls bedeutende Rivalen.
Welche Funktionen pausiert OpenAI aufgrund des Code Red?
OpenAI setzt mehrere geplante Initiativen, einschließlich fortgeschrittener Agentenfunktionen, der 'Pulse'-Funktion und der Integration von Anzeigen in ChatGPT, herab, um sich ausschließlich auf Verbesserungen des Kernmodells zu konzentrieren.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts