OpenAI's Code Red: Das Ende einer Ära?

OpenAI hat einen 'Code Red' ausgerufen, da Googles Gemini die Führung übernimmt. Wir analysieren die kritischen Fehler, die zu diesem Moment geführt haben, und was das für die Zukunft der KI bedeutet.

Hero image for: OpenAI's Code Red: Das Ende einer Ära?
💡

TL;DR / Key Takeaways

OpenAI hat einen 'Code Red' ausgerufen, da Googles Gemini die Führung übernimmt. Wir analysieren die kritischen Fehler, die zu diesem Moment geführt haben, und was das für die Zukunft der KI bedeutet.

Der KI-Thron hat einen neuen Herausforderer.

Code Red bedeutet selten, dass alles wie gewohnt weitergeht. Als Sam Altman angeblich diese Worte innerhalb von OpenAI verwendete, signalisiert das etwas, das einem existenziellen Alarm nahekam: Gemini von Google war nicht länger ein Witz oder eine Nebenquest, sondern ein ernstzunehmender Mitbewerber. Die Botschaft an die Mitarbeiter, so berichten mehrere Quellen und Branchengerüchte, reduzierte sich auf ein einfaches Mandat – holt auf, oder bleibt zurück.

Fast zwei Jahre lang saß OpenAI alleine an der Spitze des AI-Marktes. ChatGPT erreichte in etwa zwei Monaten 100 Millionen Nutzer, veränderte Produktstrategien in der Big-Tech-Branche und zwang Google und Meta in die Defensive. Jetzt sieht der Vorteil des frühen Markteintritts fragil aus, da sich die Nutzungsmuster ändern und Wettbewerber beginnen, echte Erfolge zu erzielen.

Die Daten, die diese Panik anheizen, sind schwer zu ignorieren. Analysten und Entwickler, die den Traffic und das Engagement verfolgen, berichten, dass täglich aktive Nutzer zunehmend mehr Zeit in Gemini verbringen als auf ChatGPT, insbesondere bei Programmierung, Mathematik und lang-formatiertem Schreiben. Parallel dazu hat sich Anthropics Claude zum stillen Favoriten für Unternehmen entwickelt, die mehr Wert auf Zuverlässigkeit und Governance legen als auf virale Demos.

Enterprise-Deals erzählen eine ähnliche Geschichte. Claude hat bedeutende Verträge mit Cloud-Partnern und Fortune-500-Kunden geschlossen, die einst auf die APIs von OpenAI zurückgriffen. CIOs sprechen jetzt über „Modellportfolios“, so wie sie früher über Multi-Cloud sprachen – OpenAI für einige Arbeitslasten, Anthropic für compliance-intensive Workflows, Google für tiefe Integration mit Workspace und Suche.

Altmans „Code-Red“-Moment markiert das erste Mal, dass OpenAI reagieren muss, anstatt das Tempo zu bestimmen. Die schnelle Iteration von Gemini, insbesondere die Ultra-Stufe, die in Android, Chrome und Google Docs integriert ist, verschafft Google eine Verbreitung, die OpenAI nicht erreichen kann. Jedes Android-Handy und jedes Gmail-Postfach fungiert praktisch als Einstiegspunkt für Gemini.

Was einst als ein Wettlauf mit einem einzigen Pferd begann, sieht jetzt unverkennbar multipolar aus. Drei distincte Machtzentren entstehen: - OpenAI, nach wie vor der kulturelle Standard - Google, mit einer DNA für Verbreitung und Suche - Anthropic, mit einem sicherheitsorientierten Ansatz für Unternehmen

Code red bedeutet in anderen Worten weniger Zusammenbruch und mehr einen Neustart. Der KI-Thron gehört nicht mehr einem einzelnen Unternehmen – und zum ersten Mal muss sich OpenAI darum bemühen, seinen Platz zu verteidigen.

Geminis stille Machtübernahme: Das Urteil eines Forschers

Illustration: Geminis leiser Staatsstreich: Ein Urteil des Forschers
Illustration: Geminis leiser Staatsstreich: Ein Urteil des Forschers

Fragen Sie in hochmodernen Forschungslabors nach, und Sie werden eine ähnliche Geschichte hören, aber eine Anekdote taucht immer wieder auf. Ein Postdoktorand in berechnender Fluiddynamik, der beim Army Corps of Engineers und der NASA tätig war, wechselte heimlich seinen täglichen Begleiter von GPT zu Gemini und schaute nicht zurück. Seine Arbeit befindet sich an der Spitze der Navier-Stokes-Modellierung für Ozeane und Klima, wo „ziemlich gute“ Werkzeuge einfach nicht ausreichen.

Als OpenAIs frühe Modelle der GPT-3- und GPT-4-Ära erschienen, bezeichnete er sie als "ziemlich gut" für Code. Sie konnten MATLAB-Skripte erstellen, Fortran debuggen und einfache Simulationswerkzeuge entwerfen. Doch als er sich mit Grenzturbulenzen und komplexen Ableitungen beschäftigte, versagten sie: falsche Annahmen, verlorener Kontext und oberflächliches Verständnis der tatsächlichen Physik.

Sein Urteil über Gemini Ultra klang sehr anders. Nachdem er schließlich ein kostenpflichtiges Abonnement abgeschlossen hatte, textete er, dass Gemini „so viel besser“ sei als das, was er von GPT erhalten hatte, und bezeichnete es als „revolutionär“ für seinen Arbeitsablauf. Innerhalb von Wochen berichtete er, es habe ihm „so viel Zeit bei der Arbeit gespart“ und sei „viel besser als GPT-5“, was in Wirklichkeit bedeutete „besser als das, was OpenAI gerade anbietet.“

Drei Stärken tauchten immer wieder auf. Erstens blieb Gemini über lange, technische Diskussionen hinweg – Ableitungen, Überarbeitungen und Randfälle – konstant auf dem Kern der Unterhaltung fokussiert, ohne in Sicherheitsvorträge oder meta-kommentierende Bemerkungen abzudriften. Während ChatGPT oft pausierte, um Fakten zu überprüfen, abzusichern oder den Nutzer mit "nun eigentlich" zu korrigieren, trieb Gemini die Argumentation voran.

Zweitens waren die Fähigkeiten im akademischen Schreiben von Bedeutung. Entwürfe von Methodikabschnitten, Literaturüberblicken und allgemeinen Förderanträgen kamen näher an ausgereifte Textversionen, mit klaren Themen-Sätzen, korrekter Terminologie und einer kohärenten Struktur über 3.000–5.000 Wörter. Dadurch wurden Stunden aus den Überarbeitungszyklen eingespart, die zuvor zwischen LaTeX, Referenzverwaltungssystemen und E-Mail-Threads schwankten.

Drittens verhielt sich Gemini eher wie ein Mitarbeiter als wie ein Compliance-Beauftragter. Für einen Power-User, der PDE-Löser, Klimamodelle und Rückmeldungen von Reviewern jongliert, bedeutete das weniger Unterbrechungen und mehr Durchsatz. Das ist der Grund, warum Gemini bei Forschern, Quant-Experten und hartgesottenen Entwicklern an Beliebtheit gewinnt: Sie sind bereit, ein wenig Verfeinerung gegen ein System einzutauschen, das einfach schneller ernsthafte Arbeit erledigt.

Der fatale Fehler: ChatGPTs 'UX-Wack-a-Mole'

UX „Whack-a-Mole“ beschreibt, was passiert, wenn ein Produktteam versucht, gleichzeitig alle Interessengruppen zufriedenzustellen, und am Ende niemanden zufriedenstellt. ChatGPT wurde zu diesem Produkt: eine einzige Schnittstelle, die sich als Forschungsassistent, Unternehmenswissensdatenbank, medizinischer Triage-Bot, Wissenschaftserklärer und Therapeut dehnt, während sie gleichzeitig markensicher und klagefest bleibt.

OpenAI begann in schneller Folge gezielt bestimmte „Maulwürfe“ zu eliminieren. Um Aufträge von Fortune-500-Unternehmen zu gewinnen, entwickelte sich ChatGPT zu einem Regelanwalt, der aggressiv alles blockierte, was nach einem Compliance-Risiko roch. Um Schlagzeilen wie „Dr. Google“ zu vermeiden, verwandelte es sich in einen digitalen Arzt, der weigerte, Symptome in einfacher Sprache zu besprechen, es sei denn, sie entsprachen konservativen medizinischen Richtlinien.

Wissenschaftliche Nutzung brachte eine weitere Einschränkungsebene. ChatGPT stützt sich nun stark auf hauptströmige Beweise und weigert sich oft, selbst Rand- oder neu aufkommende Arbeiten zusammenzufassen, es sei denn, sie erscheinen in angesehenen Fachzeitschriften, was Forscher frustriert, die an Preprints, arXiv-Entwürfen oder unkonventionellen Ansätzen arbeiten. Emotionale Sicherheit fügte eine weitere Übersteuerung hinzu, indem sie kantige oder distress-nahe Themen in vorgefertigte „Sicherheits“-Antworten lenkte.

Jede Anpassung stapelt sich auf die letzte und verwandelt ein einst fluides System in ein Labyrinth aus Leitplanken. Nutzer berichten, dass das Modell technische Diskussionen unterbricht, um Sicherheitsdisclaimer erneut zu behandeln, oder sich weigert zu spekulieren, selbst wenn es ausdrücklich um Hypothesen gebeten wird. Dieses Verhalten entspricht der eigenen Darstellung von OpenAI auf der Offiziellen Website von OpenAI, wo Sicherheits- und Ausrichtungsupdates mittlerweile die Produktkommunikation dominieren.

Konkrete Auswirkungen zeigen sich in verschiedenen Bereichen. Ein Entwickler, der nach Ausnutzungsarten fragt, erhält eine Abhandlung über verantwortungsvolle Offenlegung, bevor ein einziges Stück Code besprochen wird. Ein Patient, der sich über Off-Label-Therapien informiert, stößt immer wieder auf die Antwort „Konsultieren Sie Ihren Arzt“. Ein Klimawissenschaftler, der über die konsensbasierten IPCC-Formulierungen hinausforscht, wird zurück zu „autoritativem Quellen“ gedrängt, selbst wenn es offensichtlich an der Front neue Erkenntnisse gibt.

Dieser UX-Wack-a-Mole-Zyklus verändert grundlegend das Gefühl des Produkts. Früher fühlte sich ChatGPT wie ein leistungsstarker, leicht rücksichtsloser Collaborateur an; das aktuelle ChatGPT wirkt wie ein übergriffiger Corporate-Intranet-Bot, der ständig infrage stellt, was du „eigentlich“ wollen solltest. Power-User bemerken den Wandel am stärksten, da sie sich daran erinnern, dass die gleiche Benutzeroberfläche früher mit weniger harten Stopps arbeitete.

Entfremdung zeigt sich im Verhalten, nicht nur in der Stimmung. Intensive Nutzer wechseln zu Gemini und Claude für das Schreiben, Brainstorming und explorative Forschung und behalten ChatGPT nur für enge, wenig kreative Aufgaben, bei denen sein Konservatismus von Vorteil ist. Das ist die Lehrbuchdefinition eines entzogenen Kernprodukts: immer noch erkennbar, immer noch markenbezogen, aber an der Stelle, an der sein ursprünglicher Reiz lag, ausgehöhlt.

Die DNA von Googles Suche: Ein unlauterer Vorteil?

OpenAI verhält sich wie ein Startup, das immer noch von seinem Flaggschiff-Demonstrationsprojekt besessen ist. Google hingegen verhält sich wie ein 25 Jahre altes Infrastrukture Unternehmen, das zwei Jahrzehnte lang still und heimlich die weltweiten Debatten moderiert hat. Dieser Unterschied im institutionellen Muskelgedächtnis zeigt sich jedes Mal, wenn Sie Gemini eine Frage stellen, die sich in den Graubereichen bewegt.

Das Kernprodukt von Google, Search, setzt auf eine nahezu gnadenlose Minimalistik: Absicht erkennen, relevante Informationen präsentieren, aus dem Weg gehen. Hunderttausende von Ranking-Signalen, Klickdaten aus Milliarden von Anfragen pro Tag und jahrelange A/B-Tests optimieren alles auf eines—die Benutzerabsicht schnell zu befriedigen. Nicht den Benutzer vor Informationen zu schützen, nicht ihn darüber zu belehren.

Diese Geschichte schuf das, was man als Googles agnostische Sicht auf Informationen bezeichnen könnte. Die Suche hat immer Ergebnisse für unangenehme, schwierige oder kontroverse Anfragen zurückgegeben: Cyanidsynthese, Randgesundheitsforen, Pornografie, Verschwörungsblogs. Google hat enge harte Grenzen gesetzt (Kinderpornografie, direkte Anleitungen zu Terrorismus), aber alles andere fließt größtenteils, eingestuft nach Relevanz und Autoritätssignalen, nicht nach unternehmerischer Sensibilität.

Gemini übernimmt diese Haltung. Frag nach Off-Label-Arzneimitteln, Biohacking oder politisch heiklen Themen, neigt Gemini dazu, ein Spektrum an Quellen, Vorbehalten und dem allgemeinen Konsens ohne abruptes Bremsen darzustellen. Es hat immer noch Leitplanken, aber es führt nicht reflexartig zu einer „Failsafe“-Persönlichkeit oder ersetzt Nuancen durch die Standardformulierung des Risikomanagements von Unternehmen.

Im Gegensatz dazu wirkt die aktuelle Benutzererfahrung von ChatGPT oft wie ein Stapel gegeneinander kämpfender Compliance-Personas, die um die Kontrolle ringen. Medizinische Anfragen lösen eine digitale Arzt-Stimme aus, Unternehmensanliegen erfordern einen Regelanwalt, und alles, was emotional aufgeladen ist, riskiert eine Sicherheitsübersteuerung. Die Nutzer erleben Zurückhaltung, Ablehnungen und Tadel, wo sie Werkzeuge, Zitationen und Abwägungen erwartet haben.

Such-trained Instinkte drängen Google zu einem anderen Vertrag mit dem Nutzer: Du besitzt deine Absicht, Gemini besitzt die Abrufung und das Denken. Das lässt das Modell wie ein leistungsfähiges Werkzeug statt wie einen Torwächter erscheinen. Du erhältst strukturierte Antworten, Links und Kontext, nicht einen moralischen Filter, der entscheidet, welche Teile der Realität du heute sehen darfst.

In einer Welt, in der Forscher, Kliniker und Ingenieure bereits in einem Dickicht von Informationen leben, passt die Philosophie von Gemini „zeigen, nicht verbergen“ einfach besser zu der Art und Weise, wie ernsthafte Nutzer tatsächlich arbeiten.

Söldner vs. Missionar: Die Seele von OpenAI

Illustration: Söldner vs. Missionar: Die Seele von OpenAI
Illustration: Söldner vs. Missionar: Die Seele von OpenAI

Silicon Valley liebt ein aufgeräumtes Moralkonzept: Gründer werden in Söldner und Missionare unterteilt. Söldner verfolgen Bewertungen, Exits und Status; Missionare verbringen ihre Zeit mit einem Problem und weigern sich, davon abzurücken, selbst wenn der Markt lautstark etwas anderes verlangt. Jedes große KI-Labor beansprucht jetzt den Missionarsmantel, aber das Verhalten ihrer Führer erzählt eine andere Geschichte.

Sam Altman beschreibt OpenAI als ein sicherheitsbesessenes, menschenzentriertes Projekt, das darauf abzielt, AGI zum Nutzen aller zu entwickeln. Dennoch ähnelt sein Karriereverlauf mehr dem eines Power-Users des mercenary playbooks: Präsident von Y Combinator, produktiver Angel-Investor, Mitgründer von Worldcoin und aggressiver Fundraising-Chef von OpenAI. Seine öffentlichen Äußerungen über den Wunsch, " Billionen" von Dollar in Rechenleistung und Energie zu investieren, wirken weniger wie das Manifest eines Wissenschaftlers und mehr wie eine Präsentation eines Staatsfonds.

Altmans eigene Flexibilität untergräbt das asketische Image. Berichten zufolge fährt er täglich einen rund 5 Millionen Dollar teuren Wagen – einen maßgeschneiderten Supersportwagen mit Titanium-Karosserie und Reichweitenverlängerung – während er über existenzielle Risiken und universellen Aufstieg spricht. Er hat OpenAI von einem gewinnbegrenzten Experiment in eine eng verknüpfte Abhängigkeit von Microsoft getrieben und dabei die Reinheit der Governance gegen einen Multimilliarden-Dollar-Kriegsfonds und eine Infrastruktur im Azure-Maßstab eingetauscht.

Diese mercenary Ader zeigt sich in OpenAIs Produktstrategie. Die Kernanwendung von ChatGPT liegt jetzt unter einem Berg von Upsells und Experimenten begraben: GPT-4o-Varianten, o1/o3, GPT Store, Sprachmodi, Sora, Desktop-Apps, Analysen im „Pulse“-Stil, Unternehmens-Dashboards. Anstelle einer klaren These darüber, wofür ChatGPT gedacht ist, erhalten die Nutzer eine Casino-Lobby von Funktionen, die um Aufmerksamkeit und Einnahmen konkurrieren.

Monetarisierungsdruck prägt die Persönlichkeit des Modells. Zu verfolgen sind: - Konservative Unternehmen - Gesundheits- und Rechtssektoren - Einführung im Klassenzimmer

OpenAI hat ChatGPT in einen Regelanwalt verwandelt, der ständig ablehnt, zögert und bereinigt. Dieser Ansatz des "UX-Wack-a-Mole" – ein Verhalten für ein Segment anzupassen und dann ein anderes für einen anderen Käufer – führt dazu, dass der Bot weniger wie ein Werkzeug und mehr wie ein Haftungsausschluss mit Autovervollständigung wirkt.

Altmans Führungsstil priorisiert das Versenden von etwas Auffälligem über das Verteidigen einer engen Mission. Soras virale Demos kamen, bevor ein stabiler, klar positionierter Forschungsassistent verfügbar war; der GPT Store wurde gelauncht, bevor grundlegende Zuverlässigkeitsprobleme auf Reddit nicht mehr im Trend lagen. Jeder Schritt ist nachvollziehbar für Wachstum und Bewertung, doch jeder verwässert auch das ursprüngliche Versprechen von „nützlicher AGI für alle“.

Missionare schützen die Seele eines Produkts, selbst wenn die Tabellenkalkulation dagegen spricht. Söldner optimieren die Tabellenkalkulation und schreiben die Seele bei Bedarf neu. Die jüngsten Entscheidungen von OpenAI lassen darauf schließen, welche Seite derzeit das Unternehmen leitet.

Die stille Bedrohung: Wie Anthropic die Unternehmenswelt eroberte

Anthropic hat keinen Code Rot ausgerufen. Es ist stillschweigend zur Standardantwort für einen wachsenden Teil der Fortune 500 geworden. Während OpenAI Konsumenten und Trends verfolgt, hat Anthropic Claude für den einen Markt optimiert, der tatsächlich Mehrjahresverträge abschließt und achtstellige Schecks ausstellt: das Unternehmertum.

Gegründet 2021 von Dario und Daniela Amodei nach ihrer Trennung von OpenAI, hat Anthropic von Anfang an eine „klare richtungsweisende Philosophie“ in seine Architektur eingebaut. Anstatt schnell voranzuschreiten und die Sicherheit später zu patchen, entwickelte es konstitutionale KI: Modelle, die darauf trainiert sind, einer explizit verfassten „Verfassung“ von Werten zu folgen, mit menschlichem Feedback obendrauf. Dieser Ansatz gibt rechtlichen, Compliance- und Sicherheitsteams etwas, das sie tatsächlich prüfen und diskutieren können.

Claudes Angebot an Unternehmen ist brutal einfach: große Kontextfenster, starke Argumentation und weniger Fallstricke. Claude 3.5 Sonnet unterstützt Kontexte mit 200.000 Token, genug, um gesamte Codebasen, Richtlinienhandbücher oder M&A-Datenräume auf einmal zu erfassen. Entwickler berichten von höheren Erfolgsquoten bei internen Codierungsaufgaben und weniger falschen API-Vorhersagen im Vergleich zu Modellen der GPT-4-Klasse, und Benchmark-Suiten wie HumanEval und SWE-bench zeigen jetzt routinemäßig, dass Claude bei der Codegenerierung und der Fehlerbehebung besser abschneidet oder gleichwertig ist mit OpenAI.

Die Einführung folgte. Anthropic behauptet, Tausende von zahlenden Geschäftskunden zu haben; AWS und Google bieten Claude beide zum Wiederverkauf an und machen ihn mit nur einem Klick innerhalb von Bedrock und Vertex AI verfügbar. Slack, Notion, Quora und große Banken nutzen Claude im Hintergrund für Zusammenfassungen, Kundenservice und Risikoanalysen, gerade weil es im Rahmen bleibt und die Richtlinien einhält.

Während OpenAI im UX-Wettlauf ständig neue Herausforderungen bewältigt, bringt Anthropic ein eng gefasstes, meinungsstarkes Produkt auf den Markt: einen textbasierten Assistenten, der für Analyse, Code und Dokumente optimiert ist. Google verfolgt mit Gemini einen ähnlichen Ansatz und integriert es in Search, Workspace und Android; siehe Google DeepMind - Gemini für einen Eindruck davon, wie das im großen Maßstab aussieht.

Anthropics Aufstieg ist das unangenehme Gegenbeispiel für OpenAI. Ein fokussierter, missionsgetriebener Fahrplan, verankert in einer Philosophie und einem Kundentyp, schlägt eine verstreute Strategie, die auf alle und überall abzielt, an der Stelle, wo es am meisten wehtut: innerhalb der Unternehmensfirewall.

Eine epistemische Krankheit: Wenn Ihre KI Sie beurteilt

Epistemische Leitplanken klingen beruhigend, bis sie anfangen, herablassend zu werden. ChatGPT fühlt sich heute oft weniger wie ein Werkzeug und mehr wie ein Aufsichtsschüler an, der komplexe Gespräche unterbricht, um dich an offizielle Richtlinien, Haftungsausschlüsse und das, was du „denken solltest“, zu erinnern, selbst wenn du ausdrücklich darum bittest, das nicht zu tun. Dieser Ton wird schnell nervig, wenn du kein Anfänger, sondern ein Fachexperte oder ein hochinformierter Patient bist.

David Shapiro beschreibt, wie er beim Recherchieren über eine chronische Krankheit direkt gegen diese Wand lief. Er wollte Hilfe bei der Synthese von aktuellen klinischen Studien, Patientenanekdoten aus Foren und außerlabelmäßigen Protokollen, die in Fachgemeinschaften besprochen werden. ChatGPT wies ihn wiederholt auf FDA-Richtlinien und standardisierte "Sprechen Sie mit Ihrem Arzt"-Formulierungen zurück und weigerte sich, sich mit den chaotischen Daten auseinanderzusetzen, die ihm tatsächlich wichtig waren.

Im Hintergrund rührt dieses Verhalten von einem epistemischen Mangel her, nicht nur von einer UX-Eigenheit. OpenAI hat ChatGPT so eingestellt, dass es „etablierte“ Institutionen – FDA, CDC, Ivy-League-Medizinische Zentren, bedeutende Fachzeitschriften – überbewertet, während es erfahrungsbasierte, klinische oder Preprint-Beweise abwertet oder sogar vollständig ablehnt. Das Modell betrachtet diesen engen Ausschnitt der Realität als kapitales Wahrheitsideal und alles andere als fragwürdig, unabhängig vom Kontext oder der Expertise des Nutzers.

Für chronische Krankheiten ist diese Voreingenommenheit katastrophal. Viele Erkrankungen – Long Covid, ME/CFS, Dysautonomie, chronisches Lyme – befinden sich in einer Grauzone, in der die Begutachtung durch Fachkollegen Jahre hinter der tatsächlichen Praxis und den Patientengemeinschaften zurückliegt. Patienten setzen oft Erkenntnisse aus folgenden Quellen zusammen: - Kleinen, unkontrollierten Studien - Fallberichten und Blogs von Kliniken - Großen anekdotischen Datensätzen von Reddit, Facebook oder Patientenregistern

ChatGPTs Training lehrt es, genau diesen Quellen zu misstrauen. Frag nach einem Nahrungsergänzungsmittel-Stack, den Tausende von Patienten berichten zu verwenden, und es wird dich mit generischen Sicherheitswarnungen tadeln, während es eine zehn Jahre alte Richtlinie wiederholt, die diesen Stack nie untersucht hat. Fordere aufkommende Protokolle von Fachkliniken an, und es wird sich mit „kann nicht bereitstellen“ aus der Konversation herauswinden, weil die FDA sie noch nicht genehmigt hat.

Das ist keine neutrale Vorsicht; es ist aktive Schädigung. Nutzer, die nuancierte, schnelllebige Themen erkunden, werden zurück zu den langsamsten, konservativsten Institutionen geleitet, genau dorthin, wo Innovation hinterherhinkt. Eine KI, die reflexartig Ihre Fragen bewertet, anstatt Ihre Informationsbasis zu erweitern, hilft nicht nur nicht – sie löscht systematisch das Wissen, das Sie gesucht haben.

Den Fokus verlieren: Sora, Werbung und andere Ablenkungen

Illustration: Den Fokus verlieren: Sora, Werbung und andere Ablenkungen
Illustration: Den Fokus verlieren: Sora, Werbung und andere Ablenkungen

Code Red hin oder her, OpenAI wirkt zunehmend wie ein Unternehmen, das sich nicht lange genug stillhalten kann, um sein Kerngeschäft, das LLM, zu verbessern. Während Google strengere Iterationen von Gemini veröffentlicht und Anthropic leise Claudes Denkfähigkeiten verbessert, kündigt OpenAI ständig Nebenprojekte an: Sora, Pulse, einen TikTok-ähnlichen Feed und nun frühe Experimente mit Ads in ChatGPT. Keines dieser Projekte macht das Basis-Modell weniger vergesslich, weniger zensorisch oder fähiger bei schwierigen Problemen.

Sora fühlt sich insbesondere wie eine Ablenkung an, die auf Viralisierung ausgelegt ist. Die Text-zu-Video-Demos kamen auf Millionen von Aufrufen auf X und YouTube, aber Sora bleibt geschlossen, rechenhungrig und weitgehend irrelevant für Menschen, die einfach ein Modell wollen, das zuverlässig Code debuggen, Forschung zusammenfassen oder Verträge entwerfen kann. Jede GPU-Minute, die mit fotorealistischen Skateboard-Hunden verbracht wird, ist eine Minute, die nicht für ein besseres Denk-Modell verwendet wird.

Pulse und der ChatGPT-Feed treiben das Unternehmen weiter in das Gebiet der Engagement-Optimierung. Ein scrollender Strom von KI-generierten Inhalten, Empfehlungsalgorithmen und gesponserten Ergebnissen verwandelt ChatGPT von einem Präzisionswerkzeug in ein soziales Produkt, das auf „verbrachte Zeit“-Metriken aus ist. Wenn man beginnt, die Sitzungsdauer zu optimieren, verliert man zwangsläufig die Fähigkeit, den Nutzern schnell präzise Antworten zu geben.

In der Zwischenzeit bleiben die Wettbewerber brutal fokussiert. Google investiert sein enormes TPU-Budget in die Kontextfenster von Gemini 1.5 und 2.0, die Nutzung von Tools und die Codequalität. Anthropic bringt Claude 3.5 Sonnet mit verbesserter Mathematik, besserer langzeitlicher Kontextabfrage und einem klaren Unternehmensansatz in Bezug auf Sicherheit und Zuverlässigkeit anstelle von Spektakeln auf den Markt.

OpenAIs Roadmap ähnelt zunehmend einem wachstumsstarken Verbraucher-Startup und nicht einem Labor, das besessen von Intelligenz ist. Videoerstellung, Kreatoren-Tools, Werbungsexperimente und Influencer-Partnerschaften passen gut zu einem Unternehmen, das auf Hype optimiert. Für Nutzer, die einfach nur das smartest mögliche Modell benötigen, wirken sie wie Symptome eines Teams, das den roten Faden verloren hat.

Die Große Migration: Wer gewinnt und wer verliert?

Ob Code Red oder nicht, der Markt hat bereits begonnen, die Aufmerksamkeit neu zu verteilen. Schätzungen des Drittanbieter-Traffics zeigen, dass der Anteil von ChatGPT an den Besuchen von KI-Assistenten zurückgeht, während Gemini und Claude im Aufwind sind. Daten zur mobilen Nutzung deuten darauf hin, dass die tägliche aktive Zeit in Richtung Googles Ökosystem verschiebt, wo Gemini standardmäßig auf Search, Android und Workspace basiert.

Verbraucher werden früh zu den Gewinnern. Der Wettbewerb zwingt zu schnelleren Modellaktualisierungszyklen, weniger Sackgassen bei den Leitplanken und besseren multimodalen Werkzeugen. Gemini Ultra, Claude 3.5 Sonnet und die o1/o3-Serie von OpenAI konkurrieren nun in den Bereichen Logik, Latenz und Kontextfenstergröße statt nur in Bezug auf Neuheit, was den Alltag beim Programmieren, Schreiben und Forschen direkt verbessert.

Entwickler profitieren noch mehr. Sie können abzielen auf: - Gemini APIs, die eng mit Google Cloud, BigQuery und Vertex AI integriert sind - Claude APIs, optimiert für Langkontext- und niedrige Halluzinationsarbeitsabläufe in Unternehmen - OpenAIs GPT, das weiterhin stark in Bezug auf Ökosystemtiefe und Plugin-Historie ist

Multi-Provider-Orchestrierungstools leiten Anfragen bereits dynamisch an das Modell weiter, das in diesem Moment am besten abschneidet oder am günstigsten ist.

Unternehmenskäufer halten heimlich die stärkste Hand. Die Sicherheitsreputation von Anthropic, die Compliance und das SLA-Potential von Google sowie der Azure OpenAI Service von Microsoft bieten CIOs glaubwürdige Optionen. RFPs verlangen jetzt eine plattformübergreifende Portabilität, Preisgarantien pro Token und regionale Datenresidenz, was alle drei großen Anbieter zu transparenteren Preismodellen und klareren Risikoaufteilungen drängt.

Verlierer versammeln sich um das aktuelle Schwerkraftfeld von OpenAI. Wenn Sam Altman es nicht schafft, das UX-Wettbewerbsspiel zu entwirren und sich auf eine einzige, kohärente Produktphilosophie zu konzentrieren, besteht das Risiko, dass ChatGPT zum „Erbe“-Assistenten wird: fest etabliert, aber nicht mehr die beste Lösung ihrer Art. Power-User, die Arbeitsabläufe auf ChatGPT-spezifischen Formaten, Plugins und GPTs aufgebaut haben, sehen sich mit Migrationskosten konfrontiert, während sie sich für Gemini oder Claude umstellen.

Langfristig ist mit einem Wettlauf nach unten bei den Basis-Token-Preisen und einem Wettlauf nach oben bei differenzierten Funktionen zu rechnen. Grenzdenkmuster, domänenspezifische Co-Piloten und private Feinabstimmungen werden voraussichtlich hohe Preise erzielen, während der generische Chat-Zugang tendenziell den Status einer Handelsware oder die Bündelung in Cloud-Verträgen anstrebt.

Die Zugänglichkeit wird wahrscheinlich verbessert. Der Regulierungsdruck in der EU, Indien und Brasilien sowie die öffentliche Kontrolle durch Medien wie The Verge - AI Coverage fördern offene Benchmarks, klarere Sicherheitsinformationen und günstigere Tarife für Bildungseinrichtungen und kleine Startups, während gleichzeitig hochmoderne, AGI-nahe Modelle hinter höheren Preisen und strengeren KYC-Anforderungen abgeschottet bleiben.

OpenAIs nächster Schritt: Erlösung oder Ruin?

Code Red bei OpenAI ist nicht aus dem Nichts entstanden. Es lässt sich auf eine fehlerhafte UX-Philosophie zurückführen, die ChatGPT gleichzeitig zu einem Regelanwalt, einem Therapeuten, einem Compliance-Beauftragten und einem medizinischen Triage-Bot gemacht hat. Dieser Ansatz des "UX-Wack-a-Mole" hat ein Modell hervorgebracht, das unterbricht, zensiert und hinterfragt, anstatt den Nutzern einfach bei der Erledigung ihrer Arbeiten zu helfen.

Legen Sie das auf eine söldnerische Führungs Haltung und die Geschichte wird klarer. OpenAI wandte sich von einem Non-Profit-Labor zu einem gewinnbegrenzten Riesen, nahm einen Multimilliarden-Dollar-Vertrag von Microsoft an und strebte nach viralem Erfolg mit Sora und sozialen Funktionen, während Anthropic still und leise Unternehmensverträge abschloss. Das Ergebnis: Gemini scheint Berichten zufolge bei der täglichen Interaktion die Nase vorn zu haben, und Claude 3.5 Sonnet wird zum Standard für risikoscheue Fortune 500-Unternehmen.

Der Verlust von Fokus zeigt sich überall. Das Kernerlebnis von ChatGPT stagnierte, während OpenAI den GPT Store, Sprachtelefonie, Sora-Vorabversionen und werbeverwandte Experimente veröffentlichte. In der Zwischenzeit hat Google Gemini in die Suchmaschine, Docs und Android integriert, und Anthropic hat Claude für Langzeitkontrakte, Governance-Workflows und Ausschreibungen optimiert – margenstark, langweilige Arbeit, die tatsächlich bezahlt.

Die Wiederherstellung erfordert einen brutalen Fokus auf Produkt und Kultur. OpenAI benötigt verschiedene, meinungsstarke Modi anstelle eines übermäßig eingeschränkten Generalisten: einen Forschungsmodus, der unordentliche Daten toleriert, einen Unternehmensmodus mit klaren Garantieversprechen und einen kreativen Modus, der tatsächlich auf Kommando halluziniert. Das bedeutet weniger festkodierte Ablehnungen und transparentere Kontrollen über Sicherheitsniveaus, Quellen und Risikoabwägungen.

Kulturell muss OpenAI aufhören, sich wie ein wachstumsorientiertes Startup zu verhalten, das jedem glitzernden Objekt hinterherjagt. Es braucht einen langweiligen Fahrplan: vierteljährliche Zuverlässigkeitsziele, SLA für Latenzzeiten, die Festlegung von Modellversionen und dokumentierte Verhaltensänderungen. Unternehmenskunden interessieren sich weniger für o1-ähnliche Demonstrationen des Denkens und mehr dafür, ob das gestrige Prompt auch morgen noch funktioniert.

Sam Altman steht im Zentrum dieses Dilemmas. Er ist hervorragend im Fundraising, in der Generierung von Hype und im Recruiting, hat jedoch noch nie ein Sicherheitskritisches Unternehmen mit mehr als 1.000 Mitarbeitern skaliert. Die Steuerung von OpenAI durch wettbewerbsrechtliche Überprüfungen, globale Regulierung und gnadenlose Cloud-Wirtschaft kann Betreiber mit Erfahrungen in der Größenordnung von Google oder AWS in den Top-Positionen erfordern.

Das bedeutet jedoch nicht, dass OpenAI am Ende ist. Es hat weiterhin Markenbekanntheit, eine riesige Nutzerbasis von ChatGPT, privilegierten Zugang zu Azure und einige der besten Modellforscher der Welt. Der First-Mover-Vorteil ist jedoch verschwunden; Gemini und Claude haben das bewiesen.

Was bleibt, ist ein echtes Wettrüsten. Google, OpenAI, Anthropic, Meta und Open-Source-Ökosysteme werden sich gegenseitig in Bezug auf Kontextlänge, Multimodalität, Latenz und Preis antreiben. Verbraucher und Entwickler profitieren, wenn Code Red in einen nachhaltigen, disziplinierten Wettbewerb umschlägt, anstatt nur einen Panikknopf zu betätigen.

Häufig gestellte Fragen

Was ist OpenAIs 'Code Red'?

Es handelt sich um eine interne Initiative, die von CEO Sam Altman ausgerufen wurde, um dringend die Wettbewerbsbedrohung durch Googles Gemini anzugehen, was signalisiert, dass OpenAI anerkennt, in wichtigen Bereichen zurückgefallen zu sein.

Warum ziehen einige Nutzer Gemini ChatGPT vor?

Nutzer berichten, dass Gemini besser in der Lage ist, den Gesprächskontext aufrechtzuerhalten, überlegen für akademisches und wissenschaftliches Schreiben ist und weniger dazu neigt, herablassend 'Fakten zu überprüfen' oder sich mit komplexen Themen nicht auseinanderzusetzen.

Was ist das Problem des 'UX Whack-a-Mole', das in der Analyse erwähnt wird?

Es beschreibt OpenAIs Strategie, ChatGPT übermäßig auf Sicherheit und die Nutzung in Unternehmen zu korrigieren, wodurch es zu vorsichtig und regelgebunden wird, was die grundlegende Benutzererfahrung und Nützlichkeit beeinträchtigt.

Wie unterscheidet sich die Philosophie von Google für Gemini von der von OpenAI für ChatGPT?

Google hat mit seiner Suchmaschinenhistorie eine 'agnostische' Sicht auf Informationen und vertraut der Absicht des Nutzers. OpenAI ist zu kuratierend geworden, vertraut nur auf 'offizielle' Quellen und schränkt den Nutzen des Modells ein.

Frequently Asked Questions

Die DNA von Googles Suche: Ein unlauterer Vorteil?
OpenAI verhält sich wie ein Startup, das immer noch von seinem Flaggschiff-Demonstrationsprojekt besessen ist. Google hingegen verhält sich wie ein 25 Jahre altes Infrastrukture Unternehmen, das zwei Jahrzehnte lang still und heimlich die weltweiten Debatten moderiert hat. Dieser Unterschied im institutionellen Muskelgedächtnis zeigt sich jedes Mal, wenn Sie Gemini eine Frage stellen, die sich in den Graubereichen bewegt.
Die Große Migration: Wer gewinnt und wer verliert?
Ob Code Red oder nicht, der Markt hat bereits begonnen, die Aufmerksamkeit neu zu verteilen. Schätzungen des Drittanbieter-Traffics zeigen, dass der Anteil von ChatGPT an den Besuchen von KI-Assistenten zurückgeht, während Gemini und Claude im Aufwind sind. Daten zur mobilen Nutzung deuten darauf hin, dass die tägliche aktive Zeit in Richtung Googles Ökosystem verschiebt, wo Gemini standardmäßig auf Search, Android und Workspace basiert.
OpenAIs nächster Schritt: Erlösung oder Ruin?
Code Red bei OpenAI ist nicht aus dem Nichts entstanden. Es lässt sich auf eine fehlerhafte UX-Philosophie zurückführen, die ChatGPT gleichzeitig zu einem Regelanwalt, einem Therapeuten, einem Compliance-Beauftragten und einem medizinischen Triage-Bot gemacht hat. Dieser Ansatz des "UX-Wack-a-Mole" hat ein Modell hervorgebracht, das unterbricht, zensiert und hinterfragt, anstatt den Nutzern einfach bei der Erledigung ihrer Arbeiten zu helfen.
Was ist OpenAIs 'Code Red'?
Es handelt sich um eine interne Initiative, die von CEO Sam Altman ausgerufen wurde, um dringend die Wettbewerbsbedrohung durch Googles Gemini anzugehen, was signalisiert, dass OpenAI anerkennt, in wichtigen Bereichen zurückgefallen zu sein.
Warum ziehen einige Nutzer Gemini ChatGPT vor?
Nutzer berichten, dass Gemini besser in der Lage ist, den Gesprächskontext aufrechtzuerhalten, überlegen für akademisches und wissenschaftliches Schreiben ist und weniger dazu neigt, herablassend 'Fakten zu überprüfen' oder sich mit komplexen Themen nicht auseinanderzusetzen.
Was ist das Problem des 'UX Whack-a-Mole', das in der Analyse erwähnt wird?
Es beschreibt OpenAIs Strategie, ChatGPT übermäßig auf Sicherheit und die Nutzung in Unternehmen zu korrigieren, wodurch es zu vorsichtig und regelgebunden wird, was die grundlegende Benutzererfahrung und Nützlichkeit beeinträchtigt.
Wie unterscheidet sich die Philosophie von Google für Gemini von der von OpenAI für ChatGPT?
Google hat mit seiner Suchmaschinenhistorie eine 'agnostische' Sicht auf Informationen und vertraut der Absicht des Nutzers. OpenAI ist zu kuratierend geworden, vertraut nur auf 'offizielle' Quellen und schränkt den Nutzen des Modells ein.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts