KI-CEOs werden geheimnisvoll. Hier ist der Grund.

Top-AI-Führungskräfte sagen öffentliche Auftritte ab und bauen Berichten zufolge Bunker. Sie wissen, dass eine massive Welle sozialer und wirtschaftlicher Störungen kurz bevorsteht, und bereiten sich auf die Folgen vor.

Stork.AI
Hero image for: KI-CEOs werden geheimnisvoll. Hier ist der Grund.
💡

TL;DR / Key Takeaways

Top-AI-Führungskräfte sagen öffentliche Auftritte ab und bauen Berichten zufolge Bunker. Sie wissen, dass eine massive Welle sozialer und wirtschaftlicher Störungen kurz bevorsteht, und bereiten sich auf die Folgen vor.

Die stille Panik im Silicon Valley

Die lautesten Evangelisten der KI sind plötzlich schwer zu finden. Emad Mostaque, der entlassene Gründer von Stability AI, warf in einem Podcast verspätet eine Granate: Er kennt “eine Menge KI-CEOs”, die alle öffentlichen Auftritte abgesagt haben, verängstigt von dem, was er als die kommende “nächste Welle der Anti-KI-Stimmung” bereits für das nächste Jahr bezeichnet.

Er sprach nicht von einer PR-Neuausrichtung nach einem schlechten Nachrichtenzyklus. Er stellte es als Sicherheitsstrategie dar, als Reaktion auf eine Zukunft, in der KI keine Neuheit mehr ist und in großem Maßstab durch Bürojobs fegt. Hinter den Kulissen betrachten die Führungskräfte dies als eine Risikooberfläche, nicht als eine Markenherausforderung.

Diese stille Rückzugsmöglichkeit kollidiert mit einer öffentlichen Erzählung, die KI weiterhin als glänzendes Produktivitätswerkzeug betrachtet. Auf der Bühne ist KI das „dumme Mitglied Ihres Teams“, ein etwas übermotivierter Praktikant, der E-Mails entwirft und Meetings zusammenfasst. In internen Memos sprechen Führungskräfte von Modellen, die sich fast über Nacht von einem Helfer zu einem Ersatz entwickeln.

Dario Amodei von Anthropic hat bereits eine Zahl ins Spiel gebracht: KI könnte die Arbeitslosigkeit binnen 1–5 Jahren auf 10–20% treiben, wenn die Einführung schiefgeht. Intern modellieren Unternehmen Szenarien, in denen Berufseinsteiger wie Analysten, Programmierer, Rechtsanwaltsfachangestellte und Kundenservicemitarbeiter von den Gehaltslisten verschwinden. Die Menschen, die diese Systeme entwickeln, sehen einen Zeitrahmen, der in Produktzyklen und nicht in Jahrzehnten gemessen wird.

Inzwischen investieren milliardenschwere Gründer heimlich in Bunker, befestigte Komplexe und abgelegene Ranches. Douglas Rushkoffs Buch „Survival of the Richest“ beschreibt geschlossene Briefings, in denen Technologieeliten besessen über „Ereignis“-Szenarien diskutieren und darüber, wie sie ihre Sicherheitsteams loyal halten können, wenn das Geld versagt. Künstliche Intelligenz steht im Zentrum dieser Zusammenbruchfantasien.

Öffentlich sitzen KI-CEOs weiterhin auf Konferenzbühnen und sprechen über „verantwortungsvolle Innovation“ und „Ergänzung, nicht Ersetzung, des Menschen.“ Privat ziehen sie sich von Veranstaltungen zurück, nachdem sie politische Figuren wie Charlie Kirk gesehen haben, die Anti-KI-Wut instrumentalisiert, und bei denen hochrangige CEOs in nicht verwandten Angriffen ins Visier genommen werden. Die Berechnung wechselt von Sichtbarkeit zu Überlebensfähigkeit.

Das ist die zentrale Spannung des KI-Booms: Je lauter die Hype-Maschine wird, desto stiller werden ihre Architekten. Die Menschen, die am nächsten an den Grenzmodellen stehen, verhalten sich, als wären sie auch am nächsten am Explosionsradius. Zum ersten Mal in der Geschichte der Technologie scheint es, als würden die Schöpfer sich darauf vorbereiten, sich vor ihrer eigenen Schöpfung zu verstecken.

Der Wendepunkt 2026

Illustration: Der Wendepunkt 2026
Illustration: Der Wendepunkt 2026

Nennen wir es die “dummen Praktikanten”-Ära der KI. Die heutigen großen Sprachmodelle wirken hauptsächlich wie übermotivierte Junioren: Sie entwerfen E-Mails, fassen Besprechungen zusammen und halluzinieren sich durch alles, was komplexer ist. Die Angst in den KI-Labors rührt von dem gemeinsamen Glauben her, dass diese Phase abrupt endet, sobald Systeme aufhören, Werkzeuge zu sein, und beginnen, als autonome Agenten zu agieren, die Aufgaben mit minimaler Aufsicht planen, ausführen und iterieren können.

Forscher beschreiben einen Wandel von „Co-Pilot“ zu „Mitarbeiter, den man nicht bezahlen muss.“ Anstatt einen Chatbot 50 Mal am Tag zu befragen, übergibt man einem KI-Agenten sein CRM, den Codebestand und den Kalender und weist ihn an, den Umsatz um 10 % zu steigern oder eine neue Funktion bereitzustellen. Dieser Agent verknüpft Werkzeuge, ruft APIs auf, beauftragt Auftragnehmer und kontaktiert nur einen Menschen zur Genehmigung.

Warum 2025–2026? Hardware, Modellskala und Datenpipelines entwickeln sich alle in etwa 6–12-Monatszyklen weiter. Frontier-Labore trainieren bereits Modelle mit Billionen von Parametern; zwei weitere Generationen könnten Systeme hervorbringen, die Denken, Gedächtnis und Werkzeugnutzung so gut kombinieren, dass sie selbstständig große Bereiche von Büroarbeitsabläufen steuern können.

Goldman Sachs schätzte 2023, dass generative KI das Äquivalent von 300 Millionen Vollzeitstellen weltweit automatisieren und zwei Drittel der aktuellen Rollen beeinflussen könnte. Damals schien das wie eine Geschichte im Maßstab eines Jahrzehnts. Innerhalb von KI-Unternehmen schrumpfte der zeitliche Horizont jedoch stillschweigend.

Der CEO von Anthropic, Dario Amodei, sagte kürzlich gegenüber Axios, dass KI plausibel die Arbeitslosigkeit auf 10–20% innerhalb von 1–5 Jahren treiben könnte. Er betrachtete dies als ein echtes Risiko und nicht als Science-Fiction: Einstiegsanalysten, Paralegals, Supportmitarbeiter und Junior-Ingenieure befinden sich alle im unmittelbaren Gefahrenbereich. Das sind die Menschen, die die Unternehmenswelt in der Regel zuerst entlässt.

Der beängstigende Teil ist die Form der Kurve. Es wird nicht vorhergesagt, dass dies ein sanfter Verlauf der industriellen Revolution ist, bei dem Arbeitnehmer langsam umgeschult werden. Insider erwarten einen Schwellen-Effekt: Modelle bleiben sichtbar fehlerhaft, bis eine einzige Generation eine Qualitätsmarke überschreitet und plötzlich ein KI-"Mitarbeiter" fünf Menschen in einem Team ersetzt.

Die Arbeitsmärkte nehmen solch einen Schock nicht leicht auf. Westliche Volkswirtschaften betrachten 5 % Arbeitslosigkeit als normal und 8–9 % als Krise. Ein Anstieg auf 15 % innerhalb weniger Jahre, der sich auf verschuldete, akademisch ausgebildete Arbeitnehmer konzentriert, wirkt weniger wie eine „Störung“ und mehr wie ein Legitimitäts-Test für Regierungen, Banken und die Big Tech selbst.

Dieser Wendepunkt im Jahr 2026 lässt die KI-CEOs verstummen. Sie sind dabei, die Agenten zu entwickeln, die ihn auslösen, während sie sich heimlich auf die Gegenreaktion vorbereiten, wenn alle anderen erkennen, was gerade geschehen ist.

Die Entschlüsselung der Mentalität des Billionärs-Bunkers

Bunkergespräche im Silicon Valley sind seit Jahren kein Scherz mehr. Sam Altman hat beiläufig zugegeben, Gewehre, Gold, Kaliumiodid, Antibiotika und ein Grundstück in Big Sur für Notfälle bereit zu halten, zusammen mit dem, was er als stark verstärktes „Keller“ bezeichnet, das sehr nach einem Bunker klingt. Mark Zuckerberg verwandelt stillschweigend sein 1.400 Hektar großes Anwesen auf Kauai in eine autarke Festung, die mit umfangreichen unterirdischen Einrichtungen ausgestattet ist und einem Preis von mehreren Hundert Millionen Dollar zugeschrieben wird.

Ilya Sutskever geht die Angst einen Schritt weiter. Bevor er OpenAI verließ, soll er gesagt haben: „Wir werden auf jeden Fall einen Bunker bauen, bevor wir AGI veröffentlichen“, und betrachtet physischen Schutz als Teil der Produktstrategie. Sein neues Unternehmen, Safe Superintelligence Inc., hat einen einzigen Zweck: Superintelligenz zu entwickeln und sicherzustellen, dass sie die Welt nicht zerstört.

Dies ist kein generisches Cosplay von milliardärs Preppern. Douglas Rushkoffs Berichterstattung in „Survival of the Richest“ beschreibt geschlossene Sitzungen, in denen ultra-reiche Technologieführer obsessiv über „Das Ereignis“ sprechen – ein Oberbegriff für Klimakollaps, gesellschaftlichen Zusammenbruch oder eine von KI getriebenen Singularität. Ihre zugrunde liegende Annahme: Katastrophe ist unvermeidlich, aber genug Geld, Sicherheitsdienstleister und gehärteter Beton können einen Ausweg kaufen.

AGI-Risiken fügen sich nahtlos in diese Weltanschauung ein. Wenn Sie glauben, dass eine kleine Gruppe von Unternehmen bald Systeme kontrollieren wird, die intelligenter sind als jeder Mensch, müssen Sie auch glauben, dass diese Systeme Massenarbeitslosigkeit auslösen, Demokratien mit hochgradig zielgerichteter Propaganda destabilisieren oder bei der Entwicklung von Biowaffen helfen könnten. Ein Arbeitslosenschock von 10-20 %, wie es das Szenario von Anthropics Dario Amodei nahelegt, bedeutet Millionen neu wütender, neu arbeitsloser Menschen, die nach jemanden suchen, dem sie die Schuld geben können.

Bunker werden zur physischen Verkörperung dieser Angst. Sie sagen, deutlicher als jede Sicherheitsmitteilung, dass Insider denken, KI könnte so schiefgehen, dass sie sich buchstäblich vor den Konsequenzen verstecken müssen – sei es, dass diese Konsequenzen wie abtrünnige Superintelligenz, Lebensmittelunruhen nach einem Versorgungsengpass oder wütende Menschenmengen aussehen, die zornig sind, weil ihre Jobs in GPUs verschwunden sind. Um ein Gefühl dafür zu bekommen, wie schnell diese Wut anwachsen könnte, lesen Sie den Bericht von Fortune „[KI leert die Belegschaften – und ein ehemaliger Google-Manager sagt, dass CEOs zu] (https://fortune.com/2025/08/06/ai-job-killer-ex-google-executive-mo-gawdat-warns-workers-ceos-politicians-replaced-robots/)“.

Zusammen betrachtet bilden Sutskevers einseitig fokussiertes Startup, Altmans verstärkte Schutzräume und Zuckerbergs Inselbefestigung ein Muster. Die Menschen, die dem Grenzbereich am nächsten stehen, setzen nicht auf eine sanfte Landung; sie gießen still Beton, für den Fall, dass die Zukunft, die sie aufbauen, sich gegen sie wendet.

Die steigende Welle des 'KI-Hasses'

Scrolle fünf Minuten lang auf Twitter unter einem beliebigen KI-bezogenen Hashtag und die Stimmung fühlt sich weniger nach „coolem neuen Spielzeug“ an, sondern eher nach „digitalem Hausmeister“. Die Antworten unter Produktankündigungen von OpenAI, Google und Meta lesen sich wie eine kontinuierliche Streiklinie: „Du nimmst mir meinen Job“, „Herzlichen Glückwunsch zur Automatisierung von uns“, „Viel Spaß mit deinem Bonus, während wir verhungern.“ Virale Beiträge sammeln hunderte von tausend Likes, indem sie KI als „Plagiat als Dienstleistung“ oder „Kohleabbau für GPUs“ bezeichnen.

Unter dem Lärm wiederholen sich einige Themen mit algorithmischer Präzision. Die Menschen fürchten zuerst Jobverlust: Callcenter-Mitarbeiter, Texter, Illustratoren, Rechtsanwaltsgehilfen und sogar Junior-Ingenieure beobachten, wie Werkzeuge wie ChatGPT und Midjourney die „Einstiegspositionen“ ihrer Karrieren aufbrauchen. Wenn Dario Amodei warnt, dass KI die Arbeitslosigkeit in 1–5 Jahren auf 10–20 % treiben könnte, treffen diese Zahlen auf Zeitlinien, die bereits mit Entlassungstabellen gefüllt sind.

Abgewertete Kreativität schürt eine zweite Welle des Zorns. Künstler posten Vergleichsbilder ihrer Werke in Trainingsdatensätzen neben KI-generierten Nachahmungen und bezeichnen es als Diebstahl. Schriftsteller beobachten, wie SEO-Schlamm und KI-Spam Amazon, Kindle und Nachrichtenaggregatoren überschwemmen und menschliches Handwerk in billigen, unendlichen Inhalt verwandeln.

Dann kommt der Rückschlag gegen das Klima und die Infrastruktur. In sozialen Medien kursieren Diagramme des Stromverbrauchs und der Wassernutzung von Rechenzentren, in denen KI-Unternehmen beschuldigt werden, Megawatt und Aquiferen zu verbrauchen, damit Führungskräfte sprechende Chatbots vorführen können. Kritiker stellen große Modelle als "Bitcoin 2.0" dar: massive Umweltkosten für spekulative Vorteile, die hauptsächlich den Aktionären zugutekommen.

Kulturell hat sich KI von einer kuriosen Neuheit zu einer allgegenwärtigen Bedrohung gewandelt. Für Menschen außerhalb der Tech-Blase zeigt sich KI jetzt als: - Eine Kündigungs-E-Mail - Eine defekte Kundenservice-Hotline - Eine Schule, die Werkzeuge bannt, die ihre Kinder bereits nutzen

Dieser Wandel macht KI-CEOs zu Blitzableitern. Jede Hauptrede, jeder Podcast oder Tweet wird zum Ziel für Wut über Löhne, Mieten, Klima und Ungleichheit, die es schon vor der KI gab – jetzt aber ein Gesicht und ein Logo hat, auf das man zielen kann.

Das Blutbad der Büroangestellten ist da.

Illustration: Das Weiße-Kragen-Blutbad ist hier
Illustration: Das Weiße-Kragen-Blutbad ist hier

Büroangestellte spüren bereits den Druck. Callcenter-Personalvermittlungen berichten, dass Kunden die Anzahl der lebenden Mitarbeiter um zweistellige Prozentsätze reduzieren, während Unternehmen KI-Chatbots einsetzen, die 60–80 % der eingehenden Anfragen bearbeiten, bevor ein Mensch sie überhaupt sieht. Banken, Fluggesellschaften und E-Commerce-Riesen bewerben heimlich „KI-erste Unterstützung“, was in der Regel „weniger Beschäftigte auf der Gehaltsliste“ bedeutet.

Der Kundenservice ist der Kanarienvogel. Ein Bericht von Goldman Sachs aus dem Jahr 2023 schätzte, dass generative KI Aufgaben automatisieren könnte, die 300 Millionen Vollzeitstellen weltweit entsprechen, wobei Büro- und Verwaltungsunterstützung zu den am stärksten betroffenen Bereichen gehören. Ein Senatsbericht über KI und die Arbeitswelt warnte, dass routinemäßige Telefon- und Chat-Rollen einer „schnellen Schrumpfung“ ausgesetzt sind, nicht einer schrittweisen Abnahme über Jahrzehnte.

Texter und Content-Marketer stehen als Nächste unter Druck. Insider aus den Bereichen Medien und Werbung sprechen offen darüber, dass Kunden nach der Einführung von Tools wie ChatGPT und Midjourney 50–70 % Kürzungen bei den Freelance-Budgets verlangen. Ein CEO einer Marketingagentur beschrieb, wie er einen Pool von 20 Auftragnehmern durch zwei Editorinnen ersetzt hat, die einen Stapel von KI-Inputs und -Vorlagen überwachen.

Der Einstieg in das Programmieren, der lange als sicherer Einstieg in die Mittelklasse verkauft wurde, wirkt jetzt fragil. Die eigenen Daten von GitHub zeigen, dass Copilot 40–60 % des neuen Codes in unterstützten Sprachen generieren kann, und große Technologiefirmen reorganisieren ihre Teams rund um die „KI-unterstützte Entwicklung“, die es erfahrenen Ingenieuren ermöglicht, mit weniger Junioren mehr zu erreichen. Mehrere Softwareunternehmen haben heimlich die Einstellungen für Absolventen gestoppt, während sie gleichzeitig die Investitionen in interne Code-Generierungsplattformen ausweiten.

Die jüngsten Entlassungen in der Technologiebranche sind nicht nur auf „makroökonomische Gegenwinde“ zurückzuführen. Meta, Google, Amazon und Microsoft haben seit 2022 Tausende von Stellenstreichungen angekündigt und gleichzeitig massive Ausgaben für KI-Infrastruktur und Modellentwicklung versprochen. Wenn Unternehmen die Rekrutierung, den Support und das mittlere Management reduzieren und gleichzeitig die Budgets für GPUs erhöhen, senden sie ein Signal für eine langfristige Wette auf KI-gesteigerte Effizienz anstelle von Personalaufbau.

Optimisten wiederholen ständig, dass „KI mehr Arbeitsplätze schaffen wird, als sie vernichtet“, aber die anfängliche Bilanz sieht unausgewogen aus. Die Analyse von Goldman Sachs prognostiziert zwar neue Rollen in der KI-Governance, im Engineering und in der Datenverarbeitung – doch diese sind im Vergleich zu den Millionen von Büro-, Service- und Junior-Professionals, die jetzt gefährdet sind, hochspezialisiert und in kleinen Nischen angesiedelt. Für einen entlassenen Kundensupport-Mitarbeiter oder Texter ist „Prompt Engineer“ kein realistischer nächster Schritt.

Beweise von Jobportalen und Gewinnaufrufen zeigen ein Muster: Unternehmen nutzen KI, um die unteren Ebenen der Organisationsstruktur auszuhöhlen, und feiern dann die Produktivitätsgewinne vor den Aktionären. Die versprochene Welle neuer, hochwertiger Arbeitsplätze hat sich bisher bei weitem nicht in dem Tempo materialisiert, das den Stellenabbau begleitet.

Die Karriereleiter bricht zusammen.

Das Unternehmensleben folgte früher einem vorhersehbaren Drehbuch: Jahrelang durch anspruchslose Arbeit kämpfen, sich Narben verdienen und dann in die echte Entscheidungsfindung aufsteigen. KI reißen den ersten Akt heraus. Wenn ein Modell der Klasse GPT-4.1 das Memo verfasst, das Meeting zusammenfasst und die erste Version des Vertrags schreibt, verlieren die Junior-Mitarbeiter die sich wiederholenden Aufgaben, die sie leise lehrten, wie Macht tatsächlich funktioniert.

Beratung, Recht, Finanzen und Medien basierten alle auf diesem Ausbildungsmodell. Analysten im ersten Jahr bereinigten Daten und erstellten Präsentationen; Junior Associates führten Dokumentenprüfungen durch; junge Reporter schrieben Pressemitteilungen um. Jetzt übernehmen KI-Tools laut interner Nutzungszahlen großer Firmen 60–80% dieser "Routinearbeiten", was neue Mitarbeiter mit merkwürdig leeren Lebensläufen und deutlich weniger Wiederholungen der Grundlagen zurücklässt.

Karrieremodelle gingen von einer Pyramide aus: viele Junioren, weniger Mittelstand, eine dünne Schicht von Führungskräften. KI kehrt dies in eine Sanduhr um. Unternehmen halten eine Handvoll Fachexperten an der Spitze, automatisieren die Basis und drücken die Mitte mit Vertrags- und Gig-Arbeitern, die nie die Tiefe erreichen, um die heutigen Führungskräfte zu ersetzen.

Das wirft eine unangenehme Frage auf: Wer wird 2035 Partner, VP oder Chefredakteur, wenn die Einstiegspipeline 2026 verschwindet? Man kann nicht befördern, was man niemals trainiert hat. Eine Generation, die nie Sorgfaltspflichten erfüllt, nie ein Live-System um 3 Uhr morgens debuggt und nie mit einem verärgerten Kunden im Raum gesessen hat, wird schließlich gebeten, Entscheidungen im Milliardenbereich zu treffen.

Kurzfristig lieben CFOs die Margen. Langfristig erben die Aufsichtsräte Organisationen mit einem akuten Mangel an erfahrenem menschlichen Leadership. Die Harvard Business Review verfolgt bereits einen Anstieg der Geschäftsführungswechsel in Artikeln wie Warum der CEO-Wechsel im Jahr 2025 steigt, aber die wirkliche Klippe kommt, wenn es einfach nicht genug kampferprobte Führungskräfte gibt, die befördert werden können.

Einige Firmen geben stillschweigend zu, dass sie eine einmalige Ernte bestehender Expertise durchführen. Die erfahrenen Mitarbeiter trainieren die Modelle, die ihre eigenen Nachfolger ersetzen, indem sie ihr institutionelles Gedächtnis in Vektordatenbanken festhalten anstelle von Menschen. Sobald diese Senioren in den Ruhestand gehen oder ausbrennen, wird das Unternehmen auf KI angewiesen sein, die Urteilsvermögen nachahmen kann, aber niemals die Konsequenzen falscher Entscheidungen wirklich erlebt hat.

'Brauche ich diesen Menschen?'

Kaltes Denken bestimmt jetzt die Vorstandsetagen. Emad Mostaque bringt es direkt auf den Punkt: Jeder Vorstand wird bald fragen: „Brauche ich diesen Menschen?“ wenn ein Frontier-Modell 80–90% der Arbeit zu einem Bruchteil der Kosten und ohne das Risiko für die Personalabteilung erledigen kann.

In einer Tabelle sieht der KI-Mitarbeiter unschlagbar aus. Er arbeitet rund um die Uhr, fällt nie krank aus, lässt sich sofort von 1 auf 10.000 Kopien skalieren und kostet vielleicht nur Cent bis wenige Dollar pro Stunde in API-Anrufen, anstatt 30 bis 70 Dollar voll ausgelastet für einen Fachmann mit mittlerer Berufserfahrung.

Verbindlichkeiten häufen sich auf der menschlichen Seite: Gesundheitsversorgung, Lohnsteuer, Manager, Büroflächen, rechtliche Risiken und das ständig präsente Risiko von Fluktuation. Für einen CFO, der auf eine Position schaut, bei der ein KI-Agent drei Kundensupport-Mitarbeiter oder zwei Junior-Entwickler ersetzen kann, verliert die „ethische“ Entscheidung gegen den Quartalsgewinnanruf.

Das ist nicht hypothetisch. Callcenter setzen bereits Chatbots ein, die 60–80% der Anfragen bearbeiten, bevor sie von einer Person überhaupt gesehen werden. Marketingteams ersetzen heimlich Freiberufler durch Text-zu-Bild- und Kopiermodelle; Anwaltskanzleien nutzen KI, um Verträge zu entwerfen, an denen Erstsemester früher Nächte gearbeitet haben.

Sobald KI-Agenten in der Lage sind, Werkzeuge zu verknüpfen, zu durchsuchen und Arbeitsabläufe von Anfang bis Ende auszuführen, verschiebt sich die Frage von „ergänzen oder ersetzen?“ zu:

  • 1Wie viele Menschen halten wir aus Haftungs- und optischen Gründen?
  • 2Welche Rollen erfordern unbedingt rechtliche oder moralische Verantwortung?
  • 3Wie rechtfertigen wir ein Gehalt, wenn ein Modell das 10-fache der Leistung erbringt?

Diese wirtschaftliche Logik verändert das Verhältnis zwischen Arbeitgeber und Arbeitnehmer. Arbeitnehmer hören auf, langfristige Investitionen zu sein und werden stattdessen zu „Legacy-Infrastruktur“, die aus regulatorischen Gründen, zur Markensicherheit oder weil die Technologie noch nicht ausgereift ist, gehalten wird.

In Millionen von Arbeitsplätzen wird diese Logik zu einem Motor der Unruhe. Wenn die Menschen sehen, dass Profite und Produktivität steigen, während die Löhne stagnieren und Chancen verschwinden, verhärtet sich die bereits auf Twitter sichtbare Wut zu etwas Organisiertem – und ist damit viel schwerer zu kontrollieren.

Der unmögliche Drahtseilakt des CEO

Illustration: Der unmögliche Drahtseilakt des CEOs
Illustration: Der unmögliche Drahtseilakt des CEOs

KI-Chefs arbeiten nun unter einem Paradox: Um zu gewinnen, müssen sie die Technologie beschleunigen, die sie zu öffentlichen Bösewichten machen könnte. Sie sammeln Milliarden, bringen neue Modelle heraus und versprechen „Produktivitätsgewinne“, wohl wissend, dass diese Gewinne oft in Einstellungsstopps, Umstrukturierungen und leise Entlassungen in den Bereichen Support, Marketing und Junior Engineering umschlagen.

Dieses dynamische Umfeld schafft eine neue Art von unternehmerischem Risiko. Wenn Dario Amodei warnt, dass KI die Arbeitslosigkeit in 1–5 Jahren auf 10–20 % treiben könnte, prognostiziert er nicht nur makroökonomische Daten; er setzt effektiv ein Ziel auf jeden, der als Profiteur dieses Wandels wahrgenommen wird. Menschen, die ihre Karrieren verlieren, sind nicht wütend auf abstrakte „Marktkräfte“ — sie richten ihren Zorn gegen Gesichter.

KI-CEOs verstehen zunehmend, dass sie die Gesichter sind. Ihre Namen stehen auf Kündigungsmemo, Keynote-Livestreams und strahlenden Investorendecks, die „Mitarbeitereffizienz“ feiern, während Tausende von Angestellten aus der Büroarbeit dabei zuschauen, wie ihre Branchen schrumpfen.

In diesem Umfeld hört persönliche Sicherheit auf, eine theoretische Größenordnung zu sein, und wird zu einer täglichen Berechnung. Tech-Führungskräfte beobachten bereits, was mit Politikern und Gesundheitsbehörden passiert, die zu Symbolen unerwünschter Veränderungen werden: Doxxing, Stalking, Swatting und in seltenen Fällen physische Angriffe.

KI-Führungskräfte sehen nun einen plausiblen Weg, an derselben emotionalen Stelle in der Kultur Platz zu finden. Sie entwickeln nicht nur Apps; sie werden als diejenigen wahrgenommen, die den Hebel betätigen, der die Zukunft von Texterinnen, Rechtsanwaltsfachangestellten und Junior Developern in einem Produktzyklus auslöscht.

Die Angst ist nicht nur ein allgemeines „Anti-Technologie“-Sentiment. Es besteht die spezifische Möglichkeit, dass, während AI-Hass auf Twitter und anderswo zunimmt, ein CEO zum Avatar der Automatisierung wird, so wie ein Senator zum Avatar eines unpopulären Gesetzes wird. Diese Art der Personalisierung von Schuld lässt Konferenzen, Fan-Panels und offene Q&As weniger wie PR-Gelegenheiten und vielmehr wie Sicherheitsrisiken erscheinen.

Ein niedriges Profil beginnt weniger wie Paranoia und mehr wie Protokoll auszusehen. Cancle den Universitätsvortrag. Lass die Festivalbühne aus. Ersetze öffentliche Bürgerversammlungen durch streng kontrollierte Livestreams, vorab geprüfte Fragen und Unternehmensblogs, die von Rechts- und Sicherheitsteams geprüft wurden.

Das Abschalten verlangsamt die Modelle nicht; GPUs summen weiterhin in geheimen Rechenzentren. Was es bewirkt, ist eine Entkopplung des Menschen von der Maschine – es schützt die Entscheidungsträger vor einer Öffentlichkeit, die zunehmend glaubt, dass diese Entscheidungen ihre Zukunft zerstören.

Warum Regierungen das nicht stoppen können

Die Regulierung bewegt sich in einem legislativen Tempo; KI bewegt sich mit der Taktfrequenz von GPUs. Gesetzgeber streiten immer noch darüber, was künstliche Intelligenz überhaupt bedeutet, während OpenAI, Google, Meta und Anthropic in 6- bis 12-Monatszyklen fortschrittliche Modelle veröffentlichen. Bis ein Gesetzentwurf den Ausschuss passiert, hat die zugrunde liegende Technologie bereits eine Generation übersprungen.

Regierungen fehlt ebenfalls grundlegende Sichtbarkeit. Viele der leistungsfähigsten Modelle laufen hinter API-Wänden oder in privaten Rechenzentren, nicht auf öffentlichen Websites, die von Aufsichtsbehörden durchsucht werden können. Behörden, die weiterhin Schwierigkeiten haben, die Algorithmen von Banken zu prüfen, sehen sich jetzt intransparenten, multimodalen Systemen gegenüber, die auf Billionen von Tokens trainiert wurden.

Die Geopolitik drückt aufs Gas. Jedes Land, das beim KI-Forschung bremst, riskiert, wirtschaftliche und militärische Macht an Rivalen abzugeben. Washington macht sich Sorgen über Pekings umfangreiche Finanzierung von KI und Überwachungstechnologien; Peking beobachtet, wie US-Cloud-Anbieter, Chiphersteller und Rüstungsunternehmen KI in alles integrieren, von Logistik bis zu Waffen.

Keine Großmacht möchte diejenige sein, die zuerst nachgibt. Versuche zur globalen Koordination ähneln Nuklearwaffengesprächen ohne die nötigen Überprüfungsinstrumente: Kein Satellit kann in ein Training auf einem privaten GPU-Cluster hineinsehen. Selbst Exportkontrollen gegen Nvidias High-End-Chips verlangsamen nur, stoppen jedoch nicht entschlossene Staaten und Unternehmen.

Die Binnenpolitik neigt das Feld weiter. Big Tech gibt allein in den USA jährlich Zehntausende Millionen Dollar für Lobbyarbeit auf Bundesebene aus und rivalisiert damit mit pharmazeutischen und Energieriesen. Diese Lobbyisten setzen sich für „risikobasierte“ Rahmenbedingungen ein, die verantwortungsvoll klingen, aber ausreichend Spielraum für die rasche Einführung neuer Modelle lassen.

Gesetzgeber stehen vor einem sich ständig verändernden Ziel. Sie müssen Gesetze für alles erlassen, von: - Fundamentalen Modellen - Open-Source-Checkpoints - Agentischen Systemen - Synthetischen Medien

Jede hat unterschiedliche Risiken, von Vorurteilen und Betrug bis hin zu Arbeitsmarktverwerfungen und nationaler Sicherheit. Zu weit gefasste Regeln laufen Gefahr, grundlegende Software zu kriminalisieren; enge Regelungen sind innerhalb eines Jahres veraltet.

Ergebnis: Unternehmenslabore setzen stillschweigend die effektive Politik fest, indem sie entscheiden, was gebaut, verschickt und als Open Source veröffentlicht wird. Aufsichtsräte wechseln bereits CEOs aus, die nicht in der Lage sind, sich in dieser Landschaft zurechtzufinden; siehe CEOs verlassen schneller im Juni 2025; Aufsichtsräte experimentieren mit interimistischer Führung. In den nächsten zehn Jahren wird die öffentliche Politik hauptsächlich auf die Entwicklung der KI reagieren und sie nicht definieren.

Die bevorstehende Disruption meistern

Ängstliche Wissensarbeiter hören immer wieder zwei unvereinbare Geschichten: KI wird entweder ihre Jobs vernichten oder sie übermenschlich produktiv machen. Beides kann wahr sein. Wenn ein Modell in der Lage ist, einen Vertrag zu entwerfen, ein Logo zu gestalten und die Launch-E-Mail in unter einer Minute zu schreiben, wird die Frage nicht mehr sein „Kann es meinen Job machen?“, sondern „Wie viele von uns braucht ein Manager noch?“

Überleben in dieser Welt sieht nicht aus wie „lerne programmieren“. Programmieren ist genau das, was LLMs bereits zum Frühstück haben. Knapp bleiben Fähigkeiten, die die unordentliche Realität umfassen: Probleme zu formulieren, Abwägungen zu treffen und skeptische Menschen zu überzeugen, sich zu bewegen.

Kritisches Denken hört auf, ein mere Cliché im Lebenslauf zu sein, und wird zu einem defensiven Schutzschild. Jeder kann ChatGPT nach 10 Ideen fragen; viel weniger können entscheiden, welche davon den Kontakt mit rechtlichen, finanziellen und verärgerten Kunden übersteht. Der Wert verschiebt sich zu denjenigen, die die KI-Ausgaben hinterfragen, versteckte Annahmen erkennen und sagen können: „Das sieht plausibel aus, wird aber die Abläufe gefährden.“

Komplexe Problemlösung geht auch die Wertschöpfungskette hinauf. KI kann innerhalb eines Rahmens optimieren; sie hat Schwierigkeiten, wenn der Rahmen selbst falsch ist. Menschen, die Arbeitsabläufe rund um KI-Agenten neu gestalten – und nicht nur Werkzeuge an alte Prozesse anpassen – werden Kontrolle über Hebel, Budgets und Einstellungen haben.

Emotionale Intelligenz wird zur Infrastruktur. Ein Bot kann Empathie simulieren, aber er schafft kein Vertrauen in ein traumatisiertes Team, das gerade einen Rückgang der Mitarbeiterzahl um 30 % erlebt hat. Manager, die offen über Automatisierung kommunizieren, Mitarbeiter umschulen und öffentliche Wut aufnehmen, werden ebenso wichtig wie die Modelle selbst.

Individuelle Anpassungen werden nicht ausreichen. Wenn Dario Amodeis Szenario einer Arbeitslosenquote von 10-20% eintritt, werden Gesellschaften strukturelle Antworten benötigen: universelles Grundeinkommen, Lohnsubventionen oder aggressive Arbeitsplatzgarantien. Experimente an Orten wie Finnland und Stockton, Kalifornien, deuten darauf hin, dass UBI die psychische Gesundheit und Stabilität verbessert, aber sie wurden nicht im Maßstab der KI-Ära getestet.

Kürzere Arbeitswochen werden von einer Randidee zu einem Verhandlungschip. Wenn ein einzelner KI-unterstützter Arbeiter das leisten kann, was drei im Jahr 2019 getan haben, bleibt den Unternehmen nichts anderes übrig, als zwei Stellen zu streichen oder die Arbeitszeiten zu reduzieren. Die 35-Stunden-Woche in Frankreich und die vier Tage-Woche-Piloten im Vereinigten Königreich bieten Prototypen, aber keine Blaupausen für eine KI-gesättigte Wirtschaft.

Unter all dem liegt eine schwierigere Frage: Wem gehört der Gewinn? Wenn eine Handvoll Unternehmen den Großteil der Produktivitätsgewinne aus Grundmodellen einfängt, erhalten wir eine Welt mit Billionen-Dollar-Marktwerten, ausgegrenzten Mittelschichten und stark befestigten Ranches in Kauai. Behandeln wir stattdessen KI als Infrastruktur – besteuert, reguliert und breit geteilt – haben wir die Chance auf eine Zukunft, in der verschwundene CEOs weniger Bedeutung haben als die Systeme, die sie überdauern.

Häufig gestellte Fragen

Verschwinden AI-CEOs wirklich aus dem öffentlichen Leben?

Obwohl sie nicht buchstäblich verschwinden, gibt es anekdotische Beweise von Persönlichkeiten wie dem ehemaligen CEO von Stability AI, Emad Mostaque, dass viele KI-Führungskräfte öffentliche Auftritte absagen, um nicht zum Ziel des wachsenden Anti-KI-Sentiments und der öffentlichen Wut über Arbeitsplatzverluste zu werden.

Welche Bedeutung hat das Jahr 2026 in Bezug auf KI-Vorhersagen?

Brancheninsider legen nahe, dass 2026 ein potenzieller Wendepunkt sein könnte, an dem KI-Modelle von hilfreichen Assistenten zu autonomen Agenten übergehen, die in der Lage sind, ganze Büroarbeitsabläufe zu ersetzen und damit erhebliche wirtschaftliche Störungen auszulösen.

Warum bauen Tech-Milliardäre Berichten zufolge Bunker?

Die 'Bunker'-Erzählung entsteht aus zwei Bedenken: kurzfristige soziale Unruhen aufgrund von Massenarbeitslosigkeit, die durch KI verursacht wird, und das langfristige existenzielle Risiko, eine Künstliche Allgemeine Intelligenz (AGI) zu schaffen, die die Menschheit nicht kontrollieren kann.

Was treibt die öffentliche Ablehnung gegenüber KI an?

Die Gegenreaktion wird von Ängsten vor massenhafter Arbeitsplatzverlagerung, der Abwertung kreativer Bereiche, ethischen Bedenken hinsichtlich Daten und Vorurteilen sowie einem allgemeinen Gefühl genährt, dass KI hauptsächlich einer kleinen Gruppe wohlhabender Personen zugutekommt, zu Lasten der breiteren Bevölkerung.

Frequently Asked Questions

Verschwinden AI-CEOs wirklich aus dem öffentlichen Leben?
Obwohl sie nicht buchstäblich verschwinden, gibt es anekdotische Beweise von Persönlichkeiten wie dem ehemaligen CEO von Stability AI, Emad Mostaque, dass viele KI-Führungskräfte öffentliche Auftritte absagen, um nicht zum Ziel des wachsenden Anti-KI-Sentiments und der öffentlichen Wut über Arbeitsplatzverluste zu werden.
Welche Bedeutung hat das Jahr 2026 in Bezug auf KI-Vorhersagen?
Brancheninsider legen nahe, dass 2026 ein potenzieller Wendepunkt sein könnte, an dem KI-Modelle von hilfreichen Assistenten zu autonomen Agenten übergehen, die in der Lage sind, ganze Büroarbeitsabläufe zu ersetzen und damit erhebliche wirtschaftliche Störungen auszulösen.
Warum bauen Tech-Milliardäre Berichten zufolge Bunker?
Die 'Bunker'-Erzählung entsteht aus zwei Bedenken: kurzfristige soziale Unruhen aufgrund von Massenarbeitslosigkeit, die durch KI verursacht wird, und das langfristige existenzielle Risiko, eine Künstliche Allgemeine Intelligenz zu schaffen, die die Menschheit nicht kontrollieren kann.
Was treibt die öffentliche Ablehnung gegenüber KI an?
Die Gegenreaktion wird von Ängsten vor massenhafter Arbeitsplatzverlagerung, der Abwertung kreativer Bereiche, ethischen Bedenken hinsichtlich Daten und Vorurteilen sowie einem allgemeinen Gefühl genährt, dass KI hauptsächlich einer kleinen Gruppe wohlhabender Personen zugutekommt, zu Lasten der breiteren Bevölkerung.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts