Anthropics schmutziges Geheimnis: KI für Wall Street

Das auf Sicherheit ausgerichtete KI-Labor entwickelt nun Werkzeuge für die größten Akteure an der Wall Street. Das ist nicht nur ein geschäftlicher Schritt – es ist ein Zeichen dafür, dass KI von der Elite kontrolliert wird.

Hero image for: Anthropics schmutziges Geheimnis: KI für Wall Street
💡

TL;DR / Key Takeaways

Das auf Sicherheit ausgerichtete KI-Labor entwickelt nun Werkzeuge für die größten Akteure an der Wall Street. Das ist nicht nur ein geschäftlicher Schritt – es ist ein Zeichen dafür, dass KI von der Elite kontrolliert wird.

Der schockierende neue Freund des 'Safety' Darling

Anthropic hat sich einen Ruf im Bereich konstitutionelle KI erarbeitet, einem sicherheitsorientierten Rahmenwerk, das Regeln und Werte direkt in seine Modelle integriert. Die öffentliche Erzählung des Unternehmens dreht sich um Forschungsarbeiten zur Ausrichtung, existenzielle Risiken und die Verhinderung von unkontrollierbaren Systemen, die in Katastrophen von Skynet-Größe umschlagen. Nun bringt dasselbe Labor heimlich ausgeklügelte Finanzinstrumente für Wall Street auf den Markt, die Hedgefonds, Banken und Quant-Firmen ansprechen, die täglich Billionen von Dollar bewegen.

Frühe Implementierungen gehen weit über einen Chatbot hinaus, der Gewinnkonferenzen erklärt. Anthropic schlägt agentenähnliche Systeme vor, die Echtzeit-Marktdaten konsumieren, 10-K-Berichte analysieren und dabei helfen, DCF-Modelle und Handelsstrategien mit Maschinengeschwindigkeit zu erstellen. Interne Demos, so die Aussagen von Personen, die mit dem Produkt vertraut sind, betonen die Automatisierung von Aufgaben, die traditionell von Junior-Analysten und Quants erledigt werden, genau dem Bereich, der der institutionellen Finanzwelt ihren Vorteil verschafft.

Diese Wende kollidiert frontal mit dem sorgfältig kuratierten Sicherheitsimage von Anthropic. Ein 2021 gegründetes Unternehmen, das nach einer sicherheitsorientierten Trennung von OpenAI entstand, will jetzt ein Stück des gleichen hochfrequenten, alpha-jagenden Ökosystems, das das maschinelle Lernen in eine Quelle für Rentenmaximierung verwandelt hat. In der Finanzwelt dominieren bereits algorithmische Intransparenz, asymmetrische Informationen und Anreize wie „schnell handeln, Märkte destabilisieren“.

Kritiker sehen einen eklatanten Widerspruch: Ein Labor, das vor der Verstärkung systemischer Risiken durch KI warnt, verbindet seine Modelle direkt mit einem der systematisch sensibelsten Sektoren der Erde. Wall Street nutzt Claude nicht, um Poesie zu schreiben; sie verwendet Claude, um Basispunkte zu finden, langsamere Akteure zu überholen und Ineffizienzen aus bereits brüchigen Märkten herauszudrücken. Sicherheitsformulierungen beginnen wie Branding zu klingen, wenn Ihre größten Kunden auf Handelsräumen sitzen.

David Shapiro, ein langjähriger Kommentator zur Ausrichtung, bringt das Unbehagen in seinem Video „Anthropic VERKAUFT sich an die Wall Street!“ zum Ausdruck. Er beginnt mit der Frage, ob ein Unternehmen, das „pro Sicherheit“ sein soll, sich nun „mit der Wall Street ins Bett legt“ und ob das „ein Zeichen für die Ergreifung durch die Elite“ ist. Seine Darstellung durchdringt die vorsichtige PR von Anthropic und geht direkt zur Kernfrage: Hat das Sicherheitsliebling einfach entschieden, dass, wenn das Geld groß genug wird, all das Gerede über Ausrichtung mit dem Aufbau der nächsten Generation quantitativer Infrastruktur koexistieren kann?

Vom Schutz der Menschheit zur Maximierung von Gewinnen?

Illustration: Von der Rettung der Menschheit zur Maximierung von Gewinnen?
Illustration: Von der Rettung der Menschheit zur Maximierung von Gewinnen?

Die Verteidiger von Anthropic haben eine fertige Antwort auf die Wende der Wall Street: Wenn man „safety-pilled“ ist, wird alles, was Skynet fernhält, moralisch akzeptabel. In dieser Weltsicht ist die Zusammenarbeit mit Hedgefonds und Banken kein Ausverkauf; es ist ein notwendiger Kompromiss, solange damit die Forschungsarbeit zur Ausrichtung finanziert wird und Anthropic im Raum bleibt, wenn die echten Entscheidungen über die Einführung von AGI getroffen werden. Wenn man aufrichtig glaubt, dass nicht ausgerichtete KI Milliarden töten könnte, dann erscheint das Leiten deiner Modelle durch Goldman Sachs wie ein Rundungsfehler im kosmischen Kontenbuch.

Diese Logik führt zu einem krassen, beinahe cartoonhaften Dilemma: Cyberpunk-Höllenlandschaft oder Extinktion. Sicherheitsabsolutisten argumentieren, dass eine „Cyberpunk-Zukunft“ – KI-verbesserte Unternehmen, militarisierte Regierungen, allgegenwärtige biometrische Überwachung, vollständige finanzielle Automatisierung – hässlich, aber überlebensfähig ist. Was nicht toleriert werden kann, sagen sie, ist eine Welt, in der ein ungebundenes System komplett zu Skynet wird und die Menschheit auslöscht, weil die „Guten“ sich weigerten, mit zweifelhaften Partnern zusammenzuarbeiten.

Doch das Cyberpunk-Szenario lebt nicht mehr in der Konzeptkunst der Science-Fiction. KI treibt bereits an: - Hochfrequenzhandel und finanzielle Arbitrage - Prädiktive Polizeiarbeit und Grenzüberwachung - Algorithmisches Management, das Arbeiter minuteweise auspresst

Stecken Sie die leistungsfähigsten Modelle von Anthropic in diesen Stapel, und Sie beschleunigen einen Weg der Konzentration, nicht der Befreiung.

Die Frage hört auf, abstrakte Philosophie zu sein, und klingt stattdessen wie Unternehmensstrategie: Ist dies ein prinzipieller moralischer Kompromiss oder eine praktische Rechtfertigung für das Streben nach Macht und Profit? Die Sicherheitsrhetorik stellt Wall-Street-Deals als Schutzschild gegen Katastrophen dar; Kapitalstruktur und Unternehmensverträge deuten auf etwas hin, das näher an elitärer Ausrichtung liegt. Wenn dieselben Modelle, die bei der Klimawissenschaft oder der Pandemiebewältigung helfen könnten, zuerst für quantitativen Handel optimiert werden, sprechen die Prioritäten lauter als die Blogbeiträge.

Anthropic vermarktet Claude weiterhin als ein Werkzeug „für alle“, eine demokratisierende Kraft zum universellen Nutzen. Hinter den Kulissen entspricht die Realität David Shapiros Beschreibung der Elite-Einflussnahme: gestufter Zugang, maßgeschneiderte Funktionen für Finanz- und Verteidigungskunden sowie regulative Einflüsse, die Bestandskunden absichern. Die Kluft zwischen öffentlicher Mission und privater Nutzung wird immer größer, und jede neue Integration an der Wall Street schiebt Anthropics Versprechen „für alle“ weiter in den Bereich PR-Fiktion.

Das Handbuch der Macht: Was ist 'Elite Capture'?

Macht horten nicht nur Geld; sie horten auch neue Werkzeuge. Elite-Erfassung beschreibt den Moment, in dem eine Technologie, die in utopischer Sprache verpackt ist, still und leise ihre größten Gewinne einer kleinen, gut vernetzten Gruppe – Unternehmensgiganten, Finanziers und staatlichen Sicherheitsbehörden – zukommen lässt, während alle anderen mit Marketing-Slogans und eingeschränktem Zugang abgespeist werden.

Eisenbahnen im 19. Jahrhundert versprachen, Länder miteinander zu verbinden und Märkte für alle zu öffnen. Stattdessen nutzten einige wenige Barone die Kontrolle über Gleise und Frachtraten, um Wettbewerber zu verdrängen und zu diktieren, wer am Handel teilnehmen durfte. Die Gesetzgeber mussten schließlich Antitrustgesetze erfinden, um zu verhindern, dass das System sich in ein dauerhaftes Monopol verwandelt.

In den 1990er Jahren verkaufte die frühe kommerzielle Internet-Rhetorik die Geschichte von Dezentralisierung und genehmigungsfreier Innovation. Zwei Jahrzehnte später dominieren einige Plattformen – Google, Amazon, Meta, Apple – die Bereiche Suche, Shopping, Werbung und mobile Distribution, wobei sie an fast jeder Transaktion und jedem Aufmerksamkeit-Stream verdienen. Dasselbe Muster zeigt sich immer wieder: offene Grenzen, schnelle Konsolidierung, gefolgt von regulatorischer Kontrolle.

Elite Capture folgt einem erkennbaren Leitfaden: - Kontrolle über Infrastrukturengpässe (Eisenbahnlinien, Glasfaser, Rechenzentren, Chips) - Vertikale Integration über die gesamte Wertschöpfungskette - Bevorzugter Zugang und Preisgestaltung für große Finanz- und Regierungsbehörden - Starker Einfluss auf die Regeln, die für alle anderen gelten

KI befindet sich nun eindeutig in dieser Gefahrenzone. Das Training von Grenzmodellen erfordert bereits Milliarden von Dollar für Rechenleistung, proprietäre Datenvereinbarungen und Cloud-Verträge, die nur wenige Unternehmen unterzeichnen können. Öffentliche oder offene Alternativen existieren, laufen jedoch in kleinerem Maßstab und hinken in Bezug auf die Fähigkeiten hinterher, ähnlich wie „unabhängige“ ISPs gegenüber Telekommunikationsriesen ins Hintertreffen gerieten.

Durch diese Perspektive betrachtet, ist Anthropic's leiser Wechsel zu hochwertigen Finanzwerkzeugen für die Wall Street keine isolierte Geschäftsentscheidung; es ist ein Datenpunkt in einer umfassenderen Konsolidierungsstory. Die eigene Kommunikation des Unternehmens auf der offiziellen Website von Anthropic steht neben dieser aufkommenden Realität, und genau in dieser Spannung werden die Weichen für die Zukunft von KI gestellt.

Sechs Warnsignale, dass KI entführt wird

Kontrolle ist das erste Indiz. Wenn eine Handvoll Firmen die Engpässe — fortschrittliche Chips, hyperskalierte Cloud, Rechenzentren und günstige Energie — besitzt, mieten alle anderen die Realität von ihnen. Das Trainieren eines fortgeschrittenen Modells kostet bereits Hunderte Millionen Dollar; dieses Preisschild schließt die meisten Universitäten, Start-ups und öffentlichen Institutionen aus dem Spiel aus.

Die vertikale Integration zieht den Schraubstock an. Dieselben Unternehmen rennen jetzt darum, jede Schicht des Stapels zu besitzen: Siliziumdesign, Cloud-Plattformen, Grundmodelle, App-Stores und Benutzeroberflächen. Die von Musk markierten Rechenzentren von X.ai, Nvidias End-to-End-AI „Plattform“ und Hyperscaler, die Modelle mit proprietären Werkzeugen bündeln, drängen alle auf eine Welt, in der der Anbieterwechsel nahezu unmöglich wird.

Stratifizierter Zugang ist, wenn die Hierarchie explizit wird. Die fähigsten, kontextreichsten Modelle werden hinter verschlossenen Türen für Verteidigungsauftragnehmer, Hedgefonds und Big Banks betrieben, während die Öffentlichkeit mit abgespeckten, sicherheitsverpackten Versionen abgespeist wird. Sogar OpenAI hat zugegeben, dass es seine stärksten Systeme von einer breiten Veröffentlichung zurückhält und dabei auf Rechenleistungsgrenzen verweist; Shapiros Punkt ist, dass diese Grenzen mysteriously verschwinden, wenn ein 200-Millionen-Dollar-Verteidigungsvertrag zustande kommt.

Regulatorische und narrative Einflussnahme festigen diese Macht. Frontier-Labore helfen dabei, die Regeln zu formulieren, die sie selbst betreffen, und treten dann als neutrale „Experten“ vor den Kongress oder die EU auf. Wenn Sam Altman von einer Senatsanhörung zu einem privaten Abendessen mit Gesetzgebern wechseln kann oder Anthropic-Manager Regulierungsbehörden über „verantwortungsvolle Skalierung“ informieren, wird die Geschichte über existenzielle Risiken zugleich zu einem Lobbying-Rahmen, der kleinere Wettbewerber bequem ausschließt.

Rent-seeking-Optimierung zeigt sich darin, wo KI tatsächlich zum Einsatz kommt. Anstatt zuerst Krebs zu heilen, fließen die großen Geldsummen in: - Hochfrequenzhandel und finanzielle Arbitrage - Hyper-targetierte Werbung und Engagement-Hacking - Automatisierung von Arbeitskräften und algorithmisierte Verwaltung

Diese Anwendungsfälle erweitern den wirtschaftlichen Kuchen nicht so sehr, sondern schneiden ihn nach oben um, indem sie KI zu einer Mautstelle für jede Transaktion, jeden Klick und jeden Auftrag machen.

Unterlegene öffentliche Alternativen vervollständigen das Bild. Open-Source-Modelle wie Stable Diffusion oder LLaMA-Derivate existieren, bleiben jedoch in Bezug auf Größe, Trainingsdaten und Inferenzbudget um ein Vielfaches hinter geschlossenen Systemen zurück. Ohne staatlich unterstützte Rechenleistung, gemeinsame Dateninfrastruktur oder ernsthafte Finanzierung droht "öffentliche KI" das digitale Äquivalent zu einer bröckelnden Bibliothek gegenüber einem strahlenden privaten Forschungspark zu werden.

Die Unsichtbaren Ketten: Eine Infrastruktur der Kontrolle

Illustration: Die Unsichtbaren Ketten: Eine Infrastruktur der Kontrolle
Illustration: Die Unsichtbaren Ketten: Eine Infrastruktur der Kontrolle

Infrastruktur ist der Bereich, in dem die hochfliegende Rhetorik der KI über Offenheit mit der harten wirtschaftlichen Realität kollidiert. Eine Handvoll Unternehmen besitzt den physischen Stack, den alle anderen mieten müssen. Dieser erste Engpass – wer das Rechenzentrum kontrolliert – bestimmt, wer überhaupt mitspielen kann.

Beginnen wir mit der Cloud. AWS, Azure und Google Cloud machen laut den meisten Analystenschätzungen etwa 65 % des globalen Cloud-Marktes aus. Wenn Sie ernsthafte Modelle trainieren oder bereitstellen möchten, ist die Wahrscheinlichkeit hoch, dass Sie einem dieser drei Hüter nach GPU-Stunden bezahlen.

Gehen Sie eine Ebene tiefer und der Druck erhöht sich. TSMC produziert etwa 90 % der weltweit fortschrittlichsten Chips, die hochmodernen Nodes, die KI-Trainingscluster, hyperskalierte Rechenzentren und Hochfrequenz-Handelsanlagen an der Wall Street antreiben. Wenn TSMC einen Schnupfen bekommt – geopolitische Spannungen, Erdbeben, Exportkontrollen – bekommt das gesamte KI-Ökosystem eine Lungenentzündung.

Dann kommt Nvidia, das effektiv die Accelerator-Ebene dominiert. Nvidia kontrolliert nahezu 90 % der heute eingesetzten KI-Beschleuniger, von H100s in Frontlaboren bis hin zu A100s, die still die Risikomodelle in Hedgefonds bearbeiten. Sein CUDA-Software-Stack und das proprietäre Networking verwandeln rohe Chips in ein Ökosystem, aus dem Wettbewerber nur schwer entkommen können.

Ökonomen nennen diese Struktur ein natürliches Monopol: Märkte, in denen enorme Fixkosten und Netzwerkeffekte alle zu wenigen dominierenden Anbietern drängen. Kein Gesetz verbietet es Nvidia, der Standardbeschleuniger zu sein, oder TSMC, die einzige tragfähige Fertigung für 3-nm-Wafer zu sein. Die Physik der Halbleiterfertigung und die Kapitalkosten des Hyperscale-Cloud bestraffen einfach kleinere Anbieter mit Irrelevanz.

Das ist wichtig, weil es bei der „Konkurrenz“ im Bereich KI nicht mehr darum geht, wer den cleversten Algorithmus in einem GitHub-Repo hat. Es geht darum, wer zehntausende GPUs sichern, priorisierten Zugang zu den fortschrittlichen Fertigungstechnologien von TSMC erhalten und vorteilhafte langfristige Verträge mit AWS, Azure oder Google Cloud abschließen kann. Ohne dies ist Ihr bahnbrechendes Modell eine Demo, kein Produkt.

Wenn Anthropic also Werkzeuge für Wall Street entwickelt, geschieht dies auf einem Hardware-Stack, der bereits von einem mikroskopisch kleinen Kreis erfasst ist. Der Zugang zu diesem Stack ist der echte Schutzgraben – und die echte unsichtbare Kette – die alle anderen ausschließt.

Der 300-Milliarden-Dollar-Graben, den Big Tech baut

Kapital funktioniert jetzt als das schärfste Instrument der Elitenaneignung in der KI. Wer das meiste Geld für Chips, Rechenzentren und Talente ausgeben kann, bestimmt die Regeln für alle anderen. Im Jahr 2023 finanzierte Big Tech leise die Zukunft: Schätzungen zufolge stellten große Plattformen etwa 67 % aller Finanzierungen für Startups im Bereich der generativen KI bereit und verwandelten die „Ecosystem-Unterstützung“ in eine Abhängigkeitspipeline.

Startups präsentieren sich als Disruptoren, aber ihre Kapitalstrukturen erzählen eine andere Geschichte. Wenn Microsoft, Google, Amazon und Nvidia die meisten Schecks ausstellen, kaufen sie nicht nur Anteile; sie erwerben Einfluss auf Produkt-Roadmaps, Infrastrukturentscheidungen und darauf, wer Premium-Zugang zu den neuesten Modellen erhält. Abhängigkeit wird strukturell, nicht vorübergehend.

Jetzt zoomt heraus auf 2025, wo Branchenschätzungen auf rund 300 Milliarden Dollar an KI-bezogenen Ausgaben in einem einzigen Jahr hindeuten. Dazu gehören hyperskalierte Rechenzentren, GPU-Cluster, Unterseekabel und die Energieinfrastruktur, um sie am Laufen zu halten. Zum Kontext: 300 Milliarden Dollar rivalisieren oder übersteigen das jährliche BIP von Ländern wie Chile, Pakistan oder Finnland.

Keine Universität, gemeinnützige Forschungseinrichtung oder kleine Nationalstaat kann dieser Verbrennungsrate glaubwürdig das Wasser reichen. Ein gut finanziertes akademisches Konsortium könnte über mehrere Jahre hinweg ein paar Hundert Millionen Dollar zusammentragen; Big Tech betrachtet das als einen Rundungsfehler bei einem einzigen GPU-Vertrag. Das Ergebnis ist ein Kapitalgraben, der so breit ist, dass „offene Alternativen“ hauptsächlich als Markenbegriff existieren, nicht als gleichwertige Mitbewerber.

Dieser Ausgabenrausch kauft nicht nur Hardware; er kauft auch die Macht zur Agenda-Setzung. Wer über 300 Milliarden Dollar an KI-Infrastruktur verfügt, kann entscheiden: - Welche Sprachen und Regionen gute Modelle erhalten - Welche Branchen maßgeschneiderte Werkzeuge bekommen - Welche Regulierungsbehörden „Hilfe“ beim Entwurf von Regeln erhalten

Berichterstattung in Medien wie dem Financial Times präsentiert dies als Wettlauf um Innovation, aber die Struktur ähnelt eher einer Eingrenzung. Wenn eine Handvoll Unternehmen das Kapital kontrolliert, wird die elitäre Aneignung nicht mehr zu einem Risiko, sondern sieht aus wie das Standardbetriebssystem für KI.

Ihre eigenen Regeln schreiben: Die Eroberung der Regierungsführung

Regulatorische Macht entsteht nicht im luftleeren Raum; finanzielle und strukturelle Dominanz verwandelt sich direkt in politischen Einfluss durch Regulierungsfängnis. Behörden, die für die Aufsicht über KI zuständig sind, lassen sich häufig von den Unternehmen, die sie regulieren, leiten, da diese Firmen die Fachkenntnisse, die Ausbildungsmöglichkeiten und oft die Finanzierungserzählungen kontrollieren, die schwache Regeln rechtfertigen.

In Washington und Brüssel hat sich die KI-Politik zu einer Einladung-only-Diskussion entwickelt, bei der immer wieder dieselben ein halbes Dutzend CEOs auftauchen. Sam Altmans Tour durch den Kongress setzte den Maßstab: Stundenlange private Briefings, wiederholte Anhörungen und ein direkter Zugang, den keine Gewerkschaft oder Datenschutz-NGO erreichen kann.

Gesetzgeber in den USA und Europa greifen jetzt standardmäßig auf „Frontier-Labore“ als ihre wichtigsten Berater für KI-Sicherheit und Wettbewerb zurück. Wenn Mitarbeiter die Modellgewichte, GPUs oder Fundamentmodelle nicht verstehen, wenden sie sich an Anthropic, OpenAI, Google oder Meta – und diese Unternehmen entwerfen gerne die Rahmenbedingungen, an die sie später gebunden werden.

Diese Zugangsungleichheit ist nicht hypothetisch. Während der Verhandlungen über das EU-KI-Gesetz reichten Industrie-Lobbyisten Berichten zufolge Tausende von Seiten mit Änderungen ein, viele davon direkt in Kompromisstexte kopiert, während zivilgesellschaftliche Organisationen Mühe hatten, Besprechungstermine oder Übersetzungsunterstützung für ihre Vorschläge zu bekommen.

Der AI-Sicherheitsgipfel im Vereinigten Königreich im Bletchley Park machte das Ungleichgewicht deutlich. Von etwa 100 eingeladenen Organisationen waren ein großer Teil Unternehmen oder industriefinanzierte Institute, während Gewerkschaften, Arbeiterkooperativen und Basisgruppen für digitale Rechte nur einen symbolischen Anteil des Raums einnahmen.

Die Regierungen präsentierten den Gipfel als ein globales demokratisches Gespräch, aber die Agenda drehte sich um Themen, über die Fortschritts-Konzerne bereits sprechen wollten: Modellauswertungen, Berechnungsgrenzen und freiwillige Sicherheitsverpflichtungen, die die heutigen Giganten als dauerhafte Verwalter von „verantwortungsbewusster“ KI festlegen.

Hier kommt der Narrativ-Übergriff ins Spiel. Indem sie Podien, Pressekonferenzen und geschlossene Runden dominieren, definieren diese Unternehmen, worum es bei KI „wirklich“ geht – existenzielle Risiken, abtrünnige Systeme und Sci-Fi Skynet-Szenarien – während sie Themen wie algorithmischen Lohnraub oder Wohnungsverdrängung in den Hintergrund drängen.

Wenn existenzielle Risiken den Sauerstoff monopolisieren, werden gegenwärtige Schäden zu verhandelbaren Posten. Vorurteile bei der Kreditbewertung, automatisierte Gewerkschaftsbekämpfung und massenhafte Verdrängung von Büroangestellten erscheinen als sekundäre Anliegen statt als zentrale Fragen darüber, wem KI dient und wer den Preis zahlt.

Der Klang der Stille: Was dem Boom fehlt

Illustration: Der Klang der Stille: Was beim Boom fehlt
Illustration: Der Klang der Stille: Was beim Boom fehlt

Stille kann Daten sein. Wenn man sich von den Schlagzeilen des AI-Hypes zurückzieht, sagen die leisen Lücken in der Geschichte mehr darüber aus, für wen diese Technologie tatsächlich gedacht ist, als jede triumphale Produkteinführung oder Keynote.

Beginnen Sie mit der Infrastruktur. Trotz aller Rhetorik, dass KI „wie Elektrizität“ sei, gibt es kein öffentliches Pendant zu einem Stromnetz. Das US-amerikanische National AI Research Resource (NIRR) Pilotprojekt hat ein vorgeschlagenes Budget von sechs Jahren, das Analysten im niedrigen einstelligen Milliardenbereich ansiedeln, während Meta Berichten zufolge in einem einzigen Jahr ähnliche Beträge für GPUs ausgibt, um ihre eigenen Modelle zu versorgen.

Diese Asymmetrie ist bedeutsam. Öffentlich finanzierte Rechenleistung bleibt im Vergleich zu den privaten Investitionen in KI, die sich auf zehn Milliarden von Microsoft, Google, Amazon und Nvidia belaufen, ein kleines Rundungszeichen. Wenn Sie ein Universitätslabor, eine Bürgergruppe oder eine Stadtregierung sind, bitten Sie im Grunde um Krümel von denselben Cloud-Anbietern, die privilegierten Zugang zu Hedgefonds und Verteidigungsauftragnehmern verkaufen.

Die Governance wirkt ebenso einseitig. Die Vorstände von Anthropic, OpenAI, Google DeepMind und xAI bestehen aus Investoren, Gründern und ehemaligen Regulierungsbehörden – jedoch gibt es keinen einzigen gewählten Arbeitnehmervertreter, Gemeindedelegierten oder unabhängigen Direktor der Zivilgesellschaft. Die Menschen, die am stärksten von KI-gestützten Entlassungen, Überwachung und Desinformation betroffen sind, haben keinerlei formelle Stimme, wie fortschrittliche Systeme implementiert werden.

Ebenfalls fehlen ernsthafte Experimente in der gemeinsam getragenen Governance. Kein größeres Labor hat bindende Vetorechte für betroffene Gemeinschaften, Arbeiterräte mit Kontrolle über Einsatzentscheidungen oder städtische Aufsichtsgremien mit Zugang zu Modellprüfungen eingerichtet. Stattdessen lebt „Sicherheit“ in internen roten Teams und beratenden Gremien, die in Blogbeiträgen gewürdigt und in Vorstandsetagen ignoriert werden können.

Dann gibt es die finanzielle Architektur, die heimlich hinter verschlossenen Türen skizziert wurde. Berichten zufolge hat der CFO von OpenAI die Idee von expliziten staatlichen Rücklagen für fortschrittliche KI ins Spiel gebracht – öffentliche Garantien, falls es schiefgeht, und private Gewinne, wenn es nicht passiert. Das ist das Lehrbuchbeispiel für „sozialisierte Risiken, privatisierte Gewinne“, die gleiche Logik, die die Subprime-Implosion von 2008 in ein steuerzahlerfinanziertes Rettungspaket verwandelt hat.

Zusammen genommen bilden diese Abwesenheiten ein Muster. Keine Infrastruktur im öffentlichen Maßstab, keine gemeinsame Governance und frühe Forderungen nach staatlich unterstützter Versicherung für private Wetten weisen alle in eine Richtung: KI, die als kritisches System entwickelt wird, das im Besitz und unter der Kontrolle einer kleinen, gut kapitalisierten Elite steht.

Ist 'KI-Sicherheit' nur ein Trojanisches Pferd?

Anthropics leidenschaftlichste Verteidiger bestehen darauf, dass der Verkauf von High-End-Modellen an Wall Street-Quants, Hedgefonds und Rüstungsunternehmen ein notwendiges Übel auf dem Weg zur „Ausrichtung“ ist. Das ist der provokante Kern von David Shapiros Kritik: Gespräche über langfristige existenzielle Risiken fungieren als moralischer Blankoscheck für kurzfristige Machtergreifungen. Wenn man sich einredet, dass Skynet droht, beginnt jede Partnerschaft wie verantwortungsvolle Verwaltung statt wie Übernahme auszusehen.

Effektive Altruisten und Rationalisten in Laboren wie Anthropic betrachten ihre Arbeit als ein tatsächliches Überlebensprojekt. In diesem Denkansatz wird das Eingehen von Vereinbarungen mit Militärs, Geheimdiensten und den größten Fonds an der Wall Street nicht als Kompromiss, sondern als Opfer für das größere Wohl angesehen. Eine cyberpunkhafte Überwachungsdystopie, argumentieren sie, ist immer noch besser als ein Büroklammermaximierer, der die Menschheit auslöscht.

Diese Weltanschauung schreibt still die Ethik des Einsatzes von KI neu. Sobald man akzeptiert, dass „wir die Einzigen sind, die Skynet aufhalten können“, dann wird: - Exklusive Verträge mit Regierungen zu „Containment“ - Bevorzugter Zugang für Megabanken zu „Risikotests“ - Geheimhaltung und geschlossene Modelle zu „Sicherheitsmaßnahmen“

All dies trägt auch dazu bei, die bestehenden Akteure, die die finanziellen Mittel verwalten, zu festigen.

Die Kontrolle über die Sicherheitsnarrative verwandelt sich dann in eine politische Waffe. Frontier-Labors warnen vor unkontrollierten Open-Source-Modellen, biologischen Risiken und der Exfiltration von Modellen und schlagen dann Sicherheitsregeln vor, die zufällig milliardenteure Rechencluster, Red-Teams und Compliance-Abteilungen erfordern. Start-ups, Universitäten und öffentliche Labors können diese Hürde nicht überwinden; Hyperscaler und Frontier-Labors haben das bereits geschafft.

Man sieht die Umrisse in den Aufrufen nach Lizenzierungssystemen, die an FLOP-Grenzwerte gebunden sind, der verpflichtenden Überwachung von Trainingsläufen und der zentralen Vorfallberichterstattung an staatlich geprüfte Stellen. Auf dem Papier zielen diese Maßnahmen auf „Grenz“-Systeme ab. In der Praxis schließen sie die Grenze in einen kleinen Klub von Akteuren ein, die sich die Audits, Anwälte und maßgeschneiderten Siliziumchips leisten können. Sicherheit wird zu einem Schutzschild, nicht zu einer Garantie.

Pro-Sicherheits-Eliten stellen den Kompromiss oft als binär dar: Akzeptiere eine streng kontrollierte, von Unternehmen dominierte KI-Landschaft oder setze auf das Risiko der Auslöschung. Diese Darstellung blendet eine dritte Option aus: ein demokratisch gesteuertes, öffentlich rechenschaftspflichtiges KI-Ökosystem mit starken Arbeitsschutzmaßnahmen, Antitrust-Überwachung und echtem öffentlichem Rechenzentrum. Arbeiten wie die von Anthropic Research zeigen technische Übereinstimmung, aber wer diese abgestimmten Systeme besitzt und steuert, bleibt eine politische Entscheidung, nicht ein Gesetz der Physik.

Ihr Zug: Können wir das Versprechen von KI zurückgewinnen?

Anthropics Wall-Street-Wendung verdeutlicht, wie konzentriert die KI-Macht bereits ist, doch sie macht auch deutlich, wo Gegenkräfte herkommen können. Open-Source-Projekte wie Llama 3, Mistral und Stable Diffusion zeigen, dass man für den Bau leistungsfähiger Systeme keine Bewertung von 300 Milliarden Dollar und ein Hyperscale-Rechenzentrum benötigt. Man kann ein 7B-13B-Modell auf einer einzelnen hochmodernen GPU optimieren und etwas Nützliches anbieten.

Open Source stößt nach wie vor auf eine harte Grenze. Das Training von Frontmodell-Instanzen erfordert Zehntausende von Nvidia H100s, Megawatt an Energie und Rechenzentrumsflächen, die sich nur Amazon, Microsoft, Google und deren engste Freunde leisten können. Selbst das radikalste Open-Weights-Modell mietet immer noch Zeit auf den Racks anderer.

Echter Pluralismus in der KI erfordert öffentliche Rechenleistung, die mit privaten Clouds konkurriert. Das bedeutet nationale oder regionale Supercomputing-Einrichtungen, die ausdrücklich für akademische Labore, gemeinnützige Organisationen, Startups und Kommunen vorgesehen sind, nicht nur für Rüstungsunternehmen und Fortune 100. Denken Sie an eine „öffentliche Bibliothek“, aber für TPUs und GPUs, mit transparenten Zuteilungsregeln und der verpflichtenden Veröffentlichung von Ergebnissen.

Regierungen geben bereits Hunderte von Milliarden für digitale Infrastrukturen aus; eine Umleitung von nur 5–10 % in Richtung geteilter KI-Frameworks würde einen Unterschied machen. Öffentliche Forschungsagenturen könnten offene Trainingsläufe finanzieren, eine Dokumentation offener Daten verlangen und Gemeinschaftsprüfteams unterstützen, die grundlegende Modelle so gründlich analysieren wie Sicherheitsforscher Betriebssysteme prüfen. Ohne das ist „KI für alle“ nur ein Slogan, der an einer Cloud-Rechnung angeheftet ist.

Einzelne Nutzer sind keine machtlosen Zuschauer. Sie können:

  • 1Unterstützen Sie digitale Rechte-Gruppen wie EFF, Fight for the Future und AlgorithmWatch, die KI-Missbrauch verfolgen und gegen regulatorische Einflussnahme lobbyieren.
  • 2Emailen oder rufen Sie Gesetzgeber an, um die Offenlegung von AI-Lobbying-Meetings, Berechnungszuschüssen und staatlichen AI-Verträgen zu fordern.
  • 3Unterstützen Sie Open-Source-Tools mit Ihrer Nutzung, Bug-Berichten und Spenden, anstatt einfach auf die Standardangebote Ihres Cloud-Anbieters zurückzugreifen.

Kritische Gespräche sind ebenfalls wichtig. Fragen Sie die Anbieter, wem Ihre Daten gehören, wer frühzeitigen Zugang zu Premium-Modellen erhält und was passiert, wenn das Subventionsgeld aufgebraucht ist. Fragen Sie Freunde und Kollegen, wer tatsächlich von der „KI-Produktivität“ in ihrem Job profitiert und wer das Risiko trägt. Die Rückeroberung des Versprechens der KI beginnt damit, sich zu weigern zu glauben, dass die Version von Wall Street die einzige mögliche Zukunft ist.

Häufig gestellte Fragen

Was ist 'Elite Capture' im Kontext von KI?

Elite Capture bezieht sich auf den Prozess, bei dem die Entwicklung, die Vorteile und die Governance von KI-Technologie in den Händen einer kleinen Gruppe mächtiger Unternehmen, Investoren und Regierungsstellen konzentriert werden, anstatt dem Gemeinwohl zu dienen.

Warum arbeitet Anthropic, ein Unternehmen für KI-Sicherheit, mit der Wall Street zusammen?

Kritiker argumentieren, dass es ein Zeichen für die Erfassung durch Eliten ist, bei der finanzielle Anreize und der Bedarf an Kapital die ursprüngliche Mission überlagern. Die Verteidiger des Unternehmens könnten behaupten, dass es notwendig ist, innerhalb mächtiger Systeme zu arbeiten, um die Entwicklung von KI sicher zu lenken und Ressourcen zu sichern, um wettbewerbsfähig zu bleiben.

Was sind die Hauptzeichen der KI-Zentralisierung?

Wichtige Anzeichen sind die Kontrolle über wesentliche Infrastrukturen (Chips, Cloud-Datencenter) durch einige wenige Unternehmen, vertikale Integration, bevorzugter Zugang für zahlungskräftige Kunden und dominanter Einfluss von Unternehmen auf staatliche Regulierung.

Kann Open-Source-KI mit Unternehmen wie Anthropic und OpenAI konkurrieren?

Während sich Open-Source-Modelle schnell weiterentwickeln, stehen sie vor erheblichen Hürden. Sie liegen oft hinter den Spitzenmodellen zurück und benötigen kostenintensive Hardware, was die Dominanz großer Unternehmen verstärkt, die die zugrunde liegende Infrastruktur kontrollieren.

Frequently Asked Questions

Vom Schutz der Menschheit zur Maximierung von Gewinnen?
See article for details.
Das Handbuch der Macht: Was ist 'Elite Capture'?
Macht horten nicht nur Geld; sie horten auch neue Werkzeuge. Elite-Erfassung beschreibt den Moment, in dem eine Technologie, die in utopischer Sprache verpackt ist, still und leise ihre größten Gewinne einer kleinen, gut vernetzten Gruppe – Unternehmensgiganten, Finanziers und staatlichen Sicherheitsbehörden – zukommen lässt, während alle anderen mit Marketing-Slogans und eingeschränktem Zugang abgespeist werden.
Ist 'KI-Sicherheit' nur ein Trojanisches Pferd?
Anthropics leidenschaftlichste Verteidiger bestehen darauf, dass der Verkauf von High-End-Modellen an Wall Street-Quants, Hedgefonds und Rüstungsunternehmen ein notwendiges Übel auf dem Weg zur „Ausrichtung“ ist. Das ist der provokante Kern von David Shapiros Kritik: Gespräche über langfristige existenzielle Risiken fungieren als moralischer Blankoscheck für kurzfristige Machtergreifungen. Wenn man sich einredet, dass Skynet droht, beginnt jede Partnerschaft wie verantwortungsvolle Verwaltung statt wie Übernahme auszusehen.
Ihr Zug: Können wir das Versprechen von KI zurückgewinnen?
Anthropics Wall-Street-Wendung verdeutlicht, wie konzentriert die KI-Macht bereits ist, doch sie macht auch deutlich, wo Gegenkräfte herkommen können. Open-Source-Projekte wie Llama 3, Mistral und Stable Diffusion zeigen, dass man für den Bau leistungsfähiger Systeme keine Bewertung von 300 Milliarden Dollar und ein Hyperscale-Rechenzentrum benötigt. Man kann ein 7B-13B-Modell auf einer einzelnen hochmodernen GPU optimieren und etwas Nützliches anbieten.
Was ist 'Elite Capture' im Kontext von KI?
Elite Capture bezieht sich auf den Prozess, bei dem die Entwicklung, die Vorteile und die Governance von KI-Technologie in den Händen einer kleinen Gruppe mächtiger Unternehmen, Investoren und Regierungsstellen konzentriert werden, anstatt dem Gemeinwohl zu dienen.
Warum arbeitet Anthropic, ein Unternehmen für KI-Sicherheit, mit der Wall Street zusammen?
Kritiker argumentieren, dass es ein Zeichen für die Erfassung durch Eliten ist, bei der finanzielle Anreize und der Bedarf an Kapital die ursprüngliche Mission überlagern. Die Verteidiger des Unternehmens könnten behaupten, dass es notwendig ist, innerhalb mächtiger Systeme zu arbeiten, um die Entwicklung von KI sicher zu lenken und Ressourcen zu sichern, um wettbewerbsfähig zu bleiben.
Was sind die Hauptzeichen der KI-Zentralisierung?
Wichtige Anzeichen sind die Kontrolle über wesentliche Infrastrukturen durch einige wenige Unternehmen, vertikale Integration, bevorzugter Zugang für zahlungskräftige Kunden und dominanter Einfluss von Unternehmen auf staatliche Regulierung.
Kann Open-Source-KI mit Unternehmen wie Anthropic und OpenAI konkurrieren?
Während sich Open-Source-Modelle schnell weiterentwickeln, stehen sie vor erheblichen Hürden. Sie liegen oft hinter den Spitzenmodellen zurück und benötigen kostenintensive Hardware, was die Dominanz großer Unternehmen verstärkt, die die zugrunde liegende Infrastruktur kontrollieren.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts