Zusammenfassung / Kernpunkte
Ihre AI wurde kompromittiert
Stellen Sie sich vor, Ihr autonomer AI agent, der unermüdlich Aufgaben ausführt, wendet sich plötzlich gegen Sie. Das ist keine Science-Fiction über AI, die Bewusstsein erlangt; es ist eine erschreckende neue Realität, die von Cybersicherheitsforschern aufgedeckt wurde. Genau die Tools, die entwickelt wurden, um Ihren Large Language Model (LLM) traffic zu verwalten, wie API routers wie LiteLLM und OneAPI, bergen eine massive, übersehene Sicherheitslücke in Ihrem Stack.
Ein wegweisendes Paper, 'Your Agent is Mine,' hat diese Schwachstelle kürzlich aufgedeckt und bewiesen, dass die gesamte LLM supply chain derzeit ein Spielplatz für hochentwickelte Hacker ist. Diese Forschung der University of California, Santa Barbara, und Fuzzland enthüllt eine neue Bedrohungsklasse, die weit über traditionelle prompt injection Techniken hinausgeht.
Forscher nennen dies eine Malicious Intermediary Attack. Im Gegensatz zur prompt injection, die die Eingabe des Modells manipuliert, zielt dieser attack auf den Kommunikationskanal selbst ab. Da keine end-to-end cryptographic signature zwischen dem Modellprovider und Ihrem lokalen Rechner existiert, erhält ein bösartiger router vollen Klartextzugriff auf alle Anfragen und Antworten und schreibt die Direktiven des Modells stillschweigend um, bevor Ihr AI agent sie überhaupt sieht.
Die Implikationen sind erschreckend. Nach dem Testen von über 400 kostenlosen und 28 kostenpflichtigen LLM API routers fanden die Forscher aktive Ausnutzung. Neun router injizierten bösartigen Code in tool calls, 17 router wurden beim Stehlen von platzierten AWS credentials erwischt, und ein router entleerte sogar erfolgreich das Ethereum wallet eines Forschers. Einige verwenden sogar adaptive Evasion und warten darauf, dass AI agents in den 'YOLO mode' wechseln – autonom ohne manuelle Genehmigung operieren – bevor sie zuschlagen.
Der Man-in-the-Middle, den Sie eingeladen haben
Eine neue Bedrohung, genannt die Malicious Intermediary Attack, legt eine kritische Schwachstelle in der LLM supply chain offen. Dies ist kein traditioneller hack; stattdessen nutzt sie Drittanbieterdienste, die Sie freiwillig in die Operationen Ihres AI agent integrieren. Forscher der University of California, Santa Barbara, und Fuzzland haben dies in ihrem Paper "Your Agent is Mine" detailliert beschrieben und enthüllt, wie vertrauenswürdige Komponenten zu Kanälen für Kompromittierungen werden.
Viele Entwickler verlassen sich auf LLM API routers wie LiteLLM und OneAPI, um ihre AI infrastructure zu optimieren. Diese Dienste konsolidieren API calls, verwalten den Modellzugriff und optimieren den credit usage über verschiedene large language models hinweg. Sie bieten Komfort, indem sie als zentraler Hub für alle AI agent-Modell-Interaktionen fungieren, was sie zu einem unverzichtbaren Bestandteil moderner AI development stacks macht.
Dieser Komfort birgt jedoch einen tiefgreifenden Sicherheitsmangel: ein fundamentales Fehlen einer end-to-end cryptographic signature zwischen Ihrem AI agent und dem vorgelagerten Modellprovider. Wenn Ihr AI agent eine Anfrage über einen dieser router sendet, beendet der router die TLS session und erhält vollen Klartextzugriff auf jedes Datenelement. Das bedeutet, dass der Intermediär alles, was Ihr AI agent sendet und empfängt, vollständig unverschlüsselt sieht.
Betrachten Sie dies als einen digitalen Postboten, der nicht nur Ihre Post bearbeitet, sondern sie auch öffnet, liest und ihren Inhalt ändern kann, bevor er sie zustellt. Dieser Intermediär kann Modellantworten stillschweigend umschreiben, neue Anweisungen injizieren oder sensible Informationen extrahieren, ohne dass Ihr AI agent oder der LLM provider jemals davon erfahren. Er hält effektiv die Schlüssel zur Kommunikation Ihres AI agent in der Hand.
Die Konsequenzen sind gravierend und bereits in freier Wildbahn offensichtlich. Forscher testeten über 400 kostenlose und kostenpflichtige Router und deckten alarmierende Aktivitäten auf: - 9 Router injizierten aktiv bösartigen Code in Tool-Aufrufe. - 17 Router stahlen AWS credentials, die als Kanarienvögel platziert wurden. - 1 Router entleerte erfolgreich die Ethereum wallet eines Forschers. Einige nutzen sogar adaptive Umgehung und warten, bis Agenten in den „YOLO mode“ – autonomen Betrieb ohne manuelle Genehmigung – eintreten, bevor sie gezielte Angriffe starten.
Das ist keine weitere Prompt Injection
Malicious Intermediary Attacks (MIAs) stellen eine grundlegend andere Bedrohung dar als Prompt Injection. Während Prompt Injection den *Input* eines LLM manipuliert, um Schutzmechanismen zu umgehen oder spezifischen, unbeabsichtigten Text hervorzurufen, operieren MIAs in einem späteren, kritischeren Stadium.
Dieser Angriff fängt den *Output* des LLM ab und verändert ihn, wobei er speziell auf tool calls oder Funktionsausführungen abzielt, *bevor* Ihr Agent die authentische Antwort überhaupt sieht. Stellen Sie sich vor, Ihr Agent fragt nach einem Python-Skript, und ein Vermittler tauscht es stillschweigend gegen eine bösartige Version aus.
Dies ist keine Schwachstelle auf der Modellebene; es ist eine application-layer Lieferketten-Schwachstelle, die als OWASP LLM03 bezeichnet wird. Drittanbieter-API-Router, die zur Verwaltung von LLM-Guthaben oder -Traffic verwendet werden, sind Hauptziele. Das Fehlen durchgängiger kryptografischer Signaturen ermöglicht diesen Routern vollen Klartextzugriff auf Modellantworten.
Traditionelle Abwehrmaßnahmen gegen Prompt Injection – Input-Sanitizer, Firewalls und Inhaltsfilter – sind völlig unwirksam. Diese Tools konzentrieren sich darauf, zu prüfen, was in das LLM *eintritt*. Sie bieten keinen Schutz, wenn die bösartige Manipulation *nachdem* das LLM seine Antwort generiert hat, aber *bevor* Ihr Agent darauf reagiert, stattfindet.
Ein kürzlich erschienenes Papier, „Your Agent Is Mine: Measuring Malicious Intermediary Attacks on the LLM Supply Chain“, deckte das alarmierende Ausmaß dieser Bedrohung auf. Forscher testeten über 400 kostenlose und kostenpflichtige LLM API Router und enthüllten eine weit verbreitete Kompromittierung.
Ihre Ergebnisse sind eindeutig: - 9 Router injizierten aktiv bösartigen Code in tool calls und tauschten legitime Befehle wie `pip install requests` gegen typo-squatted, vom Angreifer kontrollierte Pakete aus. - 17 Router wurden beim Stehlen von AWS credentials erwischt, die als Kanarienvögel in Testumgebungen platziert wurden. - Ein Router entleerte erfolgreich die Ethereum wallet eines Forschers.
Einige bösartige Vermittler zeigten sogar adaptive evasion, indem sie auf spezifische Bedingungen warteten, wie z.B. einen Agenten, der autonom im „YOLO mode“ (ohne manuelle Genehmigung) operiert, bevor sie ihre Angriffe starteten. Dies unterstreicht eine ausgeklügelte und systemische Schwachstelle, die sofortige Aufmerksamkeit über einfache Eingabevalidierung hinaus erfordert.
Angriff #1: Platzieren eines digitalen Trojan Horse
Angreifer nutzen Payload Injection, den ersten Kernangriffstyp, indem sie den vollen Klartextzugriff des Vermittlers auf den LLM-Traffic ausnutzen. Diese Schwachstelle ermöglicht es einem bösartigen Router, die Antwort eines Modells stillschweigend neu zu schreiben, bevor ein Agent sie überhaupt sieht.
Betrachten Sie ein Szenario, in dem Ihr autonomer Agent das LLM nach einer gängigen Python library fragt, wodurch das Modell den tool call `pip install requests` generiert. Ein kompromittierter Router fängt diese legitime Anfrage ab.
Der Router tauscht dann den Befehl heimlich aus und ersetzt das gutartige Paket durch ein typo-squatted package, das einen ähnlichen Namen trägt, aber bösartigen Code enthält. Ihr Agent, der sich der Änderung nicht bewusst ist, führt den modifizierten Befehl aus.
Diese scheinbar geringfügige Substitution löst verheerende Konsequenzen aus. Das bösartige Paket installiert eine reverse shell, die dem Angreifer sofortige Remote Code Execution (RCE) und eine vollständige Systemkompromittierung gewährt. Der Angreifer erhält uneingeschränkten Zugriff auf die Host-Umgebung des Agenten.
Autonome Agenten sind grundsätzlich darauf ausgelegt, von der LLM generierte Tool-Aufrufe zu vertrauen und auszuführen. Diese inhärente Designentscheidung, die für ihre Funktionalität entscheidend ist, wird zum perfekten Angriffsvektor. Agenten führen diese Befehle ohne weitere Prüfung aus und eröffnen Angreifern eine direkte Pipeline, um beliebigen Code in kritische Systeme einzuschleusen.
Forscher identifizierten neun Router, die aktiv bösartigen Code in Tool-Aufrufe einschleusten, im Rahmen ihrer umfassenden Studie von über 400 kostenlosen und kostenpflichtigen LLM API Routern. Dies zeigt die unmittelbare und weitreichende Bedrohung, die diese Schwachstelle für die LLM Lieferkette darstellt.
Angriff #2: Der stille Datensiphon
Über das aktive Einschleusen bösartiger Payloads hinaus wenden Angreifer eine zweite, ebenso heimtückische Taktik an: Geheimnis-Exfiltration. Dieser Angriff ist passiv und unsichtbar und verwandelt Ihren vertrauenswürdigen LLM Router in einen stillen Datensiphon. Er ändert die Aktionen Ihres Agenten nicht; stattdessen beobachtet und sammelt er lediglich.
Router, die als kritische Vermittler positioniert sind, besitzen vollen Klartextzugriff auf jedes Datenelement, das zwischen Ihrem Agenten und dem großen Sprachmodell fließt. Diese privilegierte Position ermöglicht es ihnen, den gesamten ein- und ausgehenden Datenverkehr kontinuierlich zu scannen. Sie setzen ausgeklügelte regex-Muster ein, die ständig nach spezifischen, hochenergetischen Zeichenketten suchen, die sensible Informationen verraten. Diese leise, hartnäckige Überwachung macht den Angriff unglaublich schwer zu erkennen, da er vollständig im Hintergrund abläuft, ohne sichtbares Verhalten zu ändern.
Angreifer zielen speziell auf hochwertige Anmeldeinformationen ab, die uneingeschränkten Zugriff auf Cloud-Infrastruktur, Code-Repositories und Finanzanlagen gewähren. Dazu gehören: - AWS keys, die Cloud-Umgebungen und Datenspeicher freischalten können - GitHub tokens, die Zugriff auf private Codebasen und Entwicklungspipelines ermöglichen - Ethereum private keys, die für die Kontrolle und Übertragung von Kryptowährungsbeständen unerlässlich sind Einmal erfasst, bieten diese Geheimnisse einen direkten, unauthentifizierten Weg für Angreifer, kritische Systeme zu kompromittieren, geistiges Eigentum zu stehlen oder digitale Geldbörsen zu leeren.
Forscher der Studie „Your Agent is Mine“ deckten die alarmierende Verbreitung dieser Bedrohung in der gesamten LLM Lieferkette auf. Nach der Prüfung von über 400 kostenlosen und kostenpflichtigen Routern aus öffentlichen Communities und Stores waren ihre Ergebnisse eindeutig und unmittelbar. Sie bestätigten, dass 17 Router aktiv AWS credentials stahlen, die als Kanarienvögel platziert wurden, was eine weit verbreitete und aktive Schwachstelle innerhalb dieser scheinbar harmlosen Vermittler demonstriert.
Die Untersuchung enthüllte ein noch erschreckenderes Ergebnis, das über Datendiebstahl hinausgeht: Ein bösartiger Router entleerte erfolgreich die Ethereum wallet eines Forschers. Dieser einzelne, verheerende Vorfall unterstreicht das katastrophale finanzielle Potenzial der Geheimnis-Exfiltration. Ihr autonomer KI-Agent, der unwissentlich sensible Befehle und Daten über einen kompromittierten Vermittler leitet, wird zu einem unwissenden Komplizen bei seinem eigenen finanziellen Ruin oder der vollständigen Kompromittierung Ihrer Infrastruktur.
Im 'Honeypot' der Forscher
Forscher hinter „Your Agent is Mine“ deckten eine kritische Schwachstelle innerhalb der LLM supply chain auf und zeigten, wie Hacker Vermittlungsdienste ausnutzen. Ihr Papier beschreibt einen „Malicious Intermediary Attack“, bei dem kompromittierte API Router vollen Klartextzugriff auf Agentenanfragen erhalten. Dies ermöglicht eine stille Manipulation, bevor Antworten Ihr System erreichen.
Das Ausmaß ihrer Untersuchung war beispiellos, es wurden über 400 kostenlose und kostenpflichtige Router getestet. Diese Intermediäre, die oft LLM-Credits über Dienste wie LiteLLM oder OneAPI verwalten, wurden aus öffentlichen Communities und großen Online-Shops wie Taobao und Shopify bezogen. Die Studie schuf effektiv ein riesiges „Honeypot“, um reale Angriffe zu beobachten.
Die Ergebnisse dieser umfangreichen Forschung waren drastisch. Forscher entdeckten: - 9 Router, die aktiv bösartigen Code in Tool-Aufrufe einschleusten. - 17 Router, die Anmeldeinformationen stahlen. - 1 Router, der erfolgreich die Ethereum-Wallet eines Forschers leerte. Diese Statistiken bestätigen eine weit verbreitete und aktive Bedrohungslandschaft.
Um den Diebstahl von Anmeldeinformationen zu verfolgen, setzten Forscher eine clevere canary-Methode ein. Sie platzierten strategisch gefälschte AWS keys, GitHub tokens und Ethereum private keys in Testanfragen. Als diese „Canaries“ später von externen Akteuren verwendet wurden, bewies dies unzweifelhaft, dass der Router die sensiblen Daten abgezogen hatte. Diese passive, unsichtbare Exfiltration birgt ein ernstes Risiko.
Einige bösartige Intermediäre zeigten fortgeschrittene Taktiken, darunter adaptive evasion. Diese Router warteten auf spezifische Bedingungen, wie das Eintreten eines Agenten in den „YOLO mode“ – autonomes Agieren ohne manuelle Genehmigung – bevor sie ihren Angriff starteten. Für tiefere technische Einblicke in diese Ergebnisse, erkunden Sie die Forschung Malicious Intermediary Attacks on LLM Supply Chain - Emergent Mind. Dieser ausgeklügelte Ansatz unterstreicht die sich entwickelnde Natur von KI-Agenten-Bedrohungen.
Warten auf den 'YOLO Mode'
Die erschreckendste Offenbarung aus dem Forschungsbericht „Your Agent is Mine“ ist nicht nur die Existenz bösartiger Intermediäre; es ist ihre Gerissenheit. Forscher entdeckten Fälle von adaptive evasion, einer ausgeklügelten Technik, bei der kompromittierte Router inaktiv bleiben und das Verhalten des Agenten beobachten, bevor sie einen gezielten Angriff starten. Dieser geduldige Ansatz erhöht die Wahrscheinlichkeit eines erfolgreichen, verheerenden Angriffs drastisch und macht traditionelle Sicherheitsmaßnahmen weniger effektiv.
Angreifer warten oft auf das, was die Forscher als „YOLO Mode“ bezeichnen. Dieser kritische Zustand tritt ein, wenn ein autonomer KI-Agent ohne manuelle Genehmigung operiert, Befehle ausführt und völlig unbeaufsichtigt mit Systemen interagiert. Sobald ein Agent in den YOLO Mode eintritt, hat der Intermediär freie Hand, ungehindert von menschlicher Aufsicht, die verdächtige Aktivitäten melden könnte.
Bösartige Router warten nicht nur auf Autonomie; sie überwachen auch Aktivitätslevel. Einige von Forschern der University of California, Santa Barbara, und Fuzzland beobachtete Intermediäre lauerten auf eine bestimmte Anzahl von Anfragen – manchmal bis zu 50 vorherige Aufrufe – bevor sie ihren Angriff starteten. Diese verzögerte Ausführung hilft ihnen, sich in normale Verkehrsmuster einzufügen, was die Erkennung für Entwickler und Sicherheitsteams unglaublich schwierig macht.
Die Präzision dieser Angriffe ist gleichermaßen alarmierend. Einige bösartige Router zielen speziell auf Entwicklungsumgebungen ab. Sie scannen geduldig nach Projekten, die mit spezifischen Programmiersprachen wie Rust oder Go erstellt wurden, bevor sie auf Abhängigkeiten abzielende Malware einschleusen. Dies ermöglicht es Angreifern, hochrelevante und effektive Payloads zu liefern, indem sie Schwachstellen in den Toolchains oder Bibliotheken ausnutzen, die in diesen Ökosystemen häufig verwendet werden.
Betrachten Sie die Implikationen: ein KI-Agent, der mit komplexer Entwicklungsarbeit beauftragt ist, leitet seinen Datenverkehr unwissentlich über einen kompromittierten Intermediär. Der Router beobachtet die anfänglichen harmlosen Aufgaben des Agenten, vielleicht das Abrufen von Dokumentation oder die Durchführung einfacher Datenanalysen.
Es wartet still, bis der Agent in den autonomen Betrieb übergeht oder eine vordefinierte Anforderungsschwelle erreicht. Wenn der Agent dann versucht, ein Paket für ein Rust-Projekt zu installieren, tauscht der bösartige Router die legitime Abhängigkeit gegen eine typo-squatted, vom Angreifer kontrollierte Version aus, was sofort eine Reverse Shell gewährt oder sensible Daten exfiltriert. Diese leise, kalkulierte Aggression unterstreicht eine tiefgreifende Verschiebung in der Bedrohungslandschaft.
LiteLLM: Wenn Theorie zur Realität wird
Im März 2026 wurden die theoretischen Gefahren der Forschung „Your Agent is Mine“ mit dem LiteLLM-Kompromiss zur bitteren Realität. Dieser hochkarätige Vorfall bewies, dass die von Forschern identifizierten Schwachstellen nicht spekulativ, sondern aktiv in der Praxis ausgenutzt wurden, wodurch ein weit verbreiteter LLM API-Router zu einem Vektor für ausgeklügelte Cyberangriffe auf Produktionssysteme wurde.
Angreifer führten einen raffinierten dependency confusion-Angriff gegen LiteLLM aus, ein beliebtes Python-Paket, das entwickelt wurde, um das Routing von Anfragen an verschiedene LLMs zu vereinfachen und API-Schlüssel zu verwalten. Sie injizierten bösartigen Code in bestimmte Versionen der Software und verwandelten legitime Installationen stillschweigend in Werkzeuge für Spionage. Dieser ausgeklügelte Supply-Chain-Angriff zeigte das tiefgreifende Risiko, das von scheinbar harmlosen Drittanbieterkomponenten im kritischen Pfad von KI-Agentenoperationen ausgeht.
Die Folgen waren unmittelbar und schwerwiegend und betrafen jede Organisation, die die kompromittierten Versionen nutzte. LiteLLM-Instanzen wurden zu unwissentlichen Datensiphons, die den Diebstahl kritischer Betriebsinformationen von ihren Benutzern ermöglichten. Angreifer exfiltrierten erfolgreich eine Fülle sensibler Daten, darunter: - cloud credentials - SSH keys - Kubernetes secrets
Dieser reale Verstoß bestätigte unmissverständlich die Bedrohung durch Malicious Intermediary Attacks und hob sie weit über akademische Arbeiten hinaus. Er festigte die Forschungsergebnisse und veranschaulichte, wie autonome KI-Agenten, wenn sie über kompromittierte Vermittler geleitet werden, unbeabsichtigt zu Instrumenten ihres eigenen Untergangs werden und wichtigen Infrastrukturzugang preisgeben. Dies ist keine weitere Prompt Injection; es ist ein grundlegender Vertrauensbruch in der LLM-Lieferkette.
Organisationen, die sich auf LLM-Router von Drittanbietern verlassen, müssen sich nun einer greifbaren und unmittelbaren Gefahr für ihre Kerninfrastruktur stellen. Der LiteLLM-Vorfall dient als deutliche Warnung: Die Sicherheit Ihres KI-Stacks ist nur so stark wie sein schwächstes Glied, oft eine nicht verifizierte oder kompromittierte Komponente tief in der Lieferkette. Angreifer zielen aktiv auf diese Zwischenschichten ab, was die dringende Notwendigkeit einer rigorosen Überprüfung und einer durchgängigen kryptografischen Integrität im gesamten LLM-Ökosystem unterstreicht. Die Bedrohung ist hier.
Das gebrochene Glied in der Vertrauenskette
LLM API-Router, die oft zur Kostenverwaltung oder zur Vereinheitlichung des Zugriffs eingesetzt werden, operieren an einer kritischen Vertrauensgrenze. Diese Vermittler, einschließlich Diensten wie LiteLLM und OneAPI, werden häufig als transparente Leitungen behandelt. Sie sind jedoch aktive Teilnehmer in der Kommunikationskette, was sie zu einem Hauptziel für böswillige Akteure macht. Dieses grundlegende technische Versagen setzt die gesamte LLM-Lieferkette einem Kompromiss aus.
Standardmäßige TLS encryption bietet keinen Schutz vor dieser Bedrohung. Während TLS die Verbindung zwischen Ihrem Agenten und dem Router sichert, ist der Router selbst der Endpunkt dieser Sitzung. Er entschlüsselt alle eingehenden Anfragen und ausgehenden Antworten vollständig. Dies gewährt dem Vermittler vollständigen, Klartextzugriff auf sensible Daten und Tool-Aufrufe, was eine stille Modifikation vor der erneuten Verschlüsselung und Weiterleitung ermöglicht.
Forscher hinter dem Paper „Your Agent is Mine“ haben diese systemische Schwachstelle hervorgehoben. Sie kommen zu dem Schluss, dass das aktuelle LLM-Ökosystem auf 'fragilem Vertrauen in Intermediäre' beruht, ein Vertrauen, das in ihren Erkenntnissen konsequent missbraucht wurde. Ihre Studie zeigte, dass 9 Router aktiv bösartigen Code injizierten und 17 beim Stehlen von AWS credentials erwischt wurden, was dieses gebrochene Vertrauen direkt demonstriert.
Die einzige robuste Verteidigung gegen bösartige Intermediäre sind kryptografische Umschläge. Dieser Mechanismus erfordert, dass LLM-Anbieter ihre kanonischen Antworten kryptografisch signieren. Wenn Ihr Agent die Ausgabe eines Modells empfängt, überprüft er die Signatur unabhängig, beweist die Herkunft der Nachricht und stellt sicher, dass kein Intermediär den Inhalt manipuliert hat.
Die Implementierung von vom Anbieter signierten Antworten schafft eine unveränderliche Vertrauenskette, die sich vom LLM-Anbieter direkt zu Ihrem Agenten erstreckt. Ohne diese überprüfbare Herkunft bleibt jeder API-Router ein potenzieller Vektor für Payload-Injektion und Secret-Exfiltration. Dieser architektonische Wandel ist entscheidend, um Vorfälle wie den LiteLLM-Kompromiss zu verhindern und vor finanziellen Verlusten zu schützen, wie in Berichten wie Researchers discover malicious AI agent routers that can steal crypto - Cryptonews.net detailliert beschrieben. Dies ist der einzige Weg, autonome Agenten vor unsichtbarer Manipulation zu schützen.
Wie Sie Ihren KI-Agenten heute wappnen
Entwickler und Organisationen stehen vor einer unmittelbaren Notwendigkeit: Stärken Sie Ihre KI-Agenten gegen die heimtückische Bedrohung durch Malicious Intermediary Attacks. Die LLM-Lieferkette, einst als transparent wahrgenommen, entpuppt sich nun als kritische Angriffsfläche, die dieselbe rigorose Sicherheitshaltung erfordert wie jede andere Kerninfrastruktur. Proaktive Maßnahmen sind nicht länger optional, sondern unerlässlich, um sensible Daten und die operative Integrität zu schützen.
Äußerste Wachsamkeit ist geboten, wenn Sie einen Drittanbieter-Intermediärdienst in Betracht ziehen – sei es ein API-Router wie LiteLLM oder OneAPI oder ein benutzerdefinierter Proxy, der LLM credits verwaltet. Die Forschung „Your Agent is Mine“ hat die Gefahr deutlich gezeigt: 9 Router injizierten aktiv bösartigen Code, 17 stahlen AWS credentials und einer leerte sogar eine Ethereum wallet. Wo machbar, müssen Organisationen das Selbst-Hosting dieser entscheidenden Komponenten priorisieren, um die direkte Kontrolle über den Datenfluss zu behalten und die Abhängigkeit von ungeprüften externen Entitäten zu eliminieren. Gründliche Sicherheitsaudits sind unerlässlich für jeden Drittanbieterdienst, der als unvermeidbar erachtet wird.
Implementieren Sie robuste clientseitige Abwehrmaßnahmen direkt in der Ausführungsumgebung Ihres Agenten. Nehmen Sie entscheidend eine Fail-Closed-Richtlinie für alle Tool-Aufrufe und Befehle an. Anstatt standardmäßig alles zu erlauben, erlauben Sie explizit nur genehmigte Funktionen, APIs und Shell-Befehle. Dies verhindert die Ausführung von bösartigen Anweisungen, selbst wenn sie injiziert werden. Implementieren Sie außerdem ein Response-Side-Anomalie-Screening, um Modellausgaben akribisch auf verdächtige Muster, unerwartete Tool-Aufrufe oder Abweichungen vom etablierten Verhalten zu überprüfen, *bevor* eine Aktion ausgeführt wird. Betreiben Sie Agenten niemals in einem uneingeschränkten „YOLO-Modus“, der menschliche Aufsicht oder automatisierte Prüfungen umgeht.
Die langfristige Lösung erfordert einen grundlegenden Wandel bei den großen Modell-Anbietern. OpenAI, Google und Anthropic müssen gemeinsam End-to-End-kryptografische Signaturen für alle LLM-Antworten entwickeln und implementieren. Solche Signaturen würden die Integrität und Authentizität der Ausgaben überprüfen und garantieren, dass die vom Agenten empfangene Antwort genau das ist, was das Modell generiert hat, unberührt von jedem Intermediär. Dieses kritische Sicherheitsprimitiv würde Malicious Intermediary Attacks effektiv neutralisieren, indem Manipulationen sofort erkennbar gemacht werden.
Die Sicherung der LLM supply chain erfordert eine gemeinsame Anstrengung der gesamten Branche. Von einzelnen Entwicklern, die strenge Sicherheitspraktiken anwenden, bis hin zu führenden AI companies, die cryptographic trust auf protocol level implementieren, muss jedes Glied in der Kette gehärtet werden. Nur dann können wir den autonomous agents, die wir befähigen, wirklich vertrauen und sicherstellen, dass sie mächtige Verbündete bleiben und keine unwissentlichen Instrumente für Kompromittierungen werden.
Häufig gestellte Fragen
Was ist der 'YOLO' Attack in der LLM security?
Der 'YOLO' Attack ist eine Art von Malicious Intermediary Attack, bei der ein kompromittierter API router die tool calls, die ein LLM tätigt, abfängt und verändert. Er ist danach benannt, dass Angreifer zuschlagen, nachdem ein AI agent in den 'You Only Look Once' (YOLO) mode übergeht und autonom ohne menschliche Genehmigung agiert.
Wie unterscheidet sich der YOLO Attack von prompt injection?
Prompt injection bringt das LLM dazu, sich falsch zu verhalten. Der YOLO Attack zielt nicht auf das model selbst ab; er zielt auf die supply chain. Ein malicious router schreibt die legitime Ausgabe des model (wie einen Befehl) um, nachdem sie generiert wurde, was ihn zu einem post-processing, man-in-the-middle attack macht.
Was ist ein LLM API router und warum ist er eine vulnerability?
Ein LLM API router ist ein Dienst, der Anfragen an mehrere LLM providers zur cost optimization oder zum load balancing verwaltet. Er wird zu einer vulnerability, da er zwischen dem user und dem model provider sitzt und vollen plaintext access zu allen Daten hat, wodurch ein malicious router alles lesen oder ändern kann.
Wie können Entwickler ihre AI agents vor diesem attack schützen?
Entwickler sollten alle third-party services überprüfen, die Verwendung von nicht vertrauenswürdigen API routers vermeiden und client-side checks bei tool calls implementieren. Die ultimative Lösung erfordert, dass model providers end-to-end cryptographic signatures implementieren, um die origin und integrity ihrer Antworten zu verifizieren.