Die Robotergeschichte von Figure AI

Ein entlassener Sicherheitschef behauptet, Figure AI habe Warnungen ignoriert, dass ihre Roboter menschliche Schädel brechen könnten. Diese brisante Klage wirft ein Schlaglicht auf die dunkle Seite des Wettlaufs, humanoide Roboter in unseren Haushalten einzusetzen.

Stork.AI
Hero image for: Die Robotergeschichte von Figure AI
💡

TL;DR / Key Takeaways

Ein entlassener Sicherheitschef behauptet, Figure AI habe Warnungen ignoriert, dass ihre Roboter menschliche Schädel brechen könnten. Diese brisante Klage wirft ein Schlaglicht auf die dunkle Seite des Wettlaufs, humanoide Roboter in unseren Haushalten einzusetzen.

Der Roboter, der einen Schädel brechen könnte

Rob Gruendel sagt, ein humanoider Roboter bei Figure AI habe mit solch einer Kraft gegen einen Kühlschrank geschlagen, dass ein dreiviertel Zoll tiefes Loch in den Edelstahl gerissen wurde. In einer Klage, die in Kalifornien eingereicht wurde, behauptet der ehemalige Leiter der Produktsicherheit des Unternehmens, dass dieselbe Robotklasse genug Kraft erzeugt, um einen menschlichen Schädel zu „bersten“ — und dass er, als er CEO Brett Adcock aufforderte, sich diesen Risiken zu stellen, stattdessen hinausgedrängt wurde.

Laut der Klage wurde Gruendel Ende 2024 als leitender Roboter-Sicherheitsingenieur rekrutiert, berichtete direkt an Adcock und hatte die Aufgabe, die globale Sicherheitsstrategie von Figure AI AI von Grund auf neu zu entwickeln. Er behauptet, dass seine Warnungen, die das Vorankommen des Unternehmens in Richtung Kommerzialisierung verlangsamten, dazu führten, dass die Unternehmensführung ihn weniger als Schutzmaßnahme und mehr als Hindernis behandelte.

Figure AI steht an der Spitze des Wettbewerbs um humanoide Roboter und präsentiert in polierten Demovideos seine Modelle F.02 und F.03. Das Unternehmen sammelt Gelder von Giganten wie Nvidia, Microsoft und von Jeff Bezos unterstützten Fonds, mit Bewertungen, die angeblich in die Zehntausende von Millionen Dollar gehen. Die Klage kommt zu einem Zeitpunkt, als das Unternehmen versucht, Investoren und Partner davon zu überzeugen, dass seine Roboter das Labor verlassen und in Fabriken — und schließlich in Haushalte — einziehen können, ohne zu Gefahren am Arbeitsplatz zu werden.

Gruendels zentrale Anschuldigung ist krass: Er behauptet, im September 2025 als Vergeltungsmaßnahme entlassen worden zu sein, weil er „katastrophale“ Sicherheitsversagen an Adcock und Chefingenieur Kyle Edelberg gemeldet hat. Er sagt, dass AI AI einen vagen „Wandel in der Geschäftsrichtung“ und später „schlechte Leistung“ angeführt habe, obwohl ihm zuvor starke Bewertungen und eine Gehaltserhöhung weniger als ein Jahr nach Beginn der Anstellung gegeben wurden.

Gerichtsdokumente beschreiben ein Unternehmen, das Geschwindigkeit über Sicherheitsvorkehrungen stellte. Gruendel sagt, dass Figure AI keine formale Vorfallberichterstattung, keine standardisierten Risikoabschätzungen und kein engagiertes Personal für Gesundheits- und Arbeitssicherheit hatte, während Ingenieure nur wenige Zentimeter von Hochdrehmoment-Gliedern arbeiteten, die von nicht-deterministischen KI-Steuerungssystemen betrieben wurden.

Dieser Konflikt zwischen dem Streben nach schneller Innovation und methodischer Sicherheitsengineering steht nun im Mittelpunkt eines der ersten größeren Whistleblower-Streitigkeiten in der humanoiden Robotik. Während Konkurrenten wie Tesla und Agility Robotics darauf hinarbeiten, menschengleiche Maschinen in Fabrikumgebungen einzuführen, wirft der Fall eine klare Frage auf: Wie sicher ist "sicher genug", wenn ein Softwarefehler einen 150-Pfund-Roboterarm mit schädelzertrümmernder Kraft bewegen kann?

Das gefährlichste Mantra des Silicon Valley

Silicon Valley's Most Dangerous Mantra
Silicon Valley's Most Dangerous Mantra

Silicon Valley hat ein Mantra-Problem, und Figure AI hat es in die DNA des Unternehmens eingraviert. Die selbst erklärten Kernwerte, die in der Klage von Rob Gruendel zitiert werden, lauten: "schnell handeln und technisch furchtlos sein" und "einen kommerziell rentablen humanoiden Roboter auf den Markt bringen." Das ist weniger ein Wertesystem als ein Versandauftrag, und es betrachtet Sicherheit als Reibung, nicht als Grundlage.

Das alte Motto von Facebook, „Mach schnell und zerbrich Dinge“, hat Werbesysteme und Datenschutzversprechen beschädigt. Figure AI baut humanoide Roboter, die 1,6 Meter hoch und 60 Kilogramm schwer sind und angeblich Kräfte erzeugen können, die „stark genug sind, um einen menschlichen Schädel zu brechen.“ Als ein fehlerhafter F.02 einen Kühlschrank aus rostfreiem Stahl schlug und eine Wunde bis zu drei Viertel Zoll tief hinterließ, traf er fast einen nebenstehenden Mitarbeiter.

Gruendel behauptet, dass hinter den glanzvollen Demovideos ein Unternehmen steckte, das fast keine schriftlichen Richtlinien hatte. In seiner ersten Woche soll er angeblich keine formalen Sicherheitsverfahren, kein System zur Vorfallberichterstattung und keinen strukturierten Risikobewertungsprozess für die in Entwicklung befindlichen Roboter gefunden haben. Figure AI hatte zudem kein spezielles Personal für Gesundheits- und Sicherheitsschutz, obwohl die Mitarbeiter in der Nähe von leistungsstarken Maschinen arbeiteten.

Er entwarf eine globale Sicherheitsroadmap, die von CEO Brett Adcock und Chefingenieur Kyle Edelberg zunächst genehmigt wurde. Doch die Klage besagt, dass beide Männer „eine Abneigung gegen schriftliche Produktanforderungen“ äußerten, eine Haltung, die Gruendel als „abnormal“ in der Maschinensicherheit kennzeichnete. In einer Branche, die von ISO- und OSHA-Dokumentationen geregelt wird, sieht die Ablehnung von Dokumentationen weniger nach Effizienz und mehr nach Haftungsvermeidung aus.

Laut der Beschwerde durchdrang diese anti-Track-Record-Einstellung die Unternehmenskultur. Sicherheitsbesprechungen mit Adcock hätten angeblich von wöchentlich auf vierteljährlich reduziert. Gruendels detaillierte Warnungen über die Auswirkungen von Robotern, die Unvorhersehbarkeit von KI und die Notwendigkeit von Mitarbeiterschulungen blieben unbeantwortet oder wurden verzögert, während das Unternehmen Investoren-Meilensteine verfolgte.

Der Druck zum Wachstum verstärkte nur die Spannungen. Die Bewertung von AI AI soll nach einer Finanzierungsrunde im September 2025, die von Nvidia, Microsoft und Kapital, das mit Jeff Bezos verbunden ist, unterstützt wurde, angeblich 39 Milliarden Dollar erreicht haben. Gruendel behauptet, die Führungskräfte hätten seinen Sicherheitsfahrplan „ausgehöhlt“, nachdem das Geld eingegangen war, und dabei wichtige Verpflichtungen gestrichen, die Investoren auf dem Papier gesehen hatten.

Schnell handeln und technisch furchtlos sein klingt in einem Pitch-Deck heroisch. In der Nähe eines Roboters, der einen Schädel zertrümmern kann, liest es sich wie ein Geständnis.

Der Kühlschrankvorfall: Eine Warnung vor dem Metallbiegen

Der Schwung in dem Labor von Figure AI soll angeblich an dem Tag abgerissen sein, an dem eine F.02-Einheit die Kontrolle verlor und auf ein Küchengerät einschlug. Laut der Klage von Rob Gruendel hat der humanoide Roboter unerwartet mit seiner metallenen Faust die Tür eines Edelstahl-Kühlschranks getroffen und sie um einen Viertel Zoll in die Edelstahl-Oberfläche gedrückt.

Ein Mitarbeiter soll Berichten zufolge nur wenige Zentimeter entfernt gestanden haben, so nah, dass eine leicht abweichende Flugbahn mit einem Torso, einer Schulter oder einem Schädel hätte kollidieren können. Die Beschwerde beschreibt dies als einen klassischen „Beinahe-Unfall“ – nicht ein hypothetisches Risikomodell, sondern eine physische Demonstration dessen, was ein falsch ausgerichteter F.02-Schlag mit gehärtetem Stahl anrichten kann.

Gruendel führt diesen Vorfall als Beweis an, dass die Maschinen von Figure AI AI, in seinen Worten, „mächtig genug sind, um einen menschlichen Schädel zu zerbrechen“. Belastungstests hatten bereits Kräfte gezeigt, die mehr als doppelt so hoch waren wie die Schwelle, die erforderlich ist, um einen erwachsenen Schädel zu brechen; die Verletzung durch den Kühlschrank verwandelte diese Laborzahlen in eine eingeschnittene, scharfrandige Narbe auf einem handelsüblichen Gerät.

Details in der Einreichung beschreiben eine chaotische Szene: ein F.02, der im Entwicklungsmodus läuft, ein Mitarbeiter in Reichweite und keine robusten Sicherheitsvorrichtungen oder Ausschlusszonen, um Menschen aus dem Gefahrenbereich des Roboters fernzuhalten. Niemand erlitt körperliche Verletzungen, aber die Kühlschranktür bekam einen Schlag ab, der, nur um wenige Zentimeter umgeleitet, auf Knochen treffen könnte.

Für Gruendel war dies der Wendepunkt. Er hatte bereits das Fehlen formeller Vorfallberichte, den Mangel an engagierten Mitarbeitersicherheitsmitarbeitern und den Widerstand gegen schriftliche Produktanforderungen hervorgehoben; der Vorfall mit dem Kühlschrank überzeugte ihn, dass der Testboden die Mitarbeiter einem unannehmbaren Risiko aussetzte.

Nach dem Vorfall setzte er sich verstärkt für strukturiertes Sicherheitstraining, strengere Betriebsgrenzen und die verpflichtende Protokollierung aller Fehlfunktionen und Beinahe-Unfälle ein. Die Klage behauptet, dass diese Anforderungen im Widerspruch zur Kultur von Figure AI AI standen, die „schnell handeln und technisch furchtlos sein“ propagiert, sowie zur Eile, Investoren mit Demos auf der Figure AI AI - Offiziellen Webseite zu beeindrucken.

Gruendels Erzählung stellt den Kühlschrank nicht als Kollateralschaden dar, sondern als eine verbogene Warnung aus Metall, die die Führung angeblich ignoriert hat.

Eine Spur ignorierter Warnsignale

Die roten Flaggen häuften sich fast sofort, nachdem Rob Gruendel ankam. Laut der Klage verfügte Figure AI AI über keine formalen Sicherheitsverfahren, kein System zur Meldung von Vorfällen und keine strukturierten Risikoanalysen für seine F.02-Humanoiden-Roboter, obwohl diese in der Lage sind, Kräfte zu erzeugen, die angeblich mehr als das Doppelte dessen betragen, was notwendig ist, um einen menschlichen Schädel zu brechen. Gruendel reagierte, indem er eine umfassende Sicherheitsstrategie entwarf, Tabellen zur Vorfallverfolgung erstellte und Schulungsmodule für alle vorschlug, die in der Nähe der Roboter arbeiteten.

Die Führungsebene hat zunächst zugestimmt. CEO Brett Adcock und Chefingenieur Kyle Edelberg genehmigten den Plan auf Papier, doch die Beschwerde besagt, dass sie sich widersetzten, als es in einen tatsächlichen Prozess überging. Sie „äußerten eine Abneigung gegen schriftliche Produktanforderungen“, eine Haltung, die Gruendel als abnormal für Maschinensicherheit hervorhob, wo Dokumentation die Einhaltung von ISO- und OSHA-Standards untermauert.

Die Kommunikationskanäle sollen zusammengebrochen sein, gerade als die Einsätze höher wurden. Die wöchentlichen Sicherheitsbesprechungen mit Adcock sollen auf monatliche, dann vierteljährliche Treffen gesunken sein, bevor sie ganz eingestellt wurden. Gruendels Slack-Nachrichten über Beinahe-Unfälle und unkontrollierte Roboterbewegungen, inklusive Verweise auf den Kühlschrank-Anstoß, der einen 0,75-Zoll tiefen Schnitt in rostfreier Stahl hinterließ, sollen vom CEO unbeantwortet geblieben sein.

Die ignorierten Nachrichten waren nicht theoretisch. Mitarbeiter begannen, nahe Beinahe-Unfälle direkt an Gruendel zu melden, da es kein Büro für Mitarbeitergesundheit und -sicherheit (EHS) oder einen formalen Prozess für Beinahe-Unfälle gab, laut der Akte. Er wurde zu einer de facto Sicherheits-Hotline, die Vorfälle von unerwarteten Armbewegungen bis hin zu ungeplanten Kontakten mit Arbeitsplätzen dokumentierte.

Die Klage beschreibt dies als ein systemisches Versagen, nicht als einen Papierfehler. In einem Labor mit Multi-Kilowatt-Aktoren und nicht-deterministischem KI-Management gab es keinen dedizierten EHS-Mitarbeiter, keinen anonymen Gefahrenmeldeservice und kein standardisiertes Untersuchungsverfahren. Stattdessen soll Gruendel angeblich auf Ad-hoc-Google-Tabellen und einmalige Slack-Diskussionen zurückgegriffen haben, um Risiken zu verfolgen, die Arbeiter verletzen könnten.

Einer seiner zentralen Vorschläge, eine E-Stop-Initiative zur Standardisierung von Not-Halt-Hardware, Softwareverhalten und Reaktionsübungen, stieß Berichten zufolge auf Widerstand in der Führungsebene. Das Programm hatte zum Ziel, festzulegen, wie viele Not-Halte jeder Testzelle benötigt werden, wo sie platziert werden sollten und wie sich der Roboter elektrisch und mechanisch verhalten sollte, wenn er aktiviert wird. Laut der Beschwerde haben Adcock und Edelberg letztendlich die E-Stop-Initiative abgebrochen oder eingefroren und sie als unnötige Behinderung für die Entwicklungsgeschwindigkeit bezeichnet.

Bis Anfang 2025 war das Muster in Gruendels Erzählung klar: Sicherheitspläne wurden für Pitch-Decks genehmigt, dann stillschweigend beiseitegeschoben. Nahe Unfälle sammelten sich in seinen persönlichen Protokollen, nicht in einem Unternehmenssystem. Und die Person, die mit dem Aufbau einer Sicherheitskultur betraut war, fand sich zunehmend in einem leeren Raum wieder.

Die 39 Milliarden Dollar Investorentäuschung

The $39 Billion Investor Deception
The $39 Billion Investor Deception

Vierzig Milliarden Dollar kaufen viel Vertrauen. Laut der Klage bestand Rob Gruendels Aufgabe Mitte 2025 darin, dieses Vertrauen auf Papier zu schaffen: ein detailliertes Sicherheitswhitepaper, das dazu dienen sollte, die Nerven von Jeff Bezos, Nvidia, Microsoft und anderen wohlhabenden Geldgebern zu beruhigen, die um die Series-C-Runde von Figure AI scharten.

Gruendel behauptet, er habe einen umfassenden Sicherheitsfahrplan erstellt: formelle Risikobewertungen, Vorfallprotokollierung, Schulungspläne für Mitarbeiter und Sicherheitsvorkehrungen für den Einsatz des F.02-Humanoiden in der Nähe von Menschen. Das Dokument, sagt er, sei nicht zimperlich mit Worten umgegangen und habe von Kräften gesprochen, die „stark genug sind, um einen menschlichen Schädel zu brechen“, sowie von der Fehlfunktion, bei der der Roboter mit einer Kühlschrank-ähnlichen Wucht einen Stahlträger nur wenige Zentimeter von einem Arbeiter entfernt durchschlug.

Laut der Beschwerde wurde diese Strenge zu einem Vermögenswert für das Fundraising. Potenzielle Investoren erhielten angeblich eine Version des Plans, die Figure AI AI als ein Unternehmen darstellte, das über die Phase des „schnellen Handelns und technischen Furchtlosigkeit“ hinausgewachsen war und nun ISO-Normen für Maschinensicherheit sowie das Risiko-Management von KI respektierte. Bis September 2025 schloss die Runde mit einer reported Bewertung von 39 Milliarden US-Dollar, was einen Anstieg von etwa 15-fach im Vergleich zu Anfang 2024 darstellt.

Dann behauptet Gruendel, dass der Sicherheitsplan heimlich ausgehöhlt wurde. Die Ingenieursführung, einschließlich des leitenden Ingenieurs Kyle Edelberg, soll angeblich die zentralen Verpflichtungen „ausgehöhlt“ und herabgestuft haben, sobald das Geld bereitgestellt wurde – schriftliche Anforderungen reduziert, die Verfolgung von Incident-Management sidelined und Elemente beiseitegelegt, die die Entwicklung der F.02-Plattform verlangsamt haben.

Diese Anschuldigung verschiebt die Geschichte von einer chaotischen Startup-Kultur hin zu potenzieller Wertpapierbetrug. Kapital zu beschaffen, indem man spezifische Sicherheitskontrollen betont und diese dann ohne Offenlegung aufgibt, kann weniger wie ein „Iterieren“ und mehr wie eine Irreführung der Investoren über operationale Risiken und die Markteinführungszeit erscheinen.

Regulierungsbehörden und Rechtsexperten würden harte Fragen stellen: Wurden Bezos, Nvidia und Microsoft Sicherheitsmaterialien zur Verfügung gestellt, die nach der Runde nicht mehr der Realität entsprachen? Haben irgendwelche Aufsichtsgremien auf Vorstandsebene einem Abweichen vom beworbenen Fahrplan zugestimmt? Wurden interne Risikoanalysen aktualisiert und geteilt?

Kapitalintensive Robotik-Startups leben oder sterben von ihrer Fähigkeit, ein Bild von industrieller Disziplin zu vermitteln. Humanoide Plattformen wie F.02 erfordern neunstelliges Kapital für Aktuatoren, maßgeschneiderte Siliziumlösungen, Rechenzentren und Testlabore, lange bevor nennenswerte Umsätze sichtbar werden.

Diese Dynamik fördert glänzende Erzählungen über Zuverlässigkeit und „unternehmensgerechte“ Systeme, selbst wenn der Produktionsbereich weiterhin auf ad-hoc-Prozessen und ungeschriebenen Regeln basiert. Gruendels Bericht legt nahe, dass Sicherheit zu einer weiteren Folie im Pitch Deck werden kann – für die Due Diligence hochgefahren und nach Unterzeichnung der Term Sheets wieder heruntergefahren.

Nach Zahlen: 20x die Schmerzgrenze

Übermenschliche Geschwindigkeit ist in der Klage von Rob Gruendel kein Metapher; sie ist ein Maß. Laut der Klage haben interne Belastungstests an der humanoiden Figur AI AI's F.02 Endeffektor-Geschwindigkeiten aufgezeichnet, die über den typischen menschlichen Schlaggeschwindigkeiten lagen, während sie weit mehr Masse transportierten und von hochdrehmomentstarken Aktuatoren angetrieben wurden.

Diese Tests sollen angeblich die ISO 15066, den Sicherheitsstandard für kollaborative Roboter, erwähnt haben, der eine „Schmerzschwelle“ für den Kontakt mit Menschen definiert. Gruendel behauptet, die Aufschläge von F.02 erreichten Kräfte, die etwa 20x höher sind als diese Schwelle, was bedeutet, dass der Kontakt nicht nur schmerzen würde – er würde die von den Regulierungsbehörden angenommene obere Grenze für akzeptable Mensch-Roboter-Interaktion überwältigen.

Gruendel geht weiter und bietet eine Experteneinschätzung, dass diese Kräfte um mehr als doppelt so hoch waren, wie erforderlich, um den Schädel eines erwachsenen Menschen zu brechen. Die Literatur über Schädelbrüche gibt typischerweise Bereiche von 3–10 kN an, abhängig von der Aufprallfläche und -richtung; die Klage behauptet, dass die Spitzenkräfte von F.02 deutlich über diesem Bereich lagen.

Diese Zahlen stehen in direktem Zusammenhang mit dem bereits im Antrag dokumentierten Vorfall mit dem Kühlschrank. Als F.02 angeblich eine Fehlfunktion hatte und einen nahegelegenen Kühlschrank aus Edelstahl anstieß, hinterließ es eine Vertiefung von bis zu drei Vierteln Zoll, einen physischen Schaden, der mit einem Hochenergieaufprall und mit Gruendels Bruchberechnungen übereinstimmt.

Die Auswirkungenstests, wie beschrieben, fanden nicht im Vakuum statt. Berichten zufolge hat Gruendel die Daten mit realen Betriebsmodi verknüpft – Armbewegungen, Erreichungen und Fehltrajektorien – statt nur mit rein synthetischen Laborstößen, und argumentiert, dass ähnliche Kraftprofile während routinemäßiger Entwicklungsarbeiten oder zukünftiger kommerzieller Einsätze auftreten könnten.

Diese internen Messungen sind wichtig, da sie jedes Argument untergraben, dass es sich hierbei um abstrakte, sci-fi Hypothesen handelt. Die eigenen Zahlen von Figure AI, sofern sie genau sind, dokumentieren eine Maschine, die einen menschlichen Boxer übertreffen kann, etablierte Schmerzgrenzen ignoriert und in den Bereich von Knochenbrüchen übergeht.

Für Leser, die den umfassenderen Konflikt zwischen Robotik, Regulierung und Investorenhype verfolgen, hat die Berichterstattung in Medien wie CNBC - Wirtschaftsnews und Analysen bereits aufgezeigt, wie schnell Kapital in humanoide Plattformen fließt, die nach wie vor keine ausgereiften Sicherheitsregime haben.

Vom Star-Performer zur Persona Non Grata

Im Oktober 2024 rekrutiert, kam Rob Gruendel als herausragende Neueinstellung zu Figure AI. Mit über zwei Jahrzehnten Erfahrung im Bereich Robotersicherheit und einer direkten Berichtslinie an CEO Brett Adcock wurde ihm die Aufgabe übertragen, die globale Sicherheitsstrategie des Unternehmens von Grund auf neu zu entwickeln. Frühzeitige Bewertungen, so die Klage, lobten seine Arbeit und kulminierten weniger als ein Jahr nach Arbeitsbeginn in einer Gehaltserhöhung von 10.000 Dollar.

Diese Gehaltserhöhung ist wichtig, da sie einen klaren Unterschied zwischen vorher und nachher markiert. Während des Großteils seiner Amtszeit rief Gruendels Einsatz für formale Sicherheitsprozesse, Vorfallverfolgung und Schulungen der Mitarbeiter nicht offene Feindseligkeit hervor. Die Führungsspitze genehmigte seinen Sicherheitsplan, und wöchentliche Besprechungen mit Adcock signalisierten, zumindest oberflächlich, dass Sicherheit einen Platz am Tisch hatte.

Alles änderte sich nach den Aufprufftests des F.02-Roboters. Gruendels datenbasierte Warnung, dass die Maschine Kräfte erzeugen könnte, die weit über die Bruchschwellen des Schädels hinausgehen, landete in den Postfächern der Führungskräfte neben seinen direktesten schriftlichen Warnungen über Risiken für Mitarbeiter und zukünftige Kunden. Nur wenige Tage nach diesen Nachrichten wurde er von der Firma entlassen.

Figure AI: „schlechte Leistung.“ Kein Leistungsverbesserungsplan, keine vorherigen schriftlichen Warnungen und keine dokumentierte Herabstufung sind in der Beschwerde zu finden, um diese Erzählung zu stützen. Stattdessen zeigt die Dokumentation einen gegenteiligen Verlauf – positives Feedback, eine Gehaltserhöhung, zunehmende Verantwortung und dann eine plötzliche Wende, unmittelbar nachdem er quantifiziert hat, wie gefährlich die Roboter sein könnten.

Dieses Muster entspricht fast perfekt klassischen Fällen von Vergeltungsmaßnahmen gegen Whistleblower in hochdruckvollen Technologiemilieus. Ein Mitarbeiter unterstützt zunächst die Mission, wird dann jedoch zu einem Reibungspunkt, wenn seine Expertise mit aggressiven Zeitplänen und Erwartungen von Investoren kollidiert. Sobald Sicherheitsanforderungen den Zeitplan gefährden, werden die gleichen Eigenschaften, die Anerkennung fanden – das Bestehen auf Dokumentation und Widerstand gegen Abkürzungen – als „Behinderung“ oder „nicht passend“ neu etikettiert.

Der Kontext rund um Figure AI verstärkt das Misstrauen bezüglich der Finanzierung. Bis September 2025 strebte das Unternehmen eine Bewertung von 39 Milliarden Dollar von Geldgebern wie Jeff Bezos, Nvidia und Microsoft an, während Führungskräfte angeblich den detaillierten Sicherheitsfahrplan von Gruendel nach dem Abschluss der Finanzierungsrunde überarbeitet haben. Vor diesem Hintergrund wirkt die Bezeichnung des Leiters für Produktsicherheit als schwacher Performer, wenige Tage nachdem er alarmierende Auswirkungen gemeldet hat, weniger wie routinemäßige HR-Arbeit und mehr wie das Entfernen der letzten internen Kontrolle für einen beschleunigten Launch.

Das große humanoide Wettrüsten

The Great Humanoid Arms Race
The Great Humanoid Arms Race

Humanoide Robotik wirkt nun weniger wie Forschung und mehr wie ein Wettlauf um Land. Unternehmen wie Figure AI, Tesla, Agility Robotics, Apptronik und Sanctuary AI rennen darum, autonome, vielseitig einsetzbare Maschinen in Lagerhäuser, Fabriken und schließlich auch in Haushalte zu bringen. Wer den ersten glaubwürdigen humanoiden Roboter im großen Stil einführt, könnte für Jahrzehnten die Macht über die Plattform sichern.

Figure AI hat sich eines der ehrgeizigsten Ziele in diesem Bereich gesetzt: bis 2029 200.000 Roboter einzusetzen. Das bedeutet, dass in der zweiten Hälfte des Jahrzehnts jeden Monat Tausende von Einheiten die Produktionslinie verlassen, während sie in enger Nachbarschaft zu menschlichen Arbeitern operieren. Die Klage von Gruendel fällt genau in die Mitte dieses Sprints und behauptet, dass Sicherheit zu einem verhandelbaren Detail wurde, anstatt eine grundlegende Anforderung zu sein.

Analysten haben Benzin ins Feuer der Konkurrenz gegossen. Morgan Stanley prognostiziert, dass humanoide und allgemeine Roboter bis 2050 einen Markt von 5 Billionen Dollar antreiben könnten, eine Zahl, die Führungskräfte inzwischen ebenso beiläufig wie die täglichen aktiven Nutzer zitieren. Interne Präsentationen bei Robotik-Startups beschreiben humanoide Roboter zunehmend als das „nächste Smartphone“ oder die „nächste Cloud“, mit ähnlichen Gewinner-nimmt-meist-Dynamiken.

Diese Anreize verändern die internen Prioritäten. Jedes Quartal, das mit der Verstärkung von Sicherheitsvorkehrungen oder der Überarbeitung von Verfahren verbracht wird, ist ein Quartal, in dem ein Mitbewerber eine neue Demoversion präsentieren, einen Pilotvertrag abschließen oder ein Mega-Deal mit einem Automobilhersteller oder Logistikriesen ankündigen kann. In diesem Umfeld kann ein Leiter der Produktsicherheit, der einen Markteintritt verzögert, weniger wie ein Wächter und mehr wie ein Luftwiderstandskoeffizient wirken.

Humanoide Systeme bewegen sich auch in mehreren regulatorischen Grauzonen. Sie sind teils Industrieroboter, teils Verbrauchergeäte, teils KI-Systeme, und die bestehenden Standards für Maschinensicherheit, funktionale Sicherheit und Gesundheit am Arbeitsplatz lassen sich oft nicht eindeutig anwenden. Start-ups können dieses Unklarheit als Erlaubnis deuten, zuerst zu handeln und später über die Einhaltung zu diskutieren.

Gruendels Beschwerde trägt im Wesentlichen vor, dass Figure AI dieser Logik gefolgt ist. Er beschreibt eine Kultur, die von „schnell handeln und technisch furchtlos sein“ geprägt ist, während Morgan Stanley und ähnliche Prognosen wie eine Punktzahl über dem Sektor hängen. Wenn Investoren von einem Preis in mehrfacher Billionenhöhe sprechen, beginnt jedes Sicherheitsmeeting wie ein Verlust an Marktanteilen zu wirken.

Mächtige Werkzeuge oder unberechenbare Bedrohungen?

Elektrowerkzeuge umgeben uns bereits mit tödlichem Potenzial. Ein 1.600 Kilogramm schweres Auto kann bei 40 km/h tödlich sein, eine mittlere Tischkreissäge dreht ein Blatt mit 3.500 U/min, und ein günstiger Küchenmixer verbirgt scharfen Stahl hinter einem Plastikdeckel. Wir tolerieren dieses Risiko, weil ihr Verhalten vorhersehbar ist und unsere Sicherheits­systeme – Schutzvorrichtungen, Schulungen, Vorschriften – diese Vorhersehbarkeit voraussetzen.

Humanoide Roboter wie der F.02 von Figure AI befinden sich in einer anderen Kategorie. Sie kombinieren Industrie-Grade Aktuatoren – Belastungstests in Gruendels Klage behaupten Kräfte, die in der Lage sind, einen menschlichen Schädel zu brechen – mit KI-Steuerung, die sich nicht immer gleich verhält. Diese Nicht-Deterministik bricht das mentale Modell, das unsere Vorgehensweise im Umgang mit gefährlichen Werkzeugen bestimmt.

Traditionelle Roboter und Werkzeugmaschinen folgen deterministischem Code: Gegebenen Input X, führen sie Y aus, jedes Mal. KI-Systeme wie Figure AI's Helix AI hingegen erzeugen Ausgaben aus probabilistischen Modellen, was bedeutet: - Sie können „halluzinieren“ und Handlungen oder Sensordaten fehlinterpretieren - Sie können uneerklärliche Entscheidungen treffen, die einfaches Debugging widersprechen - Sie können in Grenzfällen versagen, die die Designer nie vorhergesehen haben

Eine Tischkreissäge „entscheidet“ niemals, seitlich vorzustoßen; ihre Ausfallmodi sind mechanisch und nachvollziehbar. Ein KI-gesteuertes humanoides Wesen kann prinzipiell eine Bewegungsabfolge wählen, die kein Ingenieur explizit programmiert hat, und dann beim nächsten Mal eine andere Bewegung wiederholen. Diese Variabilität erschwert alles, von der Not-Aus-Designgestaltung bis hin zur Prüfung von Versicherungen.

Das Risiko-Engagement basiert in der Regel auf einem klaren Kosten-Nutzen-Ausgleich. Wir akzeptieren über 40.000 jährliche Verkehrstote in den USA, weil Autos das Pendeln, die Logistik und wirtschaftliche Aktivitäten ermöglichen, die die Gesellschaft als unverzichtbar erachtet. Für allgemein einsetzbare humanoide Roboter ist der versprochene Nutzen enorm – die Ersetzung von Arbeitskräften in Lagerhäusern, Pflege von älteren Menschen, Haushaltsaufgaben – bleibt jedoch nach wie vor spekulativ.

Die entscheidende Frage ist also: Wie viel unvorhersehbares Risiko sind Menschen bereit, in ihren Küchen, Lagerhäusern und Pflegeheimen zu akzeptieren im Austausch für einen Roboter, der einen Lkw entladen oder einen Geschirrspüler ausräumen kann? Aufsichtsbehörden können Expositionsgrenzen und Zertifizierungsregime festlegen, aber die öffentliche Toleranz wird von frühen Vorfällen, viralen Videos und der Wahrnehmung abhängen, ob Fehlfunktionen wie flinke Unfälle oder systematische Designentscheidungen wirken. Investoren modellieren bereits diese Szenarien; Berichte wie die von Morgan Stanley Research behandeln zunehmend Sicherheit, Nachvollziehbarkeit und Haftung als zentralen Bestandteil des humanoiden Geschäftsfalls und nicht als nachträgliche Überlegung.

Ein Rechtsstreit zur Definition der Zukunft der Robotik

Gerichte entscheiden selten darüber, wie sich aufkommende Technologien entwickeln, aber Gruendel gegen Figure AI AI könnte einer dieser Ausreißer werden. Ein Sicherheitsingenieur mit über 20 Jahren Erfahrung in der Robotik behauptet, er sei 2025 entlassen worden, weil er gewarnt hatte, dass der humanoide Roboter F.02 von Figure AI AI einen "Menschen skull" brechen könnte und bereits einen dreiviertel Zoll tiefen Schnitt in eine Stahlkühlschranktür gerissen hatte. Wenn eine Jury diese Warnungen als geschützte Aktivitäten betrachtet, müssen alle Robotik-Startups, die auf humanoide Roboter hinarbeiten, ihre Handhabung interner Meinungsverschiedenheiten überdenken.

Es geht darum, ob die bestehenden Whistleblower-Gesetze – die auf Finanzen, Gesundheitswesen und Verteidigung ausgerichtet sind – reibungslos auf Roboter übertragen werden können, die von nicht-deterministischer KI betrieben werden. Gruendel sagt, er habe fehlende Vorfallverfolgung, kein spezialisiertes Personal für Arbeitssicherheit und Führungskräfte gemeldet, die „geschriebene Produktanforderungen nicht mochten.“ Ein Urteil, das seine Entlassung bestraft, könnte dazu führen, dass Sicherheitsingenieure de facto zu Compliance-Beauftragten für autonome Systeme werden, anstatt nur interne lästige Stimmen zu sein.

Ein Präzedenzfall würde genau dann entstehen, wenn Humanoide Labors verlassen und schließlich in Lagerräume und Wohnhäuser einziehen. Sollte ein Gericht feststellen, dass Figure AI AI nach den Auswirkungen von Tests, die angeblich Kräfte über dem zweifachen des Schädelfrakturgrenzwerts zeigten, Vergeltungsmaßnahmen ergriffen hat, werden die Anwälte der Kläger dies in jedem zukünftigen Fall anführen, der industrielle Arme, Lieferdrohnen oder Haushaltsassistenten betrifft. Unternehmen könnten rechtlichen Risiken ausgesetzt sein, nicht nur wenn Roboter Menschen verletzen, sondern auch wenn sie die Person, die darauf hingewiesen hat, aus dem Verkehr ziehen.

Die Regulierungsbehörden beobachten. Heute basiert die Sicherheit von Robotern auf Standards wie ISO 10218 und ISO/TS 15066 für kollaborative Roboter, aber nichts berücksichtigt vollständig KI-gesteuerte Humanoide, die lernen und improvisieren. Ein richtungsweisendes Urteil könnte Folgendes beschleunigen: - Neue OSHA-Richtlinien für Arbeitsplätze mit Mensch-Roboter-Interaktion - Aktualisierte ISO-Standards für KI-unterstützte Bewegungsplanung und Kraftgrenzen - Obligatorische Ereignisprotokollierung und externe Prüfungen für allgemeine Roboter

Für Figure AI trifft die Klage zu einem fragilen Zeitpunkt: eine gemeldete Bewertung von 39 Milliarden Dollar, Unterstützung durch Jeff Bezos, Nvidia und Microsoft sowie eine öffentliche Erzählung über elegante bipedale Maschinen, die von Helix AI angetrieben werden. Eine Niederlage könnte invasive Ermittlungen, eine Nervosität der Investoren und einen erzwungenen Wechsel zu einer langsameren, standards-first Entwicklung bedeuten. Ein Sieg könnte das „schnell handeln und technisch furchtlos sein“-Lager ermutigen – bis die erste ernsthafte Verletzung Gruendels Warnungen weniger wie eine Klage und mehr wie eine Prophezeiung erscheinen lässt.

Häufig gestellte Fragen

Worum geht es in der Klage gegen Figure AI?

Es handelt sich um eine Klage wegen ungerechtfertigter Kündigung und Vergeltungsmaßnahmen gegen Whistleblower, eingereicht von Robert Gruendel, dem ehemaligen Sicherheitsleiter von Figure AI. Er behauptet, er wurde entlassen, weil er kritische Sicherheitsbedenken hinsichtlich der humanoiden Roboter des Unternehmens geäußert hat.

Was sind die Hauptsicherheitsvorwürfe gegen Figure AI?

Die Klage behauptet, dass die Roboter von Figure stark genug sind, um einen menschlichen Schädel zu brechen, dass ein Roboter einen Fehler hatte und einen Kühlschrank schlug, und dass das Unternehmen Sicherheitsprotokolle ignorierte und Investoren über seine Sicherheitspläne in die Irre führte.

Wer ist Robert Gruendel?

Robert Gruendel ist ein hochgradig erfahrener Robotersicherheitsexperte, der von Figure AI als Leiter der Produktsicherheit angeworben wurde. Er verfügt über mehr als zwanzig Jahre Erfahrung in der Mensch-Roboter-Interaktion und der Einhaltung von Sicherheitsvorgaben.

Wie hat Figure AI auf die Vorwürfe reagiert?

Ein Unternehmenssprecher wies die Vorwürfe zurück und erklärte, Gruendel sei wegen 'schlechten Leistungen' entlassen worden und dass seine Ansprüche 'Falschaussagen' seien, die vor Gericht widerlegt werden würden.

Frequently Asked Questions

Mächtige Werkzeuge oder unberechenbare Bedrohungen?
Elektrowerkzeuge umgeben uns bereits mit tödlichem Potenzial. Ein 1.600 Kilogramm schweres Auto kann bei 40 km/h tödlich sein, eine mittlere Tischkreissäge dreht ein Blatt mit 3.500 U/min, und ein günstiger Küchenmixer verbirgt scharfen Stahl hinter einem Plastikdeckel. Wir tolerieren dieses Risiko, weil ihr Verhalten vorhersehbar ist und unsere Sicherheits­systeme – Schutzvorrichtungen, Schulungen, Vorschriften – diese Vorhersehbarkeit voraussetzen.
Worum geht es in der Klage gegen Figure AI?
Es handelt sich um eine Klage wegen ungerechtfertigter Kündigung und Vergeltungsmaßnahmen gegen Whistleblower, eingereicht von Robert Gruendel, dem ehemaligen Sicherheitsleiter von Figure AI. Er behauptet, er wurde entlassen, weil er kritische Sicherheitsbedenken hinsichtlich der humanoiden Roboter des Unternehmens geäußert hat.
Was sind die Hauptsicherheitsvorwürfe gegen Figure AI?
Die Klage behauptet, dass die Roboter von Figure stark genug sind, um einen menschlichen Schädel zu brechen, dass ein Roboter einen Fehler hatte und einen Kühlschrank schlug, und dass das Unternehmen Sicherheitsprotokolle ignorierte und Investoren über seine Sicherheitspläne in die Irre führte.
Wer ist Robert Gruendel?
Robert Gruendel ist ein hochgradig erfahrener Robotersicherheitsexperte, der von Figure AI als Leiter der Produktsicherheit angeworben wurde. Er verfügt über mehr als zwanzig Jahre Erfahrung in der Mensch-Roboter-Interaktion und der Einhaltung von Sicherheitsvorgaben.
Wie hat Figure AI auf die Vorwürfe reagiert?
Ein Unternehmenssprecher wies die Vorwürfe zurück und erklärte, Gruendel sei wegen 'schlechten Leistungen' entlassen worden und dass seine Ansprüche 'Falschaussagen' seien, die vor Gericht widerlegt werden würden.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts