La couverture robotisée de Figure AI

Un ancien chef de la sécurité affirme que Figure AI a ignoré les avertissements selon lesquels leurs robots pourraient fracturer des crânes humains. Ce procès explosif expose le côté obscur de la course pour déployer des humanoïdes dans nos foyers.

Stork.AI
Hero image for: La couverture robotisée de Figure AI
💡

TL;DR / Key Takeaways

Un ancien chef de la sécurité affirme que Figure AI a ignoré les avertissements selon lesquels leurs robots pourraient fracturer des crânes humains. Ce procès explosif expose le côté obscur de la course pour déployer des humanoïdes dans nos foyers.

Le robot qui pourrait fracturer un crâne

Rob Gruendel affirme qu'un robot humanoïde de Figure AI a frappé un réfrigérateur si fort qu'il a creusé une entaille de trois quarts de pouce dans l'acier inoxydable. Dans une poursuite déposée en Californie, l'ancien Responsable de la Sécurité des Produits de la société prétend que cette même classe de robot génère suffisamment de force pour "fracturer un crâne humain" — et que lorsqu'il a poussé le PDG Brett Adcock à affronter ces risques, c'est lui qui a été évincé à la place.

Selon la plainte, Gruendel a été recruté fin 2024 en tant qu'ingénieur principal en sécurité des robots, relevant directement d'Adcock et chargé de construire la stratégie mondiale de sécurité de Figure AI AI à partir de zéro. Il allègue qu'une fois que ses avertissements ont commencé à ralentir l'avancée de l'entreprise vers la commercialisation, la direction l'a perçu moins comme un garant de la sécurité et plus comme un obstacle.

Figure AI se positionne en tête de la course aux robots humanoïdes, présentant ses modèles F.02 et F.03 dans des vidéos de démonstration soignées, tout en levant des fonds auprès de géants tels que Nvidia, Microsoft et des fonds soutenus par Jeff Bezos, avec des valorisations atteignant reportedly des dizaines de milliards de dollars. Le procès survient alors que l'entreprise tente de convaincre investisseurs et partenaires que ses robots peuvent quitter le laboratoire pour entrer dans des usines - et éventuellement des foyers - sans se transformer en dangers sur le lieu de travail.

L'allégation centrale de Gruendel est nette : il affirme avoir été licencié en septembre 2025 en représailles pour avoir signalé à Adcock et au chef ingénieur Kyle Edelberg des échecs de sécurité "catastrophiques". Figure AI AI, dit-il, a évoqué un vague "changement de direction commerciale" et plus tard une "mauvaise performance", malgré des évaluations positives et une augmentation de salaire moins d'un an après son arrivée dans l'entreprise.

Les documents judiciaires décrivent une entreprise qui célébrait la rapidité au détriment des garde-fous. Gruendel affirme que Figure AI n'avait pas de système formel de signalement des incidents, pas d'évaluations des risques standardisées, et pas de personnel dédié à la santé et à la sécurité des employés, même si des ingénieurs travaillaient à quelques centimètres des membres à couple élevé contrôlés par des systèmes IA non déterministes.

Ce choc entre l'ambition de rapidité et l'ingénierie de sécurité méthodique se trouve désormais au cœur de l'un des premiers grands combats de lanceurs d'alerte dans le domaine de la robotique humanoïde. Alors que des rivaux comme Tesla et Agility Robotics se précipitent vers des machines proches des humains sur les chaînes de montage, cette affaire soulève une question brutale : à quel point est-ce que « suffisamment sûr » lorsque un bug logiciel peut faire balancer un bras robotique de 150 livres avec une force capable de fissurer un crâne ?

Le mantra le plus dangereux de Silicon Valley

Silicon Valley's Most Dangerous Mantra
Silicon Valley's Most Dangerous Mantra

La Silicon Valley a un problème de mantra, et Figure AI l'a gravé dans l'ADN de l'entreprise. Ses valeurs fondamentales autoproclamées, citées dans la plainte de Rob Gruendel, sont de « se déplacer rapidement et être techniquement intrépide » et « mettre sur le marché un humanoïde commercialement viable. » Cela ressemble moins à un système de valeurs qu'à un ordre d'expédition, et cela présente la sécurité comme un frein, et non comme une fondation.

Le vieux slogan de Facebook, « avancer vite et briser des choses », a brisé les systèmes publicitaires et les promesses de confidentialité. Figure AI construit des humanoïdes de 1,6 mètre de haut et pesant 60 kilogrammes qui peuvent prétendument générer des forces « suffisamment puissantes pour fracturer un crâne humain ». Lorsqu'un F.02 en panne a frappé un réfrigérateur en acier inoxydable et a laissé une entaille jusqu'à trois quarts de pouce de profondeur, il a failli frapper un employé se trouvant à côté.

Gruendel affirme qu'il y avait derrière les vidéos de démonstration brillantes une entreprise presque dépourvue de garde-fous écrits. Lors de sa première semaine, il aurait trouvé aucune procédure de sécurité formelle, aucun système de signalement des incidents et aucun processus structuré d'évaluation des risques pour les robots en cours de développement. De plus, Figure AI n'avait pas de personnel dédié à la santé et à la sécurité des employés, malgré le fait que les travailleurs opèrent autour de machines puissantes.

Il a élaboré une feuille de route mondiale pour la sécurité, que le PDG Brett Adcock et l'ingénieur en chef Kyle Edelberg ont initialement approuvée. Mais le procès indique que les deux hommes « ont exprimé une aversion pour les exigences de produit écrites », une position que Gruendel a qualifiée d'« anormale » en matière de sécurité des machines. Dans une industrie régie par des documents ISO et OSHA, rejeter la documentation ressemble moins à de l'efficacité et plus à une volonté d'éviter la responsabilité.

Selon la plainte, cet état d'esprit anti-trace papier a infiltré la culture de l'entreprise. Les réunions de sécurité avec Adcock auraient glissé d'une fréquence hebdomadaire à trimestrielle. Les mises en garde détaillées de Gruendel concernant les forces d'impact des robots, l'imprévisibilité de l'IA et la nécessité de former les employés sont restées sans réponse ou ont été retardées alors que l'entreprise poursuivait ses objectifs pour les investisseurs.

La pression de croissance n'a fait qu'intensifier la tension. La valorisation de Figure AI aurait atteint 39 milliards de dollars après un tour de financement en septembre 2025 soutenu par Nvidia, Microsoft, et un capital lié à Jeff Bezos. Gruendel prétend que les dirigeants ont "démantelé" sa feuille de route en matière de sécurité après la libération des fonds, supprimant des engagements clés que les investisseurs avaient pu voir sur papier.

Agissez rapidement et faites preuve d'audace technique, cela sonne héroïque dans un diaporama. Autour d'un robot capable de défoncer un crâne, cela commence à ressembler à une confession.

L'Incident du Réfrigérateur : Un Avertissement sur la Déformation Métallique

L'élan à l'intérieur du laboratoire de Figure AI aurait été interrompu le jour où une unité F.02 a perdu le contrôle et s'est dirigée vers un appareil de cuisine. Selon la plainte de Rob Gruendel, le robot humanoïde a soudainement frappé la porte d'un réfrigérateur en acier inoxydable, en enfonçant son poing en métal d'un quart de pouce dans la peau en acier inoxydable.

Un employé se tenait apparemment à quelques centimètres, suffisamment près pour qu'une trajectoire légèrement différente puisse toucher un torse, une épaule ou un crâne. La plainte présente cela comme un exemple classique de "quasi-accident" — non pas un modèle de risque hypothétique, mais une démonstration physique de ce qu'un coup F.02 mal aligné peut faire à de l'acier durci.

Gruendel cite cet incident comme preuve que les machines de Figure AI étaient, selon ses mots, "assez puissantes pour fracturer un crâne humain." Les tests d'impact ont déjà suggéré des forces plus de deux fois supérieures au seuil nécessaire pour briser un crâne d'adulte ; la plaie causée par le réfrigérateur a transformé ces chiffres de laboratoire en une cicatrice déchiquetée et tranchante sur un appareil de consommation.

Les détails dans le dossier décrivent une scène chaotique : un F.02 fonctionnant en mode développement, un employé à portée de main, et aucun dispositif de sécurité ou zone d'exclusion robuste pour éloigner les personnes du rayon d'action du robot. Personne n'a subi de blessure physique, mais la porte du réfrigérateur a été frappée, un coup qui, dévié de quelques centimètres, aurait pu frapper un os.

Pour Gruendel, c'était le point de basculement. Il avait déjà signalé l'absence de reporting formel des incidents, le manque de personnel dédié à la sécurité des employés et la résistance aux exigences produits écrites ; le coup de poing du réfrigérateur lui a confirmé que le sol de test exposait les travailleurs à un risque inacceptable.

Après l'incident, il a insisté davantage pour obtenir une formation en sécurité structurée, des enveloppes d'exploitation plus strictes et un enregistrement obligatoire de tous les dysfonctionnements et quasi-accidents. Le procès affirme que ces exigences ont été en conflit avec la culture de Figure AI AI, qui prône de "bouger vite et d'être techniquement intrépide", ainsi qu'avec sa hâte d'impressionner les investisseurs qui surveillent les démonstrations sur le site officiel de Figure AI AI.

Le récit de Gruendel présente le réfrigérateur non pas comme un dommage collatéral, mais comme un avertissement en métal tordu que la direction aurait prétendument choisi d'ignorer.

Une traînée de drapeaux rouges ignorés

Les signaux d'alarme ont commencé à s'accumuler presque dès l'arrivée de Rob Gruendel. Selon le procès, Figure AI n'avait aucun protocole de sécurité formel, aucun système de rapport d'incidents et aucune évaluation des risques structurée pour ses robots humanoïdes F.02, malgré leur capacité à générer des forces prétendument plus de deux fois supérieures à celles nécessaires pour fracturer un crâne humain. Gruendel a répondu en rédigeant une feuille de route de sécurité complète, en élaborant des tableaux de suivi des incidents et en proposant des modules de formation pour quiconque travaillant à proximité des robots.

La direction a initialement donné son approbation. Le PDG Brett Adcock et l'ingénieur en chef Kyle Edelberg ont approuvé la feuille de route sur papier, mais la plainte indique qu'ils ont hésité lorsque cela s'est transformé en processus réel. Ils "ont exprimé un mécontentement à l'égard des exigences de produit écrites", une position que Gruendel a signalée comme anormale pour la sécurité des machines, où la documentation soutient la conformité aux normes de type ISO et OSHA.

Les canaux de communication auraient apparemment échoué alors que les enjeux augmentaient. Les briefings hebdomadaires sur la sécurité avec Adcock auraient été progressivement réduits à mensuels, puis trimestriels, avant de s'arrêter complètement. Les messages Slack de Gruendel concernant les quasi-accidents et les mouvements incontrôlés des robots, y compris les références à la collision avec le réfrigérateur qui a laissé une entaille de 0,75 pouce dans l'acier inoxydable, seraient restés sans réponse de la part du PDG.

Ces messages ignorés n'étaient pas théoriques. Les employés ont commencé à signaler des quasi-accidents directement à Gruendel car il n'y avait pas de bureau Santé et Sécurité au Travail (SST) ou de processus formel pour les quasi-accidents, selon le dossier. Il est devenu une sorte de ligne d'assistance en matière de sécurité, inscrivant des incidents allant de balayages de bras inattendus à des contacts imprévus avec des postes de travail.

Le procès décrit cela comme un échec systémique, et non comme une simple erreur administrative. Dans un laboratoire avec des actionneurs de plusieurs kilowatts et un contrôle IA non déterministe, il n'y avait pas de personnel dédié à la santé, la sécurité et l'environnement (EHS), pas de canal de signalement des dangers anonyme, et pas de procédure d'enquête standardisée. Au lieu de cela, Gruendel aurait selon les allégations compté sur des Google Sheets ad hoc et des fils de discussion Slack ponctuels pour suivre les risques pouvant blesser les travailleurs.

Une de ses propositions clés, une initiative E‑Stop visant à standardiser le matériel d'arrêt d'urgence, le comportement des logiciels et les exercices de réponse, aurait rencontré une résistance de la part de la direction. Le programme avait pour objectif de définir combien d'arrêts d'urgence chaque cellule de test avait besoin, où les placer et comment le robot devait se comporter électriquement et mécaniquement lorsqu'il était déclenché. Selon la plainte, Adcock et Edelberg ont finalement annulé ou gelé l'effort E‑Stop, le qualifiant de friction inutile pour la vitesse de développement.

D'ici début 2025, le schéma était clair dans le récit de Gruendel : les plans de sécurité étaient approuvés pour les présentations, puis discrètement écartés. Les quasi-accidents s'accumulaient dans ses journaux personnels, et non dans un quelconque système d'entreprise. Et la personne chargée de construire une culture de sécurité se retrouvait de plus en plus à parler dans le vide.

La tromperie des investisseurs de 39 milliards de dollars

The $39 Billion Investor Deception
The $39 Billion Investor Deception

Quarante milliards de dollars achètent beaucoup de confiance. Selon le procès, le travail de Rob Gruendel à la mi-2025 était de fabriquer cette confiance sur papier : un livre blanc détaillé sur la sécurité conçu pour apaiser les inquiétudes de Jeff Bezos, Nvidia, Microsoft et d'autres investisseurs fortunés qui entouraient le tour de financement de série C de Figure AI.

Gruendel prétend avoir élaboré une feuille de route de sécurité complète : évaluations des risques formelles, journalisation des incidents, plans de formation des employés et mesures de sécurité pour déployer l’humanoïde F.02 auprès des humains. Selon lui, le document ne faisait pas dans la demi-mesure concernant des forces « suffisamment puissantes pour fracturer un crâne humain » et le dysfonctionnement de coup de poing contre un réfrigérateur qui a entaillé de l’acier à quelques centimètres d’un travailleur.

Selon la plainte, cette rigueur est devenue un atout pour la collecte de fonds. Les investisseurs potentiels auraient reçu une version du plan qui dépeignait Figure AI comme une entreprise évoluant d'une approche "agir vite et être techniquement audacieux" à une approche qui respectait les normes de sécurité des machines ISO et la gestion des risques liés à l'IA. En septembre 2025, le tour de financement a été clôturé à une valorisation rapportée de 39 milliards de dollars, soit une augmentation d'environ 15 fois par rapport au début de 2024.

Ensuite, Gruendel affirme que le plan de sécurité a été discrètement vidé de sa substance. La direction technique, y compris le chef ingénieur Kyle Edelberg, aurait soi-disant "démantelé" et déclassé les engagements essentiels une fois l'argent reçu—réduisant les exigences écrites, mettant de côté le suivi des incidents et remisant des éléments qui ralentissaient le développement de la plateforme F.02.

Cette allégation fait passer l'histoire d'une culture de startup chaotique à un potentiel fraude sur les titres. Lever des fonds en s'appuyant sur des contrôles de sécurité spécifiques, puis les abandonner sans divulgation, peut sembler moins être une simple « itération » et davantage un moyen de tromper les investisseurs sur le risque opérationnel et le délai de mise sur le marché.

Les régulateurs et les avocats poseraient des questions difficiles : Bezos, Nvidia et Microsoft ont-ils reçu des documents de sécurité qui ne reflétaient plus la réalité après le tour ? Des comités de surveillance au niveau du conseil d'administration ont-ils validé un changement par rapport à la feuille de route annoncée ? Les évaluations internes des risques ont-elles été mises à jour et partagées ?

Les startups de robotique nécessitant des capitaux vivent ou meurent en fonction de leur capacité à projeter une image de discipline de niveau industriel. Des plateformes humanoïdes comme F.02 exigent des investissements à neuf chiffres pour les actionneurs, le silicium sur mesure, les centres de données et les laboratoires de test bien avant l'apparition de revenus significatifs.

Cette dynamique incite à des récits attrayants sur la fiabilité et les systèmes "prêts pour l'entreprise", même lorsque le terrain fonctionne encore sur des processus ad hoc et des règles non écrites. Le récit de Gruendel suggère que la sécurité peut devenir une autre diapositive dans le diaporama - mise en avant pour la diligence raisonnable, minimisée une fois les feuilles de conditions signées.

Par les chiffres : 20 fois le seuil de douleur

La vitesse surhumaine n'est pas une métaphore dans la plainte de Rob Gruendel ; c'est une mesure. Selon le procès, des tests d'impact internes sur le F.02, l'humanoïde de Figure AI, ont enregistré des vitesses d'effet de fin supérieures aux vitesses de frappe humaines typiques, tout en portant une masse beaucoup plus importante et en étant entraîné par des actionneurs à couple élevé.

Ces tests auraient fait référence à la norme de sécurité ISO 15066 pour les robots collaboratifs, qui définit un « seuil de douleur » pour le contact humain. Gruendel affirme que les impacts du F.02 exercent des forces environ 20 fois plus élevées que ce seuil, ce qui signifie que le contact ne ferait pas seulement mal - il dépasserait le niveau que les régulateurs supposent comme étant la limite acceptable pour l'interaction humain-robot.

Gruendel va plus loin, offrant une estimation experte selon laquelle ces forces ont dépassé de plus de 2x ce qui est nécessaire pour fracturer un crâne humain adulte. La littérature sur les fractures du crâne cite généralement des plages autour de 3 à 10 kN en fonction de la zone et de la direction de l'impact ; la poursuite affirme que les forces de pointe de F.02 ont largement dépassé cette fourchette.

Ces chiffres sont directement liés à l'incident du réfrigérateur déjà documenté dans le dossier. Lorsque le F.02 aurait prétendument rencontré un dysfonctionnement et frappé un réfrigérateur en acier inoxydable à proximité, cela a laissé une entaille pouvant atteindre trois quarts de pouce de profondeur, des dommages physiques cohérents avec un impact à haute énergie et avec les calculs de fracture de Gruendel.

Les tests d'impact, tel que décrit, ne se sont pas déroulés dans un vide. Selon les rapports, Gruendel a lié les données à de réels modes de fonctionnement—balancement des bras, atteintes, et événements de trajectoire erronée—plutôt qu'à de simples frappes de laboratoire synthétiques, soutenant que des profils de force similaires pourraient se produire lors de travaux de développement routiniers ou de déploiements commerciaux futurs.

Ces mesures internes sont importantes car elles contredisent tout argument selon lequel il s'agit d'hypothèses abstraites ou de science-fiction. Les chiffres de Figure AI, s'ils sont exacts, attestent d'une machine capable de frapper plus fort qu'un boxeur humain, d'ignorer les limites de la douleur établies et de franchir le seuil de la fracture osseuse.

Pour les lecteurs suivant la collision plus large entre la robotique, la réglementation et l'engouement des investisseurs, la couverture d'organes comme CNBC - Actualités et analyses économiques a déjà mis en avant la rapidité avec laquelle le capital afflue vers des plateformes humanoïdes qui manquent encore de régimes de sécurité matures.

D'un Performeur Étoile à Persona Non Grata

Recruté en octobre 2024, Rob Gruendel est arrivé chez Figure AI en tant que recrutement vedette. Fort de plus de deux décennies d'expérience dans la sécurité des robots et ayant une ligne de reporting directe auprès du PDG Brett Adcock, il avait pour mission de construire la stratégie de sécurité mondiale de l'entreprise depuis zéro. Les premières évaluations, selon le procès, ont salué son travail et ont abouti à une augmentation de 10 000 $ moins d'un an après son arrivée dans l'entreprise.

Cette augmentation est importante car elle ancre un avant et un après clairs. Pendant la majeure partie de son mandat, la volonté de Gruendel d'instaurer des processus de sécurité formels, de suivre les incidents et de former les employés n'a pas suscité d'hostilité ouverte. La direction a approuvé sa feuille de route en matière de sécurité, et les bilans hebdomadaires avec Adcock signalaient, au moins en apparence, que la sécurité avait sa place à la table.

Tout a changé après les tests d'impact sur le robot F.02. L'avertissement fondé sur des données de Gruendel, selon lequel la machine pouvait générer des forces bien au-dessus des niveaux de fracture du crâne, est arrivé dans les boîtes mail des cadres, accompagné de ses alertes écrites les plus directes concernant les risques pour les employés et les futurs clients. Quelques jours après ces messages, l'entreprise l'a licencié.

La ligne officielle de l'IA de Figure : « mauvaise performance. » Aucun plan d'amélioration de la performance, aucun avertissement écrit préalable, et aucune rétrogradation documentée ne semblent soutenir ce récit dans la plainte. Au contraire, les documents montrent une trajectoire opposée : des retours très positifs, une augmentation de salaire, des responsabilités croissantes, puis un retournement soudain juste après qu'il ait quantifié à quel point les robots pouvaient être dangereux.

Ce schéma s'aligne presque parfaitement sur les cas classiques de représailles contre les lanceurs d'alerte dans des environnements technologiques à forte pression. Un employé fait d'abord progresser la mission, puis devient un point de friction lorsque son expertise entre en collision avec des délais agressifs et des attentes d'investisseurs. Une fois que les exigences de sécurité menacent le calendrier, les mêmes traits qui ont suscité des éloges—insistance sur la documentation, résistance aux raccourcis—sont requalifiés en tant qu'« obstruction » ou « pas adapté ».

Le contexte entourant le financement de Figure AI amplifie les soupçons. D'ici septembre 2025, l'entreprise visait une valorisation de 39 milliards de dollars de la part d'investisseurs tels que Jeff Bezos, Nvidia et Microsoft, tandis que des dirigeants auraient apparemment vidé le plan de sécurité détaillé de Gruendel après la clôture de ce tour de financement. Dans ce contexte, qualifier le responsable de la sécurité des produits de piètre performer quelques jours après qu'il ait soulevé des données d'impact alarmantes semble moins relever de la gestion routine des ressources humaines et davantage d'une volonté de supprimer le dernier contrôle interne sur un lancement accéléré.

La Grande Course aux Armements Humanoïdes

The Great Humanoid Arms Race
The Great Humanoid Arms Race

La robotique humanoïde semble désormais moins être une recherche qu'une véritable ruée. Des entreprises comme Figure AI, Tesla, Agility Robotics, Apptronik et Sanctuary AI sont en compétition pour déployer des machines autonomes polyvalentes dans des entrepôts, des usines et, éventuellement, des foyers. Celui qui lancera le premier humanoïde crédible à grande échelle pourrait s'assurer un pouvoir de plateforme pendant des décennies.

Figure AI a fixé l'un des objectifs les plus audacieux dans ce domaine : déployer 200 000 robots d'ici 2029. Cela implique des milliers d'unités quittant la chaîne de production chaque mois dans la seconde moitié de la décennie, opérant à proximité des travailleurs humains. Le procès de Gruendel se situe en plein dans cette course, alléguant que la sécurité est devenue un détail négociable, et non une exigence préalable.

Les analystes ont attisé la concurrence. Morgan Stanley prévoit que les robots humanoïdes et polyvalents pourraient générer un marché de 5 trillions de dollars d'ici 2050, un chiffre que les dirigeants citent désormais avec la même aisance que le nombre d'utilisateurs actifs quotidiens. Les présentations internes des start-ups en robotique présentent de plus en plus les humanoïdes comme le "prochain smartphone" ou le "prochain cloud", avec des dynamiques similaires de gain majeur pour le vainqueur.

Ces incitations redéfinissent les priorités internes. Chaque trimestre consacré à renforcer les dispositifs de sécurité ou à réécrire les procédures est un trimestre durant lequel un concurrent peut publier une nouvelle démo, signer un pilote, ou annoncer un méga-accord avec un constructeur automobile ou un géant de la logistique. Dans cet environnement, un responsable de la sécurité des produits qui retarde un lancement peut sembler moins être un gardien et plus un coefficient de traînée.

Les systèmes humanoïdes se situent également dans de multiples zones grises réglementaires. Ils sont à la fois des robots industriels, des dispositifs grand public et des systèmes d'IA, et les normes existantes en matière de sécurité des machines, de sécurité fonctionnelle et de santé au travail ne s'appliquent souvent pas de manière claire. Les startups peuvent interpréter cette ambiguïté comme une autorisation d'agir en premier et de discuter de la conformité par la suite.

La plainte de Gruendel allègue essentiellement que Figure AI a adopté cette logique. Il décrit une culture guidée par "aller vite et être techniquement intrépide", tandis que Morgan Stanley et d'autres projections similaires planent sur le secteur comme un tableau de scores. Lorsque les investisseurs parlent d'un prix de plusieurs billions de dollars, chaque réunion de sécurité commence à ressembler à une part de marché perdue.

Outils puissants ou menaces imprévisibles ?

Les outils électriques sont déjà entourés d'un potentiel mortel. Une voiture de 1 600 kg peut tuer à 40 km/h, une scie circulaire de milieu de gamme fait tourner une lame à 3 500 tr/min, et un mélangeur de cuisine bon marché cache de l'acier tranchant derrière un couvercle en plastique. Nous tolérons ce risque parce que leur comportement est prévisible et nos systèmes de sécurité—protégeons, formation, réglementations—supposent cette prévisibilité.

Les robots humanoïdes comme le F.02 de Figure AI appartiennent à une catégorie différente. Ils combines des actionneurs de qualité industrielle — des tests d'impact dans le procès de Gruendel alléguent des forces capables de fracturer un crâne humain — avec un contrôle AI qui ne se comporte pas toujours de la même manière. Ce non-déterminisme rompt le modèle mental qui sous-tend notre façon de traiter des outils dangereux.

Les robots traditionnels et les machines-outils suivent un code déterministe : pour une entrée X, ils effectuent Y, à chaque fois. Les systèmes d'IA comme Helix AI de Figure AI génèrent plutôt des sorties à partir de modèles probabilistiques, ce qui signifie : - Ils peuvent "halluciner" des actions ou mal interpréter des données de capteurs - Ils peuvent prendre des décisions inexplicables qui échappent à un simple débogage - Ils peuvent échouer dans des cas extrêmes que les concepteurs n'avaient jamais anticipés

Une scie à table ne « décide » jamais de se jeter sur le côté ; ses modes de défaillance sont mécaniques et cartographiables. Un humanoïde contrôlé par IA peut, en principe, choisir une séquence de mouvements qu'aucun ingénieur n'a explicitement programmée, puis répéter un mouvement différent la fois suivante. Cette variabilité complique tout, de la conception des arrêts d'urgence à la souscription d'assurances.

La tolérance au risque repose généralement sur un échange clair entre coûts et bénéfices. Nous acceptons plus de 40 000 décès annuels liés aux voitures aux États-Unis parce que les automobiles facilitent les déplacements, la logistique et l'activité économique jugée indispensable par la société. Pour les humanoïdes à usage général, le potentiel est immense – substitution de main-d'œuvre dans les entrepôts, soins aux personnes âgées, tâches domestiques – mais reste encore spéculatif.

La véritable question devient alors : quel niveau de risque imprévisible les gens accepteront-ils dans leurs cuisines, entrepôts et maisons de retraite en échange d'un robot capable de décharger un camion ou un lave-vaisselle ? Les régulateurs peuvent établir des seuils d'exposition et des régimes de certification, mais la tolérance du public dépendra des premiers incidents, des vidéos virales et de la perception des échecs, qu'ils ressemblent à des accidents tragiques ou à des choix de conception systémiques. Les investisseurs modélisent déjà ces scénarios ; des rapports comme ceux de Morgan Stanley Research traitent de plus en plus la sécurité, l'explicabilité et la responsabilité comme essentiels à l'argument commercial des humanoïdes, et non comme une réflexion secondaire.

Une bataille juridique pour définir l'avenir de la robotique

Les tribunaux décident rarement de l'évolution des technologies émergentes, mais l'affaire Gruendel contre Figure AI AI pourrait devenir l'une de ces exceptions. Un ingénieur senior en sécurité avec plus de 20 ans d'expérience dans la robotique affirme qu'il a été licencié en 2025 pour avoir averti que le F.02 humanoïde de Figure AI AI pouvait "fracturer un crâne humain" et avait déjà laissé une entaille de trois quarts de pouce dans une porte de frigo en acier. Si un jury considère ces avertissements comme une activité protégée, chaque startup en robotique se précipitant vers les humanoïdes devra repenser sa gestion des dissensions internes.

Il s'agit de savoir si les lois existantes sur les lanceurs d'alerte—conçues autour des secteurs financier, de la santé et de la défense—s'appliquent aisément aux robots alimentés par une IA non déterministe. Gruendel affirme avoir signalé l'absence de suivi des incidents, l'absence de personnel dédié à la sécurité des employés et des cadres qui “n'aimaient pas les exigences écrites des produits.” Un jugement qui sanctionne son licenciement pourrait transformer les ingénieurs en sécurité en de facto agents de conformité pour les systèmes autonomes, et non plus seulement en voix internes agaçantes.

Un précédent ici surgirait au moment où les humanoïdes quitteraient les laboratoires pour les entrepôts et, finalement, les foyers. Si un tribunal conclut que Figure AI a réagi suite à des tests d'impact ayant prétendument montré des forces dépassant deux fois les seuils de fracture du crâne, les avocats des plaignants le citeront dans chaque futur dossier impliquant des bras industriels, des robots de livraison ou des assistants domestiques. Les entreprises pourraient faire face à une exposition légale non seulement lorsque les robots blessent des personnes, mais aussi lorsqu'elles écartent la personne qui a exprimé des préoccupations à ce sujet.

Les régulateurs surveillent. Aujourd'hui, la sécurité des robots s'appuie sur des normes comme l'ISO 10218 et l'ISO/TS 15066 pour les robots collaboratifs, mais rien n'anticipe réellement les humanoïdes propulsés par l'IA qui apprennent et improvisent. Un verdict très médiatisé pourrait accélérer : - Une nouvelle orientation de l'OSHA pour les lieux de travail humains-robots - Des normes ISO mises à jour pour la planification de mouvement alimentée par l'IA et les limites de force - L'enregistrement obligatoire des incidents et des audits tiers pour les robots à usage général

Pour Figure AI, le procès survient à un moment fragile : une valorisation annoncée de 39 milliards de dollars, un soutien de Jeff Bezos, Nvidia et Microsoft, et un récit public de machines bipèdes gracieuses propulsées par Helix AI. Une défaite pourrait signifier des découvertes intrusives, une méfiance des investisseurs et un pivot forcé vers un développement plus lent, axé sur les normes. Une victoire pourrait encourager la foule qui prône le "déplacez-vous rapidement et soyez techniquement intrépide" - jusqu'à ce que la première blessure grave fasse apparaître les avertissements de Gruendel comme moins un procès qu'une prophétie.

Questions Fréquemment Posées

Quelle est l'affaire judiciaire concernant Figure AI ?

C'est un procès pour licenciement abusif et représailles envers un lanceur d'alerte intenté par Robert Gruendel, ancien responsable de la sécurité de Figure AI. Il allègue avoir été licencié pour avoir soulevé des préoccupations critiques concernant la sécurité des robots humanoïdes de l'entreprise.

Quelles sont les principales allégations de sécurité contre Figure AI ?

Le procès affirme que les robots de Figure sont assez puissants pour fracturer un crâne humain, qu'un robot a dysfonctionné et a frappé un réfrigérateur, et que l'entreprise a ignoré les protocoles de sécurité et a trompé les investisseurs sur ses plans de sécurité.

Qui est Robert Gruendel ?

Robert Gruendel est un ingénieur en sécurité des robots très expérimenté, recruté par Figure AI pour devenir son responsable de la sécurité des produits. Il possède plus de vingt ans d'expérience dans l'interaction homme-robot et la conformité en matière de sécurité.

Comment Figure AI a-t-il répondu aux allégations ?

Un porte-parole de l'entreprise a nié les allégations, affirmant que Gruendel avait été licencié pour 'mauvaise performance' et que ses déclarations étaient des 'mensonges' qui seront réfutés devant le tribunal.

Frequently Asked Questions

Outils puissants ou menaces imprévisibles ?
Les outils électriques sont déjà entourés d'un potentiel mortel. Une voiture de 1 600 kg peut tuer à 40 km/h, une scie circulaire de milieu de gamme fait tourner une lame à 3 500 tr/min, et un mélangeur de cuisine bon marché cache de l'acier tranchant derrière un couvercle en plastique. Nous tolérons ce risque parce que leur comportement est prévisible et nos systèmes de sécurité—protégeons, formation, réglementations—supposent cette prévisibilité.
Quelle est l'affaire judiciaire concernant Figure AI ?
C'est un procès pour licenciement abusif et représailles envers un lanceur d'alerte intenté par Robert Gruendel, ancien responsable de la sécurité de Figure AI. Il allègue avoir été licencié pour avoir soulevé des préoccupations critiques concernant la sécurité des robots humanoïdes de l'entreprise.
Quelles sont les principales allégations de sécurité contre Figure AI ?
Le procès affirme que les robots de Figure sont assez puissants pour fracturer un crâne humain, qu'un robot a dysfonctionné et a frappé un réfrigérateur, et que l'entreprise a ignoré les protocoles de sécurité et a trompé les investisseurs sur ses plans de sécurité.
Qui est Robert Gruendel ?
Robert Gruendel est un ingénieur en sécurité des robots très expérimenté, recruté par Figure AI pour devenir son responsable de la sécurité des produits. Il possède plus de vingt ans d'expérience dans l'interaction homme-robot et la conformité en matière de sécurité.
Comment Figure AI a-t-il répondu aux allégations ?
Un porte-parole de l'entreprise a nié les allégations, affirmant que Gruendel avait été licencié pour 'mauvaise performance' et que ses déclarations étaient des 'mensonges' qui seront réfutés devant le tribunal.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts