Cubrimiento Robot de Figure AI

Un exjefe de seguridad despedido afirma que Figure AI ignoró las advertencias de que sus robots podrían fracturar cráneos humanos. Esta demanda explosiva expone el lado oscuro de la carrera por desplegar humanoides en nuestros hogares.

Stork.AI
Hero image for: Cubrimiento Robot de Figure AI
💡

TL;DR / Key Takeaways

Un exjefe de seguridad despedido afirma que Figure AI ignoró las advertencias de que sus robots podrían fracturar cráneos humanos. Esta demanda explosiva expone el lado oscuro de la carrera por desplegar humanoides en nuestros hogares.

El robot que podría fracturar un cráneo

Rob Gruendel dice que un robot humanoide en Figure AI golpeó un refrigerador con tanta fuerza que dejó una mella de tres cuartos de pulgada en el acero inoxidable. En una demanda presentada en California, el ex Jefe de Seguridad de Producto de la empresa afirma que esa misma clase de robot genera suficiente fuerza para "fracturar un cráneo humano" — y que cuando presionó al CEO Brett Adcock para enfrentar esos riesgos, fue rechazado en su lugar.

Según la denuncia, Gruendel fue reclutado a finales de 2024 como ingeniero principal de seguridad robótica, reportando directamente a Adcock y encargado de construir desde cero la estrategia global de seguridad de Figure AI. Alega que una vez que sus advertencias comenzaron a frenar el avance de la compañía hacia la comercialización, la dirección lo trató menos como una garantía de seguridad y más como un obstáculo.

Figure AI se sitúa al frente de la carrera de robots humanoides, exhibiendo sus modelos F.02 y F.03 en pulidos videos de demostración y recaudando fondos de gigantes como Nvidia, Microsoft y fondos respaldados por Jeff Bezos, con valoraciones que supuestamente alcanzan decenas de miles de millones de dólares. La demanda llega en un momento en que la empresa intenta convencer a inversores y socios de que sus robots pueden salir del laboratorio e ingresar a fábricas —y eventualmente hogares— sin convertirse en peligros laborales.

La acusación central de Gruendel es clara: dice que fue despedido en septiembre de 2025 en represalia por haber escalado fallos de seguridad "catastróficos" a Adcock y al ingeniero jefe Kyle Edelberg. Según él, Figure AI AI mencionó un vago "cambio en la dirección del negocio" y luego "bajo rendimiento", a pesar de haberle dado fuertes reseñas y un aumento de salario menos de un año después de haber comenzado el trabajo.

Los documentos judiciales describen a una empresa que priorizó la velocidad sobre las medidas de seguridad. Gruendel dice que Figure AI no tenía un informe formal de incidentes, no realizaba evaluaciones de riesgo estandarizadas y no contaba con personal dedicado a la salud y seguridad laboral, incluso mientras los ingenieros trabajaban a pocos centímetros de extremidades de alto par de torsión impulsadas por sistemas de control de IA no determinísticos.

Ese choque entre la ambición de moverse rápidamente y la ingeniería de seguridad metódica ahora se encuentra en el corazón de una de las primeras grandes disputas de denunciantes en la robótica humanoide. A medida que competidores como Tesla y Agility Robotics se apresuran hacia máquinas adyacentes a los humanos en las fábricas, el caso plantea una pregunta contundente: ¿qué tan seguro es "suficientemente seguro" cuando un error de software puede mover un brazo robótico de 150 libras con una fuerza capaz de romper cráneos?

El mantra más peligroso de Silicon Valley

Silicon Valley's Most Dangerous Mantra
Silicon Valley's Most Dangerous Mantra

Silicon Valley tiene un problema de mantra, y Figure AI lo ha grabado en el ADN de la empresa. Sus valores fundamentales declarados, citados en la demanda de Rob Gruendel, son “actuar rápido y ser valiente tecnológicamente” y “llevar al mercado un humanoide comercialmente viable.” Eso es menos un sistema de valores que una orden de envío, y enmarca la seguridad como fricción, no como fundamento.

El antiguo lema de Facebook, "moverse rápido y romper cosas", rompió sistemas publicitarios y promesas de privacidad. Figure AI construye humanoides de 1.6 metros de altura y 60 kilogramos que supuestamente pueden generar fuerzas "suficientemente poderosas como para fracturar un cráneo humano". Cuando un F.02 con mal funcionamiento golpeó un refrigerador de acero inoxidable y dejó una hendidura de hasta tres cuartos de pulgada de profundidad, casi golpeó a un empleado que estaba de pie a su lado.

Gruendel afirma que detrás de los impresionantes videos de demostración había una empresa con casi ninguna guía escrita. Durante su primera semana, supuestamente encontró ningún procedimiento de seguridad formal, ningún sistema de reporte de incidentes y ningún proceso estructurado de evaluación de riesgos para los robots en desarrollo. Además, Figure AI no contaba con personal dedicado a la salud y seguridad de los empleados, a pesar de que los trabajadores operaban cerca de máquinas de alta potencia.

Elaboró un plan de seguridad global, que fue inicialmente aprobado por el CEO Brett Adcock y el ingeniero jefe Kyle Edelberg. Pero la demanda afirma que ambos hombres “expresaron un descontento con los requisitos de producto por escrito”, una postura que Gruendel destacó como “anormal” en la seguridad de maquinarias. En una industria regida por la documentación de ISO y OSHA, rechazar la documentación parece menos eficiencia y más evitación de responsabilidad.

Según la denuncia, esa mentalidad en contra de dejar un rastro documental se filtró en la cultura. Las reuniones de seguridad con Adcock supuestamente pasaron de ser semanales a trimestrales. Las advertencias detalladas de Gruendel sobre las fuerzas de impacto de los robots, la imprevisibilidad de la IA y la necesidad de capacitación para los empleados no recibieron respuesta o fueron retrasadas mientras la empresa perseguía los hitos de los inversores.

La presión por el crecimiento solo aumentó la tensión. Según informes, la valoración de AI AI alcanzó los 39 mil millones de dólares después de una ronda de financiación en septiembre de 2025 respaldada por Nvidia, Microsoft y capital vinculado a Jeff Bezos. Gruendel alega que los ejecutivos “desmantelaron” su hoja de ruta de seguridad después de que se liberaron los fondos, eliminando compromisos clave que los inversores habían visto en papel.

Moverse rápido y ser técnicamente intrépido suena heroico en una presentación. Alrededor de un robot que puede aplastar un cráneo, empieza a leerse como una confesión.

El Incidente del Refrigerador: Una Advertencia sobre el Doblado Metálico

El impulso dentro del laboratorio de Figure AI supuestamente se detuvo el día en que una unidad F.02 perdió el control y se lanzó contra un electrodoméstico de cocina. Según la demanda de Rob Gruendel, el robot humanoide golpeó inesperadamente la puerta de un refrigerador de acero inoxidable, introduciendo su puño metálico un cuarto de pulgada en la superficie de acero inoxidable.

Un empleado supuestamente se encontraba a solo unos centímetros de distancia, lo suficientemente cerca como para que una trayectoria ligeramente diferente pudiera haber impactado en un torso, hombro o cráneo. La queja lo enmarca como un “casi accidente” de manual: no un modelo de riesgo hipotético, sino una demostración física de lo que un golpe F.02 desalineado puede hacer a un acero endurecido.

Gruendel cita este incidente como prueba de que las máquinas de Figure AI eran, en sus palabras, "lo suficientemente poderosas como para fracturar un cráneo humano". Las pruebas de impacto ya sugerían fuerzas más del doble del umbral necesario para romper el cráneo de un adulto; la herida en el refrigerador convirtió esos números del laboratorio en una profunda y afilada cicatriz a lo largo de un electrodoméstico de uso doméstico.

Los detalles en la presentación describen una escena caótica: un F.02 funcionando en modo de desarrollo, un empleado a un brazo de distancia y sin dispositivos de seguridad robustos o zonas de exclusión para mantener a las personas fuera del radio de acción del robot. Nadie resultó herido físicamente, pero la puerta del refrigerador absorbió un golpe que, desviado unos pocos centímetros, podría haber impactado en un hueso.

Para Gruendel, este fue el punto de inflexión. Ya había señalado la ausencia de informes formales de incidentes, la falta de personal dedicado a la seguridad de los empleados y la resistencia a los requisitos de producto escritos; el golpe del refrigerador le convenció de que el área de pruebas exponía a los trabajadores a un riesgo inaceptable.

Después del incidente, él insistió más en la necesidad de una capacitación estructurada en seguridad, límites operativos más estrictos y el registro obligatorio de todas las fallas y casi accidentes. La demanda afirma que esas exigencias chocaban con la cultura de "moverse rápido y ser técnicamente audaz" de Figure AI AI y su prisa por impresionar a los inversionistas que están siguiendo las demostraciones en el Sitio Oficial de Figure AI AI.

La narrativa de Gruendel presenta el refrigerador no como un daño colateral, sino como una advertencia de metal doblado que, supuestamente, el liderazgo decidió ignorar.

Un rastro de señales rojas ignoradas

Las señales de alerta comenzaron a acumularse casi tan pronto como Rob Gruendel llegó. Según la demanda, Figure AI no tenía procedimientos de seguridad formales, ni un sistema de informes de incidentes, ni evaluaciones de riesgos estructuradas para sus robots humanoides F.02, a pesar de su capacidad para generar fuerzas supuestamente más del doble de lo necesario para fracturar un cráneo humano. Gruendel respondió redactando un plan de seguridad integral, creando hojas de cálculo para el seguimiento de incidentes y proponiendo módulos de capacitación para cualquier persona que trabajara cerca de los robots.

El liderazgo inicialmente aprobó. El CEO Brett Adcock y el ingeniero jefe Kyle Edelberg aprobaron el plan en papel, pero la queja afirma que se mostraron reticentes cuando se convirtió en un proceso real. "Expresaron un desagrado por los requisitos de producto escritos", una postura que Gruendel señaló como anormal para la seguridad de maquinaria, donde la documentación respalda el cumplimiento de estándares al estilo de ISO y OSHA.

Se alega que los canales de comunicación se rompieron justo cuando aumentaron las apuestas. Los informes de seguridad semanales con Adcock supuestamente se redujeron a mensuales, luego a trimestrales, antes de detenerse por completo. Los mensajes de Slack de Gruendel sobre incidentes cercanos y movimientos descontrolados de robots, incluyendo menciones al golpe en el refrigerador que causó una hendidura de 0.75 pulgadas en acero inoxidable, supuestamente no obtuvieron respuesta del CEO.

Esos mensajes ignorados no eran teóricos. Los empleados comenzaron a informar sobre situaciones peligrosas directamente a Gruendel porque no había una oficina de Salud y Seguridad Laboral (EHS) ni un proceso formal para incidentes cercanos, según la presentación. Se convirtió en una línea directa de seguridad de facto, registrando incidentes que iban desde barridos de brazos inesperados hasta contactos no planificados con estaciones de trabajo.

La demanda describe esto como un fallo sistémico, no como un descuido administrativo. En un laboratorio con actuadores de varios kilovatios y control de IA no determinista, no había personal dedicado a EHS, ni un canal anónimo de reporte de peligros, ni un procedimiento de investigación estandarizado. En cambio, Gruendel supuestamente confiaba en hojas de cálculo ad hoc de Google y en hilos de Slack puntuales para rastrear riesgos que podrían incapacitar a los trabajadores.

Una de sus propuestas clave, una iniciativa de E‑Stop para estandarizar el hardware de parada de emergencia, el comportamiento del software y los ejercicios de respuesta, supuestamente se encontró con la resistencia de la dirección. El programa tenía como objetivo definir cuántas paradas de emergencia necesitaba cada célula de prueba, dónde colocarlas y cómo debería comportarse el robot, tanto eléctricamente como mecánicamente, al ser activado. Según la queja, Adcock y Edelberg finalmente cancelaron o congelaron el esfuerzo de E‑Stop, calificándolo de fricción innecesaria para la velocidad de desarrollo.

Para principios de 2025, el patrón era claro en el relato de Gruendel: los planes de seguridad se aprobaban para las presentaciones, y luego se dejaban de lado en silencio. Los incidentes cercanos se acumulaban en sus registros personales, no en ningún sistema corporativo. Y la persona encargada de construir una cultura de seguridad se encontraba cada vez más hablando en el vacío.

La decepción de los inversionistas de 39 mil millones de dólares

The $39 Billion Investor Deception
The $39 Billion Investor Deception

Cuarenta mil millones de dólares compran mucha confianza. Según la demanda, el trabajo de Rob Gruendel a mediados de 2025 era generar esa confianza en papel: un detallado documento técnico de seguridad diseñado para calmar los nervios de Jeff Bezos, Nvidia, Microsoft y otros patrocinadores adinerados que estaban interesados en la ronda de financiamiento Serie C de Figure AI.

Gruendel alega que elaboró un mapa de seguridad de espectro completo: evaluaciones formales de riesgos, registro de incidentes, planes de capacitación para empleados y salvaguardias para el despliegue del F.02 humanoide alrededor de personas. El documento, dice, no se guardó palabras sobre las fuerzas “suficientemente poderosas como para fracturar un cráneo humano” y la falla de golpeo de refrigerador que desgarró acero a centímetros de un trabajador.

Según la demanda, esa rigurosidad se convirtió en un activo para la recaudación de fondos. Supuestamente, los inversores potenciales recibieron una versión del plan que retrataba a Figure AI como una empresa que había madurado, pasando de “moverse rápido y no tener miedo técnico” a ser una que respetaba las normas de seguridad de maquinaria ISO y la gestión de riesgos de IA. Para septiembre de 2025, la ronda cerró con una valoración reported de $39 mil millones, un aumento de aproximadamente 15 veces desde principios de 2024.

Luego, Gruendel afirma que el plan de seguridad fue desmantelado en silencio. La dirección de ingeniería, incluido el ingeniero jefe Kyle Edelberg, supuestamente “despojó” y degradó los compromisos fundamentales una vez que se aprobó el presupuesto, reduciendo los requisitos por escrito, dejando de lado el seguimiento de incidentes y archivando elementos que ralentizaban el desarrollo de la plataforma F.02.

Esa acusación mueve la historia de la problemática cultura de las startups a un posible fraude en valores. Atraer capital basándose en el respaldo de controles de seguridad específicos, para luego abandonarlos sin divulgación, puede parecer menos como "iterar" y más como engañar a los inversores sobre el riesgo operativo y el tiempo de lanzamiento al mercado.

Los reguladores y litigantes harían preguntas difíciles: ¿Se proporcionaron a Bezos, Nvidia y Microsoft materiales de seguridad que ya no reflejaban la realidad después de la ronda? ¿Firmaron algún comité de supervisión a nivel de junta una desviación del plan anunciado? ¿Se actualizaron y compartieron las evaluaciones internas de riesgos?

Las startups de robótica intensivas en capital viven o mueren por su capacidad de proyectar una imagen de disciplina industrial. Plataformas humanoides como F.02 exigen cheques de IA de nueve cifras para actuadores, silicio personalizado, centros de datos y laboratorios de pruebas mucho antes de que aparezcan ingresos significativos.

Esa dinámica incentiva narrativas atractivas sobre la fiabilidad y sistemas "listos para la empresa", incluso cuando la planta aún opera con procesos ad hoc y reglas no escritas. El relato de Gruendel sugiere que la seguridad puede convertirse en otra diapositiva del pitch deck—aumentada para la debida diligencia, disminuida una vez que se firman los acuerdos preliminares.

Por los Números: 20 veces el Umbral del Dolor

La velocidad sobrehumana no es una metáfora en la demanda de Rob Gruendel; es una medida. Según la demanda, las pruebas de impacto internas en la figura F.02 de Figure AI registraron velocidades del efector final superiores a las velocidades de golpeo humano típicas, mientras transportaban una masa mucho mayor y eran impulsadas por actuadores de alto par.

Esos tests supuestamente hicieron referencia a la ISO 15066, el estándar de seguridad para robots colaborativos que define un "umbral de dolor" para el contacto humano. Gruendel afirma que los impactos del F.02 alcanzan fuerzas aproximadamente 20 veces superiores a ese umbral, lo que significa que el contacto no solo dolería, sino que sobrepasaría el nivel que los reguladores asumen como el límite superior para la interacción aceptable entre humanos y robots.

Gruendel va más allá, ofreciendo una estimación experta de que esas fuerzas superaron en más de 2x lo que se requiere para fracturar el cráneo de un adulto. La literatura sobre fracturas de cráneo típicamente menciona rangos alrededor de 3 a 10 kN dependiendo del área de impacto y la dirección; la demanda afirma que las fuerzas máximas de F.02 se mantuvieron cómodamente por encima de ese rango.

Estos números se conectan directamente con el incidente del refrigerador ya documentado en la presentación. Cuando F.02 supuestamente falló y golpeó un refrigerador de acero inoxidable cercano, dejó una hendidura de hasta tres cuartos de pulgada de profundidad, un daño físico consistente con un impacto de alta energía y con los cálculos de fractura de Gruendel.

Las pruebas de impacto, como se describió, no ocurrieron en un vacío. Según informes, Gruendel vinculó los datos a modos de operación reales: movimientos de brazos, alcanzes y eventos de trayectoria errónea, en lugar de golpes exclusivamente sintéticos en laboratorio, argumentando que perfiles de fuerza similares podrían ocurrir durante el trabajo de desarrollo rutinario o implementaciones comerciales futuras.

Esas mediciones internas importan porque socavan cualquier argumento de que se trata de hipótesis abstractas de ciencia ficción. Las cifras de AI AI, si son precisas, documentan una máquina que puede superar en fuerza a un boxeador humano, ignorar los límites de dolor establecidos y cruzar el territorio de fracturas óseas.

Para los lectores que siguen la colisión más amplia entre robótica, regulación y el entusiasmo de los inversores, la cobertura en medios como CNBC - Noticias y Análisis Empresarial ya ha destacado la rapidez con la que el capital está fluyendo hacia plataformas humanoides que aún carecen de regímenes de seguridad maduros.

De Estrella en el Rendimiento a Persona No Grata

Reclutado en octubre de 2024, Rob Gruendel llegó a Figure AI como una contratación estrella. Con más de dos décadas en seguridad en robótica y una línea de reporte directa al CEO Brett Adcock, se le encomendó la tarea de construir desde cero la estrategia de seguridad global de la empresa. Según la demanda, las primeras evaluaciones elogiaron su trabajo y culminaron en un aumento de $10,000 menos de un año después de haber comenzado.

Esa mejora importa porque ancla un antes y un después claro. Durante la mayor parte de su mandato, el impulso de Gruendel por procesos de seguridad formales, seguimiento de incidentes y capacitación de empleados no generó hostilidad abierta. La dirección aprobó su plan de seguridad y las reuniones semanales con Adcock señalaban, al menos superficialmente, que la seguridad tenía un lugar en la mesa.

Todo cambió después de las pruebas de impacto en el robot F.02. La advertencia respaldada por datos de Gruendel de que la máquina podría generar fuerzas muy por encima de los niveles de fractura del cráneo llegó a los correos electrónicos de los ejecutivos junto con sus alertas escritas más directas sobre el riesgo para los empleados y futuros clientes. En cuestión de días tras esos mensajes, la empresa lo despidió.

La línea oficial de Figure AI: “pobre rendimiento.” No hay un plan de mejora del rendimiento, ni advertencias escritas previas, ni una degradación documentada que respalde esa narrativa en la queja. En cambio, la documentación muestra una trayectoria opuesta: comentarios positivos, un aumento de salario, crecientes responsabilidades, y luego un cambio abrupto inmediatamente después de que cuantificó cuán peligrosos podrían ser los robots.

Ese patrón se ajusta casi perfectamente a los casos clásicos de represalias contra denunciantes en entornos tecnológicos de alta presión. Un empleado inicialmente impulsa la misión, luego se convierte en un punto de fricción cuando su experiencia choca con plazos agresivos y expectativas de los inversores. Una vez que los requisitos de seguridad amenazan el cronograma, los mismos rasgos que recibieron elogios—la insistencia en la documentación, la resistencia a los atajos—son reinterpretados como “obstrucción” o “no ser el adecuado”.

El contexto en torno a la financiación de Figure AI amplifica la sospecha. Para septiembre de 2025, la empresa perseguía una valoración de $39 mil millones de patrocinadores como Jeff Bezos, Nvidia y Microsoft, mientras que los ejecutivos supuestamente desmantelaron el detallado plan de seguridad de Gruendel después de que se cerró la ronda de financiación. Con ese panorama, etiquetar al jefe de seguridad de producto como un mal desempeño días después de que él presentó datos de impacto alarmantes parece menos una rutina de gestión de recursos humanos y más el intento de eliminar el último control interno sobre un lanzamiento acelerado.

La Gran Carrera de Brazos Humanoides

The Great Humanoid Arms Race
The Great Humanoid Arms Race

La robótica humanoide ahora se parece menos a una investigación y más a una carrera por el territorio. Empresas como Figure AI, Tesla, Agility Robotics, Apptronik y Sanctuary AI están compitiendo para enviar máquinas autónomas y de propósito general a almacenes, fábricas y, eventualmente, hogares. Quien plante el primer humanoide creíble a gran escala podría asegurarse el poder de la plataforma durante décadas.

Figure AI ha establecido uno de los objetivos más ambiciosos en el campo: desplegar 200,000 robots para 2029. Esto implica que miles de unidades salgan de la línea cada mes en la segunda mitad de la década, operando en estrecha proximidad a los trabajadores humanos. La demanda de Gruendel se sitúa en el centro de esa carrera, alegando que la seguridad se convirtió en un detalle negociable, no en un requisito indispensable.

Los analistas han echado más leña al fuego en la carrera. Morgan Stanley proyecta que los robots humanoides y de propósito general podrían generar un mercado de 5 billones de dólares para 2050, una cifra que los ejecutivos ahora citan con la misma naturalidad que los usuarios activos diarios. Las presentaciones internas en las startups de robótica enmarcan cada vez más a los humanoides como el “próximo smartphone” o “próxima nube”, con dinámicas similares de ganador se lleva la mayor parte.

Esos incentivos remodelan las prioridades internas. Cada trimestre dedicado a fortalecer medidas de seguridad o reescribir procedimientos es un trimestre que un rival puede utilizar para publicar una nueva demostración, firmar un piloto o anunciar un mega-acuerdo con un fabricante de automóviles o un gigante de la logística. En ese entorno, un jefe de seguridad del producto que retrasa un lanzamiento puede parecer menos un guardián y más un coeficiente de arrastre.

Los sistemas humanoides también se mueven entre múltiples zonas grises regulatorias. Son en parte robots industriales, en parte dispositivos de consumo y en parte sistemas de inteligencia artificial, y los estándares existentes para la seguridad de máquinas, la seguridad funcional y la salud ocupacional a menudo no se aplican de manera clara. Las startups pueden interpretar esa ambigüedad como un permiso para actuar primero y debatir sobre el cumplimiento después.

La queja de Gruendel esencialmente alega que Figure AI adoptó esa lógica. Describe una cultura impulsada por "moverse rápido y ser técnicamente audaz", mientras que Morgan Stanley y proyecciones similares se ciernen sobre el sector como un marcador. Cuando los inversores hablan de un premio de varios billones de dólares, cada reunión de seguridad comienza a sentirse como pérdida de cuota de mercado.

¿Herramientas Poderosas o Amenazas Impredecibles?

Las herramientas eléctricas ya nos rodean con un potencial letal. Un automóvil de 3,500 libras puede matar a 25 mph, una sierra de banco de gama media gira una hoja a 3,500 rpm, y una licuadora de cocina económica esconde acero afilado como una navaja detrás de una tapa de plástico. Toleramos ese riesgo porque su comportamiento es predecible y nuestros sistemas de seguridad—guardias, capacitación, regulaciones—suponen esa predictibilidad.

Los robots humanoides como el F.02 de Figure AI se encuentran en una categoría diferente. Combinan actuadores de grado industrial—las pruebas de impacto en la demanda de Gruendel alegan fuerzas capaces de fracturar un cráneo humano—con control de IA que no siempre se comporta de la misma manera. Ese no determinismo rompe el modelo mental que fundamenta cómo tratamos las herramientas peligrosas.

Los robots tradicionales y las máquinas herramienta siguen un código determinista: dado un input X, realizan Y, cada vez. Los sistemas de IA, como Helix AI de Figure AI, generan en cambio salidas a partir de modelos probabilísticos, lo que significa que: - Pueden “alucinar” acciones o malinterpretar datos de sensores - Pueden tomar decisiones inexplicables que desafían una depuración sencilla - Pueden fallar en casos límite que los diseñadores nunca anticiparon

Una sierra de mesa nunca "decide" lanzarse de lado; sus modos de fallo son mecánicos y se pueden mapear. Un humanoide controlado por IA puede, en principio, elegir una secuencia de movimiento que ningún ingeniero programó explícitamente, y luego repetir un movimiento diferente la próxima vez. Esa variabilidad complica todo, desde el diseño de paradas de emergencia hasta la suscripción de seguros.

La tolerancia al riesgo generalmente se basa en un claro intercambio de costos y beneficios. Aceptamos más de 40,000 muertes anuales por accidentes de automóvil en EE. UU. porque los coches desbloquean el transporte, la logística y la actividad económica que la sociedad considera indispensables. Para los humanoides de propósito general, el beneficio potencial es enorme: sustitución de mano de obra en almacenes, atención a personas mayores, tareas domésticas—pero sigue siendo especulativo.

Así que la verdadera pregunta es: ¿cuánto riesgo impredecible aceptarán las personas en sus cocinas, almacenes y casas de descanso a cambio de un robot que pueda descargar un camión o vaciar un lavavajillas? Los reguladores pueden establecer umbrales de exposición y regímenes de certificación, pero la tolerancia pública dependerá de los incidentes iniciales, videos virales y si los fallos parecen accidentes extraños o elecciones de diseño sistémico. Los inversores ya modelan estos escenarios; informes como los de Morgan Stanley Research tratan cada vez más la seguridad, la explicabilidad y la responsabilidad como fundamentales para el caso de negocio de los humanoides, no como un pensamiento secundario.

Las salas de tribunales rara vez deciden cómo evolucionan las tecnologías emergentes, pero Gruendel contra Figure AI AI podría convertirse en uno de esos casos excepcionales. Un ingeniero de seguridad senior con más de 20 años de experiencia en robótica afirma que fue despedido en 2025 por advertir que el F.02, un humanoide de Figure AI AI, podría "fracturar un cráneo humano" y que ya había dejado una herida de tres cuartos de pulgada en la puerta de un refrigerador de acero. Si un jurado considera que estas advertencias son una actividad protegida, cada startup de robótica que compite en el desarrollo de humanoides tendrá que repensar cómo maneja el desacuerdo interno.

En juego está si las leyes de protección de denunciantes existentes—construidas en torno a las finanzas, la salud y la defensa—se aplican adecuadamente a los robots impulsados por inteligencia artificial no determinista. Gruendel dice que informó sobre la falta de seguimiento de incidentes, la ausencia de personal dedicado a la seguridad de los empleados y ejecutivos que “no apreciaban los requisitos de producto por escrito.” Un fallo que castigue su despido podría convertir a los ingenieros de seguridad en de facto oficiales de cumplimiento para sistemas autónomos, y no solo en voces internas insistentes.

El precedente aquí se establecería justo cuando los humanoides salgan de los laboratorios hacia los almacenes y, eventualmente, los hogares. Si un tribunal determina que Figure AI AI tomó represalias tras las pruebas de impacto que supuestamente mostraron fuerzas más de 2 veces por encima de los umbrales de fractura de cráneo, los abogados de los demandantes citarán eso en cada caso futuro relacionado con brazos industriales, robots de entrega o asistentes domésticos. Las empresas podrían enfrentar exposición legal no solo cuando los robots lesionen a personas, sino también cuando desestimen la advertencia de la persona que dijo que podrían hacerlo.

Los reguladores están observando. Hoy en día, la seguridad de los robots se basa en normas como la ISO 10218 y la ISO/TS 15066 para robots colaborativos, pero nada anticipa completamente a los humanoides impulsados por IA que aprenden e improvisan. Un veredicto de alto perfil podría acelerar: - Nueva orientación de OSHA para lugares de trabajo humanos-robot - Normas ISO actualizadas para la planificación de movimiento impulsada por IA y límites de fuerza - Registro de incidentes obligatorio y auditorías de terceros para robots de propósito general

Para Figure AI, la demanda llega en un momento frágil: una valoración reportada de 39 mil millones de dólares, respaldo de Jeff Bezos, Nvidia y Microsoft, y una narrativa pública de máquinas bípedas elegantes impulsadas por Helix AI. Una pérdida podría significar descubrimientos intrusivos, nerviosismo entre los inversores y una pivotación forzada hacia un desarrollo más lento y basado en estándares. Una victoria podría dar fuerzas a la multitud de “moverse rápido y ser técnicamente audaz”—hasta que la primera lesión grave haga que las advertencias de Gruendel parezcan menos una demanda y más una profecía.

Preguntas Frecuentes

¿Cuál es la demanda contra Figure AI?

Es una demanda por despido injustificado y represalias contra un denunciante presentada por Robert Gruendel, exjefe de seguridad de Figure AI. Alega que fue despedido por plantear preocupaciones críticas de seguridad sobre los robots humanoides de la compañía.

¿Cuáles son las principales alegaciones de seguridad contra Figure AI?

La demanda sostiene que los robots de Figure son lo suficientemente potentes como para fracturar un cráneo humano, que un robot tuvo un mal funcionamiento y golpeó una nevera, y que la empresa ignoró los protocolos de seguridad y engañó a los inversores sobre sus planes de seguridad.

¿Quién es Robert Gruendel?

Robert Gruendel es un ingeniero de seguridad de robots con amplia experiencia que fue reclutado por Figure AI para ser su responsable de seguridad de productos. Tiene más de dos décadas de experiencia en la interacción humano-robot y en el cumplimiento de normas de seguridad.

¿Cómo respondió Figure AI a las acusaciones?

Un portavoz de la compañía negó las acusaciones, afirmando que Gruendel fue despedido por 'bajo rendimiento' y que sus afirmaciones son 'falsedades' que serán refutadas en la corte.

Frequently Asked Questions

¿Herramientas Poderosas o Amenazas Impredecibles?
Las herramientas eléctricas ya nos rodean con un potencial letal. Un automóvil de 3,500 libras puede matar a 25 mph, una sierra de banco de gama media gira una hoja a 3,500 rpm, y una licuadora de cocina económica esconde acero afilado como una navaja detrás de una tapa de plástico. Toleramos ese riesgo porque su comportamiento es predecible y nuestros sistemas de seguridad—guardias, capacitación, regulaciones—suponen esa predictibilidad.
¿Cuál es la demanda contra Figure AI?
Es una demanda por despido injustificado y represalias contra un denunciante presentada por Robert Gruendel, exjefe de seguridad de Figure AI. Alega que fue despedido por plantear preocupaciones críticas de seguridad sobre los robots humanoides de la compañía.
¿Cuáles son las principales alegaciones de seguridad contra Figure AI?
La demanda sostiene que los robots de Figure son lo suficientemente potentes como para fracturar un cráneo humano, que un robot tuvo un mal funcionamiento y golpeó una nevera, y que la empresa ignoró los protocolos de seguridad y engañó a los inversores sobre sus planes de seguridad.
¿Quién es Robert Gruendel?
Robert Gruendel es un ingeniero de seguridad de robots con amplia experiencia que fue reclutado por Figure AI para ser su responsable de seguridad de productos. Tiene más de dos décadas de experiencia en la interacción humano-robot y en el cumplimiento de normas de seguridad.
¿Cómo respondió Figure AI a las acusaciones?
Un portavoz de la compañía negó las acusaciones, afirmando que Gruendel fue despedido por 'bajo rendimiento' y que sus afirmaciones son 'falsedades' que serán refutadas en la corte.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts