TL;DR / Key Takeaways
O Robô Que Poderia Fraturar um Crânio
Rob Gruendel afirma que um robô humanoide da Figure AI atingiu uma geladeira com tanta força que deixou um corte de quase dois centímetros em aço inoxidável. Em um processo judicial apresentado na Califórnia, o ex Chefe de Segurança de Produto da empresa alega que a mesma classe de robô gera força suficiente para "fraturar um crânio humano" — e que, quando ele pressionou o CEO Brett Adcock a confrontar esses riscos, foi empurrado para fora em vez disso.
De acordo com a reclamação, Gruendel foi contratado no final de 2024 como engenheiro principal de segurança robótica, reportando-se diretamente a Adcock e encarregado de construir a estratégia de segurança global da Figure AI desde o início. Ele alega que, uma vez que seus avisos começaram a desacelerar o progresso da empresa em direção à comercialização, a liderança começou a tratá-lo menos como uma salvaguarda e mais como um obstáculo.
A Figure AI está na vanguarda da corrida dos robôs humanoides, exibindo seus modelos F.02 e F.03 em vídeos de demonstração polidos e arrecadando dinheiro de gigantes como Nvidia, Microsoft e fundos apoiados por Jeff Bezos, com avaliações que supostamente atingem dezenas de bilhões de dólares. O processo judicial surge enquanto a empresa tenta convencer investidores e parceiros de que seus robôs podem sair do laboratório e entrar em fábricas — e eventualmente em casas — sem se tornar perigosos no local de trabalho.
A alegação central de Gruendel é contundente: ele afirma que foi demitido em setembro de 2025 em retaliação por ter escalado falhas de segurança “catastóficas” para Adcock e o engenheiro-chefe Kyle Edelberg. O Figure AI AI, segundo ele, citou uma vaga “mudança na direção dos negócios” e, posteriormente, “desempenho ruim”, apesar de ter lhe dado avaliações positivas e um aumento menos de um ano após o início do trabalho.
Os documentos judiciais descrevem uma empresa que celebrou a velocidade em detrimento das proteções. Gruendel afirma que a Figure AI não tinha um processo formal de relato de incidentes, avaliações de risco padronizadas e funcionários dedicados à saúde e segurança do trabalho, mesmo com engenheiros trabalhando a poucos centímetros de membros de alta torque controlados por sistemas de IA não determinísticos.
Esse conflito entre a ambição de agir rapidamente e a engenharia de segurança metódica agora está no cerne de uma das primeiras grandes disputas de denunciantes na robótica humanóide. Enquanto rivais como Tesla e Agility Robotics correm em direção a máquinas semelhantes aos humanos nos chão de fábrica, o caso levanta uma pergunta direta: quão seguro é “seguro o suficiente” quando um erro de software pode movimentar um braço robótico de 68 kg com força capaz de quebrar crânios?
O Mantra Mais Perigoso do Vale do Silício
O Vale do Silício tem um problema de mantra, e a Figure AI gravou isso no DNA da empresa. Seus valores centrais autodeclarados, citados na ação judicial de Rob Gruendel, são “mover-se rápido e ser tecnicamente destemido” e “levar um humanoide comercialmente viável ao mercado.” Isso é menos um sistema de valores do que uma ordem de entrega, e caracteriza a segurança como fricção, não como base.
O antigo lema do Facebook, “mova-se rápido e quebre coisas”, quebrou sistemas de anúncios e promessas de privacidade. A Figure AI constrói humanoides de 1,6 metro de altura e 60 quilos que podem supostamente gerar forças “poderosas o suficiente para fraturar um crânio humano.” Quando um F.02 com mau funcionamento socou uma geladeira de aço inox e deixou um corte de até 1,9 centímetros de profundidade, por pouco não atingiu um funcionário que estava ao lado.
Gruendel afirma que por trás dos vídeos de demonstração brilhantes havia uma empresa com quase nenhum regulamento escrito. Durante sua primeira semana, supostamente, ele encontrou nenhum procedimento formal de segurança, nenhum sistema de relato de incidentes e nenhum processo estruturado de avaliação de riscos para robôs em desenvolvimento. A Figure AI também não tinha funcionários dedicados à saúde e segurança do trabalho, apesar de os trabalhadores operarem máquinas de alta potência.
Ele elaborou um roadmap global de segurança, que o CEO Brett Adcock e o engenheiro-chefe Kyle Edelberg aprovaram inicialmente. Mas a ação judicial afirma que ambos os homens “expuseram uma aversão a requisitos de produto por escrito”, uma postura que Gruendel destacou como “anormal” na segurança de maquinário. Em uma indústria regida pela documentação da ISO e da OSHA, rejeitar a documentação parece menos uma questão de eficiência e mais uma tentativa de evitar responsabilidades.
De acordo com a reclamação, essa mentalidade anti-rastro de papel infiltrou-se na cultura. As reuniões de segurança com Adcock supostamente passaram de semanais para trimestrais. Os avisos detalhados de Gruendel sobre as forças de impacto dos robôs, a imprevisibilidade da IA e a necessidade de treinamento dos funcionários ficaram sem resposta ou foram adiados enquanto a empresa perseguia metas de investidores.
A pressão por crescimento apenas intensificou a tensão. A avaliação da AI AI supostamente atingiu US$ 39 bilhões após uma rodada de financiamento em setembro de 2025, apoiada por Nvidia, Microsoft e capital ligado a Jeff Bezos. Gruendel alega que executivos "desmantelaram" seu planejamento de segurança após a liberação do dinheiro, removendo compromissos-chave que os investidores haviam visto no papel.
Mover-se rapidamente e ser tecnicamente destemido soa heroico em um pitch deck. Em torno de um robô que pode esmagar um crânio, começa a parecer uma confissão.
O Incidente da Geladeira: Um Aviso sobre o Aço-Dobrador
O momento dentro do laboratório da Figure AI supostamente foi interrompido no dia em que uma unidade F.02 perdeu o controle e atingiu um eletrodoméstico. De acordo com a ação judicial de Rob Gruendel, o robô humanoide surpreendentemente socou a porta de um refrigerador de aço inoxidável, cravando seu punho de metal um quarto de polegada na superfície de aço inoxidável.
Um funcionário supostamente estava a poucos centímetros de distância, o suficiente para que uma trajetória ligeiramente diferente pudesse ter atingido um torso, ombro ou crânio. A reclamação enquadra isso como um "quase acidente" clássico — não um modelo de risco hipotético, mas uma demonstração física do que um golpe F.02 desalinhado pode fazer ao aço endurecido.
Gruendel cita este incidente como prova de que as máquinas da Figure AI eram, em suas palavras, “poderosas o suficiente para fraturar um crânio humano.” Testes de impacto já sugeriam forças mais do que o dobro do limite necessário para quebrar um crânio adulto; o corte causado pela geladeira transformou esses números de laboratório em uma cicatriz afiada e profunda em um eletrodoméstico de consumo.
Os detalhes da documentação descrevem uma cena caótica: um F.02 operando em modo de desenvolvimento, um funcionário ao alcance do braço e sem intertravamentos robustos ou zonas de exclusão para manter as pessoas fora do raio de impacto do robô. Ninguém sofreu ferimentos físicos, mas a porta da geladeira recebeu um impacto que, redirecionado alguns centímetros, poderia ter atingido um osso.
Para Gruendel, este foi o ponto de virada. Ele já havia destacado a ausência de relatórios formais de incidentes, a falta de uma equipe dedicada à segurança dos funcionários e a resistência a requisitos de produto por escrito; o incidente com o refrigerador convenceu-o de que o piso de testes expunha os trabalhadores a um risco inaceitável.
Após o incidente, ele pressionou ainda mais por treinamentos de segurança estruturados, envelopes operacionais mais rigorosos e registro obrigatório de todas as falhas e quase-acidentes. A ação judicial alega que essas exigências entraram em conflito com a cultura de "mover-se rapidamente e ser tecnicamente destemido" da Figure AI e sua pressa em impressionar os investidores que acompanhavam as demonstrações no Figure AI - Site Oficial.
A narrativa de Gruendel apresenta a geladeira não como um dano colateral, mas como um aviso de metal dobrado que a liderança supostamente escolheu ignorar.
Uma Trilha de Sinais de Alerta Ignorados
Sinais de alerta começaram a se acumular quase assim que Rob Gruendel chegou. De acordo com o processo, a Figure AI não tinha procedimentos de segurança formais, nenhum sistema de reporte de incidentes e nenhuma avaliação de risco estruturada para seus robôs humanos F.02, apesar de sua capacidade de gerar forças que supostamente eram mais do que o dobro do necessário para fraturar um crânio humano. Gruendel respondeu elaborando um plano de segurança abrangente, criando planilhas de rastreamento de incidentes e propondo módulos de treinamento para qualquer pessoa que trabalhasse perto dos robôs.
A liderança inicialmente deu sua aprovação. O CEO Brett Adcock e o engenheiro-chefe Kyle Edelberg aprovaram o cronograma no papel, mas a denúncia afirma que eles hesitaram quando isso se tornou um processo real. Eles "expressaram aversão aos requisitos de produto escritos", uma postura que Gruendel destacou como anormal para segurança de máquinas, onde a documentação fundamenta a conformidade com padrões ao estilo ISO e OSHA.
Os canais de comunicação supostamente falharam justo quando as apostas aumentaram. As reuniões semanais de segurança com Adcock, segundo relatos, passaram a ser mensais, depois trimestrais, até pararem completamente. As mensagens de Gruendel no Slack sobre quase acidentes e movimentos descontrolados de robôs, incluindo referências ao ataque ao refrigerador que deixou um corte de 0,75 polegadas em aço inoxidável, supostamente não foram respondidas pelo CEO.
As mensagens ignoradas não eram teóricas. Funcionários começaram a relatar quase-acidentes diretamente a Gruendel porque não havia um escritório de Saúde e Segurança do Funcionário (EHS) ou um processo formal de quase-acidente, de acordo com o arquivo. Ele se tornou uma linha de atendimento de segurança de fato, registrando incidentes que variavam de movimentos inesperados de braço a contato não planejado com estações de trabalho.
O processo judicial descreve isso como uma falha sistêmica, e não uma simples negligência administrativa. Em um laboratório com atuadores de quilowatts múltiplos e controle de IA não determinístico, não havia um funcionário dedicado de EHS, nem um canal anônimo de reporte de perigos, nem um procedimento de investigação padronizado. Em vez disso, Gruendel supostamente confiava em Google Sheets ad hoc e conversas pontuais no Slack para rastrear riscos que poderiam ferir trabalhadores.
Uma de suas propostas-chave, uma iniciativa de Parada de Emergência para padronizar o hardware de parada de emergência, o comportamento do software e os procedimentos de resposta, supostamente enfrentou resistência da liderança. O programa tinha como objetivo definir quantas paradas de emergência cada célula de teste precisava, onde colocá-las e como o robô deveria se comportar elétrica e mecanicamente quando acionado. De acordo com a reclamação, Adcock e Edelberg acabaram cancelando ou congelando o esforço da Parada de Emergência, considerando-o um atrito desnecessário para a velocidade de desenvolvimento.
No início de 2025, o padrão estava claro na narrativa de Gruendel: os planos de segurança eram aprovados para apresentações, mas depois eram discretamente deixados de lado. Quase-acidentes se acumulavam em seus registros pessoais, e não em nenhum sistema corporativo. E a pessoa encarregada de construir uma cultura de segurança se via cada vez mais falando para um vazio.
A Decepção dos Investidores de $39 Bilhões
Quarenta bilhões de dólares compram muita confiança. De acordo com a ação judicial, o trabalho de Rob Gruendel em meados de 2025 era fabricar essa confiança em papel: um detalhado documento técnico de segurança projetado para acalmar os nervos de Jeff Bezos, Nvidia, Microsoft e outros investidores endinheirados que estavam de olho na rodada de financiamento da Série C da Figure AI.
Gruendel alega ter reunido um roteiro de segurança completo: avaliações formais de riscos, registro de incidentes, planos de treinamento de funcionários e diretrizes para a implantação do humanoide F.02 ao redor de humanos. O documento, segundo ele, não poupou palavras sobre forças “poderosas o suficiente para fraturar um crânio humano” e a falha de soco na geladeira que cortou o aço a centímetros de um trabalhador.
De acordo com a reclamação, esse rigor se tornou um ativo para captação de recursos. Investidores em potencial supostamente receberam uma versão do plano que retratava a Figure AI como uma empresa em processo de maturação, passando de "mover-se rapidamente e ser tecnicamente destemido" para uma que respeitava normas de segurança de máquinas ISO e gerenciamento de riscos de IA. Em setembro de 2025, a rodada foi encerrada com uma avaliação reportada de $39 bilhões, um salto de aproximadamente 15x em relação ao início de 2024.
Então, Gruendel afirma que o plano de segurança foi silenciosamente esvaziado. A liderança de engenharia, incluindo o engenheiro chefe Kyle Edelberg, supostamente "desmantelou" e rebaixou compromissos centrais uma vez que o dinheiro foi liberado—reduzindo requisitos escritos, marginalizando o rastreamento de incidentes e arquivando elementos que retardavam o desenvolvimento da plataforma F.02.
Essa alegação transforma a história de uma cultura de startup confusa em um possível fraude de valores mobiliários. Levantar capital com base em controles de segurança específicos e, em seguida, abandoná-los sem divulgação pode parecer menos uma “iteração” e mais um engano aos investidores sobre o risco operacional e o tempo de lançamento no mercado.
Os reguladores e litígios fariam perguntas difíceis: Bezos, Nvidia e Microsoft receberam materiais de segurança que não refletiam mais a realidade após a rodada? Algum comitê de supervisão em nível de diretoria aprovou uma mudança em relação ao roteiro anunciado? As avaliações internas de risco foram atualizadas e compartilhadas?
Startups de robótica intensivas em capital sobrevivem ou não com base em sua capacidade de projetar uma imagem de disciplina de nível industrial. Plataformas humanoides como a F.02 exigem cheques de IA de nove dígitos para atuadores, silício personalizado, data centers e laboratórios de testes muito antes que receitas significativas apareçam.
Essa dinâmica incentiva narrativas glamorosas sobre confiabilidade e sistemas "prontos para empresas", mesmo quando o chão de fábrica ainda opera com processos ad hoc e regras não escritas. O relato de Gruendel sugere que a segurança pode se tornar mais um slide no pitch deck—elevada para a devida diligência e reduzida uma vez que os contratos sejam assinados.
Pelos Números: 20x o Limite da Dor
A velocidade sobre-humana não é uma metáfora na queixa de Rob Gruendel; é uma medida. De acordo com o processo, testes de impacto internos no humanoide F.02 da Figure AI registraram velocidades de efetores finais superiores às típicas velocidades de socos humanos, enquanto carregavam uma massa muito maior e eram acionados por atuadores de alto torque.
Os testes alegadamente mencionaram a ISO 15066, a norma de segurança para robôs colaborativos que define um “limite de dor” para o contato humano. Gruendel afirma que os impactos do F.02 atingem forças aproximadamente 20x superiores a esse limite, o que significa que o contato não apenas causaria dor—ele superaria o nível que os reguladores consideram como o limite máximo para a interação aceitável entre humanos e robôs.
Gruendel vai além, oferecendo uma estimativa especializada de que essas forças superaram em mais de 2x o que é necessário para fraturar o crânio de um adulto. A literatura sobre fraturas cranianas normalmente cita faixas em torno de 3 a 10 kN, dependendo da área e direção do impacto; a ação judicial afirma que as forças de pico do F.02 estiveram confortavelmente acima dessa faixa.
Esses números estão diretamente ligados ao incidente com o refrigerador já documentado na petição. Quando o F.02 supostamente apresentou uma falha e colidiu com um refrigerador de aço inoxidável nas proximidades, deixou um corte de até três quartos de polegada de profundidade, um dano físico consistente com um impacto de alta energia e com os cálculos de fratura de Gruendel.
Os testes de impacto, conforme descrito, não ocorreram em um vácuo. Gruendel supostamente relacionou os dados a modos operacionais reais - movimentos de braços, alcances e eventos de desvio - em vez de golpes sintéticos puramente laboratoriais, argumentando que perfis de força semelhantes poderiam ocorrer durante trabalhos de desenvolvimento rotineiros ou futuras implantações comerciais.
Essas medições internas importam porque descreditam qualquer argumento de que se tratam de hipóteses abstratas de ficção científica. Os próprios números da Figure AI, se precisos, documentam uma máquina capaz de dar socos mais poderosos do que um boxeador humano, ignorar os limites de dor estabelecidos e cruzar para o território de quebra de ossos.
Para os leitores que acompanham a colisão mais ampla entre robótica, regulamentação e o entusiasmo dos investidores, a cobertura em veículos como CNBC - Notícias e Análises de Negócios já destacou como o capital está fluindo rapidamente para plataformas humanoides que ainda carecem de regimes de segurança maduros.
De Estrela em Ascensão a Persona Non Grata
Recrutado em outubro de 2024, Rob Gruendel chegou à Figure AI como uma contratação de destaque. Com mais de duas décadas de experiência em segurança em robótica e uma linha de relatório direta ao CEO Brett Adcock, ele foi encarregado de construir a estratégia global de segurança da empresa do zero. As primeiras avaliações, de acordo com o processo judicial, elogiaram seu trabalho e culminaram em um aumento de $10.000 menos de um ano após o início do trabalho.
Esse aumento é importante porque estabelece um antes e depois claro. Durante a maior parte de seu mandato, o impulso de Gruendel por processos de segurança formais, rastreamento de incidentes e treinamento de funcionários não provocou hostilidade aberta. A liderança aprovou seu plano de segurança, e as reuniões semanais com Adcock sinalizaram, pelo menos superficialmente, que a segurança tinha um lugar à mesa.
Tudo mudou após os testes de impacto no robô F.02. O aviso fundamentado em dados de Gruendel de que a máquina poderia gerar forças muito acima dos níveis de fratura craniana chegou aos executivos junto com seus alertas mais diretos por escrito sobre os riscos para os funcionários e futuros clientes. Dentro de dias após essas mensagens, a empresa o demitiu.
A linha oficial da Figure AI é: “desempenho insatisfatório.” Nenhum plano de melhoria de desempenho, nenhuma advertência escrita anterior e nenhuma despromoção documentada aparecem na reclamação para apoiar essa narrativa. Em vez disso, a documentação mostra o arco oposto — feedback positivo, um aumento, responsabilidades crescentes, e então uma reversão repentina imediatamente após ele quantificar quão perigosos os robôs poderiam ser.
Esse padrão se encaixa quase perfeitamente em casos clássicos de retaliação contra denunciantes em ambientes tecnológicos de alta pressão. Um funcionário inicialmente avança na missão, mas se torna um ponto de conflito quando sua experiência colide com prazos agressivos e expectativas dos investidores. Uma vez que os requisitos de segurança ameaçam o cronograma, as mesmas características que receberam elogios—insistência na documentação, resistência a soluções rápidas—passam a ser reclassificadas como “obstrução” ou “não se encaixa.”
O contexto em torno do financiamento da Figure AI amplifica a suspeita. Até setembro de 2025, a empresa buscou uma avaliação de $39 bilhões com apoiadores como Jeff Bezos, Nvidia e Microsoft, enquanto os executivos supostamente desmantelaram o detalhado roteiro de segurança de Gruendel após o fechamento da rodada. À luz disso, rotular o chefe de segurança do produto como um funcionário de baixo desempenho dias depois de ele ter levantado dados de impacto alarmantes parece menos uma rotina de recursos humanos e mais uma forma de remover o último controle interno em um lançamento acelerado.
A Grande Corrida de Braços Humanoides
A robótica humanóide agora parece menos uma pesquisa e mais uma disputa por território. Empresas como Figure AI, Tesla, Agility Robotics, Apptronik e Sanctuary AI estão correndo para lançar máquinas autônomas e de uso geral em armazéns, fábricas e, eventualmente, em lares. Quem conseguir implantar o primeiro humanoide credível em grande escala pode garantir o poder da plataforma por décadas.
A Figure AI estabeleceu uma das metas mais agressivas na área: implantar 200.000 robôs até 2029. Isso implica que milhares de unidades saiam da linha de produção todo mês na segunda metade da década, operando em estreita proximidade com trabalhadores humanos. O processo judicial de Gruendel se enquadra exatamente no meio dessa corrida, alegando que a segurança se tornou um detalhe negociável, e não um requisito essencial.
Analistas colocaram lenha na fogueira da corrida. O Morgan Stanley projeta que robôs humanoides e de uso geral poderiam gerar um mercado de $5 trilhões até 2050, um número que osExecutivos agora citam com a mesma casualidade que usuários ativos diários. Apresentações internas de startups de robótica cada vez mais enquadram os humanoides como o “próximo smartphone” ou “nuvem”, com dinâmicas semelhantes de vencedor leva tudo.
Esses incentivos remodelam prioridades internas. Cada trimestre gasto reforçando sistemas de segurança ou reescrevendo procedimentos é um trimestre que um rival pode usar para lançar uma nova demonstração, assinar um piloto ou anunciar um mega-contrato com um fabricante de automóveis ou um gigante da logística. Nesse ambiente, um chefe de segurança de produtos que atrasa um lançamento pode parecer menos um guardião e mais um coeficiente de arrasto.
Sistemas humanoides também transitam por várias zonas cinzentas regulatórias. Eles são parte robô industrial, parte dispositivo de consumo, parte sistema de IA, e os padrões existentes para segurança de máquinas, segurança funcional e saúde no trabalho muitas vezes não se aplicam de forma clara. Startups podem interpretar essa ambiguidade como uma permissão para agir primeiro e discutir a conformidade depois.
A reclamação de Gruendel essencialmente alega que a Figure AI adotou essa lógica. Ele descreve uma cultura impulsionada pelo “mover-se rápido e ser tecnicamente destemido”, enquanto a Morgan Stanley e projeções semelhantes pairam sobre o setor como um placar. Quando investidores falam sobre um prêmio de trilhões de dólares, cada reunião de segurança começa a parecer uma perda de participação de mercado.
Ferramentas Poderosas ou Ameaças Imprevisíveis?
As ferramentas elétricas já nos cercam com potencial letal. Um carro de 1.600 quilos pode matar a 40 km/h, uma serra de bancada intermediária gira uma lâmina a 3.500 rpm, e um liquidificador de cozinha barato esconde aço afiado atrás de uma tampa de plástico. Nós toleramos esse risco porque seu comportamento é previsível e nossos sistemas de segurança—protetores, treinamento, regulamentações—assumem essa previsibilidade.
Robôs humanoides como o F.02 da Figure AI se encontram em uma categoria diferente. Eles combinam atuadores de grau industrial—testes de impacto na ação judicial de Gruendel alegam forças capazes de fraturar um crânio humano—com controle de IA que nem sempre se comporta da mesma maneira duas vezes. Esse não-determinismo quebra o modelo mental que fundamenta como tratamos ferramentas perigosas.
Robôs tradicionais e ferramentas de máquinas seguem um código determinístico: dado o input X, eles fazem Y, toda vez. Sistemas de IA, como o Helix AI da Figure AI, geram saídas a partir de modelos probabilísticos, o que significa que: - Eles podem "alucinar" ações ou interpretar mal os dados dos sensores - Eles podem tomar decisões inexplicáveis que desafiam uma simples depuração - Eles podem falhar em casos extremos que os projetistas nunca anteciparam
Uma serra de bancada nunca “decide” avançar para o lado; suas falhas são mecânicas e mapeáveis. Um humanoide controlado por IA pode, em princípio, escolher uma sequência de movimentos que nenhum engenheiro programou explicitamente e, em seguida, repetir um movimento diferente na próxima vez. Essa variabilidade complica tudo, desde o design de paradas de emergência até a subscrição de seguros.
A tolerância ao risco geralmente se baseia em uma clara relação custo-benefício. Aceitamos mais de 40.000 mortes anuais de carros nos EUA porque os automóveis desbloqueiam o transporte, a logística e a atividade econômica que a sociedade considera indispensáveis. Para humanos de propósito geral, a recompensa prometida é enorme—substituição de mão de obra em armazéns, cuidados com idosos, tarefas domésticas—mas ainda é especulativa.
Assim, a verdadeira questão se torna: quanto de risco imprevisível as pessoas estarão dispostas a aceitar em suas cozinhas, armazéns e lares de idosos em troca de um robô que pode descarregar um caminhão ou uma máquina de lavar louça? Os reguladores podem estabelecer limiares de exposição e regimes de certificação, mas a tolerância pública dependerá de incidentes iniciais, vídeos virais e se as falhas parecerão acidentes isolados ou escolhas de design sistêmicas. Os investidores já modelam esses cenários; relatórios como os do Morgan Stanley Research tratam cada vez mais a segurança, a explicabilidade e a responsabilidade como elementos centrais do caso de negócios para robôs humanoides, e não como uma consideração secundária.
Uma Batalha Legal para Definir o Futuro da Robótica
As salas de tribunal raramente decidem como as tecnologias emergentes evoluem, mas o caso Gruendel v. Figure AI AI pode se tornar um desses casos excepcionais. Um engenheiro sênior de segurança com mais de 20 anos de experiência em robótica afirma que foi demitido em 2025 por alertar que o F.02, um humanoide da Figure AI AI, poderia “fraturar o crânio humano” e já havia feito um corte de três quartos de polegada na porta de uma geladeira de aço. Se um júri considerar esses alertas como uma atividade protegida, cada startup de robótica que corre em direção aos humanoides terá que repensar como lida com a dissidência interna.
Em questão está se as leis existentes de proteção a denunciantes—baseadas em finanças, saúde e defesa—se aplicam adequadamente a robôs movidos por IA não determinística. Gruendel afirma ter relatado a falta de acompanhamento de incidentes, a inexistência de uma equipe dedicada à segurança dos funcionários e executivos que “não gostavam de requisitos escritos de produtos.” Uma decisão que puna sua demissão poderia transformar engenheiros de segurança em de fato agentes de conformidade para sistemas autônomos, e não apenas em vozes internas persistentes.
O precedente aqui se estabeleceria justo quando os humanoides saem dos laboratórios para armazéns e, eventualmente, para as casas. Se um tribunal determinar que a Figure AI retaliou após testes de impacto que supostamente mostraram forças superiores a 2x os limiares de fraturas cranianas, os advogados dos acusadores citarão isso em todos os casos futuros envolvendo braços industriais, robôs de entrega ou assistentes domésticos. As empresas podem enfrentar exposição legal não apenas quando robôs ferem pessoas, mas também quando ignoram a pessoa que disse que isso poderia acontecer.
Os reguladores estão atentos. Hoje, a segurança dos robôs baseia-se em normas como a ISO 10218 e a ISO/TS 15066 para robôs colaborativos, mas nada antecipa totalmente os humanoides movidos a IA que aprendem e improvisam. Um veredicto de alto perfil poderia acelerar: - Novas diretrizes da OSHA para ambientes de trabalho humanos-robôs - Normas ISO atualizadas para planejamento de movimento e limites de força com IA - Registro de incidentes obrigatório e auditorias de terceiros para robôs de uso geral
Para a Figure AI, o processo judicial chega em um momento frágil: uma avaliação reportada de $39 bilhões, apoio de Jeff Bezos, Nvidia e Microsoft, e uma narrativa pública de máquinas bípedes graciosas impulsionadas pela Helix AI. Uma derrota poderia significar investigações intrusivas, receio dos investidores e uma mudança forçada para um desenvolvimento mais lento e focado em padrões. Uma vitória pode encorajar o pessoal que acredita em “agir rápido e ser tecnicamente destemido” — até que a primeira lesão grave faça os avisos de Gruendel parecerem menos um processo e mais uma profecia.
Perguntas Frequentes
Sobre o que é o processo da Figure AI?
É um processo de demissão injusta e retaliação a um denunciante movido por Robert Gruendel, ex-chefe de segurança da Figure AI. Ele alega que foi demitido por ter levantado preocupações críticas sobre a segurança dos robôs humanoides da empresa.
Quais são as principais alegações de segurança contra a Figure AI?
A ação judicial alega que os robôs da Figure são poderosos o suficiente para fraturar um crânio humano, que um robô apresentou falha e socou uma geladeira, e que a empresa ignorou os protocolos de segurança e enganou os investidores sobre seus planos de segurança.
Quem é Robert Gruendel?
Robert Gruendel é um engenheiro de segurança de robôs altamente experiente, que foi recrutado pela Figure AI para ser o chefe da segurança de produtos. Ele possui mais de duas décadas de experiência em interação humano-robô e conformidade de segurança.
Como a Figure AI respondeu às alegações?
Um porta-voz da empresa negou as alegações, afirmando que Gruendel foi demitido por 'desempenho insatisfatório' e que suas reivindicações são 'falsidades' que serão refutadas no tribunal.