피규어 AI의 로봇 덮개

해고된 안전 책임자는 Figure AI가 그들의 로봇이 인간 두개골을 부러뜨릴 수 있다는 경고를 무시했다고 주장합니다. 이 충격적인 소송은 우리의 집에 휴머노이드를 배치하려는 경쟁의 어두운 면을 드러냅니다.

Stork.AI
Hero image for: 피규어 AI의 로봇 덮개
💡

TL;DR / Key Takeaways

해고된 안전 책임자는 Figure AI가 그들의 로봇이 인간 두개골을 부러뜨릴 수 있다는 경고를 무시했다고 주장합니다. 이 충격적인 소송은 우리의 집에 휴머노이드를 배치하려는 경쟁의 어두운 면을 드러냅니다.

두개골을 골절할 수 있는 로봇

로브 그루엔델은 Figure AI의 휴머노이드 로봇이 냉장고를 매우 세게 쳐서 스테인리스 스틸에 3/4인치 깊이의 흠집을 냈다고 말합니다. 캘리포니아에서 제기된 소송에서 회사의 전 제품 안전 책임자는 같은 종류의 로봇이 "인간 두개골을 부술 수 있을 만큼의 힘"을 발생시킨다고 주장하며, 그가 CEO 브렛 애드콕에게 이러한 위험을 직면하도록 압박했을 때, 오히려 그가 밀려났다고 주장합니다.

불만사항에 따르면, 그문화는 2024년 말에 수석 로봇 안전 엔지니어로 채용되어 아드콕에게 직접 보고하며 Figure AI의 글로벌 안전 전략을 처음부터 구축하는 임무를 맡았습니다. 그는 자신의 경고가 회사의 상업화 진전을 늦추기 시작하자 경영진이 그를 보호 장치가 아닌 장애물처럼 대했다고 주장합니다.

피겨 AI는 휴머노이드 로봇 경쟁에서 선두에 서 있으며, F.02 및 F.03 모델을 세련된 데모 비디오로 선보이고 있습니다. 이 회사는 Nvidia, Microsoft, 그리고 Jeff Bezos가 지원하는 펀드와 같은 거대 기업들로부터 수십억 달러에 달하는 기업 가치를 바탕으로 자금을 모으고 있습니다. 그러나 이 소송은 회사가 투자자와 파트너를 설득하려고 할 때 발생했으며, 로봇이 실험실을 넘어 공장으로, 그리고 궁극적으로는 집으로 들어갈 수 있도록 안전하게 운영될 수 있음을 보여줄 필요가 있습니다.

그룬델의 중심 주장은 명확합니다: 그는 2025년 9월에 아드콕과 수석 엔지니어 카일 에델버그에게 “재앙적인” 안전 실패를 고발한 대가로 해고당했다고 주장합니다. 그는 AI AI가 모호한 “ 사업 방향 변화”와 이후 “저조한 성과”를 근거로 삼았다고 말하지만, 그 이전에는 강한 평가와 1년도 채 되지 않아 급여 인상을 받았던 것입니다.

법원 제출 서류에는 안전장치보다 속도를 중시하는 회사가 묘사되어 있습니다. 그룬델은 피규어 AI가 공식적인 사고 보고 시스템이 없었고, 표준화된 위험 평가도 없었으며, 비결정론적 AI 제어 시스템에 의해 구동되는 높은 토크의 팔에서 몇 인치 떨어진 곳에서 작업하는 엔지니어들에도 불구하고 전담 직원 보건 및 안전팀이 없었다고 말합니다.

빠른 발전에 대한 야망과 체계적인 안전 공학 간의 충돌은 이제 휴머노이드 로봇 공학에서 첫 번째 주요 내부 고발자 싸움의 핵심에 자리잡고 있습니다. 테슬라와 애질리티 로보틱스와 같은 경쟁자들이 공장 바닥에서 인간과 인접한 기계로 나아가고 있는 가운데, 이 사건은 다음과 같은 날카로운 질문을 제기합니다: 소프트웨어 버그가 150파운드 로봇 팔을 두개골을 부술 정도의 힘으로 움직일 수 있을 때, "충분히 안전한" 것은 얼마나 안전한 것인가?

실리콘 밸리의 가장 위험한 만트라

Silicon Valley's Most Dangerous Mantra
Silicon Valley's Most Dangerous Mantra

실리콘밸리는 만트라 문제를 안고 있으며, Figure AI는 이를 회사의 DNA에 새겼습니다. 로브 그루엔델의 소송에서 인용된 자칭 핵심 가치는 “빠르게 움직이고 기술적으로 두려움이 없다”와 “상업적으로 실행 가능한 휴머노이드를 시장에 내놓는다”입니다. 이는 가치 체계라기보다는 배송 지시이며, 안전을 기초가 아닌 마찰로 설정합니다.

페이스북의 옛 슬로건인 "빠르게 움직이고 사물을 부수라"는 광고 시스템과 개인 정보 보호 약속을 무너뜨렸습니다. Figure AI는 1.6미터 높이, 60킬로그램의 휴머노이드를 제작하며, 이들이 "인간의 두개골을 부술 만큼 강력한 힘을 발생시킬 수 있다"고 주장하고 있습니다. 고장이 난 F.02가 스테인리스 스틸 냉장고를 쳐서 최대 2센티미터 깊이의 상처를 남겼고, 그 옆에 서 있던 직원에게 거의 닿을 뻔했습니다.

그륜델은 화려한 데모 비디오 뒤에는 거의 아무런 문서화된 가이드라인이 없는 회사가 있었다고 주장합니다. 그의 첫 주 동안, 그는 정식 안전 절차가 없고, 사고 보고 시스템이 없으며, 개발 중인 로봇에 대한 구조화된 위험 평가 프로세스가 없다고 주장했습니다. 또한, 피규어 AI에는 고출력 기계 주변에서 작업하는 직원들을 위한 전담 건강 및 안전 직원이 없었습니다.

그는 CEO 브렛 애드콕과 수석 엔지니어 카일 에델버그가 처음 승인한 글로벌 안전 로드맵을 작성했습니다. 그러나 소송에서는 두 남성이 "서면 제품 요구사항에 대한 불만을 표시했다"고 언급하고 있으며, 그런 입장을 그렌델은 기계 안전 분야에서 "비정상적"이라고 지적했습니다. ISO 및 OSHA 문서에 의해 규제되는 산업에서 문서화를 거부하는 것은 효율성보다는 책임 회피로 보입니다.

불만에 따르면, 그 반종이적 사고방식이 문화에 스며들었다. 애드콕과의 안전 회의는 주간에서 분기별로 줄어든 것으로 주장된다. 그룬델의 로봇 충격력, AI의 예측 불가능성 및 직원 교육 필요성에 대한 상세한 경고는 회사가 투자자 이정표를 쫓느라 무시되거나 지연되었다.

성장 압박은 긴장을 더욱 고조시켰습니다. AI AI의 가치는 2025년 9월 Nvidia, Microsoft, 그리고 제프 베조스 관련 자본이 지원한 자금 조달 이후 약 390억 달러에 도달한 것으로 보도되었습니다. 그룬델은 경영진이 자금이 확보된 후 안전 로드맵을 “헐값으로 깎았다”고 주장하며, 투자자들이 문서에서 보았던 주요 약속들이 제거되었다고 덧붙였습니다.

빠르게 움직이고 기술적으로 두려움이 없는 것은 발표 자료에서 영웅적으로 들린다. 두개골을 부술 수 있는 로봇 주위에서는 고백처럼 읽힌다.

냉장고 사건: 금속 변형 경고

Figure AI의 연구실 내에서의 움직임은 F.02 유닛이 제어를 잃고 주방 가전 제품을 가격한 날에 급작스럽게 끊어졌다고 전해집니다. 로브 그룬델의 소송에 따르면, 이 휴머노이드 로봇은 예상치 못하게 스테인레스 스틸 냉장고 문을 가격하였고, 그 금속 손가락이 스테인레스 스틸 표면에 1/4 인치 깊숙이 박혔다고 합니다.

한 직원이 reportedly 몇 인치 간격으로 너무 가까이 서 있었고, 경로가 조금만 달랐다면 몸통, 어깨 또는 두개골에 맞을 수 있었던 것으로 보입니다. 이 고소장은 이를 교과서적인 “근접 사고”로 설명하며, 가상의 위험 모델이 아니라 잘못 정렬된 F.02 타격이 경화된 강철에 미칠 수 있는 물리적 결과를 보여주는 사례로 제시합니다.

그룬델은 이 사건을 Figure AI AI의 기계들이 그의 표현대로 “인간 두개골을 깨뜨릴 만큼 강력하다”는 증거로 언급합니다. 충격 테스트는 이미 성인 두개골을 부술 때 필요한 임계치의 두 배에 달하는 힘을 제시했습니다. 냉장고에 생긴 손상의 결과는 이 실험실의 수치를 소비자용 기기에 잔인하게 베인 날카로운 흉터로 바꾸어 놓았습니다.

신고서의 세부사항에 따르면, 혼란스러운 상황이 설명되어 있습니다: 개발 모드로 작동 중인 F.02, 팔이 닿는 거리 안에 있는 직원, 그리고 로봇의 타격 반경에 사람들을 차단할 강력한 인터록이나 제외 구역이 없습니다. 부상당한 사람은 없었지만, 냉장고 문이 받은 충격은 몇 인치만 틀어졌더라면 뼈에 부딪혔을 수 있습니다.

그룬델에게 이 사건은 결정적인 전환점이었다. 그는 이미 공식적인 사고 보고의 부재, 전담 직원 안전 담당자의 부족, 서면 제품 요구사항에 대한 저항을 지적했으며, 냉장고의 충격은 테스트 현장이 근로자들에게 용납할 수 없는 위험을 노출하고 있다는 것을 확신하게 했다.

사건 이후 그는 구조화된 안전 교육, 더 엄격한 작동 기준, 모든 고장 및 아찔한 상황의 의무 기록을 위해 더욱 강력히 추진했습니다. 소송은 이러한 요구가 Figure AI AI의 “빠르게 움직이고 기술적으로 두려움 없는” 문화와 투자자에게 데모를 보여주려는 서두름과 충돌했다고 주장하고 있습니다.

그룬델의 서사는 냉장고를 부수적인 피해물이 아닌, 리더십이 무시했다고 주장하는 구부러진 금속의 경고로 묘사한다.

무시된 적신호의 흔적

로브 그룬델이 도착하자마자 빨간 깃발들이 쌓이기 시작했다. 소송에 따르면, Figure AI는 F.02 휴머노이드 로봇에 대해 공식적인 안전 절차, 사고 보고 시스템, 구조화된 위험 평가가 없었고, 이 로봇들은 인간의 두개골을 부수기 위해 필요한 힘의 두 배 이상을 생성할 수 있다고 주장됐다. 그룬델은 종합적인 안전 로드맵을 작성하고, 사고 추적 스프레드시트를 구축하며 로봇 근처에서 일하는 모든 사람을 위한 교육 모듈을 제안하는 것으로 대응했다.

리더십은 처음에 승인했습니다. CEO 브렛 애드콕과 수석 엔지니어 카일 에델버그가 서면으로 로드맵을 승인했지만, 불만 사항에서는 실제 프로세스로 전환되자 그들이 주저했다고 보고합니다. 그들은 "서면 제품 요구 사항을 싫어한다"고 표현했으며, 이 태도는 문서화가 ISO 및 OSHA 스타일의 기준 준수를 뒷받침하는 기계 안전 분야에서는 비정상적이라고 그룬델은 지적했습니다.

커뮤니케이션 채널이 stakes가 상승하자마자 allegedly 망가졌다고 전해진다. Adcock와의 주간 안전 브리핑은 보고에 따르면 매월로 줄어들고, 이후 매 분기마다 진행되다가 결국 중단되었다. Gruendel의 근접 사고 및 제어되지 않은 로봇 동작에 대한 Slack 메시지, 포함된 스테인리스 강에서 0.75인치 깊이로 흠집을 낸 냉장고 충격에 대한 언급이 allegedly CEO에게 무시당했다고 한다.

무시된 메시지는 이론적이지 않았다. 직원들은 산업안전보건(EHS) 사무소나 공식적인 근접 사고 보고 절차가 없었기 때문에, 가까스로 사고를 겪은 경험을 직접 그룬델에게 보고하기 시작했다. 그는 사실상의 안전 핫라인이 되어 예상치 못한 팔 휘두르기부터 계획되지 않은 작업대와의 접촉에 이르는 사건들을 기록하게 되었다.

이 소송은 이를 서류상의 실수가 아닌 시스템적 실패로 묘사하고 있습니다. 다수의 킬로와트 액추에이터와 비결정론적 AI 제어가 있는 실험실에는 전담 EHS 직원이 없었고, 익명의 위험 보고 채널도 없었으며, 표준화된 조사 절차도 없었습니다. 대신 구렌델은 근로자를 다치게 할 수 있는 위험을 추적하기 위해 즉흥적인 구글 시트와 일회성 슬랙 스레드에 의존했다고 합니다.

그의 주요 제안 중 하나인 E-스톱 이니셔티브는 비상 정지 하드웨어, 소프트웨어 동작 및 대응 훈련을 표준화하려는 것으로, 보고에 따르면 리더십의 저항에 부딪혔다. 이 프로그램은 각 테스트 셀에 필요한 비상 정지 버튼의 수, 위치, 그리고 트리거 시 로봇이 전기적 및 기계적으로 어떻게 동작해야 하는지를 정의하는 것을 목표로 했다. 불만에 따르면, 아드콕과 에델버그는 결국 E-스톱 프로젝트를 취소하거나 중단했으며, 이를 개발 속도에 대한 불필요한 마찰로 간주했다.

2025년 초까지, 그룬델의 이야기에서 패턴은 명확해졌다: 안전 계획은 피치 덱에 대해 승인받았지만, 곧 조용히 중단되었다. 인근 사고 미비는 그의 개인 기록에 누적되었고, 기업 시스템에는 반영되지 않았다. 안전 문화를 구축하는 임무를 맡은 사람은 점점 더 허공에 이야기를 하고 있는 기분이었다.

390억 달러 투자자 기만

The $39 Billion Investor Deception
The $39 Billion Investor Deception

400억 달러는 많은 신뢰를 살 수 있습니다. 소송에 따르면, 로브 그루엔델의 2025년 중반 직무는 그 신뢰를 문서로 만들어내는 것이었습니다: 제프 베조스, 엔비디아, 마이크로소프트 및 기타 자본이 풍부한 투자자들을 진정시키기 위해 고안된 상세한 안전 백서였습니다.

그룬델은 포괄적인 안전 로드맵을 작성했다고 주장합니다: 공식적인 위험 평가, 사건 기록, 직원 교육 계획, 그리고 F.02 휴머노이드를 인근 인간에게 배치하기 위한 가이드라인. 그는 이 문서가 "인간 두개골을 부술 만큼 강력한 힘"과 작업자 근처에서 강철을 파내는 냉장고 펀칭 오작동에 대해 거침없이 언급했다고 말합니다.

소송에 따르면, 그 엄격함은 자금 조달 자산이 되었다. 잠재적 투자자들은 Figure AI를 “빠르게 움직이고 기술적으로 두려움이 없는” 상태를 지나 ISO 기계 안전 규범과 AI 위험 관리를 존중하는 회사로 묘사한 계획의 버전을 받았다고 한다. 2025년 9월까지, 이번 라운드는 보고된 390억 달러의 가치로 마감되었으며, 이는 2024년 초의 약 15배 증가한 수치다.

그런 다음, 그룬델은 안전 계획이 조용히 허물어졌다고 주장합니다. 주요 엔지니어인 카일 에델버그를 포함한 엔지니어링 리더십은 돈이 확보된 후 핵심 약속을 allegedly "깎아냈"고 수준을 낮췄습니다. 이는 문서화된 요구사항을 줄이고, 사고 추적을 소홀히 하며, F.02 플랫폼의 개발을 지연시키는 요소들을 미뤄놓는 방식으로 이루어졌습니다.

그 주장은 이야기를 불안정한 스타트업 문화에서 잠재적인 증권 사기로 전환시킵니다. 특정 안전 제어 장치의 강점을 바탕으로 자본을 조달한 후 이를 공시하지 않고 포기하는 것은 “반복(iterating)”처럼 보이기보다는 투자자들에게 운영 리스크와 시장 출시 시간에 대해 잘못된 정보를 전달하는 것처럼 보일 수 있습니다.

규제 기관과 소송 변호사들은 어려운 질문들을 던질 것이다: 베조스, 엔비디아, 마이크로소프트는 라운드 이후 현실을 더 이상 반영하지 않는 안전 자료를 받았는가? 광고된 로드맵에서 벗어나는 변경에 대해 어떤 이사회 수준의 감독 위원회가 서명했는가? 내부 위험 평가가 업데이트되고 공유되었는가?

자본 집약적인 로봇 스타트업은 산업급 규율의 이미지를 파악하는 능력에 따라 생존하거나 사라집니다. F.02와 같은 인간형 플랫폼은 의미 있는 수익이 나타나기 훨씬 전에 구동 장치, 맞춤형 실리콘, 데이터 센터 및 시험 실험실을 위해 아홉 자리 수의 AI 점검을 요구합니다.

그 역학은 신뢰성과 "기업 준비 완료" 시스템에 대한 화려한 내러티브를 장려하지만, 실제로는 작업 현장이 즉흥적인 프로세스와 암묵적인 규칙으로 운영될 수 있습니다. 그룬델의 설명은 안전이 피치 덱의 또 다른 슬라이드가 될 수 있음을 시사합니다—실사용으로 강조되었다가, 조건서가 서명되면 줄어들게 됩니다.

숫자로 보는: 통증 역치의 20배

로브 그루엔델의 고소장에 나오는 초인간적인 속도는 비유가 아니라 측정입니다. 소송에 따르면, Figure AI의 F.02 휴머노이드에 대한 내부 충격 테스트는 일반적인 인간의 펀칭 속도를 초과하는 최종 작업자 속도를 기록했으며, 훨씬 더 많은 질량을 지니고 고토크 액추에이터에 의해 구동되었습니다.

그 테스트는 allegedly ISO 15066, 인간 접촉을 위한 "통증 임계값"을 정의하는 협동 로봇 안전 기준을 언급했으며, Gruendel은 F.02의 충격이 그 임계값보다 약 20배 높은 힘을 가한다고 주장합니다. 이는 접촉이 단순히 아플 뿐만 아니라, 인간-로봇 상호작용의 허용 가능한 상한으로 가정되는 수준을 초과한다는 의미입니다.

그룬델은 그 이상으로, 성인 인간 두개골을 골절하는 데 필요한 힘의 2배 이상에 해당하는 힘을 초과했다고 전문가 추정을 제공합니다. 두개골 골절 문헌에서는 일반적으로 영향 범위 및 방향에 따라 3~10 kN 정도의 범위를 인용하며, 소송에서는 F.02의 최대 힘이 그 범위를 충분히 초과했다고 주장합니다.

이 숫자는 이미 서류에 기록된 냉장고 사건과 직접 연결됩니다. F.02가 allegedly 고장 나서 인근의 스테인리스 스틸 냉장고를 가격했을 때, 최대 3/4인치 깊이의 상처가 남았으며, 이는 고에너지 충격과 Gruendel의 파손 계산에 일치하는 물리적 손상을 보여줍니다.

설명된 대로의 충격 테스트는 진공 상태에서 이루어지지 않았습니다. 그룬델은 보고서에 실제 작동 모드인 팔 흔들기, 손이 닿는 지점, 잘못된 궤적 이벤트에 데이터를 연결했다고 하며, 순수한 합성 실험실 타격이 아닌 유사한 힘 프로파일이 일상적인 개발 작업이나 미래의 상업적 배치에서도 발생할 수 있다고 주장했습니다.

그 내부 측정치는 이러한 것이 추상적이고 공상 과학적인 가설이라는 주장을 무너뜨리기 때문에 중요합니다. Figure AI AI의 자체 수치가 정확하다면, 이는 인간 복서보다 강력하게 타격할 수 있고, 정해진 고통 한계를 무시하며, 뼈를 부수는 영역으로 넘어갈 수 있는 기계를 기록하고 있습니다.

로봇공학, 규제, 투자자 열풍 간의 광범위한 충돌을 추적하는 독자들을 위해, CNBC - 비즈니스 뉴스 및 분석과 같은 매체에서 이미 성숙한 안전 체계가 부족한 휴머노이드 플랫폼에 자본이 얼마나 빠르게 유입되고 있는지를 강조하고 있습니다.

스타 퍼포머에서 인격적으로 받아들여지지 않는 존재로

2024년 10월에 채용된 롭 그루엔델은 Figure AI에서 스타 직원으로 합류했습니다. 로봇 안전 분야에서 20년 이상의 경력을 보유하고 있으며, CEO 브렛 애드콕에게 직접 보고하는 구조로 글로벌 안전 전략을 처음부터 구축하는 임무를 맡았습니다. 소송에 따르면 초반 평가에서 그의 작업은 찬사를 받았으며, 취임 1년이 채 지나기 전에 10,000달러 인상으로 이어졌습니다.

그 인상이 중요한 이유는 명확한 전후를 나타내기 때문입니다. Gruendel의 재임 기간 대부분 동안 그는 공식적인 안전 프로세스, 사건 추적 및 직원 교육을 추진했지만, 이는 공개적인 적대감을 유발하지 않았습니다. 경영진은 그의 안전 로드맵을 승인했고, Adcock와의 주간 점검은 적어도 표면적으로 안전이 논의의 자리를 차지하고 있음을 신호했습니다.

F.02 로봇에 대한 충격 테스트 이후 모든 것이 변화했다. 기계가 두개골 골절 수준을 훨씬 초과하는 힘을 생성할 수 있다는 Gruendel의 데이터 기반 경고는 임원들의 이메일함에 직원과 미래 고객에 대한 위험에 대한 그의 가장 직접적인 서면 경고와 함께 도착했다. 그 메시지들이 전송된 지 며칠 만에 회사는 그를 해고했다.

피겨 AI의 공식 입장: “저조한 성과.” 성과 개선 계획, 이전의 서면 경고, 그리고 문서화된 강등이 해당 주장을 뒷받침하는 고소장에는 나타나지 않습니다. 대신, 문서 기록은 반대의 경로를 보여줍니다—강력한 피드백, 급여 인상, 증가하는 책임, 그리고 그가 로봇들이 얼마나 위험할 수 있는지를 수량화한 직후의 갑작스러운 반전입니다.

그 패턴은 고압의 기술 환경에서 전형적인 내부 고발자 보복 사례와 거의 완벽하게 일치합니다. 직원은 처음에 미션을 진전시키지만, 자신의 전문성이 공격적인 일정과 투자자의 기대와 충돌할 때 마찰 지점이 됩니다. 안전 요건이 일정을 위협하게 되면, 찬사를 받았던 동일한 특성—문서화에 대한 고집, 지름길을 거부하는 태도—이 "방해" 또는 "부적합"으로 재편성됩니다.

피겨 AI의 자금 조달은 의구심을 부채질합니다. 2025년 9월까지 이 회사는 제프 베조스, Nvidia, 그리고 Microsoft와 같은 투자자들로부터 390억 달러의 가치를 추구했으며, 그 동안 경영진은 라운드가 마감된 후 그룬델의 세부적인 안전 로드맵을 무력화시킨 것으로 알려졌습니다. 그런 점을 감안할 때, 제품 안전 책임자를 그가 경고 신호에 대한 영향 데이터를 제시한 며칠 후에 성과가 좋지 않았다고 낙인찍는 것은 일상적인 인사 관리처럼 보이지 않고 오히려 가속화된 출시의 마지막 내부 점검을 제거하는 것처럼 보입니다.

거대한 인체형 로봇 무기 경쟁

The Great Humanoid Arms Race
The Great Humanoid Arms Race

인간형 로봇 기술은 이제 연구처럼 보이지 않고, 오히려 토지 쟁탈전처럼 보입니다. Figure AI AI, 테슬라, 아질리티 로보틱스, 앱트로닉, 그리고 생츄어리 AI와 같은 기업들이 창고, 공장, 그리고 결국 가정으로 자율적인 범용 기계를 배달하기 위해 경쟁하고 있습니다. 누가 먼저 신뢰할 수 있는 인간형 로봇을 대규모로 도입하느냐에 따라 수십 년 동안 플랫폼의 권력을 잠금해둘 수 있습니다.

피겨 AI는 이 분야에서 가장 공격적인 목표 중 하나를 설정했습니다: 2029년까지 200,000대의 로봇을 배치하는 것입니다. 이는 10년 후반에 매달 수천 대의 로봇이 생산설비를 떠나 인간 근로자와 밀접하게 운영된다는 것을 의미합니다. 그룬델의 소송은 그 스프린트의 한가운데에 자리 잡고 있으며, 안전이 필수 요건이 아닌 협상 가능한 세부사항이 되었다고 주장하고 있습니다.

분석가들은 경쟁에 더욱 불을 지폈습니다. 모건 스탠리는 휴머노이드 및 범용 로봇이 2050년까지 5조 달러의 시장을 이끌 수 있다고 전망하며, 현재 경영진들은 이를 일일 활성 사용자 수처럼 자연스럽게 언급하고 있습니다. 로봇 스타트업의 내부 자료에서는 휴머노이드를 “다음 스마트폰” 또는 “다음 클라우드”로 점점 더 프레이밍하고 있으며, 유사한 승자독식의 역학을 지니고 있습니다.

그러한 유인은 내부 우선순위를 재편성합니다. 안전장치를 강화하거나 절차를 재작성하는 데 소비되는 매 분기는 경쟁자가 새로운 데모를 게시하거나 파일럿 계약을 체결하거나 자동차 제조사 또는 물류 대기업과 대규모 거래를 발표할 수 있는 분기입니다. 그런 환경에서 출시를 지연시키는 제품 안전 책임자는 수호자처럼 보이지 않고 오히려 항력 계수처럼 보일 수 있습니다.

휴먼 로이드 시스템은 여러 규제의 그레이존을 가로지릅니다. 이들은 산업 로봇의 일면, 소비자 기기의 일면, AI 시스템의 일면을 갖추고 있으며, 기계 안전, 기능적 안전, 직장 건강에 대한 기존 기준이 명확하게 적용되지 않는 경우가 많습니다. 스타트업은 이러한 모호성을 선행할 수 있는 허가로 해석하고, 이후에 규정 준수에 대해 논의할 수 있습니다.

그루엔델의 주장은 본질적으로 피규어 AI가 그런 논리를 수용했다고 주장합니다. 그는 “빠르게 움직이고 기술적으로 두려움이 없다”는 문화에 대해 설명하며, 모건 스탠리와 유사한 전망들이 이 분야를 스코어보드처럼 지배하고 있다고 언급합니다. 투자자들이 수조 달러의 상에 대해 이야기할 때마다, 모든 안전 회의는 잃어버린 시장 점유율과 같은 느낌이 듭니다.

강력한 도구인가, 예측할 수 없는 위협인가?

전동 공구는 이미 치명적인 잠재력을 지니고 우리를 둘러싸고 있습니다. 3,500파운드의 자동차는 시속 25마일에서 치명적일 수 있고, 중간급 테이블 쏘는 분당 3,500회전 속도로 날을 회전시키며, 저렴한 주방 믹서는 플라스틱 뚜껑 뒤에 날카로운 강철을 숨기고 있습니다. 우리는 이러한 리스크를 감내하는데, 이는 그들의 행동이 예측 가능하기 때문에이며, 우리의 안전 시스템인 가드, 교육, 규정 등이 그 예측 가능성을 전제로 하기 때문입니다.

Figure AI의 F.02와 같은 휴머노이드 로봇은 다른 범주에 속합니다. 이들은 인간의 두개골을 파손할 수 있는 힘을 지닌 산업용 등급의 액추에이터와 AI 제어를 결합하고 있으며, 이 제어는 항상 동일한 방식으로 작동하지 않습니다. 이러한 비결정성은 위험한 도구를 다루는 우리의 사고 모델을 깨뜨립니다.

전통적인 로봇과 기계 도구는 결정론적 코드를 따릅니다: 입력 X가 주어지면 매번 Y를 수행합니다. 그러나 Figure AI의 Helix AI와 같은 AI 시스템은 확률 모델에서 출력을 생성하므로 다음과 같은 특징이 있습니다: - 행동을 "환각"하거나 센서 데이터를 잘못 해석할 수 있습니다. - 간단한 디버깅을 무시하는 설명할 수 없는 결정을 내릴 수 있습니다. - 디자이너가 예측하지 못한 극단적인 상황에서 실패할 수 있습니다.

테이블 saw는 결코 옆으로 튀어오르기로 “결정”하지 않는다; 그 실패 모드는 기계적이며 맵핑이 가능하다. AI 제어된 휴머노이드는 원리적으로 엔지니어가 명시적으로 프로그래밍하지 않은 움직임 순서를 선택할 수 있으며, 다음 번에는 다른 움직임을 반복할 수 있다. 이러한 변동성은 비상 정지 설계에서 보험 인수에 이르기까지 모든 것을 복잡하게 만든다.

위험 감수는 보통 명확한 비용-편익 거래에 기반합니다. 우리는 연간 40,000명 이상의 미국 자동차 사망을 수용하는데, 이는 자동차가 사회가 필수불가결하다고 여기는 통근, 물류 및 경제 활동을 가능하게 하기 때문입니다. 일반 목적의 휴머노이드에 대해서는 예상되는 이점이 막대하지만, 여전히 투기적입니다.

따라서 진짜 질문은: 사람들이 로봇이 트럭을 내리거나 식기 세척기를 비울 수 있는 대가로 주방, 창고 및 요양 시설에서 얼마나 많은 예측 불가능한 위험을 감수할 것인가입니다. 규제 기관은 노출 한도를 설정하고 인증 체계를 마련할 수 있지만, 공공의 수용성은 초기 사건, 바이럴 비디오, 그리고 실패가 우연한 사고처럼 보이는지 아니면 체계적인 설계 선택처럼 보이는지에 따라 달라질 것입니다. 투자자들은 이미 이러한 시나리오를 모델링하고 있으며, 모건 스탠리 리서치와 같은 보고서는 안전성, 설명 가능성 및 책임을 휴머노이드 비즈니스 사례의 핵심으로 간주하고 후순위가 아닌 중요 요소로 다루고 있습니다.

로봇 공학의 미래를 정의하기 위한 법적 싸움

법정은 새로운 기술이 어떻게 발전하는지를 거의 결정하지 않지만, Gruendel v. Figure AI AI 사건은 그 예외가 될 수 있습니다. 20년 이상의 로봇 공학 경력을 가진 수석 안전 엔지니어가 2025년에 Figure AI AI의 인형 F.02가 "인간 두개골을 부서질 수 있다"고 경고했다는 이유로 해고당했다고 주장하고 있으며, 이 로봇은 이미 철 냉장고 문에 0.75인치 깊이의 흠집을 남겼습니다. 만약 배심원이 이러한 경고를 보호된 활동으로 간주한다면, 인형으로의 전환을 향해 빠르게 달려가고 있는 모든 로봇 스타트업은 내부 반대 의견을 처리하는 방식을 다시 생각해야 할 것입니다.

문제는 현재의 내부 고발자 법이 재무, 의료 및 방산을 중심으로 구축되었지만 비결정론적 AI로 구동되는 로봇에 쉽게 적용될 수 있는지 여부입니다. 그룬델은 사건 추적의 부재, 전담 직원 안전 관리자의 부족, 그리고 “서면 제품 요구 사항을 싫어하는” 경영진에 대해 보고했다고 말했습니다. 그의 해고를 처벌하는 판결이 내려질 경우 안전 엔지니어들은 단순한 내부로서의 직무를 넘어 자율 시스템에 대한 사실상의 컴플라이언스 담당자로 변화할 수 있습니다.

여기서 선례는 휴머노이드가 실험실을 떠나 창고와 궁극적으로는 가정으로 향하는 시점에 맞게 발생할 것입니다. 법원이 Figure AI가 충격 테스트 결과가 두 배 이상의 두개골 골절 기준을 초과한다고 주장한 후 보복을 했다고 판결한다면, 원고 측 변호사들은 산업용 팔, 배달 로봇, 또는 가정용 보조기기를 포함한 모든 향후 사건에서 이를 인용할 것입니다. 기업들은 로봇이 사람을 다치게 할 때뿐만 아니라, 그럴 가능성을 제기한 사람을 배제할 때도 법적 노출에 직면할 수 있습니다.

규제 당국이 주목하고 있습니다. 오늘날 로봇 안전은 협동 로봇을 위한 ISO 10218 및 ISO/TS 15066과 같은 기준에 의존하고 있지만, 학습하고 즉흥적으로 행동하는 AI 기반 휴머노이드를 완전히 예측할 수 있는 기준은 없습니다. 주목할 만한 판결은 다음을 가속화할 수 있습니다: - 인간-로봇 작업장을 위한 새로운 OSHA 지침 - AI 구동 동작 계획 및 힘 제한에 대한 업데이트된 ISO 기준 - 범용 로봇을 위한 의무적인 사고 기록 및 제3자 감사

Figure AI에 대한 소송은 매우 민감한 시점에 발생했습니다. 390억 달러로 평가되며 제프 베조스, 엔비디아, 마이크로소프트의 지원을 받고 있으며, 헬릭스 AI에 의해 구동되는 우아한 이족 로봇에 대한 대중의 이야기가 펼쳐지고 있습니다. 패소할 경우에는 intrusive discovery, 투자자들의 위축, 느린 표준 우선 개발로의 강제 전환이 초래될 수 있습니다. 승소할 경우에는 "빠르게 움직이고 기술적으로 두려움이 없다"는 이들을 더욱 고무시킬 수 있겠지만, 첫 번째 심각한 부상이 발생하면 그룬델의 경고가 소송처럼 보이지 않고 예언처럼 보일 수 있습니다.

자주 묻는 질문

Figure AI 소송은 무엇에 관한 것인가요?

로버트 그루엔델이 제기한 부당 해고 및 내부 고발자 보복 소송입니다. 그는 회사의 휴머노이드 로봇에 대한 중요한 안전 문제를 제기한 이유로 해고되었다고 주장하고 있습니다.

Figure AI에 대한 주요 안전 문제는 무엇인가요?

소송은 Figure의 로봇이 인간의 두개골을 부술 만큼 강력하며, 로봇이 오작동하여 냉장고를 가격했고, 회사가 안전 프로토콜을 무시하고 투자자들에게 안전 계획에 대해 잘못된 정보를 제공했다고 주장합니다.

로버트 그룬델은 누구인가요?

로버트 그룬델은 Figure AI에 의해 제품 안전 책임자로 영입된 매우 경험이 풍부한 로봇 안전 엔지니어입니다. 그는 인간-로봇 상호작용 및 안전 준수 분야에서 20년 이상의 경험을 보유하고 있습니다.

Figure AI는 이러한 주장에 어떻게 대응했습니까?

회사의 대변인은 그러벨이 '저조한 성과'로 해고되었으며 그의 주장은 '허위'로 법정에서 반박될 것이라고 밝혔다.

Frequently Asked Questions

강력한 도구인가, 예측할 수 없는 위협인가?
전동 공구는 이미 치명적인 잠재력을 지니고 우리를 둘러싸고 있습니다. 3,500파운드의 자동차는 시속 25마일에서 치명적일 수 있고, 중간급 테이블 쏘는 분당 3,500회전 속도로 날을 회전시키며, 저렴한 주방 믹서는 플라스틱 뚜껑 뒤에 날카로운 강철을 숨기고 있습니다. 우리는 이러한 리스크를 감내하는데, 이는 그들의 행동이 예측 가능하기 때문에이며, 우리의 안전 시스템인 가드, 교육, 규정 등이 그 예측 가능성을 전제로 하기 때문입니다.
Figure AI 소송은 무엇에 관한 것인가요?
로버트 그루엔델이 제기한 부당 해고 및 내부 고발자 보복 소송입니다. 그는 회사의 휴머노이드 로봇에 대한 중요한 안전 문제를 제기한 이유로 해고되었다고 주장하고 있습니다.
Figure AI에 대한 주요 안전 문제는 무엇인가요?
소송은 Figure의 로봇이 인간의 두개골을 부술 만큼 강력하며, 로봇이 오작동하여 냉장고를 가격했고, 회사가 안전 프로토콜을 무시하고 투자자들에게 안전 계획에 대해 잘못된 정보를 제공했다고 주장합니다.
로버트 그룬델은 누구인가요?
로버트 그룬델은 Figure AI에 의해 제품 안전 책임자로 영입된 매우 경험이 풍부한 로봇 안전 엔지니어입니다. 그는 인간-로봇 상호작용 및 안전 준수 분야에서 20년 이상의 경험을 보유하고 있습니다.
Figure AI는 이러한 주장에 어떻게 대응했습니까?
회사의 대변인은 그러벨이 '저조한 성과'로 해고되었으며 그의 주장은 '허위'로 법정에서 반박될 것이라고 밝혔다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts