フィギュアAIのロボットカバーアップ

解雇された安全責任者が、Figure AIが彼らのロボットが人間の頭蓋骨を砕く可能性についての警告を無視したと主張しています。この衝撃的な訴訟は、私たちの家にヒューマノイドを導入する競争の裏側を暴露しています。

Stork.AI
Hero image for: フィギュアAIのロボットカバーアップ
💡

TL;DR / Key Takeaways

解雇された安全責任者が、Figure AIが彼らのロボットが人間の頭蓋骨を砕く可能性についての警告を無視したと主張しています。この衝撃的な訴訟は、私たちの家にヒューマノイドを導入する競争の裏側を暴露しています。

頭蓋骨を骨折させることができるロボット

ロブ・グルエンデルは、Figure AIのヒューマノイドロボットが冷蔵庫に非常に強い力で衝突し、ステンレス鋼に3/4インチの溝を刻んだと述べています。カリフォルニア州で提起された訴訟では、同社の元製品安全責任者が、そのクラスのロボットが「人間の頭蓋骨を骨折させる」ほどの力を生成することを主張しています。そして、CEOのブレット・アドコックにそのリスクに対処するよう促した際、逆に自分が追い出されたと訴えています。

訴状によれば、グルエンデルは2024年末に主にロボットの安全性エンジニアとして採用され、アドコックに直接報告しながら、Figure AIのグローバルな安全戦略をゼロから構築する任務を負っていた。彼は、自身の警告が会社の商業化への進展を鈍化させ始めると、経営層からは安全措置を講じる者としてではなく、障害物として扱われるようになったと主張している。

フィギュアAIは、人型ロボット競争の最前線に位置し、F.02およびF.03モデルを洗練されたデモ動画で披露し、Nvidia、Microsoft、そしてジェフ・ベゾスの支援を受けたファンドなどの巨人から数十億ドルに達する評価額で資金を調達しています。この訴訟は、同社が投資家やパートナーに対して、自社のロボットが研究室を出て工場、さらには家庭に入ることができると説得しようと努力している最中に発生しましたが、その過程で労働環境の危険にならないことを示さなければなりません。

グルエンデルの中央の主張は明白です:彼は2025年9月に、アドコックと主任技術者のカイル・エデルバーグに「壊滅的」な安全問題を報告したことに対する報復として解雇されたと述べています。彼が主張するには、Figure AIは漠然とした「ビジネス方向の変更」を理由に挙げ、その後「業績不振」という理由を挙げましたが、彼が仕事に就いてから1年も経たないうちに強い評価と昇給を与えられていたにもかかわらずです。

裁判の書類は、ガードレールよりもスピードを重視した企業を描写しています。グルエンデルは、Figure AIが正式な事故報告制度もなく、標準化されたリスク評価もなく、専任の従業員の健康と安全に関するスタッフもいなかったことを指摘しています。それにもかかわらず、エンジニアたちは非決定論的なAI制御システムによって動かされる高トルクのアームから数インチの距離で作業していました。

迅速な野心と緻密な安全工学との対立が、ヒューマノイドロボティクスにおける最初の主要な内部告発者闘争の中心に座っています。テスラやアジリティロボティクスのような競合他社が工場のフロアで人間に近いマシンに向けて急速に進んでいる中、このケースは率直な疑問を投げかけます。「ソフトウェアのバグが150ポンドのロボットアームを頭蓋骨を砕く力で振り回す可能性があるとき、『十分に安全』とはどのくらいの安全性なのでしょうか?」

シリコンバレーの最も危険なマントラ

Silicon Valley's Most Dangerous Mantra
Silicon Valley's Most Dangerous Mantra

シリコンバレーはマントラの問題を抱えており、Figure AIはそれを企業のDNAに刻みました。ロブ・グルエンデルの訴訟に引用された自己宣言のコアバリューは、「速く動き、技術的に恐れを知らないこと」と「商業的に実現可能なヒューマノイドを市場に投入すること」です。これは価値体系というより、出荷命令に近く、安全性を基盤ではなく摩擦として位置づけています。

Facebookの古いモットー「迅速に行動し、物を壊せ」は、広告システムやプライバシーの約束を破壊しました。Figure AIは、身長1.6メートル、体重60キログラムのヒューマノイドを製造しており、これが“人間の頭蓋骨を骨折させるほどの力”を生み出すとされています。故障したF.02がステンレス製の冷蔵庫を叩き、最大で3/4インチの深さの傷を残した際には、隣にいた従業員をほぼ直撃しかけました。

グルエンデルは、華やかなデモビデオの裏に、ほとんど書かれたガードレールのない会社があったと主張しています。彼の最初の週に、彼は正式な安全手順、インシデント報告システム、開発中のロボットのための構造化されたリスク評価プロセスが何もないことを発見したとされています。また、ハイパワーの機械の周りで働く従業員がいるにも関わらず、Figure AIには専任の健康と安全に関するスタッフもいませんでした。

彼はグローバルな安全計画を策定し、CEOのブレット・アドコック氏とチーフエンジニアのカイル・エデルバーグ氏が最初に承認しました。しかし、訴訟では、二人が「文書による製品要件を嫌っている」と主張されたことが示されています。この態度は、グルエンデル氏が機械の安全性において「異常」と指摘したものです。ISOおよびOSHAの文書に支配される業界において、文書を拒否することは、効率性というよりも責任回避に見えます。

訴状によれば、その反ペーパートレイルの考え方は文化に浸透していったとされています。Adcockとの安全ミーティングは、週に一度から四半期ごとに減少したとのことです。Gruendelによるロボットの衝撃力、AIの予測不可能性、従業員トレーニングの必要性に関する詳細な警告は、会社が投資家のマイルストーンを追い求める中で無視されるか、遅延されました。

成長のプレッシャーは緊張をさらに高めただけだった。AI AIの評価額は、2025年9月の資金調達ラウンドの後に、NvidiaMicrosoft、そしてジェフ・ベゾスに関連する資本の支援を受けて、390億ドルに達したと報じられている。グルエンデルは、資金が入った後に幹部たちが彼の安全策のロードマップを「根こそぎに」し、投資家たちが書面で見ていた重要な約束を排除したと主張している。

迅速に行動し、技術的に恐れを知らないというのはピッチデックでは英雄的に聞こえます。しかし、頭蓋骨を砕くことができるロボットの周りでは、それは告白のように聞こえ始めます。

冷蔵庫事件:金属操りの警告

Figure AIのラボ内部での動きは、F.02ユニットが制御を失い、キッチン家電に向かって振り回した日を境に急変したとされています。ロブ・グルエンデルの訴訟によれば、そのヒューマノイドロボットは予期せぬ形でステンレス製の冷蔵庫のドアをパンチし、その金属の拳を0.25インチ押し込んだそうです。

従業員は reportedly 数インチの距離に立っており、わずかに異なる軌道であれば胴体、肩、または頭蓋骨に当たっていた可能性がある。苦情はこれを教科書通りの「ニアミス」として位置づけており、仮説的なリスクモデルではなく、誤ったF.02のストライクが強化された鋼に何をもたらすかの物理的なデモンストレーションである。

グルエンデルはこの事件を証拠として挙げ、Figure AIの機械は彼の言葉を借りれば「人間の頭蓋骨を砕くのに十分な力を持っている」と述べました。衝撃テストはすでに成人の頭蓋骨を破壊するのに必要な閾値の2倍以上の力を示唆しており、冷蔵庫の傷はその実験室の数値を、消費者向けの家電製品に対する鋭い傷として具現化しました。

提出された詳細は混乱した状況を示しています:開発モードで動作するF.02、手の届く範囲にいる従業員、そしてロボットの衝突半径から人を遠ざけるための堅実なインターロックや排除ゾーンが存在しませんでした。誰も身体的な怪我はしませんでしたが、冷蔵庫のドアは衝撃を吸収し、その方向が数インチずれていれば骨にぶつかっていたかもしれません。

グルエンデルにとって、これは転機でした。彼は既に、正式な事故報告の欠如、専任の従業員安全スタッフの不在、文書化された製品要件への抵抗を指摘していましたが、冷蔵庫のパンチが彼に、試験フロアが労働者にとって許容できないリスクをもたらしていることを確信させました。

事故後、彼は体系的な安全訓練、厳格な運用範囲、すべての不具合や危機一髪の事例の必須記録を強く推進しました。訴訟は、これらの要求がFigure AI AIの「迅速に行動し、技術的に恐れない」という文化や、デモを追跡する投資家を感心させるための急ぎに対立していると主張しています。

グルエンデルの物語では、冷蔵庫は単なる付随的な被害と見なされるのではなく、指導者が無視したとされる曲がった金属の警告として描かれています。

無視された危険信号の跡

ロブ・グルエンデルが到着したとほぼ同時に、赤信号が次々と現れ始めました。訴訟によると、Figure AIは正式な安全手順がなく、事故報告システムもなく、F.02ヒューマノイドロボットに対する構造的なリスク評価も行っていませんでした。これらのロボットは、人間の頭蓋骨を骨折させるために必要な力の2倍以上を生成できるとされています。グルエンデルは、包括的な安全ロードマップを作成し、事故追跡用のスプレッドシートを構築し、ロボットの近くで働く人々のためのトレーニングモジュールを提案しました。

リーダーシップは初めに承認を与えた。CEOのブレット・アドックと主任エンジニアのカイル・エデルバーグは、紙上のロードマップを承認したが、苦情によれば、それが実際のプロセスに転換する際にためらった。彼らは「書面による製品要件を好まない」と表明し、この態度は文書化がISOやOSHAスタイルの基準へのコンプライアンスの基盤となる機械安全では異常であるとグルエンデルは指摘した。

通信チャネルは、賭けが高まる中で突然崩壊したとされています。アドコックとの週次安全ブリーフィングは、月次、次に四半期ごとに滑り込み、最終的には完全に停止したと報告されています。グルエンデルの、近い事故や制御されていないロボットの動きに関するSlackメッセージ、さらにはステンレススチールに0.75インチの亀裂を生じさせた冷蔵庫の衝突に関する言及は、CEOによって無視されたとされています。

無視されたメッセージは理論上のものではなかった。従業員は、従業員の健康と安全(EHS)オフィスや正式なヒヤリハットプロセスがなかったため、直接グルエンデルに近接事故を報告し始めた。彼は事実上の安全ホットラインとなり、予期しない腕の動きから、作業台との予期しない接触までの事故を記録していた。

この訴訟は、これを書類上の見落としではなく、システム全体の失敗としています。数キロワットのアクチュエーターと非決定論的なAI制御を備えたラボには、専任のEHSスタッフも、匿名の危険報告チャネルも、標準化された調査手順もありませんでした。その代わりに、グルエンデルは、作業者を傷つける可能性のあるリスクを追跡するために、アドホックなGoogleシートと一度限りのSlackスレッドに頼っていたとされています。

彼の主要な提案の一つであるE‑Stopイニシアチブは、緊急停止ハードウェア、ソフトウェアの挙動、そして対応訓練の標準化を目指していたが、リーダーシップからの抵抗に直面したと報じられている。このプログラムは、各テストセルに必要な緊急停止の数、設置場所、そしてトリガーされた際のロボットの電気的および機械的な挙動を定義することを目的としていた。訴えによれば、アドックとエデルバーグは最終的にE‑Stopの取り組みをキャンセルするか中止し、開発速度にとって不要な摩擦であると呼んだ。

2025年初頭までに、グリュンデルの語るところではパターンが明らかになった:安全計画はピッチデッキの承認を得た後、静かに脇に置かれてしまった。近くの事故は彼の個人的なログに蓄積され、企業のシステムには記録されなかった。そして、安全文化を築く任務を担った人物は、ますます虚空に向かって話しているように感じていた。

390億ドルの投資家の欺瞞

The $39 Billion Investor Deception
The $39 Billion Investor Deception

400億ドルは多くの自信を買う。訴訟によれば、ロブ・グルエンデルの2025年半ばの仕事は、その自信を紙の上で作り出すことだった:ジェフ・ベゾスNvidiaMicrosoft、そしてFigure AIのシリーズCラウンドに集まる他の裕福な支援者たちの神経を落ち着かせるための詳細な安全性ホワイトペーパーを設計することだ。

グルエンデルは、正式なリスク評価、インシデントログ、従業員トレーニングプラン、および人間の周囲でF.02ヒューマノイドを展開するためのガードレールを含むフルスペクトラムの安全ロードマップをまとめたと主張しています。彼によれば、この文書は「人間の頭蓋骨を骨折させるほどの力」を持つ危険についての表現を濁さず、作業者から数インチ離れた鋼をえぐり取る冷蔵庫を叩く不具合についても言及しているとのことです。

訴状によれば、その厳格さは資金調達の資産となった。投資候補者は、Figure AIが「迅速に動き、技術的に大胆になれる」段階を超え、ISO機械安全基準とAIリスク管理を尊重する企業へと成長している様子を描いたプランのバージョンを受け取ったとされている。2025年9月までに、このラウンドは報告された390億ドルの評価額で終了し、2024年初頭から約15倍の跳躍を遂げた。

その後、グルエンデルは、安全計画が静かに空洞化されたと主張しています。最高技術責任者カイル・エデルバーグを含むエンジニアリングリーダーシップは、資金が承認された後、コアの約束を「根こそぎに」し、格下げしたとされており。文書化された要件を削減し、事故追跡を後回しにし、F.02プラットフォームの開発を遅らせる要素を棚上げしたということです。

その告発は、物語を混乱したスタートアップ文化から潜在的な証券詐欺へと移行させます。特定の安全対策の強みに基づいて資本を調達し、それらを開示せずに放棄することは、「反復」しているようには見えず、むしろ投資家に対して操作リスクやマーケット投入までの時間について誤解を招くことのように見える可能性があります。

規制当局や訴訟担当者は厳しい質問をするだろう:ベゾス、Nvidia、Microsoftは、ラウンド後に現実を反映しなくなった安全資料を提供されたのか?広告されたロードマップからの逸脱に対して、役員レベルの監視委員会は何の承認をしたのか?内部のリスク評価は更新され、共有されたのか?

資本集約型のロボティクススタートアップは、産業規模の規律のイメージを投影する能力によって生死が決まります。F.02のようなヒューマノイドプラットフォームは、重要な収益が現れるずっと前に、アクチュエーター、カスタムシリコン、データセンター、テストラボに対して9桁のAIチェックを要求します。

そのダイナミクスは、信頼性や「エンタープライズ対応」システムに関する華やかな物語を生み出すことを促進しますが、実際には作業現場は依然としてアドホックなプロセスや暗黙のルールで運営されています。グルエンデルの見解は、安全性がピッチデックのもう一つのスライドになる可能性があることを示唆しています—デューデリジェンスのために強調され、条件シートが署名されると落ち着いていくということです。

数字で見る:痛みの閾値の20倍

ロブ・グルエンデルの訴状において、「超人的な速度」は比喩ではなく、測定値です。この訴訟によれば、Figure AIのF.02ヒューマノイドに対する内部衝撃テストでは、典型的な人間のパンチ速度を上回るエンドエフェクタの速度が記録されており、より多くの質量を持ち、高トルクアクチュエータによって駆動されています。

そのテストは、ヒューマンコンタクトの「痛みのしきい値」を定義する協調ロボット安全基準であるISO 15066を参照したとされています。グルエンデルは、F.02の衝撃力がそのしきい値の約20倍に達するため、接触は単なる痛みを引き起こすだけでなく、人間とロボットの相互作用における許容される上限とされるレベルを圧倒するだろうと主張しています。

グルエンデルはさらに進んで、これらの力が成人の頭蓋骨を骨折させるために必要な力を2倍以上超えているという専門的な見積もりを提供しています。頭蓋骨骨折に関する文献では、衝撃の範囲と方向に応じて3〜10 kNの範囲が一般的に引用されており、訴訟はF.02のピーク力がその範囲をはるかに上回っていると主張しています。

これらの数値は、すでに提出された資料に記録されている冷蔵庫の事故に直接関連しています。F.02が故障し、近くのステンレス製冷蔵庫を叩いた際、最大で3/4インチの深さの傷を残しました。この物理的損傷は、高エネルギーの衝撃とグルエンデルのひび割れ計算に一致しています。

影響試験は、説明されたとおり、孤立して行われたわけではありません。グルエンデルは、データを実際の運用モード—腕の振り、手の届く範囲、ミスの軌道イベント—に結び付けたと報じられており、単なる合成ラボでの衝突ではなく、通常の開発作業や将来の商業展開中にも類似の力のプロファイルが発生する可能性があると主張しています。

これらの内部測定値は重要です。なぜなら、これが抽象的なSF的仮説であるという主張を否定するからです。Figure AI AIの自己報告の数値が正確であれば、これは人間のボクサーを超えるパンチ力を持ち、既存の痛みの限界を無視し、骨を折る領域に踏み込む機械を記録しています。

ロボティクス、規制、投資家の熱狂の間の広範な衝突を追っている読者にとって、CNBC - ビジネスニュースと分析のようなメディアでの報道は、まだ成熟した安全制度が欠けているヒューマノイドプラットフォームにいかに迅速に資本が流入しているかをすでに浮き彫りにしています。

スター選手から好ましくない存在へ

2024年10月に採用されたロブ・グルエンデルは、Figure AIのスター採用として到着しました。ロボティクスにおける安全性の分野で20年以上の経験を持ち、CEOのブレット・アドコックに直接報告する立場にあり、会社のグローバルな安全戦略をゼロから構築する任務が与えられました。訴訟によると、初期の評価は彼の仕事を称賛し、就任から1年も経たないうちに1万ドルの昇給に結びついたとのことです。

その昇進は、クリーンなビフォー・アフターを確立するため重要です。グルエンデルの在任中のほとんどで、正式な安全プロセス、事故追跡、従業員トレーニングに対する彼の推進は明示的な敵意を引き起こしませんでした。リーダーシップは彼の安全ロードマップを承認し、アドコックとの週次チェックインは、少なくとも表面的には、安全が意見の場に存在していることを示しました。

F.02ロボットの衝撃テストの後、すべてが変わった。グルエンデルのデータに基づく警告、機械が頭蓋骨骨折レベルをはるかに超える力を生み出す可能性があるという警告は、経営陣の受信トレイに、従業員や将来の顧客へのリスクについての彼の最も直接的な書面による警告と共に届いた。そのメッセージから数日以内に、彼は会社を解雇された。

Figure AIの公式声明:「成績不良。」 この主張を裏付けるためのパフォーマンス改善計画、以前の書面による警告、または文書化された降格は、訴状には見られません。その代わり、文書の記録は逆の流れを示しています—強いフィードバック、昇給、増大する責任、そして彼がロボットの危険性を定量化した後すぐに訪れた突然の逆転。

そのパターンは、プレッシャーの高いテクノロジー環境における典型的な内部告発者への報復事例とほぼ完璧に一致します。従業員は最初にミッションを推進しますが、彼らの専門知識が攻撃的なタイムラインや投資家の期待に衝突する際に摩擦のポイントとなります。安全要件がスケジュールを脅かすと、称賛を受けた同じ特性—文書化の主張、近道を避ける姿勢—が「妨害」や「適合しない」として再ブランド化されます。

フィギュアAIの資金調達は疑念を増幅させる。2025年9月までに、同社はジェフ・ベゾス、Nvidia、マイクロソフトなどの支援者から390億ドルの評価額を目指して追い求め、そのラウンドが終了した後に幹部たちはグルエンデルの詳細な安全計画を削除したとされている。そのような視点から、製品安全の責任者をパフォーマンスが悪いとラベル付けすることは、赤旗の影響データを提示した数日後の出来事であり、日常的な人事業務のようには見えず、加速したローンチに対する最後の内部チェックを排除するように思える。

人類型アームズレース

The Great Humanoid Arms Race
The Great Humanoid Arms Race

ヒューマノイドロボティクスは、今や研究というよりも土地の奪い合いのように見えます。Figure AI AI、テスラ、アジリティロボティクス、アプトロニック、サンクチュアリAIなどの企業が、自律的で汎用的な機械を倉庫や工場、最終的には家庭に向けて出荷する競争に躍起になっています。最初に規模のある信頼できるヒューマノイドを展開することができれば、数十年にわたりプラットフォームの力を確保できるでしょう。

Figure AIは、この分野で最も野心的な目標の一つを設定しました。それは、2029年までに20万台のロボットを展開するというものです。これは、十年の後半には毎月何千台ものユニットがラインを離れることを意味し、人間の作業者と密接に接触して運用されることになります。グルエンデルの訴訟は、その急速な動きの真っ只中に位置しており、安全が優先事項ではなく交渉可能な詳細となったと主張しています。

アナリストたちはレースにガソリンを注ぎ込んでいます。モルガン・スタンレーは、ヒューマノイドおよび汎用ロボットが2050年までに5兆ドルの市場を生み出すと予測しており、今や経営者たちはこれを日々のアクティブユーザー数のように軽々しく引用しています。ロボティクススタートアップの内部資料では、ヒューマノイドを「次のスマートフォン」や「次のクラウド」として位置付け、似たような勝者総取りの動態を強調しています。

そのインセンティブは内部の優先事項を再構築します。失敗防止策を強化したり手順を改訂するために費やされた四半期は、競合他社が新しいデモを公開したり、パイロット契約を結んだり、自動車メーカーや物流の大手とのメガディールを発表する四半期になります。そのような環境では、製品安全責任者がローンチを遅らせると、守護者のようには見えず、むしろ抗力係数のように見えてしまうことがあります。

ヒューマノイドシステムは、複数の規制の灰色地帯をまたいでいます。これらは産業用ロボットの一部、消費者デバイスの一部、AIシステムの一部であり、機械安全性、機能安全性、職場の健康に関する既存の基準はしばしば明確には適用されません。このあいまいさをスタートアップは、最初に動き出すための許可と解釈し、遵守については後で議論することができます。

グルエンデルの苦情は、基本的にFigure AIがその論理を受け入れたと主張しています。彼は「迅速に動き、技術的に恐れを知らない」という文化を描写しており、その一方でモルガン・スタンレーや同様の予測がセクターの上にスコアボードのように覆いかぶさっています。投資家たちが数兆ドルの賞金について語ると、すべての安全ミーティングが市場シェアを失ったように感じられ始めます。

強力なツールそれとも予測不可能な脅威?

電動工具は私たちの周囲に致命的な可能性を秘めています。3,500ポンドの車は時速25マイルで致命傷を与えることができ、中級のテーブルソーは3,500回転で刃を回転させ、安価なキッチンブレンダーはプラスチックの蓋の裏に鋭利な鋼を隠しています。私たちはそのリスクを受け入れているのは、これらの行動が予測可能であり、安全システム—ガード、訓練、規則—がその予測可能性を前提としているからです。

フィギュアAIのF.02のようなヒューマノイドロボットは、異なるカテゴリに分類されます。これらは、グリュンデルの訴訟での衝撃テストが示すように、人間の頭蓋骨を破損する可能性のある力を持つ産業用アクチュエーターと、必ずしも同じ動作を繰り返さないAI制御を組み合わせています。その非決定性は、危険な道具に対する私たちの扱い方の基盤となるメンタルモデルを崩します。

従来のロボットや工作機械は決定論的なコードに従います:入力Xが与えられると、常にYを実行します。一方、Figure AIのHelix AIのようなAIシステムは、確率モデルから出力を生成します。これは以下のことを意味します: - 「幻覚」を起こすような動作をするか、センサー情報を誤解することがあります - 簡単なデバッグでは説明できない不可解な決定を下すことがあります - 設計者が予期しなかったエッジケースで失敗することがあります

卓上丸のこは決して「横に飛び出す」とは「決めない」。その故障モードは機械的であり、マッピング可能である。一方、AI制御のヒューマノイドは、原理的には明示的にプログラムされていない動作シーケンスを選択し、次回は異なる動作を繰り返すことができる。その変動性は、緊急停止設計から保険の引受けまで、すべてを複雑にする。

リスク許容度は通常、明確なコストと利益のトレードオフに基づいています。私たちは、年に40,000件以上のアメリカの自動車事故による死者を受け入れています。なぜなら、自動車は通勤、物流、そして社会が不可欠と見なす経済活動を可能にするからです。汎用人型ロボットに関しては、倉庫での労働代替、高齢者ケア、家庭の雑務など、大きな利点が期待されていますが、依然として投機的です。

それでは、本当の問いはこうなります:トラックを降ろしたり食器洗い機を片付けたりするロボットと引き換えに、人々は自分のキッチン、倉庫、介護施設にどれだけの予測不可能なリスクを受け入れるのでしょうか。規制当局はリスクの許容レベルや認証制度を設定できますが、一般の受け入れは初期の事故、バイラル動画、そして失敗が偶発的な事故なのか、体系的な設計の選択なのかに依存します。投資家たちはすでにこれらのシナリオをモデル化しており、モルガン・スタンレーのリサーチのような報告書では、安全性、説明可能性、責任をヒューマノイドビジネスの核心として扱い、単なる後付けの考えとは見なしていません。

ロボティクスの未来を定義するための法的闘争

法廷は新興技術の進化を決定することは滅多にありませんが、Gruendel対Figure AI AIはその例外の一つとなる可能性があります。20年以上のロボティクスの経験を持つ上級安全エンジニアは、2025年にFigure AI AIのF.02ヒューマノイドが「人間の頭蓋骨を骨折させる」可能性があると警告したために解雇されたと主張しています。すでにスチール製の冷蔵庫の扉に3/4インチの切り傷を作っていたとのことです。もし陪審がその警告を保護された活動と見なすならば、ヒューマノイドを目指して急成長しているロボティクスのスタートアップは、内部の dissent(異議)への対処方法を再考せざるを得なくなるでしょう。

懸念されているのは、既存の内部告発者保護法が金融、医療、防衛を中心に構築されている中で、非決定論的AIによって動かされるロボットに適用できるかどうかです。グルエンデル氏は、事故追跡が欠落しており、専任の従業員安全スタッフがいないこと、そして「書面による製品要件を嫌う」経営者がいることを報告したと述べています。彼の解雇に対して罰則が科される判決は、安全エンジニアを内面的な警告者ではなく、自律システムの事実上のコンプライアンスオフィサーに変える可能性があります。

ここでの先例は、ヒューマノイドが研究所から倉庫、そして最終的には家庭に移行する際にぴったり合う。もし裁判所がFigure AIが衝撃テストの結果、頭蓋骨骨折の閾値を2倍以上超える力を示したとされることに対して報復を行ったと認定すれば、原告の弁護士は今後の産業用アーム、配達ロボット、またはホームアシスタントに関わるすべてのケースでそれを引用するだろう。企業は、ロボットが人々を傷つけた場合だけでなく、その危険性を指摘した人を排除した場合にも法的リスクに直面する可能性がある。

規制当局は注視しています。今日、ロボットの安全性は、協働ロボットのためのISO 10218やISO/TS 15066といった基準に依存していますが、学習し即興を行うAI駆動のヒューマノイドを完全に予測するものはありません。注目すべき判決が次のことを加速させる可能性があります: - 人間とロボットの職場に関する新しいOSHAの指針 - AI駆動の動作計画と力の制限に関する更新されたISO基準 - 一般用途ロボットのための必須のインシデントログと第三者監査

Figure AIにとって、この訴訟は微妙な時期に直面しています。報告されている390億ドルの評価、ジェフ・ベゾスやNvidia、マイクロソフトからの支援、そしてHelix AIによって駆動される優雅な二足歩行ロボットの公的な物語。敗北は、侵入的な調査や投資家の不安、標準優先のより遅い開発への強制的な移行を意味する可能性があります。一方、勝利は「迅速に行動し、技術的に恐れずにいる」連中を勇気づけるかもしれませんが、最初の深刻な怪我がGruendelの警告を訴訟ではなく予言のように見せるまでのことです。

よくある質問

フィギュアAIの訴訟は何についてですか?

これはロバート・グルエンデルによって提起された不当解雇および内部告発者への報復に関する訴訟です。彼は、同社のヒューマノイドロボットに関する重要な安全懸念を提起したために解雇されたと主張しています。

Figure AIに対する主な安全性の異議は何ですか?

その訴訟は、Figureのロボットが人間の頭蓋骨を骨折させるほどの強力さを持っていること、ロボットが故障して冷蔵庫を殴ったこと、そして会社が安全プロトコルを無視し、安全計画について投資家を誤解させたと主張しています。

ロバート・グルエンデルとは誰ですか?

ロバート・グルエンデルは、フィギュアAIに製品安全部門の責任者として採用された非常に経験豊富なロボット安全エンジニアです。彼は、人とロボットの相互作用および安全基準遵守において20年以上の経験を持っています。

Figure AIは、これらの主張にどのように応じましたか?

会社のスポークスパーソンは、グルエンデルが「業績不振」により解雇されたと述べ、彼の主張は「虚偽」であり、法廷で反論されるだろうと否定しました。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts