TL;DR / Key Takeaways
Робот, который мог бы сломать череп
Роб Груэндел сообщил, что гуманоидный робот компании Figure AI ударил по холодильнику так сильно, что оставил углубление в нержавеющей стали глубиной в три четверти дюйма. В иске, поданном в Калифорнии, бывший Глава отдела безопасности продукта компании утверждает, что тот же класс роботов генерирует достаточно силы, чтобы "сломать человеческий череп" — и что, когда он настоятельно просил генерального директора Бретта Адкока обратить внимание на эти риски, его вместо этого уволили.
Согласно жалобе, Груэндл был нанят в конце 2024 года в качестве главного инженера по безопасности роботов, подчиняясь непосредственно Адкоку и получив задачу разработать глобальную стратегию безопасности Figure AI с нуля. Он утверждает, что как только его предупреждения начали замедлять продвижение компании к коммерциализации, руководство стало воспринимать его не как защитника, а как препятствие.
Компания Figure AI занимает лидирующие позиции в разработке гуманоидных роботов, демонстрируя свои модели F.02 и F.03 в эффектных демонстрационных видео и привлекая инвестиции от таких гигантов, как Nvidia, Microsoft и фонды, поддерживаемые Джеффом Безосом, с оценками, reportedly достигающими десятков миллиардов долларов. Иск подан в то время, когда компания пытается убедить инвесторов и партнеров в том, что ее роботы могут покинуть лабораторию и попасть на заводы — а в конечном итоге и в дома — без превращения в угрозу на рабочем месте.
Центральное обвинение Грюнделя ясно: он утверждает, что его уволили в сентябре 2025 года в ответ на то, что он сообщил о "катастрофических" нарушениях безопасности Адкоку и главному инженеру Кайлу Эдельбергу. Компания Figure AI, по его словам, сослалась на неопределённый "изменение в стратегическом направлении бизнеса" и позже на "плохие результаты работы", несмотря на то что ранее она давала ему положительные отзывы и повышала зарплату менее чем через год после начала работы.
Судебные документы описывают компанию, которая предпочла скорость системам безопасности. Грюндель говорит, что у Figure AI не было формальной отчетности по инцидентам, стандартизированных оценок рисков и специализированного штата по охране труда и здоровья, даже когда инженеры работали в непосредственной близости от высокомоментных манипуляторов, управляемых недетерминированными ИИ системами управления.
Этот конфликт между стремлением действовать быстро и методичным подходом к безопасности сейчас стоит в эпицентре одной из первых крупных войн с участием информаторов в области гуманоидной робототехники. Поскольку такие конкуренты, как Tesla и Agility Robotics, спешат создать машины, близкие к человеку, на заводских площадках, это дело ставит резкий вопрос: насколько безопасным является "достаточно безопасный" уровень, когда программа может привести в движение 68-килограммовую robotic arm с силой, способной сломать череп?
Самая опасная мантра Кремниевой долины
У Кремниевой долины есть проблема с мантрой, и Figure AI интегрировала ее в ДНК компании. Ее самостоятельно заявленные основные ценности, приведенные в иске Роба Груендала, заключаются в том, чтобы “двигаться быстро и быть технически бесстрашными” и “вывести на рынок коммерчески жизнеспособного гуманоидного робота.” Это скорее не система ценностей, а задание на отправку, и она рассматривает безопасность как трение, а не как основу.
Старый девиз Facebook «двигайся быстро и ломай вещи» разрушил рекламные системы и обещания о конфиденциальности. Figure AI создает гуманоидов высотой 1,6 метра и весом 60 килограммов, которые якобы могут генерировать силы «достаточно мощные, чтобы сломать человеческий череп». Когда неисправный F.02 ударил по нержавеющей стали холодильнику и оставил рану глубиной до трех четвертей дюйма, он чуть не задел сотрудника, стоявшего рядом.
Грюндель утверждает, что за блестящими демо-видео стояла компания с почти отсутствующими письменными правилами. Во время своей первой недели работы он, как утверждается, обнаружил отсутствие формальных процедур безопасности, отсутствие системы сообщений о происшествиях и отсутствие структурированного процесса оценки рисков для разрабатываемых роботов. В Figure AI также не было выделенного персонала по охране труда и технике безопасности, несмотря на то, что работники трудились рядом с высокомощными машинами.
Он разработал глобальную дорожную карту безопасности, которую изначально одобрили генеральный директор Бретт Адкок и главный инженер Кайл Эдельберг. Однако в иске говорится, что оба мужчины «выразили неприязнь к письменным требованиям к продукту», что Груэндел охарактеризовал как «аномальное» в области безопасности машин. В отрасли, регулируемой документацией ISO и OSHA, отказ от документации выглядит не как стремление к эффективности, а скорее как избегание ответственности.
Согласно жалобе, такое пренебрежительное отношение к документированию проникло в культуру компании. Собрания по вопросам безопасности с Адкоком якобы перешли с еженедельных на ежеквартальные. Подробные предупреждения Груэндла о воздействии робототехники, непредсказуемости ИИ и необходимости обучения сотрудников остались без ответа или были отложены, пока компания преследовала цели по привлечению инвесторов.
Давление роста только усилило напряжение. Согласно сообщениям, оценка компании AI AI достигла 39 миллиардов долларов после раунда финансирования в сентябре 2025 года, поддержанного Nvidia, Microsoft и капиталом, связанным с Джеффом Безосом. Груэндель утверждает, что руководители «изуродовали» его дорожную карту безопасности после поступления денег, исключив ключевые обязательства, которые инвесторы видели на бумаге.
Двигайтесь быстро и будьте технически бесстрашными — это звучит героически в презентации. Но вокруг робота, который может раскрошить череп, это начинает восприниматься как признание.
Инцидент с холодильником: Предупреждение о металломагнитном воздействии
Момент внутри лаборатории Figure AI, по слухам, срывался в день, когда единица F.02 потеряла контроль и ударила по кухонному прибору. Согласно иску Роба Груендала, человекоподобный робот неожиданно ударил по двери холодильника из нержавеющей стали, вбив свой металлический кулак на четверть дюйма в нержавеющую оболочку.
Согласно сообщениям, сотрудник находился всего в нескольких дюймах, достаточно близко, чтобы немного изменённая траектория могла поразить тело, плечо или череп. В жалобе это описывается как классический случай «почти столкновения» — не гипотетическая модель риска, а физическая демонстрация того, что может произойти с закалённой сталью от неправильно направленного удара F.02.
Грюндель приводит этот инцидент как доказательство того, что машины Figure AI AI были, по его словам, "достаточно мощными, чтобы расколоть человеческий череп." Испытания ударом уже показывали силы, превышающие вдвое порог, необходимый для повреждения черепа взрослого человека; порез от холодильника превратил эти лабораторные данные в изрезанный, остроугольный шрам на бытовом приборе.
В деталях, приведенных в документах, описывается хаотичная сцена: работающий в режиме разработки F.02, сотрудник на расстоянии вытянутой руки, и отсутствие надежных блокировок или зон исключения, чтобы не допустить людей в радиус удара робота. Никто не пострадал физически, но дверца холодильника приняла удар, который, изменив направление на несколько дюймов, мог бы нанести травму костям.
Для Груэнделя это был переломный момент. Он уже отметил отсутствие официальной отчетности об инцидентах, нехватку специалистов по безопасности сотрудников и сопротивление письменным требованиям к продукту; удар холодильника убедил его в том, что испытательная площадка подвергала работников неприемлемому риску.
После инцидента он настоятельно требовал внедрения структурированного обучения по безопасности, более строгих операционных пределов и обязательной регистрации всех сбоев и случаев почти несчастных случаев. Иск утверждает, что эти требования противоречили культуре Figure AI AI «быстро действовать и не бояться экспериментов» и стремлению произвести впечатление на инвесторов, следящих за демо на официальном сайте Figure AI AI.
Нарратив Грюнделя представит холодильник не как случайный ущерб, а как искреннее предупреждение из искривленного металла, которое якобы руководство выбрало проигнорировать.
След игнорируемых предупреждений
Красные флажки начали накапливаться почти сразу после того, как Роб Груэндел прибыл. Согласно иску, в Figure AI не было формальных процедур безопасности, системы отчетности о происшествиях и структурированных оценок рисков для их человекоподобных роботов F.02, несмотря на их способность генерировать силу, allegedly превышающую в два раза необходимую для перелома человеческого черепа. Груэндел отреагировал, составив всеобъемлющую дорожную карту безопасности, создав таблицы для отслеживания инцидентов и предложив учебные модули для всех, кто работает рядом с роботами.
Руководство первоначально одобрило. Генеральный директор Бретт Адкок и главный инженер Кайл Эдельберг утвердили дорожную карту на бумаге, но в жалобе говорится, что они испугались, когда это стало настоящим процессом. Они "выразили недовольство письменными требованиями к продукту", что, по словам Груэнделя, является ненормальным для безопасности машин, где документация является основой соблюдения стандартов в стиле ISO и OSHA.
Каналы связи якобы вышли из строя в момент, когда ставки возросли. Еженедельные совещания по безопасности с Адкоком, по сообщениям, сократились до ежемесячных, затем до ежеквартальных, прежде чем полностью прекратиться. Сообщения Грюнделя в Slack о почти инцидентах и неконтролируемых движениях роботов, включая упоминания о столкновении с холодильником, которое оставило 1.9-см отметину на нержавеющей стали, якобы остались без ответа от генерального директора.
Эти игнорируемые сообщения не были теоретическими. Сотрудники начали сообщать о близких случаях напрямую Груэнделю, потому что не было офиса Здоровья и Безопасности Сотрудников (EHS) или формального процесса учета почти несчастных случаев, согласно материалам дела. Он стал фактической горячей линией по безопасности, фиксируя инциденты, начиная от неожиданных движений руками до незапланированного контакта с рабочими местами.
Иск описывает это как системный сбой, а не как недосмотр в документации. В лаборатории с многокиловаттными актуаторами и недетерминированным управлением ИИ не было выделенного сотрудника по охране труда и технике безопасности, анонимного канала для сообщения оHazards и стандартизированной процедуры расследования. Вместо этого, как считается, Грюндель полагался на временные Google Sheets и одноразовые темы в Slack для отслеживания рисков, которые могли бы травмировать работников.
Одним из его ключевых предложений была инициатива E‑Stop по стандартизации аппаратного обеспечения для экстренной остановки, поведения программного обеспечения и тренировок по реагированию, которая, как сообщается, столкнулась с сопротивлением со стороны руководства. Программа была нацелена на определение необходимого количества экстренных остановок в каждой испытательной ячейке, их размещение и поведение робота с электрической и механической стороны при активации. По информации из жалобы, Адкок и Эдельберг в конечном итоге отменили или приостановили усилия по внедрению E‑Stop, назвав это ненужным торможением скорости разработки.
К началу 2025 года ситуация была ясна по рассказу Грюнделя: планы безопасности утверждались для презентаций, а затем тихо откладывались в сторону. Случайные инциденты накапливались в его личных записях, а не в корпоративных системах. А человек, которому поручили создание культуры безопасности, всё больше говорил в пустоту.
Ошибочное восприятие инвесторов на сумму 39 миллиардов долларов
Сорок миллиардов долларов покупают много уверенности. Согласно иску, работа Роба Груэндела в середине 2025 года заключалась в том, чтобы создать эту уверенность на бумаге: подробный отчет о безопасности, предназначенный для того, чтобы успокоить нервозность Джеффа Безоса, Nvidia, Microsoft и других состоятельных инвесторов, окружающих раунд серии C компании Figure AI.
Грюндель утверждает, что он собрал полный план безопасности: официальные оценки рисков, регистрация инцидентов, планы обучения сотрудников и меры предосторожности для развертывания гуманоидного робота F.02 вблизи людей. По его словам, документ не стеснялся в словах, описывая силы, «достаточно мощные, чтобы треснуть человеческий череп», и сбой, который ударил по холодильнику на расстоянии нескольких дюймов от рабочего.
Согласно жалобе, эта строгость стала активом для привлечения средств. Предполагается, что потенциальные инвесторы получили версию плана, которая изображала Figure AI как компанию, переходящую от принципа "работай быстро и будь технически бесстрашным" к уважению норм безопасности машин ISO и управлению рисками ИИ. К сентябю 2025 года раунд закрылся с заявленной оценкой 39 миллиардов долларов, что представляет собой примерно 15-кратный рост по сравнению с началом 2024 года.
Затем Грундель утверждает, что план безопасности был тихо подорван. Руководство в инженерной области, включая главного инженера Кайла Эдельберга, якобы «выдернуло» и снизило основные обязательства, как только деньги были доступны — сокращая письменные требования, оставляя в стороне отслеживание инцидентов и откладывая элементы, замедлявшие разработку платформы F.02.
Это обвинение переводит историю из беспорядочной стартап-культуры в потенциальное мошенничество с ценными бумагами. Привлечение капитала на основе конкретных мер безопасности, а затем отказ от них без раскрытия информации может выглядеть не как «итерация», а скорее как введение инвесторов в заблуждение относительно операционных рисков и сроков выхода на рынок.
Регуляторы и юристы задавали бы жесткие вопросы: Получили ли Безос, Nvidia и Microsoft материалы по безопасности, которые больше не отражали реальность после раунда? Подписывались ли какие-либо комитеты по надзору на уровне совета директоров на изменение с заявленного плана? Были ли обновлены и распространены внутренние оценки рисков?
Капиталозависимые стартапы в области робототехники выживают или гибнут в зависимости от их способности продемонстрировать образ индустриальной дисциплины. Человекообразные платформы, такие как F.02, требуют девятизначные инвестиции в ИИ для актюаторов, специализированного кремния, центров обработки данных и испытательных лабораторий задолго до появления значительного дохода.
Эта динамика стимулирует создание глянцевых нарративов о надежности и системах «готовых к предприятию», даже когда производственный процесс все еще основывается на стихийных методах и неписаных правилах. Рассказ Грунделя предполагает, что безопасность может стать еще одним слайдом в презентации — увеличенной для проведения дью-дилидженса и уменьшающейся после подписания инвестиционных соглашений.
По цифрам: порог боли в 20 раз выше
Суперчеловеческая скорость не является метафорой в иске Робе Груенделя; это измерение. Согласно иску, внутренние испытания на воздействие гуманоидной модели F.02 компании Figure AI зафиксировали скорости конца захвата, превышающие типичные скорости человеческих ударов, при этом она несла значительно большую массу и приводилась в движение высокомоментными приводами.
Эти тесты якобы ссылались на ISO 15066, стандарт безопасности для совместимых роботов, который определяет "порог боли" для человеческого контакта. Грюндель утверждает, что удары модели F.02 создают силы, примерно в 20 раз превышающие этот порог, что означает, что контакт не только причинит боль — он превысит уровень, который регулирующие органы принимают за верхний предел допустимого взаимодействия человека и робота.
Грюндель идет дальше, предлагая экспертную оценку, что эти силы превышали более чем в 2 раза то, что необходимо для перелома черепа взрослого человека. Литература по переломам черепа обычно указывает диапазоны около 3–10 кН в зависимости от области и направления удара; иск утверждает, что максимальные силы F.02 комфортно превышали этот диапазон.
Эти цифры напрямую связаны с инцидентом с холодильником, уже зафиксированным в документах. Когда F.02 якобы вышел из строя и ударил по близстоящему холодильнику из нержавеющей стали, он оставил вмятину глубиной до трех четвертей дюйма, что соответствует физическому повреждению при высокоэнергетическом ударе и расчетам переломов Груэнделя.
Испытания на удар, как было описано, не проводились в вакууме. Как сообщается, Грюндель связал данные с реальными режимами эксплуатации — махами рук, протягиваниями и событиями с неверной траекторией — а не только с чисто синтетическими ударами в лаборатории, аргументируя, что аналогичные профили силы могут возникать во время обычной работы по разработке или в будущем коммерческом применении.
Эти внутренние измерения важны, потому что они опровергают любые утверждения о том, что это абстрактные научно-фантастические гипотезы. Собственные данные Figure AI, если они точны, документируют машину, которая способна наносить удары сильнее человеческого боксера, игнорировать установленные пределы боли и вторгаться в область переломов.
Для читателей, следящих за более широкой коллизией между робототехникой, регулированием и инвесторским ажиотажем, материалы на таких ресурсах, как CNBC - Бизнес новости и аналитика, уже подчеркивают, насколько быстро капитал поступает в гуманоидные платформы, которые все еще не имеют зрелых систем безопасности.
От звёздного исполнителя до нежелательного гостя
Заручившись контрактом в октябре 2024 года, Роб Груэндел пришел в Figure AI как звездный сотрудник. С более чем двумя десятилетиями опыта в области безопасности робототехники и прямой отчетностью CEO Бретту Адкоку, ему было поручено разработать глобальную стратегию безопасности компании с нуля. Первые отзывы, согласно иску, высоко оценили его работу и завершились повышением зарплаты на $10,000 менее чем через год после начала работы.
Это повышение важно, потому что оно создает четкое разделение между до и после. На протяжении большей части своего срока, стремление Груенделя к формальным процессам безопасности, отслеживанию инцидентов и обучению сотрудников не вызывало открытой враждебности. Руководство одобрило его дорожную карту по безопасности, а еженедельные встречи с Адкоком сигнализировали, по крайней мере на поверхностном уровне, что безопасность занимает достойное место за столом.
Все изменилось после испытаний на ударопрочность робота F.02. Предупреждение Грюнделя, основанное на данных, о том, что машина может генерировать силы, превышающие уровни, опасные для черепа, оказалось в почтовых ящиках руководителей наряду с его самыми четкими письменными предупреждениями о риске для сотрудников и будущих клиентов. В течение нескольких дней после этих сообщений компания уволила его.
Официальная позиция Figure AI: “плохая эффективность.” В жалобе нет плана по улучшению производительности, предварительных письменных предупреждений или задокументированного понижения в должности, чтобы поддержать эту версию событий. Вместо этого документы показывают противоположный поворот — положительные отзывы, повышение зарплаты, увеличивающиеся обязанности, а затем внезапный поворот сразу после того, как он оценил, насколько опасными могут быть роботы.
Этот паттерн почти идеально соответствует классическим случаям преследования информаторов в условиях высоконапорных технологических сред. Сотрудник изначально способствует выполнению миссии, затем становится источником трения, когда его экспертиза сталкивается с жесткими сроками и ожиданиями инвесторов. Как только требования безопасности начинают угрожать графику, те же качества, которые ранее вызывали одобрение — настойчивость в ведении документации, сопротивление сокращениям — переименовываются в «препятствие» или «несоответствие».
Контекст вокруг финансирования Figure AI усиливает подозрения. К сентябрю 2025 года компания стремилась достичь оценки в 39 миллиардов долларов от таких инвесторов, как Джефф Безос, Nvidia и Microsoft, в то время как руководители, как утверждается, уничтожили детальный план безопасности Груендля после завершения раунда финансирования. В этом контексте увольнение начальника службы безопасности продукции с пометкой «недостаточно эффективный сотрудник» всего через несколько дней после того, как он представил данные о серьезных рисках, выглядит не как обычная административная процедура, а скорее как устранение последней внутренней проверки перед ускоренным запуском.
Великое сражение гуманоидов
Гуманоидная робототехника теперь выглядит не как исследование, а скорее как борьба за рынок. Компании, такие как Figure AI, Tesla, Agility Robotics, Apptronik и Sanctuary AI, стремятся выпустить автономные универсальные машины на склады, в фабрики и, в конечном итоге, в дома. Тот, кто первым внедрит заслуживающего доверия гуманоидного робота на широкую ногу, может закрепить за собой платформенное влияние на десятилетия.
Компания Figure AI установила одну из самых амбициозных целей в этой области: развернуть 200 000 роботов к 2029 году. Это подразумевает выпуск тысяч единиц каждый месяц во второй половине десятилетия, работающих в непосредственной близости с человеческими работниками. Иск Груделя попадает прямо в центр этой гонки, утверждая, что безопасность стала предметом обсуждения, а не необходимым условием.
Аналитики подлили масла в огонь соревнования. Morgan Stanley прогнозирует, что гуманоидные и универсальные роботы могут создать рынок стоимостью 5 триллионов долларов к 2050 году, цифра, которую руководители теперь упоминают так же непринужденно, как количество активных пользователей в день. Внутренние материалы стартапов в области робототехники все чаще представляют гуманоидов как «следующий смартфон» или «следующее облако», с аналогичной динамикой «победитель забирает всё».
Эти стимулы изменяют внутренние приоритеты. Каждая четверть, потраченная на укрепление систем защиты или переписывание процедур, — это четверть, когда конкурент может представить новую демонстрацию, подписать пилотный проект или объявить о крупной сделке с автопроизводителем или логистическим гигантом. В такой обстановке глава по безопасности продукта, который замедляет запуск, может выглядеть не как защитник, а скорее как коэффициент сопротивления.
Человекообразные системы также находятся в нескольких регулирующих серых зонах. Они являются частью промышленных роботов, частью потребительских устройств и частью AI-систем, а существующие стандарты безопасности машин, функциональной безопасности и охраны труда часто не применимы напрямую. Стартапы могут интерпретировать эту неопределенность как разрешение действовать первыми, а обсуждение соответствия оставить на потом.
Жалоба Грюнделя в основном утверждает, что Figure AI приняла эту логику. Он описывает культуру, движимую принципом «делай быстро и будь технически смелым», в то время как проекты Morgan Stanley и подобные им нависают над сектором как табло. Когда инвесторы говорят о призе в несколько триллионов долларов, каждое совещание по вопросам безопасности начинает казаться потерей доли рынка.
Мощные инструменты или непредсказуемые угрозы?
Электроинструменты уже окружают нас с летальным потенциалом. Автомобиль весом 3,500 фунтов может убить на скорости 25 миль в час, настольная пила среднего класса вращает лезвие на скорости 3,500 об/мин, а дешевый кухонный блендер прячет острое лезвие из стали за пластиковой крышкой. Мы терпим этот риск, потому что их поведение предсказуемо, и наши системы безопасности — защитные устройства, обучение, регуляции — основываются на этой предсказуемости.
Гуманоидные роботы, такие как F.02 от Figure AI, находятся в другой категории. Они объединяют промышленные сервоприводы — испытания на удар, проведенные в иске Грюнделя, утверждают, что силы способны ломать человеческий череп — с управлением ИИ, которое не всегда ведет себя одинаково. Этот недетерминизм разрушает ментальную модель, на которой основано наше отношение к опасным инструментам.
Традиционные роботы и станки работают по детерминированному коду: при заданном входе X они выполняют Y каждый раз. Системы ИИ, такие как Helix AI от Figure AI, генерируют выходные данные на основе вероятностных моделей, что означает: - Они могут «галлюцинировать» действия или неправильно интерпретировать данные с сенсоров - Они могут принимать необъяснимые решения, которые сложно поддаются отладке - Они могут давать сбои в крайних случаях, которые разработчики никогда не предвидели
Плитный пилы никогда не "решают" двигаться вбок; их режимы отказа механические и предсказуемые. Человекоподобный робот с ИИ, в принципе, может выбрать последовательность движений, которую не запрограммировал ни один инженер, а затем повторить другое движение в следующий раз. Эта изменчивость усложняет всё - от проектирования аварийных остановок до страхового андеррайтинга.
Толерантность к риску обычно основывается на четком соотношении затрат и выгод. Мы принимаем более 40,000 ежегодных автомобильных смертей в США, потому что автомобили открывают доступ к commuting, логистике и экономической деятельности, которые общество считает неотъемлемыми. Для универсальных человекоподобных роботов ожидаемая выгода огромна — замена труда на складах, уход за пожилыми, домашние дела — но все еще остается спекулятивной.
Таким образом, реальный вопрос заключается в следующем: сколько непредсказуемого риска люди готовы принять на своих кухнях, складах и в домах престарелых в обмен на робота, который может разгружать грузовики или посудомоечные машины? Регуляторы могут установить пределы воздействия и режимы сертификации, но общественное доверие будет зависеть от ранних инцидентов, вирусных видео и от того, выглядят ли неудачи как случайные происшествия или системные проблемы дизайна. Инвесторы уже моделируют эти сценарии; подобные отчеты, как Morgan Stanley Research, все больше рассматривают безопасность, объяснимость и ответственность как основные элементы бизнес-кейса человекоподобных роботов, а не как мысль на потом.
Юридическая битва за определение будущего робототехники
Суды редко решают, как развиваются новые технологии, но дело Gruendel против Figure AI AI может стать одним из таких исключений. Старший инженер по безопасности с более чем 20-летним опытом в робототехнике утверждает, что его уволили в 2025 году за предупреждение о том, что гуманоида F.02 от Figure AI AI может «сломать человеческий череп» и что он уже нанес тридцатимиллиметровый разрез на двери стального холодильника. Если присяжные воспримут эти предупреждения как защищённую деятельность, каждому стартапу в области робототехники, стремящемуся к созданию гуманоида, придется пересмотреть, как он справляется с внутренним несогласием.
Под вопросом, распространяются ли существующие законы о защите информаторов — созданные в области финансов, здравоохранения и обороны — на роботов, управляемых недетерминированным ИИ. Грюндель сообщил о недостающем отслеживании инцидентов, отсутствии специального персонала по безопасности сотрудников и руководителях, которые "не любили письменные требования к продукции". Решение, наказывающее за его увольнение, может превратить инженеров по безопасности в де-факто специалистов по соблюдению норм для автономных систем, а не просто в внутренние надоедливые голоса.
Прецедент здесь возникнет тогда, когда гуманоиды покинут лаборатории и, в конечном итоге, попадут в склады и дома. Если суд установит, что Figure AI отреагировала на испытания с воздействием, которые якобы продемонстрировали силы, превышающие пороги переломов черепа более чем в два раза, адвокаты истцов будут ссылаться на это в каждом будущем случае, связанном с промышленными манипуляторами, доставочными ботами или домашними ассистентами. Компании могут столкнуться с юридической ответственностью не только в случаях, когда роботы причиняют вред людям, но и когда они обходят стороной человека, который указывал на возможные риски.
Регуляторы следят за ситуацией. Сегодня безопасность роботов основывается на стандартах, таких как ISO 10218 и ISO/TS 15066 для коллаборативных роботов, но ничего полностью не предвосхищает AI-управляемых гуманоидов, которые учатся и импровизируют. Высокопрофильное решение может ускорить: - Новые рекомендации OSHA для рабочих мест человека и робота - Обновленные стандарты ISO для планирования движений и пределов сил, основанных на ИИ - Обязательная учет инцидентов и сторонние аудиты для универсальных роботов
Для Figure AI иск возникает в непростой момент: сообщаемая оценка в 39 миллиардов долларов, поддержка Джеффа Безоса, Nvidia и Microsoft, а также общественный нарратив о грациозных двуногих машинах на базе Helix AI. Проигрыш может означать вмешательство в процессы, неуверенность инвесторов и вынужденный переход к более медленной разработке с акцентом на стандарты. Победа может придать уверенности сторонникам лозунга «двигайтесь быстро и не бойтесь технологий», пока первая серьезная травма не заставит предупреждения Груэндала выглядеть не как иск, а как пророчество.
Часто задаваемые вопросы
Какой иск против Figure AI?
Это иск о неправомерном увольнении и репрессиях крикливца, поданный Робертом Груэнделем, бывшим руководителем подразделения безопасности Figure AI. Он утверждает, что был уволен за поднятие серьезных вопросов о безопасности гуманоидных роботов компании.
Каковы основные обвинения в нарушении безопасности в адрес Figure AI?
В иске утверждается, что роботы Figure достаточно мощные, чтобы сломать человеческий череп, что один из роботов вышел из строя и ударил холодильник, а компания игнорировала протоколы безопасности и вводила инвесторов в заблуждение относительно своих планов по безопасности.
Кто такой Роберт Грундель?
Роберт Грюндель — высококвалифицированный инженер по безопасности роботов, который был нанят компанией Figure AI в качестве главы отдела безопасности продукции. У него более двух десятилетий опыта в области взаимодействия человека и робота, а также соблюдения норм безопасности.
Как Figure AI ответила на обвинения?
Представитель компании опроверг обвинения, заявив, что Грюндель был уволен за 'неудовлетворительную работу' и что его утверждения являются 'неправдой', которая будет опровергнута в суде.