TL;DR / Key Takeaways
不気味の谷は公式に死んだ
不気味の谷の懐疑論者たちはXPENG Ironによって驚かされました。この会社が2025年のAIデイで広州で新たに発表したヒューマノイドを見た視聴者の中には、合成の肌で覆われた機械ではなく、モーションキャプチャースーツを着た人間を見ていると思った人もいました。この全身を覆う柔軟なカバーは、カスタマイズ可能な体型、髪型、衣服を備えており、ロボットを「家電」ではなく「同僚」に視覚的に近づけています。
何年もの間、ボストン・ダイナミクスのアトラスのようなヒューマノイドは、その機械的な性質を露呈していました:むき出しの油圧装置、金属のフレーム、大きなサーボモーター。XPENGは、静かな歩行、バイオミメティクスの脊柱、そして人間の胴体のように曲がったりひねったりするように設計された合成筋肉システムで正反対のアプローチを取ります。顔があるべき場所には曲線の3Dディスプレイがあり、無機質なパネルやセンサーの集まりの代わりに表現豊かなアニメーションを加えています。
これは産業用ロボットの化粧直しではありません。XPENGはアイアンをロボティクスプログラムの第8世代、そして第3のヒューマノイドイテレーションと呼び、2026年末までの量産を目指しています。「ウルトラリアリスティックな擬人化」というコンセプトの下には、真剣なハードウェアがあります。身体全体で最大82自由度、手ごとに22自由度を持ち、自然なジェスチャーや精密な物体操作が可能です。
ほとんどの西洋の人型ロボットは工場や倉庫での仕事を追い求めますが、XPENGはそれを人型機械にとっては不適切だと公然と否定しています。Ironは社会的統合を目指しています:受付、ツアーガイド、ショールーム、博物館、ショッピングモールでのアシスタントなどです。前の世代はすでにXPENGの本社でツアーを行い、訪問者に流暢なアメリカ英語で対応していました。
XPENGは、垂直統合された知能にも力を入れています。三つの社内製チューリングAIチップが何千ものTOPSの計算能力を提供し、Ironが既存のスクリプトを再生するのではなく、リアルタイムで見る、話す、行動するためのビジョン言語トランスフォーマー、ビジョン言語アクション、ビジョン言語モデルスタックを実行します。また、ヒューマノイドでは珍しい固体電池が使用されており、フレームをリチウムパックの競合製品よりも軽く、耐久性のあるものにしています。
中国のロボティクスの急成長により、Ironは異端者のように感じられなくなり、むしろスタートを告げる銃のような存在になっています。UnitreeのG1「具現化されたアバター」は、リアルタイムで人間のオペレーターの動きをすべて反映し、Agibotは自社の汎用ヒューマノイドの商業化を急いでいます。新たな世界的なロボティクス競争は、単に「動作するロボット」を作ることではなく、一目見ただけで「私たちの一人」と見なされるロボットを作ることにシフトしています。
彼らはロボットを作るのではなく、「人を作る」。
XPENGはロボットの製造について語りません。幹部は「人を作る」と話しています。これは、家電製品のようではなく、同僚のように感じられる人工市民を指します。このマントラは、新しいアイアンヒューマノイドにおけるすべての可視的および不可視的な選択を導いています。
合成皮膚は全体のシャーシを包み込み、顔や手だけではありません。XPENGは、この柔軟な素材が「より温かく、より親密な感触を目指している」とし、工場のロボットやSFの小道具によって広まった冷たい金属的なヒューマノイドロボットのステレオタイプを意図的に拒否しています。
その皮膚の下には、人間の姿勢や歩行を模倣するバイオミメティックな脊椎と筋肉システムがあります。鉄は中央の「脊柱」に沿って曲がり、ねじれ、肩をすくめているため、そのアイドルの姿勢は、作業のために三脚が安定しているのではなく、誰かが気軽に列に並んで待っているように見えます。
表現は、頭に埋め込まれた曲面3Dフェイシャルディスプレイを通じて上部で行われます。静的なマスクの代わりに、アイアンはその画面上に目、眉、そして微妙な口の動きを描写できるため、ロビーやショッピングモールでのソーシャルワークに驚くほど読み取りやすい感情の幅を提供します。
XPENGはカスタマイズに力を入れており、Ironを製品SKUというよりもキャラクタークリエイターのように扱っています。購入者は複数のボディタイプから選ぶことができ、アスレチック、がっしり、背が高い、または背が低いといった選択肢から、自分のスペースに求める物理的な存在感を効果的に選ぶことができます。
パーソナライズは美容オプションによってさらに進化します。ユーザーは以下をカスタマイズできます: - ヘアスタイルと髪色 - 衣服スタイルと「ワードローブ」の変更 - パネルやアクセサリーの外装カラースキーム
そのレベルのカスタマイズは、ハードウェアとアバターの境界をぼやけさせます。博物館で観光客を案内するアイアンは、高級ディーラーでVIPを迎えるアイアンとは全く異なる見た目になることがありますが、どちらも同じコアプラットフォームとAIスタックを使用しています。
CEO 何小鵬は、会社のアプローチを「融合と発明」と呼び、それを文字通りの意味で捉えています。XPENGは、AIの頭脳を中心にハードウェアを設計するため、センサー、ジョイント、コンピュータは、ソフトウェアが期待する場所に正確に配置されています。
この戦略の中心には、最大数千のTOPSを提供する3つの社内Turing AIチップがあります。これらは、視覚、言語、行動を一つの制御ループに融合させ、流動的で文脈を意識した動作を実現するXPENGのVLT、VLA、VLMモデルを動かしています。
AIモデルを一般的なフレームにボルト止めするのではなく、XPENGはシャーシと認知を共に進化させます。すべての椎骨、関節、指先は、その脳がより自然に動き、ジェスチャーをし、反応するために存在しています — より工業的なアームではなく、より具現化されたエージェントです。
バイオミミティックボディの背後にある頭脳
外見と同じくらい脳も重要で、XPENGはアイアンを合成皮膚で覆われたローリングデータセンターのように充実させています。その生物模倣の筋肉の下には、3つのチューリングAIチップが埋め込まれており、合計で2,250TOPSの計算能力を提供しています。これは、XPENGが自律走行車両を混沌とした都市交通の中で操縦する際に使用するのと同じ性能レベルです。これは、アイコンタクトやちょっとした会話、精密な運動制御のために再利用された自動車グレードのシリコンです。
そのコンピュートスタックは、XPENGのフルスタックAIアーキテクチャに供給されており、知覚を行動に変える三つのシステムから成り立っています。VLT(ビジョンランゲージトランスフォーマー)は、視覚世界と話し言葉を一緒に解析し、アイアンが見ているものと聞いているものをマッピングします。その上に、VLM(ビジョンランゲージモデル)が高次の推論と対話を担当し、ロボットが単なる脚のついた音声アシスタントではなく、受付、ガイド、またはショッピングアシスタントとして機能するための十分なコンテキスト認識を与えます。
VLA(ビジョン・ランゲージ・アクション)は、プロセスを完結させます。VLTとVLMが何が起こっているのか、何を言うべきか、何を行うべきかを決定したら、VLAはそれらの決定をリアルタイムの動作計画に変換します:どこに足を踏み出し、どれくらい傾け、どの指の関節を動かし、どのくらいの速さで動くか。結果として、混雑したロビーや博物館向けに設計された、連続した知覚–意思決定–行動のパイプラインが生まれます。
すべてのソフトウェアは、AIが書いた小切手を現金化できる身体がなければ無力です。Ironのカスタム製ジョイントシステムは、報告されている82度の自由度を全身に持ち、静かで人間らしい歩行や自然な姿勢の変化に調整されており、多くの産業用ロボットの硬直したカチカチした歩行とは異なります。肩のアセンブリは、人間のボールアンドソケットの動作を模倣し、なめらかな腕の振り、手の届き方、そして微妙な肩のすくめを可能にします。
それぞれの手は独自に22の自由度を持ち、高度な研究用マニピュレーター専用の領域に踏み込んでいます。これにより、Ironは小さな物体をつかみ、手の中で回転させ、アイテムをソートしたり、タッチスクリーンをタップしたり、話している間にジェスチャーを行ったりする繊細な作業を行うことができます。まるでマリオネットのように見えずにです。XPENGは、訪問者の電話を落としたり、パンフレットを手間取ったりすることができない社会的環境のために、この器用さを明示的に設計しました。
このアーキテクチャがXPENGのEVの遺産とチップロードマップにどのように結びついているかを追跡したい方は、同社の広範な戦略についてXPeng公式ウェブサイトで述べています。
なぜあなたの次の受付係は人間ではないのか
受付デスク、博物館のロビー、ショッピングモールは、XPENGのヒューマノイドへの賭けの中心に位置しています。CEOの何小鵬は、ヒューマノイドは「実際には工場での作業や繰り返し作業には適していない」と明言しており、これは業界の他の主張との大きな相違点です。XPENGはロボットを組立ラインに固定するのではなく、そのアイアンヒューマノイドを玄関に立たせ、目を合わせて質問に答えさせたいと考えています。
その立場は支配的なヒューマノイドの物語を逆転させます。Figure AI や 1X のような企業は、汎用ロボットがトラックを荷降ろしし、棚を積み上げ、倉庫で夜勤を行う未来を売り出しています。XPENGのロードマップは、産業用ツールよりも合成の同僚に近い何かを指し示しています。
ユースケースはホスピタリティの組織図のように見えます。XPENGは以下の役割を明示しています: - ショールームやオフィスの受付 - 企業キャンパスや博物館のツアーガイド - ショッピングモールの買物仲間とフロアアシスタント
アイアン rA/An のすべてのデザイン決定は、この社会優先戦略を強化しています。全身合成皮膚、カスタマイズ可能な体型、そして曲面の3D顔面ディスプレイは、1.7メートルのロボットの隣に立っても不安を感じさせることなく、普通に感じられるように存在しています。自動車グレードの計算能力を提供する3つのチューリングAIチップが、XPENGのVLT、VLA、VLMスタックを駆動し、ロボットがパレットではなく人々の周りでリアルタイムに見る、話す、行動することを可能にしています。
これは理論上の話ではありません。前のアイアン世代はすでに広州にあるXPENGの本社でツアーガイドとして働いていました。訪問者を建物内に案内し、ほぼ完璧なアメリカのアクセントで会話をし、ヒューマノイドがラボのデモではなく、フロントスタッフとして機能できることの実証例として機能しました。
競合他社は主にソーシャルインタラクションをサイドクエストとして扱っています。Figure AIのデモは倉庫のピッキングやライン作業に焦点を当てていますが、1Xはセキュリティパトロールや基本的な物流作業に依存しています。対照的にXPENGは、目の高さでの会話、ジェスチャーを使った説明、そして工場の仕様書には決して表れないソフトスキルに最適化しています。
もしXPENGが2026年頃に量産目標を達成すれば、ショールーム、博物館、ショッピングセンターでの初期展開が新しい現実を静かに常態化させるかもしれません。あなたを迎え入れ、チケットをスキャンし、エレベーターまで案内する人は、実際には人間でないかもしれません。
パペットマスター:ユニツリーの機械アバター
XPENGの合成アイアンから国内の最強ライバルであるユニツリーに視点を移すと、全く異なる哲学が浮かび上がります。「ロボット市民」を約束する代わりに、ユニツリーの新しいG1は具現化されたアバターとして自らを位置づけています。これは人間のパイロットのための高性能な機械的ボディです。XPENGが個性と存在感について語るのに対し、ユニツリーは帯域幅、遅延、および制御の忠実度について語ります。
コアにはテレオペレーションがあり、操作者がモーションキャプチャースーツに装着し、G1はリアルタイムでそのすべての四肢、動き、そして姿勢を反映します。スーツ全体に配置されたセンサーが関節の角度や体のポーズを追跡し、そのデータを高頻度でロボットにストリーミングします。その結果、脚本化されたロボットデモのようではなく、リモートでの所持のように見えます。
ユニツリーのバイラル動画は、そのポイントを明確に伝えています。G1がジムで構えを決め、低い姿勢に落ち込み、高いキックを繰り出し、スムーズな体重移動と股関節の回転を伴って複雑な武道の型を連続して披露します。スパーリングのクリップでは、不気味なまでの精度でパリーし、カウンターを決めており、そのバランスとフットワークは、事前に計算された軌道ではなく、人間のオペレーターから受け継がれたものであることが明らかです。
この精度は、内部に高度なエンジニアリングが施されていることを示唆しています。ファイターの反射神経に対応するために、G1は低遅延のアクチュエーション、高速逆運動学、および重心の急激な変化に対応できる堅牢な安定化が必要です。パイロットがスピニングバックキックを繰り出すとき、ロボットはバランス、トルク制限、および接触タイミングをミリ秒で解決しなければならず、そうでなければ全体が崩れてしまいます。
テレプレゼンスは、XPENGの受付係やツアーガイドとは非常に異なる一連のユースケースを開きます。単独の専門家が、制御室を離れることなく、危険な環境-崩壊した建物、化学物質の流出、オフショアプラットフォーム-に「ビームで入る」ことが可能になります。精密な遠隔操作により、G1はメンテナンス、検査、または実験作業のためのリモートの「手」として機能します。
ユニツリーは、より消費者に優しいシナリオにも触れています。リモートトレーナーがG1を使って現地でフィットネスクラスを運営し、クライアントのジムで完璧なフォームとペースを示すことができます。エンターテインメント会場では、スタント俳優、武道家、ダンサーなどのパフォーマーがG1ユニットの艦隊を操作し、ロボットをライブでネットワーク接続されたパフォーマンスの身体的アバターに変えることができます。
一度に一つの家事で人間になることを学ぶ
ユニツリーはその長期的な戦略を隠そうとはしません。ソーシャルメディアで驚きを与えたG1「エンボディドアバター」は、ユニツリー自身の言い回しによれば、データ取得プラットフォームが第一で、製品は第二です。すべてのミラーキック、ワイプ、またはリーチは、生のトレーニングデータです。
現在、モーションキャプチャースーツを着た人間がG1を運転し、関節角度、力のパターン、手のポーズをUnitreeのサーバーにストリーミングしています。このテレオペレーションフィードは、具現化学習のための基準となります:ロボットはその軌跡を再生し、その後、強化学習と模倣学習を用いて、混乱した人間の動作を自ら実行可能なポリシーに圧縮します。
初期のデモではすでにG1がストリングを滑らせる様子が見られました。新しいクリップでは、ロボットが人間のポーズを真似することなくキッチンのカウンターを拭き、抵抗に直面した際に圧力を調整し、搭載されたビジョンでクラムを追跡しています。ゴミ袋をつかむために身をかがめ、袋を絞り、ゴミ箱に向かって移動し、リモートコントロール特有の遅延なしにそれを投棄します。
冷蔵庫の棚にものを入れることは、最も明白な指標です。G1は扉を開き、重心の変化に対応し、その後、ボトルを棚に置きます。試行を重ねるごとに、流動性が向上します。各試行は、接触力、物体の形状、およびバランスに関する内部モデルを洗練させ、狭い事前に決められたトリックではなく、汎用性のある能力に近づけます。
戦略的にUnitreeは、人間の器用さを大規模に再現しようとしています。アパート、オフィス、ラボでの何千もの遠隔操作セッションが、合成シミュレーターでは完全に再現できないデータセットを生み出します。それはリアルな摩擦、乱雑、悪い照明、協力しない物体です。そのコーパスは、華やかなローンチビデオの外で生き残れる制御ポリシーの基盤となります。
XPENGは、垂直統合された知性と合成皮膚に賭けており、固体電池や2026年の量産目標といったマイルストーンはフィナンシャル・タイムズ - XPengの固体電池と2026年の生産目標に記録されています。一方、Unitreeは静かにあらゆる家事をラベル付きデータに変え、家事を文字通り行うことで自宅を学習するロボットを訓練しています。
東方ロボティクス革命が加熱する
中国のロボティクスは、派手なデモの数少ない例ではなく、むしろ軍拡競争のように見えています。XPENGとUnitreeが注目を集めましたが、彼らは実際の公共生活におけるヒューマノイドロボットの目的を定義するために競争している、研究所、EVメーカー、AIスタートアップの密なエコシステムの中にいます。
アギボット A2が登場しました。このヒューマノイドは、フロントオブハウス業務のために unapologetically(あからさまに)設計されています。XPENGのアイアンが超リアルな皮膚やバイオミメティックな脊椎に重きを置く一方で、A2は顧客サービスのレイヤーをターゲットにしています。ロビー、ショッピングモール、空港、病院など、現時点で退屈そうな受付係や使用されなくなったチケット自販機が見られる場所なら、どこでも活躍します。
AgibotはA2に同時双方向音声対話機能を搭載しており、トランシーバーの「オーバー」を待つのではなく、同時に話し、聞くことができます。この小さなUXのディテールは、騒がしい公共スペースにロボットを投入し、重なり合う質問や中断、バックグラウンドの雑音にも対応できることを期待する際に重要です。
顔認識は99%の精度を達成し、A2は単純な「バッジをスキャンする」ワークフローを超えました。ロボットはリピート訪問者を特定し、プロフィールを引き出し、挨拶や指示をパーソナライズすることができます。その一方で、XPENGが「データの非開示」ルールで前面に出しているプライバシーへの期待感にも配慮しています。
ワイルドカードは ActionGPT です。これはAgibotの意図から動作に変換するエンジンで、音声コマンドを自然なジェスチャーやボディランゲージに変換します。A2に「会議室の場所を教えて」と伝えると、単に指を指すだけでなく、胴体を向け、両腕を使い、リアルタイムで人間の誘導行動を模倣し、言語モデルと物理的な具現化とのギャップを縮めます。
XPENGのアイアン、UnitreeのG1、AgibotのA2を並べてみると、あるパターンが浮かび上がります。中国は単一の「汎用」ロボットを追求しているわけではなく、社会的ガイド、遠隔操作エージェント、データ収集アバター、特定の業種に特化したハイタッチサービスボットといった多様なユースケースに広がっています。
そのハードウェア製造の集中、社内AIスタック、そして攻撃的な導入タイムラインが、中国がロボットが公共の場でどう行動するかの基準を定める立場にあることを示しています。このペースが続けば、次の消費者および商業用ロボットの波は、中国で組み立てられるだけでなく、文化的および行動的にそこに定義されることになるかもしれません。
アシモフの法則がデータプライバシーのアップグレードを受ける
人間のように見えるロボットには、今やスマートフォンのように扱うルールが必要です。XPENGは、同社のアイアンヒューマノイドがロビーやショッピングモール、博物館に立ち、顔や声、ルーチンを取り込むことを理解しているため、安全性と倫理はもはや抽象的な研究テーマではありません。それらは製品要件となります。
CEOの何小鵬は、ほとんどのハードウェア経営者が敢えて言わないことを行った。彼はステージ上でアイザック・アシモフの名前を挙げた。彼は、アイアンはアシモフのロボット工学三原則に明確に従うと述べた。人間を傷つけない、危害を及ぼさない限り命令に従う、自らの存在を守るが前の二つと矛盾しない限り、というものである。そのサイエンスフィクションの言及は、マーケティングのキャッチフレーズとなり、責任の約束となる。
XPENGは次に、2025年の消費者が実際に住んでいる場面を考慮した第四の法則を追加しました。「所有者のデータを開示してはならない。」これは実際には、アイアンヒューマノイドが所有者の情報をデフォルトでロックダウンされたものとして扱うことを意味し、トレーニングの餌として使用されるものではありません。ツアーを案内したり、質問に答えたり、買い物を手伝ったりする際に収集されるデータは、厳しく管理されています。
このプライバシー優先の姿勢は、家庭を実験室として扱う競合他社とは対照的です。1Xのような一部のライバルは、ロボットが実際の生活の混乱から自由に動き回り、記録し、学ぶために、顧客に家庭空間への完全なアクセスを要求しています。このモデルは、ユーザーの快適さではなく、データ量の最適化を目指しています。
XPENGは、人々がカメラだらけのヒューマノイドロボットを自宅で自由に動かすことはないと見込んでいます。その条件は、そのデータの範囲を信頼することです。すべての顔、ジェスチャー、そして盗み聞きした会話を記録するロボット受付は、そのログがリモートサーバーに送信されれば監視ノードとなる可能性があります。第四の法則は、仕様書レベルでその恐怖を和らげることを目指しています。
XPENGがその制約、すなわちデバイス上での処理、厳密なログ記録、透明性のある権限を実施するならば、プライバシーは法律的な注釈から製品の特徴へと変わります。ますます侵害的な身体化されたAIへと向かう市場において、それが真の競争優位となるかもしれません。
十億ドルの問い:これを必要としている人はいるのか?
批評家たちはXPENGのアイアンヒューマノイドについて同じ疑問を繰り返しています:実際に、毛穴や髪型、そして「スポーティ」または「がっしりした」体型を持つ受付係が必要な人は誰なのでしょうか?懐疑的な人々にとって、合成皮膚を持つハイパーリアリスティックなヒューマノイドロボットは、誰も求めていない問題への解決策のように感じられます。特に、スタンドに置いたタブレットでホテルにチェックインできる場合はなおさらです。
XPENGの反論は、メカニクスではなく心理学に大きく依存しています。同社は、人々が自分たちに似た外観や動きを持つ機械をより信頼し、協力する傾向があると考えています。特に、受付、観光ガイド、小売アシスタンスのような社会的役割においては、目を合わせること、ジェスチャー、そして「温かさ」がタスクの達成と同じくらい重要です。
それはアイアンを、まったく異なるカテゴリーの競合と直接対決させます。それは、人間であるふりをせずに、清掃、配達、または仕分けを行う純粋な機能的ボットです。倉庫のAGV、ボストン・ダイナミクススタイルの四足歩行ロボット、またはキオスク型アシスタントはすでに以下のことが可能です: - 顧客に挨拶する - 基本的な質問に答える - 必要に応じて人間のバックアップを呼び出す
アイアンが差別化を図ろうとしているのは、長期的な関係に基づくインタラクションにおいてです。定期的に訪れる客を記憶し、ボディランゲージを模倣し、リアルタイムでトーンを調整できるヒューマノイド・コンシェルジュは、理論上、ショッピングモールや博物館、空港の無機質なキオスクを上回り、エンゲージメント、アップセル、ブランドロイヤリティを促進できるでしょう。
コストはその仮説を圧迫しようとしています。数千のTOPSを提供する高性能のAIチップ3つ、フルボディ合成スキンシステム、82自由度、そして固体電池スタックはプレミアムな材料費を物語っています。XPENGは価格を発表していませんが、積極的なスケーリングでさえ、2026年までにアイアンをルンバの領域に押し込むことは難しそうです。
XPENGの賭けは、家庭ではなくフリート全体にそのコストを分散させることにかかっています。ショッピングセンターのチェーンや全国の博物館ネットワークは、各サイトで複数のスタッフ役割を置き換え、1日16時間運営され、フットトラフィックやソーシャルメディアの注目を集めるマーケティングスペクタクルとして機能する場合、6桁の単位を正当化するかもしれません。
2026年までの大量生産は、この計画の最も大胆な部分です。人型ロボットの大規模製造は、複雑なアクチュエーターの反復可能な組み立ての解決、高収率の合成皮膚の製造、生体模倣の脊椎の耐久性向上、そして厳しい競争が展開されるコンポーネント市場でのチューリングチップや固体電池の安定供給の確保を意味します。
XPENGの垂直統合は成功を助けますが、保証するものではありません。会社は、ハードウェアだけでなく、フルスタックのVLT/VLA/VLMソフトウェアパイプライン、さらに現場サポート、修理物流、数千台の社会に展開されたロボットのためのオーバーザエア更新インフラを産業化する必要があります。
懐疑的な人々は誰がこれを必要とするのかと問いかけますが、XPENGは機械が存在すればニーズが生まれると効果的に答えています。Ironのアーキテクチャと生産目標の詳細については、Humanoids Daily - XPeng IRONロボットの深掘りがその賭けがいかに radical であるかを分析しています。
あなたの次の同僚は合成物になるでしょう。
合成仲間はもはやSFの脇役ではなく、製品ロードマップにおける出荷日を持つ存在です。XPENGは2026年までにそのアイアンヒューマノイドをショッピングモールや博物館、ショールームに展開することを目指しています。一方、UnitreeのG1エンボディドアバターは、リアルタイムで人間の動きを模倣し、掃除や整理などの作業を学習しています。サービス業が最初の突破口であり、工場労働ではありません。
アイアンのようなソーシャルロボットとG1のようなタスク学習プラットフォームは、衝突の軌道にあります。一方は存在感を最適化しています:合成された肌、曲線的な3Dフェイシャルディスプレイ、カスタマイズ可能な体型や髪型。そしてもう一方はスキルを最適化しています:モーションキャプチャトレーニング、遠隔操作、実際の家庭のタスクからの強化学習。
それらの軌道を融合させると、近い将来、以下のことができる単一のプラットフォームが実現します: - ホテルの受付であなたを迎える - 荷物を運ぶ - 部屋を掃除する - 完璧なアイコンタクトでレイトチェックアウトを勧める
サービス業界が最初にこの影響を感じる。受付係、コンシェルジュ、ツアーガイド、小売店のスタッフ、さらには倉庫のピッカーまでも、病気で休むことなく、要求に応じて完璧なアメリカ英語を話し、ソフトウェアのアップデートで拡張可能な機械からの圧力に直面している。XPENGはすでに、本社でツアーガイドとして初期のアイアンユニットを運用しているが、それを全国の小売チェーンに拡張することは、研究の問題ではなく、物流の問題となる。
家も変わります。ユニツリーのG1は、人間の動作、物の取り扱い、家庭でのルーチンに関するデータセットを静かに構築しています。これは、一般的なホームアシスタントのための正確な要素です。さらに、親しみやすい外見のアイアンスタイルのボディを持ち、あなたの好みを記憶し、「データ開示なし」という厳格なルールに従うデバイスがあれば、以下の境界が曖昧になります: - 家電 - ペット - セラピスト - スパイ
ノーマライゼーションは、これらのシステムがあなたの電話や車とAIスタックを共有することで、より速く進みます。XPENGのビジョンランゲージトランスフォーマーとビジョンランゲージアクションモデルはすでに車両やロボットで稼働しており、「箱の中のAI」を「あなたが存在するすべての物理空間のAI」へと変えています。
人間と機械の境界線は、1回のブレークスルーで消えることはありません。カジュアルなやりとりの一つひとつで徐々に侵食されていきます—ある日、あなたが上司について愚痴をこぼす相手が、その感情を構造化されたデータとして記録していることに気づくまで。
よくある質問
XPENGアイアンロボットが他のヒューマノイドと異なる点は何ですか?
XPENGアイアンロボットは、全身合成皮膚、カスタマイズ可能なボディタイプ、そして産業労働ではなく、受付やガイドといった社会的役割での使用を目的としている点が際立っています。これは単なる反復作業ではなく、人間とのインタラクションを目的に設計されています。
Unitree G1ロボットはどのように学習しますか?
ユニツリーG1は「リアルタイムの具現化学習」アプローチを採用しています。これは、モーションスーツを着た人間のオペレーターの動きを反映し、その動作からデータを収集して掃除や整理などのタスクを学習するものです。これは本質的に、ロボットに人間の器用さを教えるためのプラットフォームです。
これらの高度なヒューマノイドロボットはいつ一般に公開されるのでしょうか?
XPENGは、2026年末までにそのアイアンヒューマノイドロボットの量産を目指す積極的なタイムラインを発表しました。他の企業も前進しており、今後数年内に公共の場でそれらを見ることができる可能性が示唆されています。
XPENGはロボットの安全性と倫理にどのように取り組んでいますか?
XPENGは、自社のロボットがアイザック・アシモフのロボット工学三原則に従い、さらに第四の原則を追加していると述べています。それは、ロボットは所有者のデータを開示してはならないというものです。これはユーザープライバシーへの強い関心を強調しており、市場における重要な差別化要因となっています。