TL;DR / Key Takeaways
誰も聞いていないAGIの主張
先月、元Googleの研究者が静かにAGIを主張しましたが、ほとんど誰も気付いていないようです。東京に拠点を置くスタートアップIntegral AIのCEO兼共同創設者ジャド・タリフィ氏は、世界初の「AGI対応モデル」を構築したと主張しています。このシステムは、完全な人工汎用知能にスケールアップし、最終的には超知能に進化できると彼は言います。派手な基調講演も、大きな会議でのライブデモもなく、ただプレスリリースとウェブページ、ツイートだけでした。
Xでは、タリフィの発表はほとんど注目されなかった。「世界初のAGI対応モデル」の宣言がなされた投稿は、AI YouTuber TheAIGRID が分析を録画したときには約565回のビュー、5回のリツイート、6回の「いいね」を記録しており、この数字は moonshot AI のマイルストーンというより、ランダムな開発ログに近い。毎回のGPTアップデートで盛り上がる分野において、これほどの静けさはほとんど非現実的に感じられる。
インテグラルは、 gimmickyなチャットボットや微調整された言語モデルを売り込んでいるわけではありません。タリフィは、彼のシステムがAGIのより厳密な三部構成の定義を満たしていると主張しています:キュレーションされたデータセットなしでの自律的なスキル習得、壊滅的な失敗なしの安全かつ信頼できる習得、そして同じスキルを学ぶ人間と同等かそれ以上のエネルギー効率。彼はこれを、今日の力任せでデータを大量に消費する大規模言語モデルへの直接的な反論として位置付けています。
その会社は、視覚、言語、音声、物理センサーからのマルチモーダルな入力をもとに階層的な世界モデルを構築する「ユニバーサルシミュレーター」を構築するアプローチを説明しています。これらのシミュレーターは、経験を人間の新皮質に似た層状の抽象に圧縮し、未来予測を用いて行動を計画するとされています。あるデモでは、具現化されたエージェントが3Dの家をナビゲートし、「家のどこかにノートパソコンを置き忘れたか?」といった質問に答え、未知の家具や壁、物体について推論を行います。
では、なぜこの大胆な主張が、シングルデジットのエンゲージメントとほとんどメインストリームの報道もなく着地したのでしょうか?可能性は二つの不快なカテゴリに分かれます。一つは、インテグラルが真の建築的ブレークスルーを達成したが、その展開をこれほどまでに失敗してAI界が肩をすくめたか、もう一つは、その主張があまりにも大げさで証拠が薄いため、研究者たちがそれを暴く価値さえないと判断したかです。
この調査は、その緊張関係を追跡します。ジャド・タリフィとは誰なのか、インテグラルAIが実際に何を構築したのか、そしてなぜ想定されるAGI対応システムがほぼ完全な沈黙に至ったのかを明らかにします。
Googleのコアから静かな革命へ
ジャド・タリフィは、ハイプ商人のようには見えません。彼は元グーグルの研究者で、人工知能の博士号を持ち、確率モデリングや深層学習に関する履歴書を持ち、人間の新皮質にインスパイアされたシステムに長年の執着を抱いています。グーグルでは、初期の生成AIの取り組みをリードし、現在の1000億パラメータ規模の大規模言語モデルに先立つモデルに取り組んでいました。
グーグルの研究機関の内部で、タリフィはより構造化された、世界を意識したシステムを推進していましたが、会社はスケーリングの法則と膨大なテキストコーパスに注力を続けました。この緊張関係は、彼が地球上で最も強力なAIラボの一つを離れた理由を説明しています。2022年には、彼は東京で静かにIntegral AIを設立し、次のAIの段階はより多くのトークンやGPUではなく、物理的な世界を理解し動くエージェントであると賭けました。
日本はフロンティアAI企業を構築するには奇妙な場所に思えるかもしれませんが、ロボットの存在を考えればその印象は変わります。タリフィは「体現されたAGI」について、SF的な装飾ではなく、厳然たる要求として語ります。動物や人間のように学ぶシステムであり、センサー、身体、制約を備えたものです。日本は産業用ロボット、消費者向けロボット、製造業において豊富なリソースを持っており、シリコンバレーではあまり触れられないハードウェアパートナーやテストベッドへのアクセスを提供しています。
タリフィは公然と現在の「AIスケーリング」の教義に対して厳しい批判を展開している。彼は、パラメーターとデータを盲目的に積み重ねることが、基準値を暗記するだけで現実をモデル化できないもろいブラックボックスを生み出すと主張している。インタビューや長いTwitterスレッドの中で、彼は異なるレシピを推奨している:効率性、明示的な世界モデル、そして受動的にトレーニングデータを反復するのではなく、自律的にスキルを習得するエージェント。
その立場は、サム・アルトマン、ダリオ・アモデイ、デミス・ハサビスのような創業者たちと対立している。彼らは依然として進歩を計算能力とスケールの問題として捉えている。多くの騒がしいAGIの預言者たちとは異なり、タリフィは実際に限られた会社の一つで大規模なモデルを構築し、その後、競合するパラダイムを追求するために離れた。だからこそ、彼が「自らのスタートアップが世界初のAGI対応システムを主張しているが、誰もそれについて話していない」と言うとき、その主張は周縁からではなく、主流をデザインした一人から来ている。
一般知能のための新しいルールブック
AGIの議論は通常、雰囲気で始まり、手を振ることで終わります。しかし、インテグラルAIはそれを仕様書で置き換えようとしています。東京のスタートアップは、ローンチページやプレス資料において、AGIを3つの厳しい制約を満たすシステムとして定義しています。これらの制約は、自律的なスキル学習、安全で信頼できる習得、そして人間レベル(またはそれ以上)のエネルギー効率です。
その定義は、今日の大規模言語モデルを即座に脇に追いやります。GPTスタイルのシステムは、事前に消化されたインターネットテキストの中で内挿することはできますが、自ら目標を設定したり、自らデータを収集したり、新しい領域をゼロから学習したりすることはありません。Integralの主張は、システムがこれら三つをすべて実行できない限り、「まだAGIではない」とは言えず、構造的に間違った方向を向いているということです。
基準の一つ、自律的スキル学習は、今日のAIを支配するデータ依存型のトレーニングパイプラインをターゲットにしています。インテグラルは、AGI対応システムは「既存のデータセットや人間の介入に頼らず、新しい領域で独自に新しいスキルを教え込む必要がある」と述べています。つまり、キュレーションされたベンチマークコーパスはなく、強化学習の報酬設計もなく、新しいタスクをブートストラップするための人間の介入によるラベリングも存在しないということです。
実際には、これはチャットインターフェースというよりも好奇心旺盛なロボットのように見えます。このモデルは新しい環境で目標を受け取り、探索し、世界モデルを構築し、時間をかけて行動を洗練させます。もしこれが精査に耐えるものであれば、静的なデータセットとパラメータのスケーリングだけで一般知能に到達できるという考えに対する直接的な反論となるでしょう。
基準二、安全で信頼性のある習得は、強化学習における「迅速に動き、物事を壊す」という精神に異議を唱えます。インテグラルは、システムは「副作用や壊滅的な失敗なしに学習しなければならない」と主張しています。彼らの例は直接的です:料理を学びながら家を火事にするキッチンロボットは、すでにAGIテストに失敗しています。
それは安全性を学習ループ自体に組み込むものであり、単なる事後フィルターとしてではありません。適格なシステムは、危険な状態を予測し、不確実性を定量化しつつ、リスクのある探索経路を避けながらも改善を続けるための組み込みメカニズムが必要です。ロボティクスや具現化されたAIにおいては、ポリシーを収束させるよりもはるかに難しい問題です。
基準三、エネルギー効率は、現在のAIへの最も鋭い批判の一つですが、最も静かでもあります。Integralは「学習の総コストは、同じスキルを習得する人間と同等か、それ以下でなければならない」と明言しています。フロンティアLLMを訓練するにはメガワット時を消費することがありますが、人間が運転を学ぶためには数百時間の練習と約20ワットの脳のエネルギーがあれば足ります。
AGIをエネルギー予算に結びつけることで、Integralはブレuteフォースでのスケーリングが定義上不適格であると述べています。小さな都市のサイズのデータセンターを必要とする一般知能へのいかなる道も、彼らの基準を満たしません。彼らの完全な議論と「AGI対応」デモ環境は、会社のウェブサイトにあります: Integral AI – 公式ウェブサイト。
「予測エンジン」の監獄からの脱出
現在の大規模言語モデルは次トークン予測によって生きるか死ぬかしています。トリリオンの単語を与えられると、それらは驚くべきオートコンプリートエンジンに変貌しますが、それでもなお、予測のみのシステムとして機能しています。持続的な世界モデル、明示的な概念、因果関係の理解が欠けています。インテグラルAIの提案は、その束縛から抜け出すことから始まります。
単に統計的相関を学ぶのではなく、Integralはそのモデルが明示的で階層的な世界モデルを構築すると述べています。人間の新皮質の層状構造に触発され、視覚、言語、音声、シミュレートされたセンサーデータといった生の感覚ストリームを再利用可能な抽象概念に圧縮します:オブジェクト、関係、動的要素。それらの抽象概念は積み重なり、ピクセルから物理学、計画へと至る塔を形成します。
インテグラルはこれを「普遍的なシミュレーター」と表現し、経験を再帰的に構築することで成長します。最下層では、モデルが2Dおよび3D環境からのマルチモーダルな入力を取り込みます。上層は部屋、目標、戦略を表現し、エージェントは「家のどこかにノートパソコンを置き忘れたか?」といった質問に対して、スクリプトを暗記するのではなく内部マップを基に推論することができます。
トレーニングは通常の受動的な学習ループを反転させます。静的なデータセットを単に集めるのではなく、エージェントはインタラクティブラーニングを活用します。エージェントは探索し、質問をし、サブゴールを設定し、モデルを洗練させるために内部実験を行います。Integralは、エージェントが「可能な未来」をサンプリングし、各想像された軌道について、クエリにどれだけうまく答えたりタスクを完了したりするかでスコアリングする様子を示しています。
そのループは、凍結されたLLMチェックポイントよりも人間の科学者に近いように見えます。システムは環境に関する仮説を提案し、それをシミュレーションでテストし、抽象化を更新し、そして繰り返します。監視は、人間のラベルやキュレーションされたベンチマークからではなく、予測誤差やタスクの成功から来ています。
そのような構造は、深層学習の最も醜い失敗の一つ、壊滅的忘却に直接対処します。従来のネットワークは、新しいタスクに微調整される際に古い知識を上書きしてしまいます。インテグラルは、階層的な世界モデルが更新を特定できることで、関連する抽象層だけを調整し、「マグカップがどこにあるか」を学ぶことが「ドアがどう機能するか」を消去しないと主張しています。
エージェントは経験を再訪し再圧縮できるため、インテグラルは真の生涯学習をサポートすると主張しています。スキルは入れ替えられるのではなく、蓄積されていきます。アーキテクチャがスケールする場合、すべてのドメインごとに新しいモデルをトレーニングする必要はなく、過去を保持しつつ次の事柄を吸収する一つの脳を育てるのです。
AGIの実践:デモが本当に示しているもの
AGI、インテグラルスタイルは、まばらな3Dハウスで始まります。具現化されたエージェントが、地図もなく、エゴセントリックなRGB入力と自然言語のクエリリストのみを持って、知らない環境に出現します。「寝室にマグカップを置き忘れたかな?」「リビングルームの壁の色は? 」といった質問です。エージェントは移動し、潜在的な「メンタルマップ」を構築し、未来予測を用いて次に見るべき場所を選び、再びシーンをスキャンするのではなく、記憶から質問に答えます。
Integralは、エージェントが複数の可能な未来をサンプリングし、それらが現在の質問を解決する可能性に基づいてスコアを付け、最も価値の高い軌道に従って行動することを述べています。これは、単にフレームごとに反応するのではなく、学習された世界モデルに基づいて計画を立てる、古典的なモデルベースの強化学習を新皮質のメタファーで表現したものです。印象的なエンジニアリングですが、同様の探索と質問応答の設定は、DeepMindのDeepMind LabやMetaのHabitatの研究で何年も前から見られています。
第2のデモは、1つの画像と瞬時に動くバーチャルアイに縮小されます。システムはシーン全体の各ピクセルをフル解像度で処理するのではなく、迅速かつ区切られた「サッケード」を実行し、物体を分類するためにごく少数のパッチのみをサンプリングします。Integralは、これはエネルギー効率の良い人間の視覚のアナロジーであり、劇的に少ないデータから正確な認識が得られると主張しています。
そのアイデアは、MNIST上の再帰的注意ネットワークから、GoogleのDRAWやRAMアーキテクチャに至るまで、数十年にわたる「ちら見」および焦点視モデルに遡ります。この新規性の主張は、Integralがこの考えをどれだけ抽象化の機械と緊密に結び付けているか、そしておもちゃの画像を超えてどれだけスケールするかにかかっています。標準的なCNNやVision Transformersに対するベンチマークや直接比較の数値がない限り、サッカードデモは革命というよりも概念実証のように感じられます。
第三のショーケースは計画を対象としています:倉庫番、認知科学者や強化学習研究者に愛されている倉庫を押すパズルです。Integralは、最初に遅く明示的な探索によってレベルを解決するエージェントを訓練します。これは心理学者がシステム2の推論と呼ぶものです。そして、徐々にそれを新しいパズルを数ステップで解決する速い「直感的」なシステム1の動きに凝縮します。
再度、この概念的な動きは既存の研究を反映しています:AlphaZeroスタイルの探索がポリシーネットワークに凝縮され、TreeQNやMuZeroのような「考えてから行動する」アーキテクチャが存在します。ソコバンは組合せ的な一般化のための正当なテストベッドですが、この分野では再利用可能なヒューリスティックを学ぶ多くのエージェントが見られました。Integralが学習曲線、サンプル効率の統計、およびより難しいバリアントへの一般化を発表するまで、これらのデモは強力に見えますが、まだ特異ではありません。
レッドフラッグ:証拠はどこにある?
赤旗は欠如から始まりますが、インテグラルAIには巨大な赤旗があります:査読付き論文がなく、オープンソースコードもなく、公開APIもなく、結果を再現するのに十分な詳細を含む技術報告さえありません。「世界初のAGI対応モデル」という強力な主張に対して、この空白は滑らかなデモリールよりも重要です。現時点では、唯一の証拠はマーケティングページ、プレスリリース、そして厳選された動画の中にしか存在しません。
自己定義された勝利条件は状況をより曖昧にします。インテグラルAIはAtari、Procgen、またはMineRLのような標準ベンチマークでのパフォーマンスを示さず、DreamerV3やGatoなどのベースラインとも比較しません。代わりに、独自の三部構成のAGI定義を導入し、外部の尺度なしに自身の基準に対して成功を宣言します。
その動きは、AIの過剰期待に見られるおなじみのパターンを反映しています:新しいメトリックを発明し、それをクリアして、厳しい比較を回避する。確立されたタスクに関する直接的な数値がなければ、インテグラルの「ユニバーサルシミュレーター」が実際に上手く調整されたPPOエージェントと大規模言語モデルを上回っているのか、それともすでに市販されているシステムと同等の性能を持っているのかを誰も判断できません。また、エネルギー効率と安全性に関する主張も、kWhの数値や実際のトレーニング時間、サンプル効率の曲線がないため、完全に定性的なままです。
それと対照的に、DeepMindの2017年の想像力強化エージェントの研究があります。DeepMindは完全な論文を発表し、アーキテクチャやトレーニングの詳細を公開し、Sokobanや迷路ナビゲーションのような標準的な強化学習環境で評価を行いました。研究者たちはアブレーション研究を検査し、学習曲線を再現し、「想像モジュール」が本当に不確実性の下での計画を改善したかどうかについて議論することができました。
Integral AIの3Dハウスツアーデモは、概念的には想像を補強するエージェントに非常に近いです。このエージェントは探索し、潜在マップを構築し、「家の中にラップトップを置き忘れたかな?」といった質問に答えます。DeepMindのバージョンはICMLでピアレビューを受けましたが、Integralのバージョンはブラックボックスの中にあり、環境の仕様や報酬関数がなく、他のプランナーとの比較もありません。
その不透明さが理由で、幅広いAIコミュニティはほとんど無関心です。コード、ログ、あるいは修正された技術的プレプリントがなければ、研究者は失敗モードを調査したり、単一のシミュレーターへの過剰適合をテストしたり、システムが玩具のアパートを超えてどのようにスケールするかを見ることができません。Integral AIが2017年のDeepMindのような具体的なものを提供するまでは、優れた研究所やレビュアーはAGI対応のラベルをマイルストーンではなくマーケティングと見なすでしょう、ジャド・タリフィの履歴書や彼のジャド・テフリ – LinkedInプロフィールに関わらず。
「自由ベースのAI」:アライメントのゲームチェンジャーか?
自由は、ジャド・タリフィの整合性提案の中心に位置しています。「悪い言葉を言わない」というスタイルのコンテンツフィルターでも、アシモフのようなルールのハードコーディングされたリストでもなく、人間の主体性自体を最大化すべき量と見なすシステムです。彼の枠組みにおいて、整合したAGIは単に害を避けるだけでなく、人間が知り、選び、行うことのできる範囲を積極的に広げるのです。
もろい安全パッチのスタックの代わりに、インテグラルAIは単一の明確な目標を持ちたいと考えています。それは「人間および集合的な行動力を最大化する」ことです。タリフィは「自由に基づくAI」について、報酬がより多くの人々がより意味のある選択肢を持つほど高くなる最適化問題として語ります。それによって、問いは「これは許されているのか?」から「この行動は長期的な人間の自由を増加させるのか?」へと変わります。
具体的には、AGIは可能な未来をシミュレートし、それらが私たちの行動の範囲をどのように変えるかによってスコアを付けます。権力を集中させる、監視を固定化する、または人々を単一の主体に依存させる計画はペナルティを受けます。一方で、知識を多様化させ、コーディネーションを改善し、ロックインを減少させる計画は報酬を得ます。
それには、自由というモデルが必要です。それは、単なる自由な言論の主張以上の豊かさを持っています。タリフィのバージョンは、エージェンシーの三つの軸を追跡します: - 知る:世界と自己についての正確なモデルへのアクセス - 選ぶ:偽りの選択肢や強制された選択肢ではなく、本当の選択肢 - 行動する:決定を実行するための道具、リソース、権利
これに包まれているのは、彼が「アライメント経済」と呼ぶものです。価値がエンゲージメントや広告のクリックに結びつくのではなく、価値は人間の自由の測定可能な増加に連動することになります。原則として、製品、政策、AIの行動はすべて、エージェンシーへの影響に対して価格が設定され、アライメントは哲学的な議論から経済的な信号へと転換されるのです。
懐疑的な人々は、自由をどのように定量化するのか、基準を誰が定義するのか、そしてどのようにゲームを防ぐのかを尋ねるでしょう。タリフィの答えは、これまでのところ、アライメントに対するスケーラブルな解決策はこれらの質問に直接取り組み、それを損失関数に組み込む必要があるということです。
「スーパーネット」:考える機械のインターネット
インテグラルAIは、ただ賢いチャットボットを求めているわけではありません。彼らが望んでいるのは「スーパーネット」です:工場、研究所、倉庫、電力網に直接接続された具現化されたAGIエージェントの地球規模のメッシュで、すべてが一つの進化する世界モデルを共有しています。
インテグラルの提案では、各エージェントがユニバーサルシミュレーターアーキテクチャをローカルで実行し、カメラ、力センサー、ロボット、PLCに接続されています。これらのエージェントは、単にテキストを予測するだけではなく、コンベヤーベルトを操作し、化学反応を調整し、組み立てラインを再構成しながら、ネットワーク全体で抽象概念やスキルを継続的に交換します。
スーパーネットは、今日のOpenAIへのAPI呼び出しのようには見えず、現実のための分散制御システムのように見えます。GPT-4oやジェミニがプロンプトボックスの背後にあるのに対し、インテグラルは次のことができるロボットの群れや組み込みコントローラーを想像しています:
- 1物理空間で新しいタスクを自律的に学習する
- 2共有された抽象概念を通じて他のエージェントと連携する
- 3人間の細かな管理なしで、複雑な計画を一貫して実行する
それは、テキストファーストのAIとは根本的に異なります。OpenAI、Google、Anthropicは主に、質問に答えたり、コードを書いたり、文書を要約したりするサービスとしてモデルを提供しています。Integralのビジョンはアクションファーストであり、言語は商品や工具、そして最終的には全体のサプライチェーンを直接動かす基盤への一つのインターフェースに過ぎません。
もしSupernetが宣伝どおりに機能すれば、その経済的影響はコールセンターやコピーライティングをはるかに超えます。「ベトナムに新しいバッテリー工場を立ち上げ、2029年までに10 GWh/年を達成せよ」と運営マネージャーが入力することを想像してみてください。そして、ネットワークがそれをサイト調査、シミュレーション、調達、ライン設計、建設スケジュールに分解し、それを実行するロボットや契約業者を動かすのです。
そのようなシステムは、人間の意図と実際の行動の間の遅延を解消します。物流ネットワークは需要の変動に応じて自動的に再構成され、薬物発見のラボはロボット化学者と共に24時間365日で試行を重ね、小規模な企業は高レベルの目標を掲げることで、今日の大企業に匹敵する製造能力を手に入れることができるのです。
社会的な影響も同様に明白である。整合した目標に忠実なスーパーネットは、生産性と脱炭素化を加速させることができるが、誤解されたりハイジャックされれば、資源の不適切な配分、インフラの混乱、または機械の速度での産業能力の武器化を引き起こす可能性がある。インテグラルの「具現化されたスーパインテリジェンス」は単なるモデルの階層ではなく、AGIを直接グローバル神経系に接続する提案である。
沈黙の音:なぜ静かな反応なのか?
インテグラルAIの発表に対する静けさは、タイミングと疲労から始まります。ラボや創業者からの何年にもわたるAGIのティーザーの後、AI業界は「世界初」の主張に対して厚いカラスを築いてきました。元Googleの創業者による565のビュー、5件のリツイート、6件の「いいね」がついたツイートは、日々のモデルローンチや「GPT-5はAGIになる」という見出しの背景に対してほとんど影響を与えません。
ハイプ疲れはフォーマットと交差する。インテグラルの大きな発表は、ヴァイラルなチャットボットではなく、静かに合成された部屋を探索する3Dエージェントに焦点を当てている。チャットボットはなく、公開APIもなく、ベンチマークリーダーボードへのエントリーもないため、明白なミームはなく、スクリーンショットもなく、TikTokに適した瞬間がないことで、主流にその主張を引き入れることはできない。
AIにおけるシグナルのヒエラルキーもまた、彼らに対して不利に働きます。市場を動かすスタートアップは、通常以下を持って登場します: - 権威ある学会の論文またはarXivのプレプリント - 大手VCからの重厚なタームシート - リーダーボードのトップに位置するベンチマーク結果
Integralはまだそれらのいずれも提供しておらず、プレスリリースと洗練されたデモリールのみです。NeurIPSの論文や1億ドルの資金調達なしでは、その主張はジャーナリスト、投資家、研究者がフィルターとして使用する制度的な手がかりを欠いています。
建築はもう一つの摩擦の層を追加します。タリフィはトランスフォーマーを調整しているのではなく、新皮質に触発された抽象と予測の「普遍的シミュレーター」を提案しています。注意層やスケーリング法則に深く浸った研究者にとって、オープンソースコードや数学がない独自の非トランスフォーマースタックを評価することは、高い労力を要し、見返りが不明瞭です。
専門家にとってのリスク計算や、報道のトレンドはここでは保守的です。独立した再現性なしに「AGI対応」システムを支持することは、評判の下落を伴い、ほとんど上昇の可能性はありません。深く関与したいアナリストは、むしろMIT Technology Review – Integral AIのシステムは本当にAGIなのか?のような、より遅く、懐疑的な分析を指摘しますが、広範なエコシステムはほとんど無関心で、スクロールを続けています。
歴史か、それとも誇張か?最終分析
歴史は、Integral AIを何か大きなものの静かな始まりとして記憶するか、またはAIのハイプサイクルにおける自信に満ちた別ルートとして記憶するかもしれません。書面上では、同社のケースは非常に魅力的に見えます。創業者であるジャド・タリフィは、Googleで初期の生成AIに関わった人物で、AIの博士号を持ち、数年間にわたり新皮質に触発されたシステムについて考えてきました。彼はスライドデッキを持ったランダムなYouTuberではなく、大手研究所が次世代のモデルを構築するために雇うような人物です。
インテグラルの今日のシステムに対する批判も的を射ている。現在の大規模言語モデルは依然として予測のみのエンジンであり、入力を出力にマッピングし、ベンチマークを記憶し、驚異的なエネルギーを消費しながら明示的な世界モデルを形成しない。インテグラルの提案である、階層的な「抽象と予測」のシミュレーターは、自律的にスキルを学び、学習中に安全を保ち、人間レベルのエネルギー効率を実現するものであり、今日のAIに対する最大の批判に直接応えるものである。
そして現実が突きつけられる:確認可能な証拠はほとんど存在しない。arXivに掲載された査読付き論文はない。オープンソースコードもない。サードパーティの研究所向けのAPIや制限付き研究プレビューさえない。フラッグシップの3Dデモは、具現化された超知性の一端を垣間見るというよりも、控えめな研究プロトタイプに近い印象を与え、同社は標準的なナビゲーション、計画、またはサンプル効率のタスクに対する定量的ベンチマークを提供していない。
コミュニケーションは効果がなかった。あるスタートアップが世界初のAGI対応システムを主張しているが、その情報はBusinessWireのプレスリリース、エンゲージメントの低いツイート、そして洗練されたが内容の薄いウェブサイトによるもので、誰もその話をしていない。技術報告も、アブレーションスタディも、GPT-4やClaude、あるいは最新鋭の世界モデルエージェントとの比較も存在しない。
現時点で、Integral AIのビジョンは革命的に思えるが、その主張自体は裏付けられていない。証明の責任は完全にタリフィと彼のチームにあり、AIの分野ではアーキテクチャ図や哲学的な議論は証拠とは見なされない。
もしこれが歴史なのか、単なる誇大広告なのかを気にするなら、次の三つのことに注目してください。詳細な 技術論文と実験結果、独立した 第三者のベンチマークが彼らの主張を再現していること、そして重要な資金調達ラウンドや研究所との提携です。少なくともこれらのうちの一つが現れるまでは、Integral AIは静かに未来を築いているのか、それとも静かに脚注に名前を残してしまうのかのどちらかです。
よくある質問
インテグラルAIとは何ですか?
インテグラルAIは、元GoogleのAI研究者ジャッド・タリフィによって設立された東京を拠点とするスタートアップです。彼らは、具現化された知能とロボティクスに焦点を当てた、世界初の「AGI対応モデル」を開発したと主張しています。
インテグラルAIのAGI主張は何が異なるのでしょうか?
彼らはAGIを三つの厳格な基準で定義しています:人間のデータなしでの自律的なスキル学習、壊滅的な失敗なしでの安全な習得、そして人間と同等のエネルギー効率。これはほとんどの定義よりも高い基準です。
AI専門家がこの主張に懐疑的な理由は何ですか?
主な懐疑の根源は、検証可能な証拠の欠如にあります。インテグラルAIは、技術論文を公開せず、コードをオープンソースにせず、独立した第三者によるベンチマークのためにモデルを提出していません。
具現化された超知能とは何ですか?
それは、テキストや画像を処理するだけでなく、ロボティクスを通じて物理的な世界を認識し、行動できるAGIの概念です。インテグラルAIの長期ビジョンは、彼らが「スーパーネット」と呼ぶこれらのエージェントのグローバルネットワークです。