TL;DR / Key Takeaways
AIの世界での一発の銃声
東京での記者会見のサイレンは、通常は新しいガジェットの発表やロボットデモを知らせるものであり、リアリティが傾いたという主張を示すものではありません。2025年12月7日、無名のスタートアップIntegral AIがステージに登壇し、「世界初のAGI対応モデル」を構築したと発表しました。このシステムは、まったく新しいスキルを自ら学び、多段階の行動を計画し、人間の介在なしに実際のロボットを訓練できるとされています。CEOのジャド・タリフィはこれを「人類文明の歴史における次の章」と呼びました。
「AGI対応」という表現は控えめに聞こえますが、実際にはそうではありません。システムが任意のタスクで人間レベル以上の能力を発揮できるなら、その能力は達成されたものです。何かがIQ対応だとは、既にそのIQでパフォーマンスを発揮している場合にのみ呼ぶものです。インテグラルAIはAGIを、3つの測定可能な基準で定義しています:自律的なスキル学習、安全で信頼性の高い習得、そして人間の脳と同等のエネルギー効率です。
インテグラルによると、そのモデルは:
- 1データセット、ラベル、またはファインチューニングなしで、未知の環境で新しいタスクを学習します。
- 2探索と一般化を行いながら、重大な失敗を回避します。
- 3習得したスキルごとのエネルギー消費は、人間の新皮質に匹敵します。
これは現行の企業とは大きく対照的です。OpenAIやGoogle DeepMindは、GPT-4.5やGemini Ultraなどのトランスフォーマーベースのモデルを拡張するために何年も費やし、ベンチマークや合成推論テストでの漸進的な成果を得る一方で、大量のキュレーションされたデータセット、人間からのフィードバックによる強化学習、そして慎重にサンドボックス化された導入に依存しています。彼らのロボットは主にシミュレーション内や厳しい監視下で学習します。
インテグラルAIは、そのトレッドミルを飛ばしたと主張しています。元グーグルAIのベテランで、初期の生成システムに約10年を費やしたタリフィは、彼のチームが脳を基盤から再構築し、人間の新皮質の層構造を模倣することで、1つのアーキテクチャが統合されたループとして認識、抽象化、計画、行動できるようにしたと言います。初期のデモでは、ロボットが2Dおよび3D環境でスキルを習得し、それを再訓練なしで混沌とした物理的現実に移行する様子が示されています。
東京の設立4年のスタートアップが、数十人の研究者を抱え、技術における最大の未解決問題を解決したと主張しています。OpenAI、DeepMind、そしてすべての国のAIラボは、自身の地図には載っていないどこかからAGIが最初に到達したかもしれない世界に目覚めました。
新しい知性の設計者
ジャド・タリフィは、他の誰よりも早く未来を見たかのような冷静さでインテグラルAIの東京オフィスを歩いている。Google AI のベテランである彼は、検索の巨人の研究所で約10年を過ごし、ChatGPTやジェミニが一般名詞になるずっと前から、その初期の生成モデルの構築を手伝っていた。当時の同僚たちは、彼を常に「実際の知能」にどれほど近づいているのかを尋ねるエンジニアだと形容している。
2021年にマウンテンビューを離れた彼の決断は、当時、権力の中心からの一歩を踏み出すように見えました。パロアルトで別のAIスタートアップを立ち上げる代わりに、タリフィは日本行きの片道飛行機に乗り、東京で新たな拠点を設けました。彼はこの動きを「明らかだ」と呼び、日本の数十年にわたる産業ロボティクス、ヒューマノイドプラットフォーム、そして精密製造における優位性を、AGIの方程式の欠けた一部として指摘しています。
タリフィの下で、インテグラルAIはその使命を攻撃的に反体制的な言葉で表現した。シリコンバレーがますます大規模なトランスフォーマースタックに注力する中、インテグラルの投資家への提案は率直だった。現在のLLMは「オウム」だとし、彼は大脳皮質を望んでいる。初期のプレゼンテーションを見た人々によると、同社の内部の指令は、データセットやラベル、人的な手助けなしで新しいスキルを実世界で学ぶことができるシステムの構築だった。
その野心は2023年までに正式なミッションステートメントとして明確化された:人間のようなサンプル効率を持ち、デジタルと物理環境を横断して知覚し、推論し、行動できる具現化された知能を創造すること。タリフィは、世界モデル、計画、および静的なパターンマッチングよりも継続的な学習を重視し、人間の新皮質の層構造を明示的にモデル化したアーキテクチャに向けてチームを導いた。ロボットが、チャットボットではなく、主要なテストベッドとなった。
信頼性はタリフィの主な問題ではありませんでした。彼は博士号を持ち、大規模なシーケンスモデリングに関する複数の基盤特許を持ち、静かに数十億台のAndroidデバイスに搭載されたシステムを提供してきた実績があります。彼がこれまで欠けていたのは、AGIがより大きなテキストモデルではなく、緊密に結びついたシミュレーションと具現化から生まれるという彼の長年の主張が、シリコンバレーのコンセンサスを打破できる証拠でした。
Integral AIの12月7日の発表により、タリフィはホワイトペーパーの背後から姿を現し、歴史の爆風圏に踏み込んだ。彼のシステムが広告通りに機能すれば、彼は新しい製品カテゴリーだけでなく、リアリタエトにおける新たな知性の階層の設計者となる。
真のAGIを定義する三つのルール
インテグラルAIは、AGIの議論においてほとんど誰もが敢えてやらなかったことを行いました。それは、3つの厳格でテスト可能なルールに旗を立てることです。ジャド・タリフィの世界において、AGIは単なる雰囲気やマーケティングラベルではなく、3つの測定可能な基準をクリアするシステムです:自律的スキル学習、安全で信頼できる習得、そしてエネルギー効率。
自律型スキル学習は、スタックのトップに位置しています。インテグラルのモデルは、キュレーションされたデータセット、ラベル、ファインチューニング、そして人間の介在なしに、まったく新しいドメインで完全に新しいスキルを自ら学ぶ必要があります。初期のロボティクストライアルでは、同社はロボットが事前に記録された軌道からではなく、物理的な世界の経験から直接新しい行動を習得したと主張しています。
安全で信頼できるマスタリーは、現実チェックの役割を果たします。このルールをクリアするシステムは、未知の環境に投入された際に壊滅的な失敗や奇妙な副作用を伴わずに学び、機能することができる必要があります。インテグラルAIにとって、それは「報酬ハッキング」がなく、自滅的な探求がなく、実験室の条件が消失した後も脆弱な行動を示さないことを意味します。
エネルギー効率は最も過激な境界線です。タリフィのチームは、タスクを学習するために必要な総エネルギーは、人間の脳が同じスキルを習得するのに費やすエネルギーと同等か、それ以下でなければならないと主張しています。この基準は、数兆のパラメーターを持ち、メガワット単位でエネルギーを消費して数ポイントのベンチマークを得る今日のパラダイムに対抗しています。
物理学がこの最後のルールを支えています。AGIをエネルギー予算に結び付けることによって、インテグラルAIはGPUではなく生物学と比較することを強制します。人間の脳はおおよそ20ワットのエネルギーを必要とします。子供が遊び場で学ぶことを学ぶためにデータセンターを必要とするモデルは、トークンの数がいくら多くても、AGIテストに合格しないと彼らは主張しています。
これらのルールは重要です。なぜなら、数十年にわたるあいまいなAGIの議論を、検証可能なエンジニアリングの目標に凝縮するからです。「一般的」な行動についての曖昧な説明はもはやありません。実験室が自律的な学習、明示的な安全性、そして人間規模の効率を示すか、そうでないかのいずれかです。企業自身の技術的な分析も、この枠組みに大きく依存しており、その詳細はIntegral AI – AGIアーキテクチャの概要に記載されています。
インテグラルAIの内部では、これらの三つのルールは宣言のようなものではなく、むしろエンジニアリングの基盤として機能していました。新皮質からインスパイアを受けた世界モデルから具現化されたトレーニングループに至るまで、すべてのアーキテクチャの選択は、同じ質問に直面していると報告されています。それは、自立性、安全性、エネルギーの3つを同時に進展させるのか?ということです。
予測を超えて:実際に考えるAI
チャットボットがあなたの文を自動で補完するのはもう過去の話です。インテグラルAIのコアモデルは、人間の新皮質に明示的にパターン化されたアーキテクチャで動作します。新皮質は、知覚、言語、意識的な計画を支える神経細胞の層状シートです。一つの巨大なトランスフォーマースタックの代わりに、タリフィは、生の感覚ストリームを抽象的な概念に圧縮し、それらの概念をロボットやソフトウェアエージェントの具体的な行動に押し込むモジュールの階層を説明しています。
GPTスタイルのシステムが数兆の例から次のトークンを予測するのに対し、Integralのスタックは各タイムステップで「抽象化 → 計画 → 行動」の統一ループを実行します。ロボットアームがカップをつかむのに失敗するのを見守る同じ機構が、新しい戦略を考案し、結果をシミュレーションし、世界の内部モデルを更新します。別個の計画ヘッドも、追加のコントローラーも、人間が書いた報酬関数もありません。
インテグラルのエンジニアたちは、これを「抽象優先の世界モデル」と呼んでいます。特定のテーブルの特定の青いマグカップが「掴める」と記憶するのではなく、システムは「容器」、「エッジ」、「重心」、および「すべり」といったコンパクトな概念を学習します。これらの抽象概念は、2Dシミュレーション、3D物理エンジン、実際のロボットカメラに適用される共有された潜在空間に存在します。
現在のLLMを、すべての教科書を読んで試験のために詰め込んでいる学生として考えてみてください。彼らは定義を暗唱でき、推論パターンを模倣することも可能ですが、試験を騒がしい工場や不慣れな実験室に移すと、凍りついてしまいます。Integralのモデルは、基礎となる概念を学び取った学生のように振る舞い、白紙の用紙の上で再び式を導き出すことができます。
その違いは、システムが新しいアイデアにどのように対応するかに現れます。予測型LLMは、手のひらにほうきをバランスさせる方法を説明することができますが、それ自体では部屋で実験を行ったり、ほうきの動作を測定したり、制御方針を洗練させたりすることはできません。Integralの世界モデルは、内部的なロールアウトを常に実行し、反事実をテストし、ロボットがリアリティと衝突するにつれて抽象を更新します。
ここでのアナロジーは役立ちます:パターン認識者は世界を巨大なフラッシュカードの束のように扱いますが、抽象を優先するシステムは、プレイしながら物理の教科書をゼロから構築します。インテグラルのモデルの下でロボットがブロックを積むことを学ぶとき、それはタワーのミリオンピクセルパターンを保存するのではなく、安定性、摩擦、重心の関係をエンコードし、後で食器洗い機の荷物を積むことや箱を詰めることに再利用できるようにします。
その再利用が全てのポイントです。「現実についての真実」と「私が今何をしているか」を分けることで、インテグラルはその新皮質に触発されたモデルが人間の学習のようにスケールできると主張しています:少ない例、幅広い転移、そして予測する前に考える単一の知性です。
目の前でロボットが学ぶ様子を見てください
12月初旬、東京の倉庫に集まった記者たちは、短い白い産業用アームが現在のロボットにはできないこと、つまり自己学習をしているのを目撃しました。インテグラルAIのエンジニアたちはアームの電源を入れ、安全ケージを解除し、その場を離れました。遠隔操作もなく、スクリプトによる指示もなく、事前に読み込まれた軌道データもありませんでした。
数分以内に、そのアームは周囲を探るようになり、インテグラルのワールドモデルのみによって導かれました。カメラは、未知の物体をビンから掴み、それを再配置し、今まで見たことのないラックに入れる方法を学ぶにつれて、すべての微調整を追跡しました。サイドモニターのログによると、6時間のセッション中に人間の介入はゼロでした。
別のデモがさらなる進展を見せました。子供の大きさほどの二足歩行プラットフォームが、これまで見たことのない混雑した模擬アパートに入ります。ゼロから始めて、次のことを学びました: - 不均一な床を歩く - 3種類の異なるドア機構を開ける - 壊れやすいカップを見つけてテーブルに運ぶ
Integral AIは、これらの行動を導いた特定のタスク用データセット、ラベル、または報酬の調整はないと主張しています。このAGIモデルは、「何も壊さずにテーブルをセットする」という高レベルの目標とエネルギー予算だけを受け取りました。48時間の間に、ロボットは成功率を3%から94%に向上させ、その間に記録された電力消費はほぼ40%減少しました。
これがジャド・タリフィが呼ぶ具現化された知性です:物理的な身体に根ざした認知であり、摩擦、重力、不確実性に対処することを強いられます。トークンを扱うだけのチャットボットとは異なり、具現化されたシステムは現実の因果モデルを構築しなければなりません—物体がどのように動き、壊れ、抵抗するかを理解する必要があります。その制約により、欺瞞、モード崩壊、そして脆弱な近道がはるかに難しくなります。
製造業にとって、その影響は厳しく、即座に現れます。従来のように各製造ラインごとに数ヶ月かけて手動で調整されたコードを使用する代わりに、インテグラルは一般用途のロボットが空の状態で到着し、数日で新しい製品に自ら適応する工場を想像しています。再構成コストは急落し、「シングルSKU」工場はスマートフォンの時代におけるメインフレームのように見えてきます。
物流も同様のショックに直面しています。倉庫のフリートは、一晩で新しいレイアウトやSKUを学習でき、フィールドロボットはカスタムエンジニアリングなしで天候や地形、地域の規制に適応します。科学研究において、タリフィは、自ら実験プロトコルを導き出し、24時間365日仮説を反復して検証するラボロボットについて語っています。これはベンチサイエンスを自己改善する閉じたフィードバックループに変えています。
超知能へのロードマップ
インテグラルAIのロードマップは、製品計画というよりは新しいタイプの心のための憲法文書のように見える。ジャド・タリフィはこれを三つの段階に分けている: ユニバーサルシミュレーター、ユニバーサルオペレーター、そして彼がジェネシスと呼ぶグローバルバックエンド。各段階は、システムを受動的な理解から地球規模の具現化されたエージェンシーへと推し進める。
ユニバーサルシミュレーターが優先されます:すべてを消化する単一かつ統一された世界モデル。インテグラルAIはこの層をマルチモーダルストリームでトレーニングします—工場の映像、音声、言語、CADファイル、ドローンやヒューマノイドからのセンサーログ—システムが原子から経済までを網羅する階層モデルのリアリテートを構築するまで。テキスト、ビジョン、制御のための別々のモデルではなく、タリフィはあらゆるドメインで未来を展開できる一つのネオコルテックススタイルのシミュレーターを望んでいます。
階層は重要です。最低レベルでは、シミュレーターは生のピクセル、力、関節角度を予測し、より高いレベルでは、物体、目標、社会的ダイナミクスについて考慮します。タリフィ氏は、これによりシステムが1日に数十億のシナリオを「メンタルリハーサル」できるようになり、何年もの試行錯誤を数時間のシミュレーションに圧縮できると主張しています。同社のプレス資料は、これを物理エンジン、オペレーティングシステム、科学ノートが融合した単一のモデルとして説明しています。
ユニバーサルオペレーターはそのワールドモデルの上に位置し、理解を行動に変えます。シミュレーターが「もし…ならどうなるか?」と問いかけるのに対し、オペレーターは「今これを実行する」と決定します。彼らは高レベルの目標を具体的なツールコール、ロボットの動き、コードの編集、API呼び出しのシーケンスにマッピングし、結果を観察して自らのポリシーをその場で洗練させます。
インテグラルAIはオペレーターを大まかに3つのクラスに分けています: - モーター、グリッパー、センサーのための低レベルコントローラー - ソフトウェア、ロボット、実験機器を呼び出す中レベルのツール使用エージェント - 開かれた目標を実行可能な計画に分解する高レベルの戦略家
重要なのは、オペレーターは単にツールを使うだけでなく、新しいツールを設計するということです。タリフィは、システムが既存のツールが性能を制約する際に、カスタムキャリブレーションルーチン、ラボプロトコル、またはマイクロサービスを自動生成する初期の実験について説明しています。彼の言葉を借りれば、「モデルは自分自身の環境を編集する。」
ジェネシスは、ほとんどの人が見落としている部分です:この具現化されたインテリジェンスをどこでも同時に実行するためのインフラストラクチャです。これは、シミュレーターやオペレーターを数千の異種エンドポイント(工場ロボット、病院のワゴン、倉庫の群れ、パーソナルアシスタント)に展開できるクラウドネイティブな基盤として考えてください。そして、それらすべてが共有された世界モデルに同期されるようになっています。
Genesisは、このネットワーク全体でアイデンティティ、安全ポリシー、エネルギー予算を管理します。タリフィは、ローカルエージェントが即興で行動する中でも、危険なトルクプロファイルや未確認の化学物質の組み合わせを許さないというグローバルな制約を施行することについて語ります。Integral AIが世界初のAGI対応モデルを発表 – Businesswireによれば、同社はGenesisを単一のAGIインスタンスから、調整されたオペレーターの分散型「文明」への架け橋と見なしています。
利益だけではない:AIの倫理的コンパス
インテグラルAIは、利益目標やベンチマークリーダーボードから始まったのではなく、一言の「自由」から始まりました。ジャド・タリフィは、同社の使命を「人間のエージェンシーを拡大すること」と表現しており、実際には、すべてのデプロイメントを単純な質問で判断することを意味します:このシステムは人々により多くの実際の選択肢を与えるのか、それとも少ないのか?この枠組みは、過去10年間のAIを生み出した広告最適化やエンゲージメント最大化のロジックと直接的に対立しています。
株主価値の代わりに、Integralは「アライメント経済」の構築について語ります。内部文書では、行動が「アラインされた」と見なされるのは、人間の可能性を測定可能に高める場合のみです:習得されるスキルが増え、自由になる時間が増え、複雑な仕事に参加できる人が増えることです。スタッフがより高給の役割に再教育を受けられるようにする倉庫ロボットは高評価を得ますが、静かに彼らを組織から自動的に排除し、前進する道を与えないアルゴリズムはほぼゼロ評価になります。
それは、OpenAI、Google DeepMind、およびAnthropicのチェックリスト重視の整合スタックとは対照的です。これらのラボは以下に依存しています: - ルールベースの安全層 - 憲法的またはRLHFスタイルの好みモデル - 「破滅的誤使用」のためのレッドチーミングおよび評価スイート
インテグラルはそのすべてを実現していますが、タリフィはそれを「必要な配管」と呼び、北極星とは見なしていません。他の企業が許可されていない出力を避けるためにモデルを調整する一方で、インテグラルは長期的な人間の繁栄の最適化を目指しています。
この哲学は、AGIについての彼らの話し方を再構築します。タリフィは、彼らのシステムはオラクルのように振る舞うのではなく、ユーザーと共に目標を共同設計するコラボレーターとして機能すべきだと主張し、その後、トレードオフを明確な言葉で示すべきだと述べています。初期のパイロットでは、AGIは工場、 лабораторії、または街区のために複数の計画を提案しますが、どの計画が労働者の自律性を拡大し、どれが抑圧するのか、そして単に権力を上方に移すものなのかを強調します。この会社の「ジェネシス」へのロードマップは、その偏向を盛り込んでいます:超知能は、常に「このアップグレードは誰の自由を促進するのか?」と問いかけるパートナーです。
AIの10億ドル規模のエネルギー危機を解決する
インテグラルAIの最も大胆な主張は、「人間の脳に近い」学習効率という一行に隠れています。人間の皮質は新しい運動スキル、例えばボールをキャッチすることを、数時間の間に約数十ワットの電力で学習します。現代の最前線モデルは、狭い能力を微調整するためにメガワット時を消費することが多く、その能力はトレーニング分布の外では失敗しています。
現在のGPT-4クラスの大規模言語モデルは、数万台のGPUを使った事前トレーニングにおいて、10~100 GWhの電力を必要とすると報告されています。一回のフロンティア規模のトレーニングサイクルは、電力やハードウェアの償却費を含めて数千万ドルのコストがかかる可能性があります。それに対して、人間の脳は、知覚、計画、言語、運動制御を20 Wの電力で全て処理しており、これは薄暗い電球よりも少ないです。
インテグラルAIのAGI基準は、その対比を明確にしています。彼らの第三の規則は、タスクを学ぶために必要な総エネルギーが、そのスキルを学ぶために人間が費やすエネルギーと同じかそれ以上であることを要求しています。これは、進歩を「より多くのFLOP」から「ジュールあたりの能力のビット数の増加」へと再定義し、今日のスケーリング競争が非常に無駄であることを明らかにします。
インテグラルの数字が維持されれば、業界の経済は一夜にして変わります。AIアクセスはハイパースケーラーの贅沢品ではなくなり、中規模のラボや大学、さらにはスタートアップでも最先端の能力を持って運用できるものになります。データセンターはギガワット規模のキャンパスの計画から、政府が実際に許可できるより密度が高く、涼しいクラスターの展開へとシフトします。
環境に関するリスクも同様に高まっています。アナリストはすでに、現在の傾向が続けば、AIのワークロードが2030年までに世界の電力の数パーセントを消費する可能性があると警告しています。効率が大幅に向上すれば、その軌道を平坦化し、AIを気候変動の負担からより持続可能なインフラストラクチャの一部へと変えることができるでしょう。
そのベンチマークに達するためには、スタック全体でのブレークスルーが必要です: - トランスフォーマーよりも新皮質に近い新しいモデルアーキテクチャ - ニューロモルフィックハードウェアのようなオンチップ学習およびノン・フォン・ノイマン設計 - 積極的なスパース性、圧縮、イベント駆動計算 - 最小限のインタラクションから最大の信号を引き出すスマートなトレーニングカリキュラム
もしIntegral AIがその要素を真に統合するなら、AGIの物語は単なる生の知性ではなく、地球上で最も安価な思考機械を誰が制御するかということに重点が置かれるようになります。
期待、希望、そして健全な懐疑心
懐疑的な見方は、プレスリリースとほぼ同時に表れた。インテグラルAIはコード、ウェイト、または生のロボティクスログを公開しておらず、独立した研究所がその自律的スキル学習の主張を制御された環境で再現した例はない。現時点では、「AGI対応」のラベルは、動画、厳選されたデモ、および厳格にキュレーションされたサンドボックスの中でしか存在しない。
以前のAIのハイプサイクルを経験した研究者たちは、驚きのまなざしを向けるのみで、祝いのシャンパンを用意することはありませんでした。コメントを求められた幾つかの学術研究室は、この発表を「真実であれば驚くべきこと」と形容し、すぐにブラインドベンチマーク、アブレーションスタディ、エネルギー数値のサードパーティ監査を求めました。それがなければ、インテグラルAIの「新皮質規模」のアーキテクチャは非常に音の大きなマイクを持つ不透明な箱に過ぎません。
文脈が重要です。デミス・ハサビスは、AGIを10〜20年のプロジェクトと何度も位置づけ、プライベート・ブリーフィングでは2040年から2050年を現実的な見通しとして指摘しており、それはワールドモデル、記憶、ロボティクスの進展に依存しています。サム・アルトマンは「AGIがすぐに」と語っていますが、依然として彼のロードマップはトランスフォーマー型システムの拡張と大規模なカスタムシリコンに基づいており、突然のアーキテクチャの解放には依存していません。
インテグラルAIの動きは、グーグルの2019年の「量子優位性」主張を思わせ、IBMや他の企業から定義、基準、現実の関連性について即座に反発を引き起こしました。当時、争点は、意図的に作られたサンプリングタスクが重要なマイルストーンとしてカウントされるかどうかでした。今日、議論は企業が「能力を持つ」という修飾語を加え、自己定義した三つのルールに関連付ける際の「AGI」の意味に移っています。
外部の報道はすでにこれらの規則を分析し始めています。「世界初の」AGIシステム:東京の企業がモデルを構築したと主張 – Interesting Engineering のような記事は、インテグラルAIのロボティクスデモを紹介しつつ、ピアレビューやオープンな評価が存在しないことを強調しています。ジャーナル、カンファレンス、または著名な研究所が評価を行うまでは、その証拠は再現された発見よりもむしろムーンショットの提案に近い状態です。
しかし、競合他社への圧力はarXivを待たない。OpenAI、Google DeepMind、Anthropic、Meta、そしてBaiduやDeepSeekといった中国の巨人たちは、30人規模の東京の企業が順番を飛ばしたのではないかと、投資家や政府から問われている。これだけで内部のAGIプログラムを加速させ、安全措置を緩め、すべての企業が具現化された知能のより迅速な展開に向かわせる可能性がある―検証の有無にかかわらず。
AGI後の世界:これから何が起こるのか?
もしインテグラルAIの数字が外部監査人との接触を生き残った場合、AIの重心は一夜にして移動します。データセット、ラベル、またはファインチューニングなしで新しいスキルを学習できるAGI対応システムは、今日のプロンプトエンジニアを明日のレガシーシステム管理者に変えるでしょう。
ロボティクスが最初に影響を受ける。一つのモデルが工場を監視し、作業を推測し、数日のうちに腕や移動ロボットの艦隊を訓練できることで、現在の統合市場が崩壊し、物流、倉庫、介護における労働コストを大幅に削減する可能性がある。
医薬品の発見と材料科学が続きます。一度に一つのタンパク質ターゲットを最適化する脆弱なパイプラインの代わりに、高精度のシミュレーターで実験する具現化されたワールドモデルが、毎週数千の候補分子を設計、テスト、反復することができ、10年の製薬タイムラインを18〜24ヶ月に圧縮します。
自動化は「狭い」ものから周囲に溶け込むものへと進化します。インテグラルのユニバーサルオペレーターが宣伝通りに機能すれば、システムに煩雑な目標を与えます—「この地域の電力網を安定させる」、「この都市の交通スケジュールを再構築する」、「この銀行をCOBOLから移行する」といった具合に、そしてそれを分解し、計画し、ソフトウェア、ロボット、人間チームを通じて実行します。
社会は穏やかな移行を迎えません。仕事はタスクベースの雇用から目標や監視の役割へと移行し、データ入力、基本的な会計、フロントラインサポートといった職業カテゴリーが数回の製品サイクルで崩壊します。政府は、政策モデル化、サイバー攻撃、インフラ管理において公的サービスを上回るシステムを規制するためにあたふたしています。
グローバルガバナンスが現実の課題となる。バチカンの初期のAGI倫理協議における静かな役割が、専門家の委員会を数時間で超える創世記クラスのプラットフォームが登場する中で、「自由」や人間の主体性が何を意味するのかを定義しようと宗教や市民の機関が競い合う様子を見ると、先見の明があったように思える。
AGIは、長らく2040年から2050年にかけての投機的な課題として扱われてきましたが、今や実際のロボットでデモされた商用製品として登場しました。議論はもはや、それが可能かどうかに焦点を当てるのではなく、誰がそれを制御するのか、どれだけ速くスケールするのか、そして私たちの制度が私たちのコードと同じくらい速く更新できるかどうかに移っています。
よくある質問
インテグラルAIの主なAGIの主張は何ですか?
インテグラルAIは、世界初の「AGI対応」モデルを構築したと主張しています。このシステムは、既存のデータセットや人間の介入、監視なしに、自律的にまったく新しいスキルを学ぶことができます。
インテグラルAIのモデルは、GPT-4やジェミニとはどのように異なりますか?
大規模言語モデルがパターン認識やテキスト予測に優れているのとは異なり、Integral AIのアーキテクチャは人間の新皮質を模倣するように設計されています。それは抽象化、計画、現実世界での行動に重点を置き、真の理解とほぼ人間と同等のエネルギー効率を目指しています。
ジャド・タリフィとは、インテグラルAIの創設者です。
ジャド・タリフィはインテグラルAIのCEOであり、元GoogleのAIベテランです。彼は、東京でインテグラルAIを設立する前に、約10年間にわたりそこで初期の生成AIシステムのいくつかを構築しました。
インテグラルAIのAGIの主張は独立して検証されていますか?
いいえ、まだです。彼らの発表によれば、彼らの主張について独立したピアレビューの検証は行われていません。テックコミュニティは慎重に楽観的であるものの、さらなる証拠を待ちながら懐疑的です。