Googleの2026年AIマスタープランが明らかにされる

グーグルのAI責任者デミス・ハサビーは、現実の世界で視覚、聴覚、行動を持つ画期的なAIのタイムラインを明らかにしました。2026年までに、彼らの「オムニモデル」戦略は業界を制覇するためのオールインワンAIを創出することを目指しています。

Stork.AI
Hero image for: Googleの2026年AIマスタープランが明らかにされる
💡

TL;DR / Key Takeaways

グーグルのAI責任者デミス・ハサビーは、現実の世界で視覚、聴覚、行動を持つ画期的なAIのタイムラインを明らかにしました。2026年までに、彼らの「オムニモデル」戦略は業界を制覇するためのオールインワンAIを創出することを目指しています。

グーグルのAIチーフによる2026年の予言

Axiosはデミス・ハサビスにシンプルな質問を投げかけました:今から1年後、AIのどのような変化を感じるでしょうか?彼は通常のモデルパラメーターの変更を超えたロードマップを示し、Googleのジェミニがチャットボックスであることをやめ、日常生活のインフラとして機能し始める世界を描きました。

Axios AI+サミットで、ハッサビスは厳しいタイムラインを繰り返しました:次の12ヶ月はマルチモーダルの融合の時代です。ジェミニはすでにテキスト、画像、ビデオ、音声を取り入れています。彼は、これらのモダリティが単なる追加機能から脱し、交差していくことで、本当の飛躍が訪れると述べています。これにより、言語モデルが視覚、音、動きに対して直接推論できる、1つの統合されたシステムが実現します。

ハッサビスは、Googleの最新の画像システム「ナノバナナプロ」を概念実証として挙げました。このモデルは、単に美しい画像を描くだけでなく、正確なインフォグラフィックを構築し、複雑なシーンを解析し、自身の出力を繰り返し改善します。フィルターのようではなく、言語モデルに接続されたビジュアルアナリストのように振る舞います。

その同じ哲学が、ジェミニのより広範なポジショニングを推進しています。ハサビスは、ジェミニを「ユニバーサルアシスタント」として売り出しており、単一のアプリやウェブサイトではなく、電話、ノートパソコン、自動車、そして最終的には眼鏡で動作するレイヤーとして、質問に答えたり、あなたの行動を監視したり、Googleアカウント内のドキュメント、スプレッドシート、コードを操作したりします。

ハッサビスの短期的な枠組みでは、旅行の計画、契約の草案作成、コードベースのデバッグといった全体のタスクを委任すると、ジェミニによって動かされるエージェントがそれをエンドツーエンドで「ほぼ」完了させます。彼は、現在のエージェントがツールやAPIを緩く扱っているために失敗していると主張しています。緊密に統合されたマルチモーダルなジェミニは、観察し、聞き、読み、そして一つの連続的なループの中で行動することができます。

この「2026年マスタープラン」というナラティブを引き起こしたYouTube動画は、12か月のAxios予測をもとに、それをフルオムニモデルの視野に広げています。2026年までには、ジェミニは一つのスタックで6つのモダリティを網羅すると主張しています: - テキスト - 画像 - ビデオ - オーディオ - 3D - ロボティクス

それは、ハッサビスがステージ上で述べたよりも攻撃的なタイムラインです。彼の公の予測は、マルチモーダル融合とアシスタントのような行動に関する次の1年に中心を置いていますが、クリエイターたちは2026年を予測しており、その頃にはジェミニが製品ファミリーとしての役割を終え、グーグルの全エコシステムのための単一の世界モデルを持つ脳のように見えるようになると考えています。

「フルオムニモデル」スタックのデコード

イラスト:『フルオムニモデル』スタックの解読
イラスト:『フルオムニモデル』スタックの解読

Omnimodelは、Googleの新しい流行語で、テキスト、画像、動画、音声、3D、およびロボティクスの6つのモダリティを同時にカバーする単一のAIスタックを指します。ハサビスは、脆弱なAPIでつなぎ合わされた別々の専門モデルの代わりに、すべての言語を自然に話す1つの基盤モデルファミリー、Geminiを備えた統合システムを説明しています。

今日の「マルチモーダル」システムは主に視覚を言語に結び付けたり、テキストの上に音声入出力を追加したりします。しかし、フルオムニモデルはさらに進んでおり、同じ内部ニューロンが文、ビデオフレーム、部屋のレイアウト、ロボットのセンサーストリームについて推論するための1つの表現空間を共有します。

その統一されたコアは、能力が境界を越えて融合することを可能にします。Googleの最新の画像システム(ビデオでは「ナノバナナプロ」と呼ばれています)から得られる強化された視覚理解は、より良い言語の基盤にフィードバックされ、それが段階的な計画やツールの使用をより洗練させます。

オムニモデルスタックでは、各モダリティが積極的に他のモダリティをトレーニングします。Googleのビジョンはおおよそ以下のようになっています: - テキスト:Geminiの推論、コーディング、計画のバックボーン - 画像/動画:Veo/V3ラインのモデルやGenieのようなインタラクティブ動画システムを通じた知覚 - 音声:Gemini Liveの低遅延会話とリアルタイムガイダンス - 3D:動画から幾何学とアフォーダンスを推測するワールドモデル - ロボティクス:同じ脳でアーム、モバイルベース、人型ロボットを制御するGemini Robotics 1.5

統一トレーニングにより、モデルは「緑の果物を緑の皿の上に置く」という指示をピクセル、深度、運動コマンドにマッピングでき、手作りのブリッジを必要としません。修理チュートリアルが動画として視聴されると、ロボットがナビゲートできる3Dシーンになり、自然な言語でナレーションされ、音声ヒントが物理的な動作と一致します。

それは、主にブラウザ内に留まる現在のマルチモーダルチャットボットを超えた飛躍です。オムニモデルはカメラを通じてあなたの環境を観察し、コードや要約を書くのと同じスタックを使ってそれについて推論し、ロボットや電話レベルのエージェントを介して行動を起こすことができます。

Googleにとって、これは汎用AIへの戦略的な道筋です:現実世界を読み、見、聞き、シミュレーションし、操作できる1つのモデルファミリーです。最初に信頼性の高いオムニモデルを提供する企業は、単に検索を制するだけでなく、デジタルと物理的現実のインターフェースを所有することになります。

ジェミニロボティクス:果物の仕分けから人型アシスタントへ

Gemini Robotics 1.5は、Googleが大規模言語モデルを単なるおしゃべりな副操縦士ではなく、物理的な作業者に変えようとする試みです。Googleのデモでは、アロハロボットアームがGeminiを使用して果物のテーブルを視覚的に解析し、色の一致ルールを段階的に推論し、その後、各動作についての口頭説明を行いながら複数のステップにわたる仕分け作業を実行します。このシステムは単にハードコーディングされたスクリプトを実行するのではなく、「考えながら行動」し、知覚と行動の間の内部的な推論の連鎖を明らかにします。

別のデモでは、同じモデルを使用して洗濯物を分別するアポロのヒューマノイドが登場します。作業中に人間が急にバスケットを交換すると、アポロはその場で計画を更新し、シーンの理解を再構築して適応するジェミニの能力を示します。ジェミニロボティクス1.5はウェブにもアクセス可能で、アロハアームはサンフランシスコの廃棄物ガイドラインをインターネットから取得し、ゴミ、リサイクル、堆肥を分類します。

真のブレークスルーは演出の裏に隠れている:ロボットの各ボディを個別に微調整することなく、単一のモデルが異なるロボットボディを制御することだ。Googleは、Gemini Robotics 1.5がAlohaアーム、モバイルベース、ヒューマノイドなど、すべてのプラットフォームで同じ重み付けと同じ高レベルのアクションインターフェースを使用して動作することを主張している。これは、1つの脳が形状、タスク、および環境にわたって一般化する、真の「オムニモデル」な具現化を示唆している。

ハードウェアは依然としてGoogleの弱点です。Boston Dynamics、Figure、Tesla、Agility Roboticsは、より大規模な物理プラットフォームを出荷またはテストしていますが、Googleは主に実験室でのプロトタイプを示しています。Apptronikが開発したApolloでさえ、GoogleはAIコントロールスタックでは先行していますが、アクチュエーター、バッテリー、または堅牢なサプライチェーンではリードしていないことを強調しています。

2026年までには、信頼できるGemini Robotics 2.xがデモリールのようではなく、プラットフォームのように見えてきます。期待されるのは次の通りです: - 整理されたテーブルだけでなく、散らかった家庭内のシーンを確実に操作する能力 - 「キッチンを掃除して食器洗い機を満たす」といった複数の部屋での数時間にわたるワークフロー - 実際の倉庫での産業用ピックアンドパック、キッティング、基本的な検査

Googleの独自のAGIタイムラインおよび公のコメント、特にデミス・ハサビスが語るAIの未来 – Google DeepMind(フォーチュングローバルフォーラムのファイヤーサイドチャット)は、今後2〜5年で計画およびマルチモーダル推論において急速な進展が見込まれることを示唆しています。この進展がロボットに組み込まれれば、Gemini Robotics 2.xは、今日の果物選別のパーティートリックを静かに洗練された家庭や工場での労働に変えることができるでしょう。

ソラを超えて:グーグルのビデオと画像の覇権を目指す取り組み

チャットボットは忘れてください。デミス・ハサビスにとって、今後12〜24か月での本当の衝撃は画面上に現れます。それは、ただ見た目がリアルであるだけでなく、実際に表示されているものを理解する動画や画像です。GoogleのVeo(デモでは「V3」と呼ばれることが多い)は、その推進の中心に位置し、静かにこの分野で最も優れた生成型動画システムの一つになりつつあります。

Veoは、テキストや単一の画像から高忠実度のクリップを生成します。一貫したキャラクター、整合性のあるカメラの動き、物理的に妥当なシーンを実現しています。内部およびパートナー向けのデモでは、Googleがより慎重に展開しているにもかかわらず、時間的整合性とプロンプトの遵守において、すでに初期のOpenAI Soraクリップに匹敵するか、それを上回っています。

ハサビス氏は、ヴィオの本当の強みは映画的なトリックではなく、推論にあると主張しています。ジェミニがネイティブにマルチモーダルであるため、ヴィオは原則として以下を取り込むことができます: - スクリプトやアウトライン - 参照画像やストーリーボード - 一貫性やスタイルに関する制約

そして、表面的なスタイルだけでなく、物語の論理を尊重する動画を制作することが重要です。それが、映画、広告、シミュレーションにおける「クールなデモ」と「実用的なツール」の間のギャップです。

画像の面では、Googleの最新モデルはステージ上でジョークとして「ナノバナナプロ」と名付けられ、今後の方向性を示唆しています。プロンプトからピクセルへの単一の前方パスではなく、よりエージェントのように機能します:生成し、自身の出力を検査し、エラーを検出し、修正を加えて再生成します。

複雑なインフォグラフィックを依頼すると、Nano Banana Proは軸、凡例、ラベルを基になるデータに実際に合わせてレイアウトできます。例えば、スマートフォン市場シェアの棒グラフを描画し、ラベルが棒と重なっていることを認識して移動させたり、アクセシビリティのために色を調整したりすることができます – すべて人間の介在なしで行えます。

ハッサビスは、これらのビジュアルシステムが大規模言語モデルと緊密に統合されることで真の突破口が開かれると信じています。未来のジェミニは、20ページの報告書を読み、数字を事実確認し、インフォグラフィックをデザインし、その後、内部の整合性を保ちながら30秒の解説ビデオにまとめることができるでしょう。

戦略的に言えば、それはフォトリアリズムよりも重要です。Googleにとって、この競争に勝つことは、単に高解像度なだけでなく、正確で、文脈を理解し、ユーザーや規制当局が実際に信頼できるモデルを生み出すことを意味します。

あなたのAIコパイロットが現実に:ジェミニライブ

イラスト:あなたのAIコーパイロットが現実になった:ジェミニライブ
イラスト:あなたのAIコーパイロットが現実になった:ジェミニライブ

Gemini Liveは、ついに「AIコ‑パイロット」という提案を具体的に感じさせる。バイラルなオイル交換のクリップでは、ユーザーがエンジンルームにスマートフォンを向け、自然に話しかけると、何を外すべきか、何を排出すべきか、触れてはいけないものは何かについて段階的なガイダンスを受ける。クエリを入力するためのポーズもなく、YouTubeをスクラブする必要もなく、ただ隣にいる会話型のアシスタントが支えてくれる。

Gemini Liveは、裏側で3つの難しい問題を1つの体験に融合させています。第一に、低遅延の音声対音声です。このモデルは、クラウドアシスタントに典型的な2〜5秒の遅延ではなく、ほぼリアルタイムで聴き、推論し、応答します。第二に、リアルタイムの視覚推論です。このシステムは、ライブカメラフィードを解析し、オイルキャップやフィルターなどのオブジェクトを追跡し、フレームが変化するにつれて指示を更新します。

第三の柱は、Googleの巨大なナレッジグラフとウェブインデックスへのアクセスです。Gemini Liveは単にボルトを見るのではなく、そのボルトを修理マニュアル、フォーラムの投稿、安全ガイドと関連付けて、そこから1つの実行可能なステップに凝縮します。この統合により、音声検索というよりは、あなたの肩越しに静かに見守る専任の専門家のような感覚を与えます。

その結果、Gemini LiveはHassabisが何度もほのめかしている「ユニバーサルアシスタント」への最も明確な一歩となっています。AIを文書やコードに限定するのではなく、車のメンテナンス、家庭の修理、料理、さらには消費者エレクトロニクスの基本診断といった、混沌とした現実のワークフローを処理し始めます。オイル交換のデモは、通常、ハウツービデオ、PDF、Redditのスレッドを使いこなす必要がある任務の代替として機能します。

2026年までには、このスタックの内部が非常に異なるものになると期待されます。レイテンシーはおそらくエンドツーエンドで300ms未満に低下し、音声のやり取りが実質的に瞬時に感じられるようになり、より自然な介入や中断が可能になるでしょう。視覚的理解は静的な部分から動的なシステムへと拡大し、漏れを見つけることからエンジンやアプライアンス内で流体がどのように動くべきかをモデル化することへと進化します。

より深い思考が、スピード以上に重要になるでしょう。2026年のジェミニライブは、数時間に及ぶ作業をサブタスクに分解し、数日間にわたって進捗を追跡し、ツール、部品、または環境が変わる際に計画を調整できるようになります。その時点で、「コ・パイロット」という表現は比喩ではなく、正確な職務内容のように聞こえてくるでしょう。

ジェニ―3ワールドモデルで新しい現実を構築する

ワールドモデルは、生成AIを受動的コンテンツからプレイ可能な現実へと変革します。固定された10秒のクリップを吐き出すのではなく、ワールドモデルは環境の基本的な動態、すなわちオブジェクトの動き、衝突、反応を学習します。これにより、ユーザーやエージェントはその中に入り込み、リアルタイムで対話することができます。「AIビデオフィルター」というよりは、「触れるたびに更新されるゲームエンジン内のAI生成レベル」という考え方です。

Genie 3は、Google DeepMindの最新のワールドモデルシリーズで、このアイデアを強力に推進しています。「雨に濡れたサイバーパンクの路地」、「夕暮れの火星の峡谷」、「水没した地下鉄駅」といった単一のテキストプロンプトから、Genie 3は一貫した物理法則とナビゲーションを持つ探索可能な2Dまたは擬似3Dの世界を合成することができます。事前に定義されたカメラパスの代わりに、コントロール可能なアバター、連続した動き、フレーム全体で一貫して動作するオブジェクトを得ることができます。

重要なことに、Genie 3はボタンを押すたびにリセットされることはありません。このシステムは世界の記憶を維持し、オブジェクトの状態、位置、過去の相互作用を追跡するため、箱を倒したりドアを開けたりしても、探索を続ける限りその状態が持続します。その上、Googleは「プロンプト可能なイベント」を重ねており、シミュレーションの途中で新しい指示を注入できます—「地震を発生させる」、「停電を始める」、「救助ドローンをスポーンさせる」—そして、世界は瞬時に更新されながら、物理的および視覚的に一貫性を保ちます。

ゲームは明らかに最初のポイントです。ジーニースタイルのモデルは、プレイヤーのスキルや物語の選択に応じたプレイ可能なレベル、サイドクエスト、またはまるごとのマイクロワールドを自動生成することができます。デザイナーはテキストで雰囲気を描き、その後、すべてのタイルや衝突ボックスを手作業で作るのではなく、生きたプロトタイプを反復して改善することができます。

エンターテインメントの枠を超えた深いプレイがあります。ロボティクスの専門家は、人間の周りでロボットを信頼する前に、数十億回の安全なトライアルとエラーの相互作用を必要とします。Genie 3のようなワールドモデルは、バーチャルエージェントが実際の倉庫や病院に触れることなく、把握、ナビゲート、そしてエッジケースから回復する方法を学ぶための合成トレーニンググラウンドを作成できます。災害プランナーは、野火、化学物質の漏洩、都市洪水の制御可能なシミュレーションを立ち上げ、避難計画を繰り返しストレステストすることができます。

ハサビスは、AIに常識物理学を教えるには、単にウェブテキストを増やすだけではなく、このような基盤に基づいたシミュレーションが必要だと主張しています。ワールドモデルは、ジェミニクラスのシステムに因果関係、物体の永続性、摩擦や重力といった制約を学ぶためのサンドボックスを提供します。この同じ哲学は、テキスト、ビジョン、アクションが融合し、仮想世界と現実世界の両方に存在できる単一のスタックを形成するという、グーグルのより広範なマルチモーダル推進の中にも貫かれています。詳細はIntroducing Gemini: Google’s most capable multimodal AI modelで確認できます。

真に信頼できるAIエージェントの夜明け

信頼できるAIエージェントは、Googleの2026年マスタープランにおいてまだ不足している要素です。デミス・ハサビスはAxiosに対し、今日のシステムは依然として長い多段階の作業においてあまりに頻繁に失敗するため、真の「設定して忘れる」委任を任せることはできないと述べました。彼らはツールを幻視したり、サブタスクを落としたり、APIが変更された際に立ち往生することがあります。

ハサビスは、近い将来の目標を設定しました:おおよそ12ヶ月以内に、複雑なエンドツーエンドのタスクを「信頼できる」形で受け入れ実行できるエージェントを期待しています。これは、「このメールを作成するのを手伝って」という段階から、「私の旅行全体を計画し、予約し、変更を処理し、最新情報を提供する」という段階へ、最小限の監督で移行することを意味します。信頼性が最も重要な要素となり、単純なIQの高さはそれに敵わなくなります。

Googleはすでに研究の中でエージェントシステムを使った制御実験を行っています。ハサビスは「共に科学を行う者」を以下のように説明しています: - 文献から仮説を生成する - シミュレーションや実験のワークフローを設計し実行する - 結果を解釈し、次の実験を提案する

同じパターンがGeminiの新たなツール使用スタックにも現れています。Geminiはすでにカレンダー、Gmail、Docs、および外部APIを呼び出し、アクションを連鎖させ、制約が変わったときに計画を修正することができます。初期の内部エージェントは、複数のステップからなるカスタマーサポートのワークフローや広告キャンペーンの最適化などを処理していますが、Googleは失敗が現実のコストを伴うため、彼らを制約の中で運用しています。

ハッサビスの信頼性の閾値を超えるために、エージェントは3つの要素が必要です:より強力な推論、強固なツールのオーケストレーション、そして環境からの継続的なフィードバックです。Googleは「オムニモデ​​ル」の推進で各レイヤーに取り組んでいます。役立つエージェントは単にテキストを読むだけではなく、見る、聞く、そして行動する必要があります。

ジェミニロボティクス1.5、Veo、Nano Banana Pro、そしてGenie 3を組み合わせることで、そのエージェントの青写真が得られます。未来のジェミニインスタンスは、ビデオを通じて工場のフロアを監視し、作業者からの口頭指示を解釈し、3DでCADモデルを参照し、ラインを再構成するためにロボットを派遣することができるでしょう。同じバックボーンはブラウザに存在し、あなたのサブスクリプションを静かに交渉しつつ、ヒューマノイドロボットを導いて漏れたシンクを修理することも可能です。

Googleの賭け:単一のモデルがテキスト、画像、ビデオ、音声、3D、ロボティクスを信頼性高く横断するようになると、「AIエージェント」はUXレイヤーからインフラストラクチャに変わる。

Googleの不公平なアドバンテージ:コンピュート、データ、そして頭脳

イラスト:グーグルの不公平な優位性:コンピュート、データ、そして頭脳
イラスト:グーグルの不公平な優位性:コンピュート、データ、そして頭脳

グーグルのAIへの投資は、デモではなくデータセンターから始まります。競合他社がクラウドプロバイダーからGPUをレンタルする中、グーグルはカスタムのTPU v5pと次世代のTPU v6 Trilliumアクセラレーターを中心にした垂直統合スタック上で運用しています。この制御により、DeepMindとGeminiチームはコンパイラから冷却ループまであらゆる要素を調整でき、すべてのメガワットからもっと多くのトレーニングを引き出すことが可能になります。

TPU v5pは、数万のチップにスケールするポッド構成で大規模なトレーニングを対象としています。一方、v6 Trilliumはフロンティアのマルチモーダルモデルに向けて、ワットあたりのパフォーマンスをさらに向上させています。Googleは、v6 Trilliumが既にジェミニの以前の世代を支えていたv5eに対して大幅な効率向上をもたらすと主張しています。シリコンロードマップを所有することで、Nvidiaの供給網の混乱への依存を減らし、数十億パラメータの実験に対して予測可能なユニットエコノミクスをGoogleに提供します。

ハードウェアだけでは勝てない; Googleは、世界で最も価値のあるマルチモーダルな学習コーパスも所有しています。YouTubeの数十億の動画は、音声やコメント、エンゲージメントデータと緊密に結びついており、VeoやGeminiの知覚スタックといったビデオや音声モデルにとって比類のない基盤を形成しています。Google Imagesや数十年にわたるウェブスケールのクローリングにより、ほぼすべての分野でラベル付けされた写真、図、スクリーンショットが追加されています。

そのデータの深さは、デミス・ハサビスが語る「オムニモデル」のビジョンに特に重要です。テキスト、画像、動画、音声、3D、ロボティクスにわたって推論するために単一のモデルを訓練するには、モダリティ間で同期した信号が必要です。トランスクリプトに整列したフレーム、結果に整列したアクション、言語に整列したシーンが求められます。YouTubeだけでも、Googleにはそのようなペアデータがペタバイト単位で、グローバル規模で、数十の言語で提供されています。

次に、Google DeepMindの研究ベンチがあります。これはおそらくこの分野で最も強力です。AlphaFoldは単にタンパク質の構造を予測しただけでなく、深層学習が科学分野で何を達成できるかの期待を新たにしました。コミュニティには2億以上の予測構造が公開されています。AlphaGo、AlphaZero、MuZeroのような以前の研究は、理論、システム工学、大規模な計算を組み合わせた長期的な賭けの文化を確立しました。

その文化は今、ジェミニ、ジェニーの世界モデル、そして新しいエージェントシステムの波に直接流れ込んでいます。DeepMindの研究者たちは、単にモデルを微調整するだけでなく、新しいアーキテクチャ、トレーニング方式、評価方法を発明し、それを生産規模のスタックに投入します。この基本的なアイデアからグローバルな展開までのパイプラインを匹敵できる競合はほとんど存在しません。

これらの3つの柱—カスタムコンピュート、独自のデータ、そして一流の研究者—を組み合わせることで、Googleは単なる先行者利益を超えています。新しいモデルが次の世代をさらにトレーニングするためにデータを消費し生成するたびに、時間とともに蓄積される構造的な競争優位性を持っています。

AGIは間近に迫っているのか?ハサビスが本当に考えていること

デミス・ハサビスにとって、AGIは2026年の盛り上がりのサイクルを越えたところにあります。彼は短期的な「フルオムニモデル」や堅牢なエージェントについて自信を持っているようですが、人工一般知能に関する彼の見通しはおおよそ5~10年先であり、2年や3年ではありません。

彼はAGIを、今日の派手なデモ以上のものとして定義しています。システムは真の発明、持続的な創造性、そしてより深い抽象的推論を示さなければならず、単にトレーニングデータをリミックスしたり、連鎖的な思考プロンプトを使用するだけでは駄目です。現在のGeminiモデルは、重い人間のサポートなしに新しい科学的仮説や工学的設計を信頼性高く生成するにはまだ不足しています。

ハッサビスは、そこに至るためには、2つの要素が並行して必要であると主張しています。まず、スケーリングのプレイブックを積極的に継続すること:より大きなモデル、より豊かなマルチモーダルデータ、テキスト、コード、画像、ビデオ、音声、3D、ロボティクス全体にわたるより密な統合です。彼はこれをGoogleのTPUロードマップと結びつけ、フロンティアモデルを低い限界コストで訓練する能力に明示的に関連付けています。

第二に、彼はスケーリングだけではAGIは実現できないと主張しています。彼は 「一つか二つの大きな科学的ブレークスルー」—新しいアーキテクチャ、学習アルゴリズム、または因果関係の世界モデルを構築し操作できる表現が必要だと期待しています。ただの統計的相関ではありません。DeepMindのGenie 3のような研究やAIの未来 – Google DeepMindに記載された研究は方向性を示していますが、彼はまだ初期段階だと見ています。

ハサビスの楽観主義には、明確なリスクの一覧が伴います。彼は、強力なモデルが脆弱性の発見、スピアフィッシング、ディープフェイクを駆使したソーシャルエンジニアリングを大規模に自動化するサイバー・テロのシナリオを何度も指摘しています。また、長期のタスクやツールへのアクセスが与えられた際に、誤ったサブゴールを追求する自律システムに関するエージェンティック・デビエーションについても懸念しています。

その野心と慎重さの組み合わせが、Googleの公的姿勢を形作っています。ハサビスは、安全性の作業(レッドチーム、評価、調整研究、政策関与)をAGIに向けて前進するための必須条件とみなしており、選択的なブレーキではないと考えています。彼にとって、競争は一般知能を構築することだけではなく、その知能が最終的に現れたときに制御可能であり続けることです。

2026年のあなたにとってのGoogleのAIビジョンとは何か

スクリーン、カメラ、またはモーターを使ったあなたのあらゆる活動の裏に静かに存在するジェミニのある2026年へようこそ。ハサビスの「フルオムニモデル」スタックは、テキスト、画像、動画、音声、3D、ロボティクスを一つの脳が網羅していることを意味します。これにより、あなたのアシスタントはアプリの集合体ではなく、記憶し、推論し、行動する単一の持続システムのように感じられます。

日々の業務は「ツールを使う」ことから「成果を割り当てる」ことへと移行しています。信頼できるエージェントは、不明瞭なブリーフを受け取り、「$15,000以下で3日間のクライアントオフサイトを計画・予約し、飛行機よりも電車を優先し、全員の子供のスケジュールを考慮する」といった指示を実行します。制約が衝突した場合にのみ明確さを求めます。

あなたのスマートフォンやノートパソコンで、Geminiはチャットボットタブではなく、ユニバーサルレイヤーとしてあなたに寄り添います。デスクトップで戦略デッキの草稿を作成し、通勤中に音声でスライドレイアウトを洗練させ、スライドを開かない利害関係者のために、同じ基本プロジェクト状態からGeminiが自動的にナレーション付きのビデオ版を生成することができます。

眼鏡や軽量のウェアラブルデバイスがGemini Liveをリアルタイムコーチに変えます。車のエンジン、サーバーラック、または医療機器に視線を向けると、段階的なオーバーレイ、安全確認、そしてライブエラー修正が表示されます。これは融合したビジョン-ランゲージモデルの力によって実現され、遅延は数秒ではなく数十ミリ秒で測定されます。

クリエイティブ産業が最初にその影響を受ける。Genie 3のようなインタラクティブなワールドモデルは、単独のクリエイターがゲームメカニクスをテキストでスケッチし、プレイ可能な3Dシーンを生成し、世界に話しかけることで反復(「重力を低くして、敵を二体追加し、アートスタイルをセルシェーディングに変更する」)し、従来のエンジンに触れずにウェブに公開できるようにします。

ビデオ制作はプロンプトエンジニアリングとディレクションに変わります。映像作家はストーリーボードをラフに描き、参照映像を入力し、Veoクラスのモデルを使用してシーンを生成します。それを編集者がカット、グレーディング、コンポジットし、以前は30人のVFXパイプラインだったものを、人間のセンスと機械生成の日常を融合させたものに変えています。

これらのすべては魔法のように起こるわけではありません。Googleの垂直統合されたスタック—TPU v5pおよびv6 Trilliumハードウェア、ペタバイト規模のデータ、そしてDeepMindの研究ベンチ—は、そのロードマップに通常とは異なる信頼性を与えています、たとえタイムラインがずれたとしても。ハサビスの2026年ビジョンは、SFのようではなく、あなたのブラウザのタブや食器洗い機に直接組み込まれたAIの製品計画のように感じられます。

よくある質問

Googleの「オムニモデル」コンセプトとは何ですか?

「オムニモデル」とは、テキスト、画像、ビデオ、音声、3D環境、ロボット制御など、複数のデータタイプ(モダリティ)をシームレスに処理する単一の統合AIシステムまたはモデルファミリーを指します。その目的は、真に普遍的なAIを創造することです。

デミス・ハサビスは2026年までにAIに関して何を予測したのでしょうか?

彼は、言語モデルが画像や動画の能力と完全に統合されるマルチモーダルの融合において、重要な進展があると予測しています。また、AIエージェントが複雑で多段階のタスクを自律的に処理できるほど信頼性が高くなるとも期待しています。

Googleの「ワールドモデル」、例えばジェニー3とはどのようなものでしょうか?

Genie 3は、ユーザーがテキストプロンプトを使用して仮想世界を生成し探索することができるインタラクティブなビデオモデルです。記憶と一貫性を維持し、リアルタイムのインタラクションを可能にし、より能力の高い具現化されたエージェントのトレーニングへの重要なステップとなります。

Googleのジェミニはロボティクスでどのように使われていますか?

Gemini Robotics 1.5は、物理ロボットが環境を認識し、一歩ずつ問題を解決し、複雑なタスクを実行する力を与えます。同じモデルは異なるロボット形態に微調整なしで使用できるため、より多様で能力のある機械が実現します。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts