OpenAIのコードレッド:ニンニクがやってくる

サム・アルトマンは「コードレッド」を宣言しました。グーグルのジェミニがチャットGPTの座を奪う脅威となっています。OpenAIの秘密の反撃、コードネーム「ガーリック」の新モデルは、AI戦争に勝つための最後の希望です。

Hero image for: OpenAIのコードレッド:ニンニクがやってくる
💡

TL;DR / Key Takeaways

サム・アルトマンは「コードレッド」を宣言しました。グーグルのジェミニがチャットGPTの座を奪う脅威となっています。OpenAIの秘密の反撃、コードネーム「ガーリック」の新モデルは、AI戦争に勝つための最後の希望です。

サム・アルトマン、パニックボタンを押す

Code Redは、データセンターの火災警報のようにOpenAIに襲いかかった。サム・アルトマンは従業員に、会社が「コードレッド」となると伝えた。これは通常、存続の危機に対して使われるラベルであり、チームに対して一つの目標に再編成するよう命じた。それは、ChatGPTを迅速に、実質的に改善することだった。サイドプロジェクト、実験的機能、弾道ミッションは突然後回しにされ、OpenAIを家庭名にしたコアチャットボットの強化に焦点が当てられた。

GoogleのGemini 3は危機的瞬間を生み出しました。初代Geminiの不安定な展開の後、Gemini 3は「スケーリングは終わった」という主張に対する厳しい反論として登場し、最前線のパフォーマンスを実現し、Googleの巨大な流通チャネルに直接投入されました。Googleは静かに、数ヶ月で約4億5000万から約6億5000万のアクティブなGeminiユーザーにジャンプしました。一方、OpenAIの成長は、10億ユーザー近くで推移していますが、ついに避けられないものではなく、脆弱に見えるようになってきました。

Gemini 3はベンチマークを勝ち取るだけでなく、ストーリーラインを一変させました。初めて、OpenAIは complacent(現状維持に満足している)な既存企業のように見え、GoogleはそのTPU艦隊と数十年のインフラ作りによって支えられた貪欲な挑戦者のように見えました。SemiAnalysisは、OpenAIが2024年5月のGPT-4.0以降、新しいフロンティアモデルのために成功した大規模な事前トレーニングを完成させていない一方で、Googleがカスタムシリコン上で大規模なモデルをスケールさせていると報告しました。

アルトマンの「コードレッド」メモは、報道によると、IQポイントよりも経験に重点を置いていました。彼はチームに対して、パーソナライズの向上、スピード、信頼性、およびChatGPTが日々自信を持って回答できる質問の範囲を改善するよう促しました。内部では、優れたデモから、人々が実際にチャットボットをデフォルトのツールとして使い続けるかどうかを決定する地味なインフラに優先順位が移りました。

その転換は、静かでありながら深い戦略の変化を示しています。OpenAIは数年間、注目の機能を追い求めてきました:マルチモーダリティ、エージェント、音声、アプリストア、派手な基調講演。Code Redのもとで、その命令は従来のプラットフォーム防衛に近づいています: - ChatGPTをGemini 3よりも速く感じさせる - ChatGPTをGemini 3よりも個別化されたものに感じさせる - ChatGPTをGemini 3よりも頻繁に故障させない

OpenAIはもはやAIの未来を単に創造しようとしているわけではありません。コードレッドは、突然現在を守ることを強いられた企業を示しています。

「スケーリングは死んだ」という異端説

イラスト:『スケーリングは死んだ』異端説
イラスト:『スケーリングは死んだ』異端説

スケーリングの異端は囁きから始まり、教義へと固まった。過去1年の間に、イリャ・サツケヴァー、アンドレイ・カルパティ、ヤン・ルケンは、既存のLLMアーキテクチャにより多くのGPUとトークンを重ねるだけでは限界が来たと主張した。より大きいことはもはやより賢いことを意味せず、ただより高価であることを意味するようになった。

研究者たちは、事前トレーニングにおける「壁」と呼ばれるものを指摘しました。モデルがGPT-4クラスのスケールに達すると、追加の計算コストが能力をあまり引き上げなくなり、特に難しい推論や計画タスクではその傾向が顕著でした。新たな合意として、進展には新しいアルゴリズム、異なるアーキテクチャ、そしておそらく全く異なるトレーニングパラダイムが必要であるとされています。

サツケバーは、ドワルケシュ・パテルのポッドキャストで、2012年から2020年を「研究の時代」、2020年から2025年を「スケーリングの時代」とし、現在は再び研究に戻るべきだと述べました。なぜなら、100倍のコンピューティング能力を持っても、100倍優れたモデルは生まれないからです。カーパシーも、現在の大規模言語モデルは「成長の余地がなくなっている」との見解を示しました。ルクーンはさらに踏み込み、自動回帰テキストモデルを行き止まりと呼び、エネルギーに基づくアプローチや世界モデルの推進を訴えました。

その物語は、ラボ内やX上で固まっていき、「スケーリングは終わった」というミームが常識とされるようになりました。主要な人物たちが、より多くのデータやコンピュートがもはや影響を与えないと繰り返すと、組織は単純なスケーリングに賭けることをやめます。そして、大規模なトレーニング実行から安全性、ツール、そしてより小さく専門的なシステムへの予算を再配分します。

SemiAnalysisは、OpenAIが2024年5月のGPT-4.0以来、広く展開される新しいフロンティアモデルの成功したフルスケールの前トレーニングを完了していないと報告しました。それは18ヶ月以上前のことです。内部的には、それが壁の実証的証拠のように見えました:トレーニングは難しくなり、バグはより壊滅的になり、インフラの限界はより厳しくなりました。

Googleは静かに反論した。競合他社が上限について語る中、GoogleはTPUv5の fleet、高帯域幅のインターコネクト、そして膨大な数のパラメータを持つ混合物に特化したデータパイプラインに資金を注ぎ込んだ。Gemini 3は力強い反論として登場した:適切にスケーリングを行えば、やはり効果がある。

その信念の不一致が盲点を生み出しました。競合他社は皆が同じ壁にぶつかったと仮定していましたが、Googleは自社の壁を乗り越えたことを知っていました。Gemini 3が重要なコーディングおよび推論のベンチマークでOpenAIに勝ち始めると、「スケーリングは終わった」という話は、知恵のように見えなくなり、自己矛盾のように見え始めました。

Googleのジェミニが壁を打ち破る

Gemini 3は「スケーリングは死んだ」というナarrティブに大きな穴を開けました。懐疑論者が限界だと言っていた唯一のこと、つまり劇的に大きくなることで劇的に良くなることを実現したのです。Googleのフラッグシップモデルは、コーディングや数学からマルチモーダル推論に至るまで、多くの公的ベンチマークでGPT-4クラスのシステムを超え、消費者向けのレイテンシーでインタラクティブに動作させました。Gemini 1と1.5をサイドグレードとして扱っていた開発者にとって、Gemini 3はようやく明確な世代間の飛躍のように感じられました。

ジェミニ3は、Googleの垂直統合されたAIスタック上で動いています:カスタムTPUシリコン、ハイパースケールデータセンター、そして約10年にわたって調整されたトレーニングパイプラインです。SemiAnalysisの報告によれば、OpenAIは2024年5月のGPT-4.0以来、広く展開されたフルスケールの事前トレーニングを完了していませんが、GoogleはTPU艦隊でより大規模なトレーニングを積み重ね続けています。この継続性は重要です。なぜなら、スケーリング法則は、実際にスケーリングを続けることができる場合にのみ効果を発揮するからです。

GoogleのTPU v5および新たに登場するv6/v7世代は、標準的なGPUショップが追随するのに苦労するコストとスループットの優位性を提供します。TPUは、高帯域幅メモリ、相互接続、マトリックスユニットを、特にトランスフォーマー型ワークロード向けに設計されたパッケージに統合しており、電力消費とネットワーキングのオーバーヘッドを両方とも削減しています。これらのチップを緊密に結合したポッドに数十万個つなげることができると、「ただ計算能力を追加する」ことは単なる流行語ではなく、実際のロードマップとなります。

戦略的に、そのシリコンの利点は、Googleがより多くの実験を行い、より長いトレーニングスケジュールを組むことを可能にし、より大きなコンテキストウィンドウを費用をかけずに利用できるようにします。Gemini 3の巨大な専門家混合設定は、特化したサブネットワークを通じてトークンをルーティングするため、過酷なほどのインターチップ通信を必要とします。TPUは、Googleのソフトウェアスタックと連携して設計されており、これを生産規模で実現可能にします。

市場の反応は迅速でした。Googleは、Geminiの利用者数が数ヶ月で約4億5000万人から6億5000万人のアクティブユーザーに急増したと主張しています。この増加は主にGemini AdvancedとGemini for Workspaceによるものです。初めて、OpenAIをデフォルトにしていた開発者が、エージェントやコパイロット、チャットボットをGoogle AIエコシステムに真剣に移植し始めました。

その変化はツールに現れています。クラウド顧客は、Gemini 3のオプションがVertex AI、Google Docs、Gmail、Android、およびChromeに組み込まれ、モデルの選択がリサーチプロジェクトではなくデフォルトの設定に変わったことを実感しています。バーンレートを気にするスタートアップにとって、TPUでのより安価な推論と競争力のある品質により、Gemini 3はGPT-4.1とのA/Bテストが容易になります。

投資家や競合他社は気づきました。OpenAIのアルトマンがChatGPTの改善のために「コードレッド」を宣言、GoogleがAIのリードを脅かすのような報道は、Gemini 3をChatGPTの文化的および技術的な支配に対する初めての真の脅威として位置づけました。サム・アルトマンの内部的な「コードレッド」メモは、すでにベンチマークが示していたことを確認するものでした:Googleは、他の誰もが固いと主張していた壁を直進して突破したのです。

OpenAIの全員参加型の緊急対応の裏側

OpenAI内のコードレッドは、消防訓練やスローガンを意味するのではなく、優先事項の大幅な見直しを意味します。ウォールストリートジャーナルの報道や内部メモによると、サム・アルトマンはチームに対し、日々のChatGPTの速度、信頼性、または魅力を直接的に向上させないものはすべて中止するよう命じました。

かつてOpenAIの次の収益源と見なされていたプロジェクトが突然停止しています。実験的な広告、ショッピング統合、軽量な企業向けの副次的な取り組みに関する作業が一時停止または遅延し、エンジニアや研究者はコアモデルのスタックに戻ることができるようになりました。

過去1年間「AIネイティブ」な生産性ツールの設計に従事してきたプロダクトマネージャーたちは、今やよりシンプルな指令に応じています。それは、デイリーアクティブユーザーを守ることです。つまり、隣接アプリでの実験を減らし、OpenAIの flagship チャットボットのレイテンシー、稼働時間、ガードレールに集中して取り組むことを意味します。

アルトマン氏はスタッフに対し、ChatGPTの「日々の体験」が必要なレベルに達していないと報告したとされ、特にGoogleのGemini 3がギャップを縮めているとのことです。そのため、パフォーマンス向上が新たな成長戦略となっています。応答時間を何百ミリ秒も短縮し、インフラを強化し、プロンプトやルーティングを調整してユーザーがデフォルトで最適なモデルパスに到達できるようにしています。

パーソナライズはこのスプリントの中心にあります。チームは、ユーザープロファイルを深め、セッション間のコンテキストをより多く記憶し、トーンやフォーマットを適応させるために競い合っています。その結果、ChatGPTは一般的なアシスタントのようではなく、あなたの習慣、ドキュメント、ワークフローを理解するオーダーメイドのAIコンパニオンのように感じられるようになります。

社内では、エンジニアたちは「全員参加」の人事異動を、まるで戦時体制のようだと説明しています。長期的なアイデアを探求していた研究者たちは、推論の信頼性の向上、複数ステップのツール使用、そして「それを手伝うことはできません」といった行き詰まりを減らすための短期的な改善に再配置されました。

メトリクスはそれに応じて変化しました。派手なデモを祝う代わりに、リーダーシップは以下を追跡しています: - 日次および週次のアクティブユーザー数 - セッションの長さとタスク完了率 - ChatGPTが誤って回答したり、遅すぎたりした際の離脱率

コードレッドとは、実際にはOpenAIがすべての不安定な応答、遅い回答、あるいは関連性のない返信を存在にかかわるバグとして扱っていることを意味します。Garlicが控えている中、同社は次に何が来るかを展開する前に、忠実で参加意欲のあるユーザーベースの確保を望んでいます。

「ガーリック」を解き明かす:双子座の殺人者

イラスト:『ガーリック』の正体を明かす:双子の殺人者
イラスト:『ガーリック』の正体を明かす:双子の殺人者

「ガーリック」は、恐ろしいものを避けようとする際に選ぶコードネームの一つです。The Informationの詳細な報道によれば、OpenAIは今秋に「ガーリック」のトレーニングを静かに開始し、これは初めての真のポストGPT-4モデルとして、内部的にはGoogleのGemini 3の急成長とTPUによるスケーリングの成功に対する応答として明確に位置づけられています。OpenAIの最高研究責任者であるマーク・チェン氏は、ガーリックが現在会社の最優先研究項目であるとスタッフに伝えたとされています。

サイズを追い求めるのではなく、GarlicはGeminiが打破した正確な前処理のボトルネックをターゲットにしています。Googleは、計算スタックが十分に厳格であればスケールを維持できることを証明しました。OpenAIは、よりスマートな前処理レシピでそのギャップを埋められると賭けています:より効率的なデータキュレーション、カリキュラムスタイルのトレーニング、コストを抑えるための積極的な専門家の混合ルーティングです。The Informationが引用した内部文書は、Garlicを「GPT-4.5クラスの計算能力、Gemini-3クラスの効率性」と述べています。

Gemini 3がウェブベンチマークやマルチモーダルタスクで力を発揮したのに対し、Garlicは高価値のワークロード、すなわちコーディング、長期的な推論、ツールの使用に重点を置いていると報告されています。OpenAIの内部コーディングスイートでは—マルチファイルのリファクタリングやエージェントワークフローに重きが置かれており—Garlicはまだ完全にはトレーニングされていないにもかかわらず、初期の実行ではGemini 3 ProやAnthropicのOpus 4.5を凌駕しています。研究者と共有された内部チャートの1つでは、Garlicが比較可能な温度でのpass@1コーディングメトリクスで中間の単位のパーセンテージポイントで前に出ていることが示されました。

推論ベンチマークも同様の結果を示しています。ガーリックは、表面的なパターンマッチングを罰するために設計された合成的な連鎖的思考タスクを含む、OpenAIのプライベートな数学・論理ミックスにおいて、ジェemini 3やオーパス4.5を上回ると報じられています。数字を見たスタッフは、ガーリックを「GPT-4.1を快適に上回っている」と表現し、最終的なトレーニング段階や強化学習のパスを経る前でも、「ジェemini 3ウルトラと互角に渡り合っている」と述べました。

建築的には、Garlicはリブートではなく進化のように見えます。このプロジェクトに詳しい人々は、GPT-4.1スタイルのバックボーンを持ち、より高いスパース性、優れた情報取得フック、そしてOpenAIのツール呼び出しスタックとのより緊密な統合を特徴としていると説明しています。目標は、今日の最大のシステムを悩ませるレイテンシのスパイクなしに、エージェント、検索スタイルのワークフロー、およびコードのコパイロットのためのデフォルトの脳として機能できるモデルを作ることです。

命名は憶測が始まるところです。社内では「Garlic」は単なるコードネームですが、幹部たちはこれをGPT-5.2として表に出すか、あるいはGPT-5.5としてブランド化し、Gemini 3に対する企業の本格的な回答としてマーケティングするかを議論していると報じられています。OpenAI内で浮上しているタイムラインは、攻撃的なスケジュールを示唆しています:Q4に企業顧客向けの段階的なリリースを行い、トレーニングと安全評価が順調に進めば年末までに広く利用可能にする見込みです。

プレトレーニングの過酷な前線への回帰

筋肉記憶は、OpenAIにとって再び戦略的な資産となっています。最高研究責任者のマーク・チェンは、同社が人間からのフィードバックによる強化学習、安全性の作業、派手な製品機能を追い求める間に、事前トレーニングの専門知識が衰えてしまったとスタッフに伝えたと報じられています—andその時代は今や終わりました。Code Redの内部では、事前トレーニングが背景プロセスから主要なイベントへと移行しました。

2024年5月にGPT-4oのトレーニングが完了してから約18か月間、OpenAIは広範囲に出荷される新しい大規模最前線の事前トレーニングを完了しなかったと、SemiAnalysisは報告しています。そのギャップは、RLHF、ツールの使用、製品化へのシフトと一致していました:ChatGPT、音声モード、エージェント、およびエンタープライズ機能。これらの賭けはユーザーと収益をもたらしましたが、同時にGoogleが生のスケーリングが依然として限界を押し上げることを証明したときに、コアコンピタンスを鈍らせました。

OpenAIは現在、ほぼ古き良き「2020年頃のフロンティアラボ」の精神でその筋肉を再構築しています。チェンは、事前トレーニングをスタックの中で最も困難で、最もレバレッジのある部分と位置付けており、Code Redは彼にそのための人材を採用する政治的なサポートを提供しています。社内では、リーダーたちが「スーパースターチーム」のシステムエンジニア、最適化スペシャリスト、データパイプラインの専門家を集めることについて話し合っており、彼らの唯一の任務はさらなる次元の向上を推進することです。

その理由はシンプルで brutalです:事前学習の効率性を持つ者が最前線を支配する。OpenAIは、彼らの秘訣が外部の人間には見えにくい場所にあると考えている—データキュレーションのレシピ、カリキュラムのスケジュール、オプティマイザーの調整、専門家の混合ルーティング、そして学習時間の調整テクニック。それこそが、1ドルの計算能力が控えめな向上をもたらすのか、あるいはGemini 3クラスの飛躍をもたらすのかを決定する重要な要素である。

経営幹部たちは、市場が彼らの沈黙を停滞と誤解していると考えています。GoogleがTPUv7やパラメータ数を誇示する一方で、OpenAIはあまり明白でない利点に賭けています。つまり、兆トークンのレジームにおける損失スケーリングの改善、より小さなモデルに詰め込まれた密度の高い知識、壊滅的なトレーニング失敗を乗り越えるアーキテクチャです。Garlicに関する社内ブリーフィングでは、チェンはスタッフに「OpenAIがGoogleの最近の利益に対抗するために『Garlic』モデルを開発中」というレポートのようなものを指摘し、これははるかに大きな氷山の一角に過ぎないとしています。

コードレッドとは、実際には計算の再配分、サイドプロジェクトのキャンセル、優秀な候補者を直接事前トレーニングにルーティングする採用フunnelを意味します。もしGarlicが成功し、社内の期待に応えられれば、OpenAIは業界に古い教訓を再認識させたいと考えています。それは、整合性の手法やユーザーエクスペリエンスの洗練が重要である一方で、実際の防御策はコーパスの最初のトークンから始まるということです。

スマートさだけでは足りない:ユーザーエクスペリエンスの戦い

サム・アルトマンの内部メモが伝えた要点はシンプルでした。「99%のユーザー」にとって、日常の体験はベンチマークチャート上の抽象的なIQポイントよりも重要です。これはフロンティアモデルの軍拡競争に対する厳しい再定義です。ジェミニ 3とガーリックがほとんどのプロンプトでほぼ同じであるなら、インタラクションをよりスムーズで、速く、個人的に感じさせることができる者が勝つのです。

典型的なユーザーがメールの草稿、要約、またはコードスニペットを求める場合、今日の大規模言語モデルはすでに「十分に賢い」と感じられます。彼らは博士号レベルの定理証明者を必要とするのではなく、立ち止まったり、バグが発生したり、文脈を忘れたりしないアシスタントを必要としています。推論におけるわずかな向上よりも、ChatGPT、Gemini、またはClaudeが気まぐれな天才ではなく、信頼できるツールであるように感じられるかどうかがはるかに重要です。

それは戦場をスキャフォールディングに移します:コアモデルを取り巻くすべての要素。アルトマンは以下の点を特に挙げたと言われています: - パーソナライズ機能 - スピード - 信頼性 - より広範な質問カバー

それは単なるリサーチの問題ではなく、製品の問題であり、ユーザーが1日20回タップするアイコンを決定します。

スピードは、正確性と同等のUX機能になります。Googleは、TPUv7スタック上でのGemini 3の応答性を誇っています。OpenAIは、特にモバイルでそのレイテンシーを合わせるか上回るために、Garlicとその提供インフラを必要としています。400ミリ秒の応答時間の違いは、アシスタントが瞬時に感じられるか鈍く感じられるかを決定づけることがあります。

信頼性は稼働時間だけにとどまりません。ユーザーは「それについてはお手伝いできません」といった行き止まりを減らし、誤った引用を減らし、ウェブ、デスクトップ、電話の間で一貫した動作を求めています。Googleは6億5千万のGeminiユーザーがいると主張し、OpenAIのChatGPTは10億に近いとされています。その規模では、一度の重大な障害や機能の不具合が、教室やオフィス、コールセンター全体に波及します。

パーソナライゼーションは次の防御策です。一般的なチャットボットを、好みやプロジェクト、スタイルを記憶する持続的でコンテキストに敏感なエージェントに変えることができる者が、ロイヤルティ戦争に勝ちます—次のMMLUリーダーボードで誰が先に抜け出したかに誰も気づく前に。

モート:ブランド忠誠心は流通を打ち勝てるか?

イラスト: 堀: ブランド忠誠心は流通に勝てるか?
イラスト: 堀: ブランド忠誠心は流通に勝てるか?

ChatGPTは、その名前がほぼ一晩で動詞に変わるという稀なテクノロジーブランドの一つに位置しています。人々は“ChatGPT”を使って宿題のプロンプト、メール、コードを作成し、まるで“Google”で質問するかのように行動します。この言語的な固定化は重要です。それは、OpenAIのチャットボットをAIアシスタントのデフォルトのメンタルモデルとして定義づけており、競合他社が静かにベンチマークでそれを上回っているにもかかわらずです。

ブランドの重力がGoogleの配信メカニズムと正面から衝突します。Googleは、ユーザーがすでに存在する場所、すなわち検索ボックス、ChromeのURLバー、Docsのサイドバー、AndroidのシステムUIなど、至る所でGeminiを表面化させることができます。一方、OpenAIは主にウェブアプリ、モバイルアプリ、および散在するAPI統合やサードパーティのラッパーのエコシステムに存在しています。

Googleの優位性はデフォルト設定を通じて増幅されます。何十億もの人々が生成AIに出会うのは以下の方法です: - 10の青いリンクの上にあるGeminiの回答 - ChromeのGeminiパネル - GmailやDocsでのGeminiの提案

ほとんどのユーザーは「chatgpt.com」と入力したり、GeminiをGPT-4と比較したりすることはありません。ただ、検索バーや作成ボックスが提供するものをそのまま受け入れるでしょう。

OpenAIの競争優位性は、初期採用者やパワーユーザーにおいて最も強固に見えます。開発者、研究者、AIネイティブなプロフェッショナルたちは、すでにChatGPT、Claude、Gemini、LlamaやMistralなどのオープンモデルを使い分けており、多くの場合「ルーター」ツールを介して最適なモデルを自動的に選んでいます。この層にとってブランドは重要ですが、レイテンシー、コンテキスト長、ツール利用、論理的推論の質がどのタブを固定するかを決定します。

マスマーケットのユーザーは異なる行動を取ります。歴史が示すように、ほとんどの人はより良いツールが存在してもデフォルトに留まります。ChromeがFirefoxに勝ったのは、Firefoxが劣化したからではなく、Googleが検索をコントロールしていたからです。もしGeminiが検索、Android、Chrome全体でのアシスタントとなった場合、OpenAIはユーザーに対してわずかに良い回答を求めて別のアプリを探すよう説得しなければなりません。

サム・アルトマンの「日々の体験」への賭けは、暗黙にこの分断を認識している。パワーユーザーは最高のモデルを求めるが、他のユーザーは速くて親しみやすく、無料であるものを選ぶだろう。ChatGPTのブランドはOpenAIに時間を与えるが、Googleの流通はGeminiに広がりをもたらす。そして消費者テクノロジーの世界では、広がりが次世代の習慣を形成することが通常である。

これは決闘ではなく、ロイヤルランブルです。

OpenAIのコードレッドは劇的な見出しを作り出しますが、これをクリーンなOpenAI対Googleの決闘として捉えるのは本質的なストーリーを見逃しています。現在のAIはむしろ混雑したタイトルカードのようです:OpenAI、Google、Anthropic、Meta、Mistral、Apple、xAI、そして急成長する中国の研究所やオープンソース集団の長い尾。各社は「知能」の微妙に異なる定義に最適化しており、その断片化が変化のスピードを加速させています。

Anthropicは憲法的AIに重点を置き、企業向けの機能として信頼性と安全性を売り込んでいます。Claude 3.5モデルは、規制の厳しい業界でますます増えており、生のベンチマーク結果よりも監査可能性、拒否行動、安定したAPIを重視しています。彼らの提案はシンプルです:驚きが少なく、より良いガードレールがあり、GeminiやGPTのブランドバッジに惑わされることなく、強力なコーディングと論理性を提供します。

一方、MetaはLlamaをデフォルトのオープンソース基盤にしました。Llama 3.1およびその8B/70Bバリアントは、現在何千ものスタートアップ、社内企業ツール、デバイス上の実験を支えています。Metaは最先端のリーダーシップを分配と交換します:もし開発者がデフォルトでLlamaを使って開発すれば、Metaは公式アプリに誰も触れないときでもエコシステムを静かに形作ります。

Mistralは効率性のゲームをプレイしています。その7B–22Bクラスのモデルは、スループットとレイテンシで期待以上のパフォーマンスを発揮し、特に一般的なGPU上で効果を発揮します。欧州のデータセンターやコストに敏感なSaaSベンダー、そして手堅いインフラスタートアップは、GPT-4クラスの品質が過剰なとき、毎ミリ秒とドルが重要になる際に、ますますMistralを選んでいます。

ズームアウトすると、サム・アルトマンのコードレッドとグーグルのジェ emini 3 のプッシュは、他の全てに対する強制的な要因として機能します。Google が AI の王座に挑戦 で詳細に語られているように、TPU 経済と大規模な事前トレーニングの実行は、スケールに対する期待をリセットします。これにより、Anthropic は安全性の差別化を迫られ、Meta は許可的ライセンスへの強化を図り、Mistral は FLOP あたりのパフォーマンスをさらに引き出すことを余儀なくされます。

ユーザーは決闘を見るのではなく、重なり合ったエコシステムのロイヤルランブルを目にしています。真の勝者は、競争、模倣、そして優越性のフィードバックループに閉じ込められたこれらすべてのモデルの顕在化した行動かもしれません。

この厳しい競争があなたにとって素晴らしいニュースである理由

OpenAIのコードレッドとGoogleのTPUによる加速は、競合のラボにとっては恐ろしいものですが、ユーザーにとっては宝くじの当たりです。技術の軍備競争は、歴史的により優れた製品、より速いイテレーション、そして価格を引き下げる brutal な競争で終わることが多いです。

激しい競争により、「LLMアクセス」はすでに月額20ドルの新奇性からコモディティへと変わりました。OpenAI、Google、Anthropic、Meta、Mistral、そしてオープンソースプロジェクトが、同じ金額またはそれ以下で、より多くのコンテキスト、より良いツール、そしてより高い利用制限を提供しようと競い合っています。企業のバイヤーはさらに強く圧力をかけており、座席ごとのコストを引き下げ、使用ベースの割引を要求しています。

モデルの品質は、安全を感じない時により早く向上します。Gemini 3はOpenAIをGarlicに追いやり、GPT-4.0以降の主要なフロンティアリリースが1年以上ない中、新たなプレトレーニングの推進を促しました。AnthropicはGPT-4にClaude 3.5と4.5で応え、Metaは無料でより大きなLlamaチェックポイントを次々と提供し、全員のレベルを引き上げています。

次の6~12ヶ月間は、「GPT-5対Gemini 4」といった見出しだけでなく、ユーザーが実際に体験できる具体的なアップグレードを提供することを期待してください。

  • 1デフォルトでの長いコンテキストウィンドウ、プレミアムではなく
  • 2より良い推論スタックとカスタムシリコンによる迅速な応答時間
  • 3より強力なツール:スケールで実際に機能するコード実行、ブラウジング、ファイル処理
  • 4複数ステップタスクおよびエージェントにおける高い信頼性

価格の圧力が強まるでしょう。Googleは検索サービスやクラウドを通じてGeminiを補助することができ、MicrosoftはOpenAIのモデルを365およびAzureにバンドルすることができます。このクロスサブシディのダイナミクスは、歴史的にクラウドコンピューティングやストレージの実質的な価格を下げてきました。トークン、APIコール、そして「AIシート」ライセンスにおいても同様のことが起こると考えられます。

ユーザーエクスペリエンスは向上するでしょう。サム・アルトマンが「日々の体験」を戦場にしたからです。より豊かなパーソナライズ、セッションを超えて持続する記憶、メール、ドキュメント、IDEに埋め込まれたアシスタントのようなワークフローが期待されます。ChatGPTのブランドの強みは、製品が毎週明らかに優れていると感じられる限り守られます。

最も重要なのは、どのラボも停滞できないことです。事前トレーニング、推論最適化、またはユーザーエクスペリエンスの磨きが遅れると、それが見出しとなり、顧客の流出を引き起こします。その緊急性は、ユーザーに迅速なイテレーションサイクル、より多くの実験、そして競合が出さざるを得ない常に新しい機能の流れをもたらします。

よくある質問

OpenAIの「コードレッド」とは何ですか?

これは、CEOのサム・アルトマンによって宣言された内部イニシアティブであり、GoogleのGemini 3モデルがもたらす競争の脅威に直接対応する形で、ChatGPTのパフォーマンスとコア技術を緊急に改善することを目的としています。

「ガーリック」AIモデルとは何ですか?

「ガーリック」は、OpenAIが開発中の新しいAIモデルの内部コードネームです。これは、Googleの最近の事前トレーニングの進展に対抗するために特別に設計されており、内部テストではジェミニ3に対して良好なパフォーマンスを発揮するとのことです。

AIモデルのスケーリングは死んでしまったのか?

一部の専門家、特にOpenAIの元共同創設者イリヤ・サツケヴァーは、スケーリングが限界に達していると示唆しましたが、GoogleのGemini 3は依然として大きな進展が可能であることを証明しました。OpenAIのリーダーシップは現在、スケーリングが死んではいないと主張しており、再びその方向に焦点を当てています。

なぜGoogleのGemini 3はChatGPTにとって大きな脅威なのか?

Gemini 3は、性能の大幅な向上を示し、GoogleのカスタムTPUアーキテクチャがモデルのスケーリングにおいて重要な利点を与えていることを示唆しています。このことは、Googleの広大なユーザーベースと流通チャネルと相まって、OpenAIの市場リーダーシップに対する初の大きな挑戦をもたらします。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts