TL;DR / Key Takeaways
AIの王座に新たな挑戦者が現れました
コードレッドは滅多に通常営業を意味しません。サム・アルトマンがOpenAI内でその言葉を使ったと報じられた際、それは存在に関わる警報に近いものを示唆していました:GoogleのGeminiはもはやジョークやサイドクエストではなく、先頭を走る存在となったのです。複数の報道や業界の噂によると、従業員へのメッセージはシンプルな命令に集約されました──追いつかなければ取り残されるということです。
約2年間、OpenAIはAIのトップに君臨していました。ChatGPTは、約2ヶ月で1億人のユーザーを突破し、ビッグテック全体の製品ロードマップを再編成させ、GoogleやMetaを防御態勢に追い込みました。しかし、早期参入の利点は利用パターンが変化し、競争相手が実際の成果を上げ始める中で脆弱に見えています。
このパニックを引き起こしているデータポイントは無視できません。トラフィックとエンゲージメントを追跡しているアナリストやクリエイターによれば、日々のアクティブユーザーは特にコーディング、数学、長文執筆において、ChatGPTよりもGeminiの中でますます多くの時間を費やしています。それに並行して、AnthropicのClaudeは、バイラルデモよりも信頼性とガバナンスを重視する企業にとって静かな人気を誇っています。
エンタープライズ契約も似たような状況を示しています。クロードは、かつてOpenAIのAPIをデフォルトで利用していたクラウドパートナーやフォーチュン500企業との注目の契約を獲得しました。CIOたちは、かつてマルチクラウドについて話していたのと同じように「モデルポートフォリオ」について語っています。特定の業務にはOpenAI、コンプライアンスが重視されるフローにはAnthropic、Workspaceや検索との深い統合にはGoogleを使用するという具合です。
アルトマンの「コードレッド」 momentは、OpenAIがペースを指示するのではなく、後ろから対応しなければならない初めての瞬間です。特にAndroid、Chrome、Google Docsに統合されたUltraティアを通じたGeminiの迅速な反復は、OpenAIが対抗できないGoogleの配信能力を提供します。すべてのAndroidフォンとGmailの受信トレイは、実質的にGeminiのオンラマップとして機能します。
一頭立てのレースとして始まったものが、今や明らかにマルチポーラーに見えてきました。三つの異なる力の中心が浮上しています: - 文化的デフォルトであるOpenAI - 配信と検索のDNAを持つGoogle - 安全第一の企業向け提案を持つAnthropic
コードレッドとは、崩壊よりもリセットに関するものです。AIの王座はもはや単一の企業に属しておらず、初めてOpenAIはその座を守るために戦わなければならなくなりました。
双子座の静かなクーデター:研究者の結論
高級研究所に聞いて回れば似たような話が聞けますが、一つの逸話が何度も浮上しています。陸軍工兵隊やNASAでの経験を持つ計算流体力学のポスドク研究者が、日常使用のツールをGPTからGeminiに静かに切り替え、戻ることはありませんでした。彼の仕事は、海洋と気候のためのナビエ–ストークスモデルの最前線にあり、「まずまず」のツールでは通用しないのです。
OpenAIの初期のGPT-3およびGPT-4時代のモデルが登場したとき、彼はそれらを「かなり良い」と評しました。MATLABスクリプトを構築し、Fortranをデバッグし、シミュレーションユーティリティの粗いアウトラインを作成することができました。しかし、彼がフロンティアの乱流問題や密な導出に踏み込むと、それらは崩れてしまいました:誤った仮定、失われた文脈、実際の物理学との浅い関わりが見られました。
彼のGemini Ultraに対する評価は非常に異なっていました。最終的に有料サブスクリプションを取得した後、彼はGeminiがGPTから得ていたものよりも「はるかに良い」とテキストで伝え、彼のワークフローにとっての「ゲームチェンジャー」と呼びました。数週間以内に、彼はこれが「仕事の時間を非常に節約してくれた」と報告し、「GPT-5よりもはるかに良い」と言いましたが、これは実際には「今OpenAIが提供しているものよりも良い」という意味でした。
三つの強みが繰り返し浮かび上がりました。第一に、Geminiは長く技術的なやり取りの中で会話のポイントにしっかりと集中し、安全講座やメタ的なコメントに逸れることなく議論を進めました。ChatGPTがしばしば事実確認や言葉の濁し、あるいは「実際には」とユーザーに言って一時停止するのに対し、Geminiは議論を前に進めました。
第二に、その学術的な執筆能力が重要でした。方法論のセクション、文献レビュー、助成金のひな型のドラフトは、ジャーナルに適した文体に近づきました。明確なトピック文、正確な用語、および整然とした構造で、3,000~5,000語にわたるものです。これにより、以前はLaTeX、参考文献管理ツール、メールのやり取りの間を行き来していた校正サイクルから、何時間も削減されました。
第三に、Geminiはコンプライアンスオフィサーよりもむしろコラボレーターとして行動しました。PDEソルバー、気候モデル、レビューアの応答を扱うパワーユーザーにとって、それは中断が少なく、より多くの処理量を意味しました。これが、Geminiが研究者、クオンタ、ハードコアビルダーに受け入れられている理由です。彼らは、単により真剣な作業を迅速に行うシステムと引き換えに、少しの「磨き」を犠牲にするでしょう。
致命的な欠陥:ChatGPTの「UXモグラたたき」
UXの「ワック・ア・モール」は、プロダクトチームがすべての利害関係者を同時に満足させようとすると、結局誰も満足させられなくなる状況を指します。ChatGPTはそのような製品になりました:研究アシスタント、企業の知識ベース、医療トリアージボット、科学の解説者、そしてセラピストとして機能する一つのインターフェースでありながら、ブランドの安全性と訴訟回避を確保しています。
OpenAIは特定の「モグラ」を迅速に叩きのめし始めた。フォーチュン500の契約を勝ち取るために、ChatGPTはルール弁護士へと変貌を遂げ、コンプライアンスリスクの香りがするものを攻撃的に阻止した。「グーグル先生」という見出しを避けるために、保守的な医療ガイドラインに一致しない限り、平易な言葉で症状について話すことを拒否するデジタル医師へと変わった。
科学的な利用は別の制約の層をもたらしました。ChatGPTは現在、主流の証拠に強く依存しており、高評価のジャーナルに掲載されていない限り、周辺的または新興の研究を要約することすら拒否することが多く、プレプリントやarXivドラフト、または非定型アプローチに取り組んでいる研究者を frustrate させています。感情的な安全性はさらなるオーバーライドを追加し、鋭いまたは苦痛に関連するトピックを既製の「フェイルセーフ」応答にルーティングしています。
各修正は前回の上に重ねられ、一度は流動的だったシステムをガードレールの迷路に変えてしまいました。利用者は、モデルが技術的なスレッドを中断し、安全に関する注意事項を再検討することや、仮説を明示的に求められても推測を拒否することを報告しています。この行動は、OpenAI自身がOpenAI公式ウェブサイトで掲げている枠組みに一致しており、安全性と整合性のアップデートが製品メッセージングの主流となっています。
具体的な影響はさまざまな分野で現れます。開発者がエクスプロイトクラスについて尋ねると、コードを示す前に責任ある情報開示についての講義を受けます。オフラベル療法を調査している患者は、「医師に相談してください」という行き止まりに何度もぶつかります。コンセンサスのIPCC言語を超えて探求する気候科学者は、「権威ある情報源」に戻されることがあり、最前線の研究が明らかに存在している場合でもそうなります。
このUXのワック・ア・モールサイクルは、製品の感触を根本的に変えます。初期のChatGPTは強力でやや無謀な協力者のように感じられましたが、現在のChatGPTは、あなたが「望むべき」ことを常に再考する威圧的なコーポレートイントラネットボットのように感じます。パワーユーザーはその変化に最も気づきます。なぜなら、同じインターフェースがより少ないハードストップで動作していたことを彼らは覚えているからです。
疎外は雰囲気だけでなく、行動にも現れます。ヘビーユーザーはライティング、ブレインストーミング、探求的なリサーチのためにジェミニやクロードに移行し、その後、ChatGPTは保守的さが利点となる狭い、低創造的なタスクのためだけに残します。これは、堕落したコアプロダクトの教科書的な定義です:依然として認識可能で、ブランドも残っていますが、その魅力がかつて存在した部分は空虚になっています。
グーグルの検索DNA:不公平なアドバンテージ?
OpenAIは、依然としてそのフラッグシップデモに取り憑かれているスタートアップのように振る舞っています。一方、Googleは、20年間にわたり静かに世界の議論を仲裁してきた25年のインフラ企業のように振る舞っています。この制度的な筋肉の記憶の違いは、あいまいな部分に関する質問をGeminiにするときに毎回現れます。
Googleのコア製品である検索は、ほとんど無情とも言えるミニマリズムを取り入れています:ユーザーの意図を推測し、関連情報を提示し、邪魔をしない。何百ものランキングシグナル、1日に数十億のクエリからのクリック率データ、そして数年にわたるA/Bテストが、すべて一つの目的のために最適化されています—ユーザーの意図を迅速に満たすことです。情報からユーザーを守ることでもなく、それについて講義することでもありません。
その歴史が、いわゆるGoogleの情報に対するアグノスティックな見解を生み出しました。検索は常に、複雑で不快、あるいは物議を醸す問いに対して結果を返してきました:青酸の合成、 fringe health forums、ポルノ、陰謀ブログなどです。Googleは特定の厳しいブロック(児童虐待、テロリズムの直接的な手引きマニュアル)を設けましたが、それ以外はほとんどが流れ、関連性と権威のシグナルに基づいてランク付けされており、企業の気まずさにはよっていません。
ジェミニはその姿勢を受け継いでいます。オフラベル薬の使用、バイオハッキング、または政治的に敏感なトピックについて尋ねると、ジェミニはさまざまな情報源、注意点、主流の合意を提示し、急ブレーキをかけることはありません。ガードレールはありますが、「安全策」の人格に直行したり、企業のリスク管理のテンプレートでニュアンスを上書きすることはありません。
対照的に、ChatGPTの現在のユーザーエクスペリエンスは、制約するペルソナが競い合っているかのように感じられることがよくあります。医療に関する質問にはデジタル医師の声が応じ、企業の懸念にはルール弁護士が現れ、感情的に高ぶる内容には安全へのオーバーライドが適用される危険があります。ユーザーは、道具、引用、トレードオフを期待していた場所に、遠慮や拒否、叱責を見るのです。
検索に基づく本能がGoogleをユーザーとの異なる契約へと導いています。あなたは意図を所有し、Geminiは情報の取得と推論を担当します。これにより、このモデルは守門人というよりも、パワーツールのように感じられます。あなたは構造化された回答やリンク、コンテキストを得ることができ、今日あなたが見ることが許可されている現実の部分を決定する道徳的フィルターは存在しません。
研究者、臨床医、エンジニアが情報の茂みの中で生活している世界において、Geminiの「見せる、守らない」という哲学は、真剣なユーザーが実際にどのように作業しているかにより適している。
傭兵対宣教師:OpenAIの魂
シリコンバレーは、すっきりとした倫理的な物語が好きです:創業者は「傭兵」と「宣教師」に分かれます。傭兵は評価、出口、そして地位を追い求め、一方で宣教師は問題に取り憑かれ、それにこだわり続けます、市場がそれとは逆の声を上げていてもです。現在、各主要AIラボは宣教師の肩書きを主張していますが、そのリーダーたちの行動は異なる物語を語り続けています。
サム・アルトマンは、OpenAIを安全性を重視し、人類を第一に考えるプロジェクトとして位置づけ、皆の利益のためにAGIに向けて急速に進んでいると述べています。しかし、彼のキャリアの軌跡は、傭兵のプレイブックを駆使するパワーユーザーのように見えます。Y Combinatorの社長、熱心なエンジェル投資家、Worldcoinの共同創設者、OpenAIの攻撃的な資金調達責任者としての役割です。彼が「兆」ドルのコンピュータおよびエネルギーを投入したいと発言する際のコメントは、科学者のマニフェストというよりは、国家財産ファンドのピッチデッキのように聞こえます。
アルトマン自身の振る舞いは、僧侶のようなイメージを覆すものだ。彼は報道によれば、約500万ドルの車—カスタムチタン製のボディを持つ、レンジエクステンデッドスーパーカー—を日常的に運転しながら、存在的リスクや普遍的向上について語っている。彼はOpenAIを制限利益の実験から、ガバナンスの純粋さを多億ドルの戦争予算とAzure規模のインフラに変える形で、Microsoft依存の密接な関係へと押し進めた。
その傭兵的な傾向はOpenAIの製品マップにも現れています。ChatGPTの核心的な体験は、GPT-4oバリエーション、o1/o3、GPTストア、音声モード、Sora、デスクトップアプリ、"Pulse"スタイルの分析、エンタープライズダッシュボードなどのアップセルや実験の山の下に埋もれています。ChatGPTが何のために存在するのかという明確なテーマの代わりに、ユーザーは注目と収益を競い合う機能のカジノロビーを提供されています。
マネタイズの圧力がモデルの個性を形成します。追求する対象: - 保守的な企業 - 医療および法務業界 - 教室での採用
OpenAIはChatGPTを、常に拒否し、あいまいにし、手を加えるルール弁護士に変えました。その「UXの whack-a-mole」アプローチ——あるセグメントのために一つの行動を調整し、別のバイヤーのために別の行動を調整する——は、ツールというよりも、自動補完機能付きの免責同意書のように感じられるボットを生み出しています。
アルトマンのリーダーシップスタイルは、狭い使命を守ることよりも派手なものを出荷することを優先しています。ソラのバイラルデモは、安定した明確に位置付けられた研究アシスタントが登場する前に登場しましたし、GPTストアは基本的な信頼性の問題がRedditでトレンドにのる前に発表されました。これらの動きは成長と評価の観点からは理解できますが、同時に「すべての人に利益をもたらすAGI」という本来の約束を薄めています。
宣教師は、スプレッドシートが異なる意見を示しても、製品の魂を守ります。傭兵はスプレッドシートを最適化し、必要に応じて魂を再定義します。OpenAIの最近の選択は、現在どちらの側が会社を運営しているかを示唆しています。
沈黙の脅威:アンソロピックが企業を掌握した方法
Anthropicはコードレッドを宣言しませんでした。静かにフォーチュン500企業の増加するセグメントのデフォルトの答えとなりました。OpenAIが消費者や雰囲気を追い求める一方で、Anthropicは実際に複数年契約を結び、8桁のチェックを書いている唯一の市場、すなわちエンタープライズ向けにClaudeを調整しました。
2021年にダリオ・アモデイとダニエラ・アモデイによって、OpenAIからの分裂後に設立されたAnthropicは、初日から「明確な方向性の哲学」をその技術スタックに組み込みました。「迅速に動き、後で安全性を修正する」のではなく、明示的に書かれた「憲法」に従うように訓練されたモデル、いわゆる憲法的AIを構築しました。そのアプローチは、法務、コンプライアンス、セキュリティチームが実際に監査し、議論できるものを提供します。
クロードの企業向けの提案は非常にシンプルです:大きなコンテキストウィンドウ、強力な推論能力、そしてリスクを減らします。クロード3.5ソネットは200Kトークンのコンテキストをサポートしており、これによりコードベース、ポリシーマニュアル、またはM&Aデータルーム全体を一度に取り込むことができます。開発者たちは、内部コーディングタスクの合格率が高く、GPT-4クラスのモデルと比較して幻のAPIが少なくなったと報告しています。また、HumanEvalやSWE-benchのようなベンチマークスイートでは、クロードがコード生成やバグ修正においてオープンAIに勝っているか、または同等であることが通常見られています。
採用が進みました。Anthropicは数千の有料ビジネス顧客を抱えていると主張しています。AWSやGoogleはClaudeを再販しており、BedrockやVertex AIの中でワンクリックで利用できる状態です。Slack、Notion、Quora、主要銀行は、要約、カスタマーサポート、リスク分析のためにClaudeを活用しており、正確にスクリプトに従い、ガードレール内で動作するためです。
OpenAIがUXの問題を次々と解決する中で、Anthropicは分析、コーディング、ドキュメントに最適化されたテキスト中心のアシスタントを提供しています。GoogleもGeminiを用いて同様のことを行っており、Search、Workspace、Androidに統合されています。スケールでの実際の様子はGoogle DeepMind - Geminiをご覧ください。
Anthropicの台頭は、OpenAIにとって不快な対例です。特定の哲学と特定の顧客タイプに基づいた、焦点を絞ったミッション駆動型のロードマップが、散漫な「誰にでも、どこにでも」の戦略を打ち負かしています。それは特に企業のファイアウォール内で痛手を与えています。
認識的病: あなたのAIがあなたを評価するとき
認識のガードレールは心地よく聞こえますが、話し方が上から目線になると不快に感じます。今日のChatGPTは、しばしば単なるツールというよりも、公式のガイダンスや免責事項、あなたが「考えるべき」ことを思い出させる廊下の監視員のように感じられます。明示的にそれを避けるように求めてもなおです。そのトーンは、初心者ではなく専門家や高度に情報を持った患者である場合、すぐに不快になってしまいます。
デビッド・シャピロは、慢性疾患の研究をしている際にこの壁に直面したことを語っています。彼は、最先端の臨床論文、フォーラムからの患者の体験談、専門家コミュニティで議論されるオフラベルプロトコルを統合する手助けが必要でした。しかし、ChatGPTは繰り返し彼をFDAのガイドラインと「医師に相談してください」という定型文に引き戻し、彼が本当に気にしていた混乱したデータには関与しようとしませんでした。
その背後には、UXの特異性だけでなく、認識の欠陥が存在します。OpenAIは、ChatGPTを「権威ある」機関—FDA、CDC、アイビーリーグの医療センター、大手ジャーナル—を過大評価するよう調整しており、経験的、臨床的、あるいはプレプリントの証拠を低評価または完全に拒否しています。このモデルは、この狭い現実の断片を大文字のTの真実として扱い、それ以外のすべてを文脈やユーザーの専門知識にかかわらず疑わしいものと見なしています。
慢性疾患にとって、そのバイアスは壊滅的です。ロングコビッド、ME/CFS、自律神経失調症、慢性ライム病などの多くの状態は、査読された証拠が最前線の実践や患者コミュニティの何年も後れを取るグレーゾーンに存在しています。患者はしばしば以下の情報を元に洞察を集めます: - 小規模の無作為化研究 - ケースレポートや医師のブログ - Reddit、Facebook、または患者登録簿からの大規模な逸話的データセット
ChatGPTのトレーニングは、まさにその情報源を信用しないように教えています。何千人もの患者が使用しているサプリメントスタックについて尋ねると、古いガイドラインを繰り返しながら一般的な安全警告を示し、批判されるでしょう。そのスタックについての研究が行われていないためです。専門クリニックからの新しいプロトコルを求めると、まだFDAによって承認されていないため、「提供できません」と会話から逃げることになります。
それは中立的な注意ではなく、積極的な害です。微妙で迅速に変化するトピックを探求しているユーザーは、革新が遅れている最も保守的な機関に戻されてしまいます。あなたの質問を判断することに反射的に偏るAIは、情報を広げるのではなく、単に役に立たないだけでなく、あなたが探しに来た知識そのものを体系的に消し去ってしまいます。
集中力の喪失:ソラ、広告、そしてその他の気晴らし
コードレッドかどうかにかかわらず、OpenAIはますます、コアのLLMを修正するためにじっとしていられない会社のように見える。Googleがより洗練されたGeminiのバージョンを提供し、AnthropicがClaudeの推論基準を静かに向上させる中、OpenAIはサイドクエストを次々に発表している:Sora、Pulse、TikTokスタイルのフィード、そして今度はChatGPTでの広告の初期実験だ。これらのどれも、基本モデルを忘れっぽくなくしたり、検閲が少なくなったり、難しい問題に対してより能力を高めたりするわけではない。
特にソラは、バイラルを狙って作られた気をそらす存在に感じられます。テキストから動画へのデモはXやYouTubeで数百万回の視聴を得ましたが、ソラは依然として閉じられており、計算資源を大量に消費し、単に信頼性のあるコードのデバッグ、研究の要約、契約の草案作成ができるモデルを求めている人々にとってはほとんど無関係です。フォトリアリスティックなスケートボード犬に費やされるGPU分は、より良い推論モデルに費やされるべき1分でもあります。
PulseとChatGPTフィードは、企業をエンゲージメント最適化の領域へと推進します。AI生成コンテンツのスクロールストリーム、レコメンデーションアルゴリズム、スポンサー付き結果が、ChatGPTを精密なツールから「時間消費」を追求するソーシャルプロダクトに変えています。セッションの長さを最適化し始めると、ユーザーに迅速に正確な回答を提供することが必然的に de-optimize されてしまいます。
一方、競合他社は ruthless (容赦ない) 集中を維持しています。Google は、その膨大な TPU 予算を Gemini 1.5 と 2.0 のコンテキストウィンドウ、ツールの使用、コードの品質に注ぎ込んでいます。Anthropic は、より強力な数学、優れた長文コンテキストのリトリーバル、および派手さではなく、安全性と信頼性を中心にした明確な企業向けのアプローチを持つ Claude 3.5 Sonnet を提供しています。
OpenAIのロードマップは、知能に執着する研究室ではなく、成長段階の消費者スタートアップにますます似てきています。動画生成、クリエイターツール、広告実験、インフルエンサーとの提携は、注目を最適化する企業にとってはすべて納得できるものです。しかし、ただ最も賢いモデルを必要としているユーザーにとっては、これらは方向を見失ったチームの症状のように見えます。
大移動:誰が勝ち、誰が負けるのか?
コードレッドかどうかは別として、市場はすでに注意を再配分し始めています。サードパーティのトラフィック推定によれば、ChatGPTのAIアシスタント訪問シェアは減少し、GeminiやClaudeは上昇しています。また、モバイル利用データは、日々のアクティブな時間がデフォルトでGeminiが検索、Android、Workspaceに組み込まれるGoogleのエコシステムにシフトしていることを示唆しています。
消費者は早期の勝者として浮上しています。競争がより迅速なモデルのリフレッシュサイクルを促し、障害の少ない環境を提供し、より優れたマルチモーダルツールを実現します。Gemini Ultra、Claude 3.5 Sonnet、OpenAIのo1/o3シリーズは、ただの新しさではなく、推論、レイテンシ、コンテキストウィンドウのサイズで競争しており、これが日常のコーディング、ライティング、リサーチを直接改善します。
開発者はさらに多くの利点を得ます。彼らは以下をターゲットにできます: - Gemini APIはGoogle Cloud、BigQuery、Vertex AIと密接に統合されています - Claude APIは長文コンテキストや低ハルシネーションの企業ワークフローに最適化されています - OpenAIのGPTは、エコシステムの深さとプラグインの歴史において依然として強力です
マルチプロバイダーオーケストレーションツールは、現在の時点で最もパフォーマンスが良いか、最もコストが安いモデルにリクエストを動的にルーティングします。
エンタープライズバイヤーは静かに最強の立場を握っています。Anthropicの安全性の評判、GoogleのコンプライアンスおよびSLAの力、MicrosoftのAzure OpenAIサービスは、CIOに信頼できる選択肢を提供します。RFPは現在、ベンダー間のポータビリティ、トークンごとのコスト保証、地域データの居住要件を求めており、3社はより透明な価格設定と明確なリスク分担に向かっています。
敗者たちはOpenAIの現在の重力井戸に集まっている。サム・アルトマンがUXウィack-a-moleを解消し、単一の一貫した製品哲学に再集中できない場合、ChatGPTは「レガシー」アシスタントになるリスクがあり、根付いているがもはや最高クラスではない。ChatGPT特有のフォーマット、プラグイン、GPTに基づいてワークフローを構築したパワーユーザーたちは、GeminiやClaudeに再編成する際に移行税に直面することになる。
長期的には、基本トークンの価格は下落し、差別化された機能は上昇する競争が予想されます。フロンティアの推論モデル、ドメイン調整されたコパイロット、プライベートなファインチューニングはプレミアムがつく可能性が高い一方で、一般的なチャットアクセスはコモディティの地位に向かうか、クラウド契約にバンドルされる傾向があります。
アクセシビリティはおそらく向上するでしょう。EU、インド、ブラジルにおける規制の圧力や、The Verge - AI Coverageのようなメディアからの公共の監視が、オープンなベンチマーク、より明確な安全性の開示、および教育や小規模なスタートアップ向けの低価格プランを促進します。一方で、最先端のAGI関連モデルは、より高い価格と厳格なKYCの背後に制限されています。
OpenAIの次の一手:復讐か破滅か?
OpenAIのコードレッドは、突然現れたわけではありません。それは、チャットGPTをルールに厳格な法律家、セラピスト、企業のコンプライアンス担当者、そして医療トリアージボットに同時に変えてしまった欠陥のあるUX哲学に起因しています。この「UXハワフマ」アプローチは、ユーザーが作業を進めるのを単純に助けるのではなく、割り込んだり、検閲したり、二の足を踏んだりするモデルを生み出しました。
それに傭兵的リーダーシップの姿勢を重ねると、物語はさらに鮮明になる。OpenAIは非営利のラボからキャップ付きの利益巨人へと転換し、マイクロソフトから数十億ドルの契約を得て、Soraやソーシャルスタイルの機能でバイラル化を追求した一方で、Anthropicは静かに企業契約を締結していた。その結果、Geminiは日々のエンゲージメントで先行し、Claude 3.5 Sonnetはリスク回避を重視するフォーチュン500企業のデフォルトとなった。
集中力の喪失は至る所に現れています。ChatGPTのコア体験は停滞する中、OpenAIはGPT Store、ボイスチャット、Soraのティーザー、広告関連の実験を次々と展開しました。一方で、GoogleはGeminiをSearch、Docs、Androidに統合し、AnthropicはClaudeを長文契約、ガバナンスワークフロー、RFP向けに調整しました—実際に利益を生む、高利益率で退屈な仕事です。
回復には、製品と文化への brutal refocus が必要です。OpenAI には、過度に制約された一般的なモードではなく、明確で意見のある異なるモードが求められます。つまり、混沌としたデータを許容する研究モード、明確な保証を持つ企業モード、そして実際に指示に応じて幻覚を示すクリエイティブモードです。これは、ハードコーディングされた拒否を減らし、安全レベル、ソース、およびリスクのトレードオフについての透明性のあるコントロールを増やすことを意味します。
文化的に、OpenAIは成長段階のスタートアップのように、あらゆる目新しいものに追いかけるのをやめるべきです。退屈なロードマップが必要です: 四半期ごとの信頼性目標、待機時間のSLA、モデルバージョンの固定、そして記録された動作の変更。企業顧客は、o1スタイルの推論デモにはあまり関心がなく、昨日のプロンプトが明日も機能するかどうかを重視しています。
サム・アルトマンはこのジレンマの中心にいます。彼は資金調達、話題作り、採用に優れていますが、1,000人以上の安全に関わるインフラ企業をスケールアップさせた経験はありません。OpenAIを反トラスト調査、グローバルな規制、激しいクラウド経済の中で舵取りするには、トップポジションにGoogleやAWSレベルの経験を持つオペレーターが必要かもしれません。
これがOpenAIの終わりを意味するわけではありません。依然としてブランド認知度が高く、ChatGPTユーザーの大規模なインストールベースがあり、特権的なAzureアクセスと世界最高のモデル研究者の何人かを擁しています。しかし、先行者利益は失われました。GeminiとClaudeがそれを証明しました。
残るのは本当の軍拡競争です。Google、OpenAI、Anthropic、Meta、そしてオープンソースのエコシステムが、コンテキストの長さ、マルチモーダリティ、レイテンシ、価格を互いに押し上げていきます。コンシューマーと開発者は、コードレッドがパニックボタンではなく、持続的で規律のある競争に変わるときに勝利します。
よくある質問
OpenAIの「コードレッド」とは何ですか?
これは、CEOサム・アルトマンによって発表された内部の取り組みであり、GoogleのGeminiからの競争脅威に緊急に対処することを目的としています。これは、OpenAIが重要な分野で遅れをとっていることを認めていることを示しています。
なぜ一部のユーザーはChatGPTよりもGeminiを好むのでしょうか?
ユーザーは、ジェミニが会話の文脈を維持するのが得意で、学術や研究の執筆に優れており、上から目線で「ファクトチェック」をしたり、複雑なトピックに関与するのを拒否することが少ないと報告しています。
「UXワックアモール」とは、分析において言及された問題です。
OpenAIの戦略は、ChatGPTを安全性と企業の採用のために過剰に修正することで、過度に慎重でルールに縛られたものにしてしまい、その結果、コアなユーザーエクスペリエンスと有用性が低下していることを説明しています。
Googleのジェミニに対する哲学は、OpenAIのChatGPTに対するそれとどのように異なるのでしょうか?
Googleはその検索エンジンの歴史から、情報に対して「アグノスティック」な見方を持ち、ユーザーの意図を信頼しています。一方、OpenAIは過度にキュレーションを行い、「既存の」情報源のみを信頼し、モデルの有用性を制限しています。