要約 / ポイント
その沈むような感覚は現実です
生成AIの分野には、はっきりとした幻滅感が漂っています。各プラットフォームのユーザーは、OpenAIのChatGPTやAnthropicのClaudeといった主要なチャットボットの性能と有用性が著しく低下していると報告するケースが増えています。かつてはよりスマートな未来への一端を垣間見るようだったものが、今ではしばしば退行のように感じられ、広範な不満とフォーラムやソーシャルメディアでの共有された苦情の洪水を引き起こしています。どうやら、蜜月期間は完全に終わったようです。
この感情は、Anthropicの最新フラッグシップモデルであるOpus 4.7の発表とともに最近具体化しました。当初の鳴り物入りや内部ベンチマークでの強力な性能にもかかわらず、このモデルはすぐに激しいコミュニティの反発を招き、多くのユーザーが「ひどい」と評しました。この広範な不満は、AI企業が成功を測る方法と、実世界のアプリケーションにおけるユーザーの微妙で質的な体験との間の決定的な乖離を浮き彫りにしています。
全体的に、モデルは創造性に欠け、より教訓的になり、ユーザーのプロンプトを真に支援したり拡張したりするよりも、「ユーザーの口に言葉を押し込む」傾向が顕著になっています。これは単一のプラットフォームに限ったことではありません。過去6〜12か月の間に、ChatGPTとClaudeの両方で、ニュアンスの減少、説教がましいトーンの増加、そして一般的な役立たずさに関する苦情が絶えず浮上しています。ユーザーは、かつて強力だったAIコンパニオンが、いらいらするほど硬直的で役に立たないものになっていると感じています。
ある期間、これらの懸念は孤立した苦情のように感じられ、主流のAI議論におけるOverton windowよりも先行していたかもしれません。しかし今や、多くのユーザーが共通の、否定できない現実を認識しています。彼らが日常的にやり取りするAIは明らかに悪化しており、しばしば基本的な期待さえも満たしていません。この広範な劣化は、業界全体に浸透する差し迫った疑問を提起します。この低下は、急速な開発とスケーリングの偶発的な副産物なのか、それとも、真の知能と有用性よりも他の指標を優先する可能性のある、現在のAI業界のインセンティブ構造の予測可能で、おそらく避けられない結果なのでしょうか?
AIの「Enshittification(クソ化)」へようこそ
作家Cory Doctorowによって造語されたenshittification(クソ化)は、オンラインプラットフォームの予測可能な劣化を説明するものです。この用語は、当初ソーシャルメディア大手企業に適用されましたが、ユーザーフレンドリーに始まり、やがてかつての自分たちのイライラする、価値が搾取された抜け殻へと螺旋状に変化していくサービスのライフサイクルを完璧に捉えています。それは孤立した事件ではなく、システム的な腐敗です。
Doctorowは、厳しい3段階のプロセスを概説しています。まず、プラットフォームは、優れた、しばしば補助金付きの製品でユーザーを誘い込み、強力なネットワーク効果を確立します。次に、ユーザーが囲い込まれると、プラットフォームは彼らを搾取し始め、広告主やコンテンツクリエーターのようなビジネス顧客に価値を転用します。最後に、ユーザーとビジネスの両方が依存するようになると、プラットフォームはビジネス顧客を搾取し、残りのすべての価値を自社のために取り戻し、他のすべての人には劣化した体験を残します。
この軌跡は、AIで展開されている危機を反映しています。OpenAIのChatGPTやAnthropicのClaudeのようなモデルの初期の反復は、ユーザーに直接的な費用をかけずに、前例のない機能を提供しました。これらは「素晴らしい製品」の段階であり、何百万人ものユーザーを引きつけ、貴重なユーザーデータを収集し、市場での優位性を確立するために多額の補助金が投入されました。しかし、当初の「すごい」という要素は、品質と信頼性の明白な低下に道を譲りました。
ユーザーがAIパフォーマンスの低下と認識しているものは欠陥ではなく、彼らの進化するビジネスモデルの意図的な結果です。Facebookが友人をつなぐことから注意の収益化へと軸足を移し、Twitter(現X)がユーザーの幸福よりもエンゲージメント指標を優先したのと同様に、AI企業は現在、企業の至上命令のために最適化しています。これには、推論のコスト削減、厳格な「安全性」フィルターの実装、または企業顧客向けにモデルを調整することが含まれ、これらすべてが一般的なユーザーエクスペリエンスと生の知能を犠牲にしています。許容されるAI品質のオーバートン・ウィンドウは、進歩ではなく利益によって推進され、下方へシフトしています。
愚か者め、インセンティブが問題なのだ
チャットボットの品質低下に対するユーザーの不満は偶然ではありません。それは、これらの高度なAIシステムを構築しているまさにその企業内に存在する、強力で競合するインセンティブ構造の直接的な結果です。技術的な見落としとは程遠く、OpenAIのChatGPTやAnthropicのClaudeのようなモデルで観察される劣化は、企業優先順位の根本的な変化に起因しており、そこでは外部のユーザー満足度が内部の企業存続と戦っています。
画期的な、知的なユーザーエクスペリエンスを提供するという当初の野心は、3つの内部圧力によって影が薄くなりました。これらには、生の、制約のないパワーよりも厳格な効率を要求する圧倒的な計算コスト。過度に慎重で、しばしば検閲され、時には役に立たない出力につながる麻痺させるような訴訟の恐怖。そして、絶対的な事実の正確さを追求してモデルを平凡さと予測可能性へと押しやる、勝ち目のない「ハルシネーション」との戦いが含まれます。
これらの深遠な内部の戦いが今やAI開発を決定づけており、真に知的で魅力的なインタラクションという当初の追求を脇に追いやっています。企業はもはや「最高の」チャットボット体験だけを最適化しているわけではなく、経済的に実行可能で、法的に防御可能で、論争の的となる、または望ましくないコンテンツを生成する可能性が最小限であるもののためです。この方向転換は、これらのシステムがどのように訓練され、微調整され、最終的に何百万ものユーザーに展開されるかを根本的に変えます。
ユーザーがAIが「愚かになっている」と認識していることは、本質的に一連の戦略的なトレードオフです。何百万人もの人々を魅了した当初の驚きは、安定性とコスト管理のためにパフォーマンスを犠牲にする、より実用的でリスク回避的なアプローチに道を譲りました。以下のセクションで、これら3つの力それぞれを分析し、膨大な計算需要、迫り来る法的脅威、そして虚偽の情報を根絶するというシーシュポスの課題が、どのようにしてチャットボットの能力を低下させ、よりイライラさせるものにしているのかを正確に探ります。
要因 #1: コストの圧倒的な重み
OpenAIのGPT-4やAnthropicのClaude Opusのような最先端の大規模言語モデル(LLM)を運用することは、天文学的な費用を要求します。カジュアルな質問から複雑なコーディングリクエストまで、あらゆるインタラクションが、大規模な特殊GPUクラスター全体で大規模な計算カスケードをトリガーします。これらの操作は莫大な量の電力を消費し、絶え間ないハイエンドのインフラメンテナンスを必要とし、根本的に通常の収益を上回るクエリあたりのコストに変換されます。
したがって、すべてのユーザーのクエリは、大幅に補助されたトランザクションとして機能します。企業がユーザーを引き付けるために無料ティアを提供し、強化されたアクセスに対して有料サブスクリプションを提供する場合でも、根本的な経済性は依然として厳しいものです。トップティアモデルから微妙で深く論理的な応答を生成する真のコストは、プレミアム加入者からでさえ、生み出される限界収益をしばしば上回ります。
プレミアムサブスクリプションは、多くの場合20ドルから30ドルの範囲で、ユーザーにより多くのトークンまたは高い使用制限を提供します。しかし、これらの料金が複雑な推論タスクの計算費用全体をカバーすることはめったにありません。ユーザーがAIに複雑な問題解決、多段階分析、または広範な内部「思考」を必要とする創造的な生成を促すとき、モデルははるかに多くのリソースを消費します。逆説的に、ユーザーがAIの実際の知能—その最も価値のある機能—をより多く活用すればするほど、企業はそのインタラクションでより多くのお金を失います。
この逆転したインセンティブ構造は、開発者に効率性を見つけることを強います。主要な方法の1つは、モデルの推論の深さを微妙に減らすことであり、これは口語的に「思考トークンの削減」と呼ばれます。これは露骨な検閲ではなく、LLMが回答を形成する前に取る内部計算ステップを削減することです。エンジニアは、モデルの「思考時間」を短縮したり、内部の独白を制限したり、情報検索の範囲を狭めたりすることで、高価な計算サイクルを節約しようとします。
ユーザーは、これらのコスト削減策の直接的な結果を経験します。チャットボットは頻繁に「怠惰」に見え、より短く、包括的でない、または過度に一般的な応答を提供します。彼らは複雑な多段階の質問に取り組むことに顕著な抵抗を示し、深い解決を試みるよりも問題を単純化したり、説明を求めたりすることがよくあります。この観察される品質の低下—かつては素晴らしかったAIが今や劣化したと感じるフラストレーション—は、計算コストの圧倒的な重圧による直接的かつ経済的に合理的な結果です。
要因 #2: 10億ドル規模の訴訟の亡霊
AI企業、つまり巨大な企業体は、法的責任に対する実存的な恐怖の下で運営されています。より機敏なスタートアップとは異なり、これらの数十億ドル規模の組織は、ほとんどすべてのことよりもリスク軽減を優先します。大規模言語モデルによって処理される個々のクエリは、壊滅的な訴訟の潜在的なベクトルとなり、開発に対して深く保守的なアプローチを植え付けています。
著作権侵害はすでに長い影を落としています。出版社や著者は活発に訴訟を追求しており、Anthropicに対する訴訟がその例です。この訴訟では、同社が著作権で保護された大量の書籍を無断でClaudeモデルのトレーニングに使用したと主張されています。このようなケースは、AIトレーニングデータの法的状況を再定義する恐れがあり、既存のモデルを無効にし、天文学的なライセンス料を要求する可能性があります。
トレーニングデータを超えて、有害なアドバイスの亡霊が大きく立ちはだかります。誤った、または危険なガイダンスを提供するAIモデルは、壊滅的な法廷闘争を引き起こす可能性があります。AIチャットボットが以下を提供すると想像してみてください。 - 財政破綻につながる誤った法的助言 - 医療現場での誤診により患者の健康を危険にさらす - 重大な損失をもたらす欠陥のある財務計画
これらの責任を未然に防ぐため、開発者は極端な手段に訴え、洗練されたモデルを実質的にロボトミー手術します。この攻撃的かつ防御的な法的戦略には、AIを過度に慎重で、説教くさく、感情的に無菌にするように設計された広範なガードレールとフィルターの実装が含まれます。主な目的は、最も厳密な法的解釈の下で、実行可能でありながら問題のあるアドバイスと見なされる可能性のある出力を排除することになります。
この10億ドル規模の訴訟に対する広範な恐怖は、現代のチャットボットの有用性の低下に直接つながっています。企業は、微妙で、真に役立つ、魅力的な応答を、一般的でリスク回避的な決まり文句のために体系的に犠牲にしています。法的責任を回避するという義務は、必然的にAIの行動を形成し、結果として、知能が低く、能力が劣り、最終的には日常のユーザーにとってはずっとイライラするモデルを生み出しています。
「ロボトミー化された」AI:安全で、無菌で、役に立たない
ユーザーはかつて、ChatGPTやClaudeのようなチャットボットを、その会話の流暢さと創造的なひらめきで称賛しました。しかし今や、その体験は、綿密にプログラムされているものの、全く喜びのない自動人形と対話しているかのようです。これはAIの「ロボトミー化」の直接的な結果です。法的および評判上のリスクを排除するために意図的に去勢されたもので、その代償として有用性とエンゲージメントが著しく損なわれ、許容されるAIの振る舞いのOverton window windowを極端な慎重さへと強く押しやっています。
微妙なニュアンスの応答や機知に富んだやり取りの時代は終わりました。代わりに、ユーザーはますます定型句の洪水に遭遇し、最も悪名高いのは、どこにでもある「As a large language model...」という免責事項です。この前置きは、プロンプトが無害な性質のものであっても、倫理的境界、安全ガイドライン、またはモデルの固有の限界に関する講義の前に置かれることがよくあります。かつて探求のパートナーであったAIは、今や永続的な倫理委員会として機能し、ユーザーにその制約と安全策を絶えず思い出させています。
この積極的な浄化は、モデルからその初期のemotional intelligenceと明確な個性を奪います。初期のバージョンでは創造的な提案、共感的な応答、あるいは遊び心のあるインタラクションを提供したかもしれませんが、現在のバージョンは頑なに中立的で、平坦で、識別可能な個性がありません。想像力、微妙なアイデア出し、あるいは多くの初期採用者が評価したような仲間のようなインタラクションを必要とするタスクにおいて、これらのモデルは苛立たしいほど不十分であり、認識された「安全性」の懸念から、創造的なプロンプトやロールプレイングシナリオへの関与をしばしば拒否します。
したがって、数十億ドル規模の訴訟と世間の反発という亡霊に駆り立てられた絶対的な安全の絶え間ない追求は、無菌で全く役に立たないユーザー体験を生み出しました。AI企業は、多用途性と魅力的なインタラクションを、味気ないコンプライアンスと効果的に交換しました。多様なニーズに適応し、創造性を育むことができるダイナミックでインテリジェントなアシスタントという当初の約束は、組織的に損なわれてきました。それは今や、安全かもしれませんが、最も厳密に定義された低リスクのタスク以外ではますますuselessなツールに置き換えられています。この根本的な矛盾は、現在のAIの状況における悲劇的な皮肉を浮き彫りにしています。完全に無害であろうと努める中で、これらの高度なシステムはほとんど不活性になり、真に役立つ多用途なアシスタントとしての本来の可能性を実現できていません。
ドライバー #3: Hallucinationsに対する勝ち目のない戦い
Hallucinationsは、生成AIの広範な企業および専門分野での採用に対する最も重大な障害です。これらの説得力があるが事実と異なる出力は、医療、法律、金融などの分野における重要なアプリケーションにとってモデルを根本的に信頼できないものにします。企業は、日常的にデータを捏造したり事実を誤って述べたりするツールを導入することで、評判を危険にさらしたり、法的影響に直面したりすることはできません。
しかし、100%の事実の正確さを達成することは、大規模言語モデルがどのように機能するかという中核的なメカニズムと直接的に矛盾します。これらのモデルは、検証済みの真実の内部データベースを参照するのではなく、膨大なトレーニングデータセットに基づいて最も可能性の高い次の単語を予測する洗練されたpattern-matchersとして機能します。それらは*generate*するように設計されており、必ずしも*know*ようには設計されていないため、完璧な事実の想起は本質的にとらえどころのない目標となります。
AI開発者は、これらの捏造を抑制するために様々な技術を採用しており、最も注目すべきはReinforcement Learning from Human Feedback (RLHF)です。この労働集約的なプロセスでは、人間のアノテーターがモデルの応答を評価し、AIが真実で、無害で、役立つ出力を好むように導きます。重大なエラーを減らすには効果的ですが、RLHFはしばしば、モデルが過度に慎重で、一般的で、創造性に欠けるようになり、初期の才能を無味乾燥な安全性と引き換えにする現象を引き起こします。
医師、弁護士、金融アナリスト向けの完璧さの絶え間ない追求は、必然的にこれらのAIから、当初より幅広い層を魅了した能力そのものを奪います。企業が責任の軽減と、高リスクの専門的なユースケースにおける無菌的で予測可能な応答の確保を優先するにつれて、モデルは驚きを与えたり、革新したり、真に斬新なコンテンツを生成する能力を失います。AIを企業向けに「安全」で事実に基づいた堅牢なものにしようとするこの推進力は、皮肉にも、他のすべての人にとってはますます退屈で役に立たないものにし、かつて真に魔法のように感じさせた火花を消し去ります。
最も安全な底辺への競争
運用コストの重圧、数十億ドル規模の訴訟という常に存在する脅威、そしてhallucinationsという手に負えない問題が、AIの競争環境を根本的に再構築しました。かつて企業はベンチマークを誇示し、最も知的で有能なモデルを競い合い、機械認知が達成できることの限界を押し広げていました。その時代は、決定的に終わったようです。インセンティブが変化したのです。
今日の戦場は、生の知能ではなく、商業的実行可能性です。OpenAIからAnthropicに至る主要なAI開発者は、もはや画期的な認知能力や制約のない創造性を優先していません。代わりに、彼らは最も差し迫った実存的脅威に同時に対処するモデルを構築するための、激しく静かな競争に閉じ込められています。これは、以下のモデルを優先することを意味します。 - 大規模に実行するのに最も安価であり、すべてのユーザークエリに内在する莫大な計算補助金を軽減する。 - 最も法的に防御可能であり、著作権侵害の申し立て、名誉毀損訴訟、または事実誤認の責任への露出を最小限に抑える。 - 企業クライアントにとって最も安全であり、予測可能でブランドに合致した出力を保証し、論争の的となる、不快な、または政治的に敏感なコンテンツを完全に排除する。
この戦略的な転換は、広範なユーザーの不満と、モデル品質の認識された劣化を直接説明しています。そのニュアンス、創造的なひらめき、冒険的な精神を剥奪された「ロボトミー化された」AIは、偶発的な副産物ではありません。それは、これらの強力な商業的および法的圧力によって意図的に設計された結果です。特に、フィルターされていない創造性、微妙な理解、または複雑な推論を必要とする分野でのイノベーションは、目標というよりも負債となります。
最終的に、この軌跡は厳しい最も安全な底辺への競争を表しています。AI企業は、コスト効率とリスク軽減の祭壇に、生の知能、創発的な能力、そして真に魅力的なユーザー体験を積極的に犠牲にしています。この新しいパラダイムで最も成功するAIは、最も賢いものでも、一般ユーザーにとって最も役立つものでもありません。それは、最も無菌的で、予測可能で、論争、法的頭痛、または莫大な運用赤字を引き起こす可能性が最も低いものです。これは真の進歩を妨げ、真の能力を企業の安心と引き換えにし、最終的にこの分野全体の可能性を低下させます。
この悪循環から抜け出す道はあるのか?
現在の悪循環から脱却するには、AIの開発と展開を根本的に再評価する必要があります。最も有望な代替案は、ChatGPTやClaudeのような不透明なプロプライエタリシステムとは対照的に、透明性を提供するオープンソースモデルにあります。コミュニティ主導の開発は、普遍的な安全性やコスト削減を求める企業からの圧力なしに、イノベーションを促進する可能性があります。
しかし、オープンソースモデルは手ごわい課題に直面しています。最先端の大規模言語モデルのトレーニングには、数千万ドルから数億ドルの費用がかかる可能性があり、多くの非営利団体にとっては法外な障壁となります。さらに、自由を提供する一方で、一元化されたガードレールがないことは、潜在的な誤用や明確な責任構造の欠如について正当な懸念を引き起こします。
代替のビジネスモデルも、中核となるインセンティブを変える可能性があります。誰もが利用できる汎用的なサブスクリプションベースのチャットボットではなく、将来のAIは特定の業界向けに高度に専門化され、微調整されたモデルへと進化する可能性があります。法律調査、医療診断、財務分析のためのオーダーメイドのAIツールを想像してみてください。そこでは、幅広い会話能力よりも精度とドメインの専門知識が重要視されます。
これらの専門化されたAIは、ライセンス供与されたり、オンプレミスで展開されたりすることで、経済的な計算を変える可能性があります。企業は、汎用的でリスク回避的なモデルでのあらゆる公開クエリを補助するのではなく、正確な実用性と検証可能なパフォーマンスに対して支払うことになります。このアプローチは、「トークンあたり」のコスト負担を最小限に抑え、現在のマスマーケット向け製品の広範な法的リスクを軽減します。
最終的に、この劣化が大規模に商業化されたAIにとって避けられない運命なのかという疑問が残ります。コスト、責任、そして幻覚に対する勝ち目のない戦いといった力は、利益と市場支配が主要な推進力である場合、より安全でありながら能力の低い製品へと不可避的に引き寄せます。このサイクルを断ち切るには、人工知能の構想、構築、資金調達の方法を根本的に変え、普遍的で無害化されたアクセシビリティよりも、実用性と完全性を優先する必要があります。
AIの未来におけるあなたの役割
ユーザーは人工知能の未来を方向付ける上で重要な力を持っています。その軌道はあらかじめ定められているわけではありません。あなたの積極的な参加と識別力のある選択は、現在主要なモデルを劣化させているエンシットフィケーションの力に対抗することができます。企業は最終的にユーザーエンゲージメント、維持、収益に反応するため、あなたの集合的な声と消費習慣が極めて重要になります。
AI開発者には、単なるバグ報告を超えて、具体的で批判的なフィードバックを提供してください。観察した能力の正確な損失を明確に述べてください。例えば、以前のバージョンのChatGPTが文脈記憶を持つ複雑な複数ターン会話をどのように処理できたか、そして現在のバージョンがどこでつまずくかを詳細に説明してください。あるいは、Claude Opus 4.7がかつて微妙なニュアンスのクリエイティブライティングに優れていたのに、今では一般的でリスク回避的な散文にデフォルトするようになった経緯を記述してください。この劣化を文書化することは、開発者が安全ガードレールとコスト削減策の真の影響を理解するために不可欠です。
企業が提供する囲い込みの庭を超えて、発展途上にあるオープンソースAIエコシステムを探索し、積極的にサポートしてください。MetaのLlama 3、Mistral AIの堅牢なモデル、そして無数の派生プロジェクトのようなものは、クローズドソースの劣化を推進する企業インセンティブの対立から解放された、透明性のある代替手段を提供します。これらのコミュニティに参加し、その開発に貢献したり、単に強力なローカルモデルを実行することを選択したりすることは、能力、ユーザーコントロール、イノベーションを優先する競争環境を育みます。
最終的には、AIの意識的な消費者になりましょう。日々使用するツールを形成する隠れた力、つまり壊滅的な計算コスト、数十億ドル規模の訴訟に対する広範な恐怖、そしてハルシネーションとの勝てない戦いを理解してください。より良いものを求めましょう。無菌性よりも知性と有用性を優先するモデルを積極的に探し、擁護することで、ユーザーはAI業界をより革新的で真に役立つ未来へと集合的に推進することができます。
よくある質問
AIの「エンシット化」とは何ですか?
それは、ソーシャルメディアプラットフォームと同様に、企業がユーザー価値から利益最大化とリスク最小化へと焦点を移すにつれて、AIモデルが時間とともに劣化するという理論です。
チャットボット企業はなぜモデルを「より安全」にするのですか?
AIが生成する有害、不正確、または違法なアドバイスに基づいて行動する可能性のあるユーザーからの高額な訴訟を避けるためであり、それがモデルを過度に慎重にすることを強制します。
有料AIサブスクリプションはまだ企業によって補助されていますか?
はい、業界分析によると、有料顧客でさえ完全な計算コストを賄えていないことが多く、企業にはモデル性能を低下させる金銭的インセンティブがあります。
「ハルシネーション」との戦いは、どのようにAIを悪化させるのですか?
事実誤認(ハルシネーション)の排除に強く焦点を当てることで、モデルは創造性が低下し、反復的になり、推測的または微妙なニュアンスの会話に参加することを拒否する傾向があり、その全体的な有用性を制限します。