AI CEOたちは姿を消している。その理由はこれだ。

トップのAI幹部たちは公の場への出演をキャンセルし、隠れ家を作っていると報じられています。彼らは、社会的および経済的な大波が襲おうとしていることを知っており、その影響に備えています。

Stork.AI
Hero image for: AI CEOたちは姿を消している。その理由はこれだ。
💡

TL;DR / Key Takeaways

トップのAI幹部たちは公の場への出演をキャンセルし、隠れ家を作っていると報じられています。彼らは、社会的および経済的な大波が襲おうとしていることを知っており、その影響に備えています。

シリコンバレーの静かなパニック

AIの最も熱心な普及者たちが突然姿を消している。スタビリティAIの創設者エマド・モスタクは、ポッドキャストでカジュアルに爆弾発言をした。「多くのAI CEOが公の場への出席をキャンセルしている」と彼は言う。彼は来年早々に訪れる「次の反AI感情の波」を恐れているのだ。

彼は悪いニュースサイクルの後のPRの再調整について話していたわけではありませんでした。彼はそれをセキュリティの姿勢、AIが単なる新奇性ではなくなり、大規模にホワイトカラーの仕事を奪う未来への対応として位置づけました。舞台裏では、幹部たちはこれをリスクの表面として捉えており、ブランドの課題とは見なしていません。

その静かな隠れ家は、AIを光沢のある生産性ツールとして扱う公共の物語と衝突します。ステージ上では、AIは「あなたのチームの無口なメンバー」、やや熱心すぎるインターンで、メールを作成したり会議を要約したりします。一方で、私的なメモの中では、リーダーたちは、サイドキックから置き換えにほぼ一晩で変わるモデルについて語っています。

Anthropicのダリオ・アモデイは、AIの導入がうまくいかない場合、失業率が10〜20%に達する可能性があるとすでに示唆しています。企業内部では、エントリーレベルのアナリスト、コーダー、パラリーガル、カスタマーサービス担当者が給与支払いから姿を消すシナリオがモデル化されています。これらのシステムを構築している人々は、タイムラインを数十年ではなく、製品サイクルで測っています。

一方で、億万長者の創業者たちは静かにバンカー、強化された施設、そして遠隔の牧場に投資しています。ダグラス・ラッシュコフの著書「リッチの生存」は、テクノロジーエリートたちが「イベント」シナリオについて執着し、資金が尽きたときにセキュリティチームの忠誠をどう保つかについての密室ブリーフィングを描写しています。AIは、その崩壊の幻想の中心に位置しています。

公の場では、AI企業のCEOたちはまだカンファレンスのステージで「責任あるイノベーション」や「人間を置き換えるのではなく補完する」といった話をしています。しかし、私的には、チャーリー・カークのような政治家が反AIの怒りを武器にするのを見たり、無関係な攻撃で著名なCEOが標的にされるのを目の当たりにした後、イベントから撤退することが多くなっています。彼らの計算は、可視性から生存可能性へとシフトしているのです。

これがAIブームの核となる緊張感です:ハイプマシンが大きくなるほど、構築者たちは静かになっていきます。最前線のモデルに最も近い人々は、自らの創造物の爆風半径にも近いかのように振る舞っています。技術の歴史において、創造者たちが自らの創造物から身を隠そうとしているように見えるのは初めてのことです。

2026年の転換点

イラスト: 2026年の転換点
イラスト: 2026年の転換点

AIの「愚かなインターン」時代と呼んでいいだろう。今日の大規模言語モデルは、主にやる気満々のジュニアのように感じられる。彼らはメールを草稿し、会議を要約し、より複雑な内容については幻覚を見ながら進む。このAIラボ内の不安は、このフェーズがシステムが単なるツールではなく、最小限の監視でタスクを計画、実行、反復できる自律型エージェントとして行動し始めたときに突然終わるという共通の信念から来ている。

研究者たちは、「コパイロット」から「支払いの必要のない同僚」への転換を説明しています。チャットボットに1日に50回も指示を出す代わりに、あなたはAIエージェントにCRM、コードベース、カレンダーを渡し、売上を10%増やすか新機能を出すように指示します。そのエージェントはツールを連携させ、APIを呼び出し、契約者を雇い、承認のためにのみ人間に連絡します。

なぜ2025年~2026年なのか?ハードウェア、モデルのスケール、データパイプラインはすべて、約6~12ヶ月のサイクルで進化しています。フロンティアラボはすでに1兆パラメータクラスのモデルをトレーニングしており、さらに2世代進むことで、推論、記憶、ツール使用をうまく組み合わせたシステムが生まれ、大規模なホワイトカラーのワークフローを自律的に実行できるようになるでしょう。

ゴールドマン・サックスは2023年に、生成的AIが世界中で3億のフルタイム職に相当する仕事を自動化し、現在の役割の3分の2に影響を与える可能性があると推定しました。当時、それは10年規模の話に聞こえました。しかし、AI企業内では、時間の見通しが静かに縮小していました。

人類的CEOダリオ・アモデイは最近、Axiosに対し、AIが1〜5年以内に失業率を10〜20%に押し上げる可能性があると語りました。彼はこれをSFではなく現実的なリスクとして位置づけており、エントリーレベルのアナリスト、パラリーガル、サポート担当者、ジュニアエンジニアがその影響を受けるとのことです。こうした人々は、企業アメリカが通常最初に解雇する人々です。

怖いのは、その曲線の形状です。これは、労働者が徐々に再スキルを身につける滑らかな産業革命の道筋として予測されているわけではありません。内部者はしきい値効果を予想しています:モデルは明らかに欠陥のある状態のまま維持され、そしてある一世代が品質の基準を超えると、突如として1つのAI「従業員」がチームの5人の人間を置き換えるのです。

労働市場はその種のショックを優雅に吸収することはできません。西洋の経済では5%の失業率を正常と見なし、8〜9%を危機とみなします。数年内に15%に急上昇し、負債を抱えた大学卒業者に集中することは、「混乱」というよりも、政府や銀行、そしてビッグテック自体に対する正当性の試験のように見えます。

その2026年の転換点が、AIのCEOたちを静かにさせています。彼らはそれを引き起こすエージェントを構築するために急いでおり、他の人々が何が起こったのかを理解したときの反発に静かに備えています。

億万長者バンカーのメンタリティを解読する

シリコンバレーでのバンカーの話は、何年も前から冗談ではなくなりました。サム・アルトマンは、武器、金、ヨウ素、抗生物質、そして緊急時のためにビッグサーに用意した土地を持っていることを多少軽く認めています。また、彼が「地下室」と呼ぶ、バンカーのような強化された空間を持っています。マーク・ザッカーバーグは、1400エーカーのカウアイの敷地を、数億ドルの報道されている価格を伴った大規模な地下施設が完備された自己完結型の要塞に静かに変えています。

イリヤ・サツケバーは、不安をさらに一歩進めている。彼はオープンAIを去る前に、「AGIを公開する前に必ずバンカーを作る」と述べたとされ、物理的な避難所を製品ロードマップの一部として位置づけた。彼の新しい会社、セーフスーパーインテリジェンス社は、超知能を構築し、それが世界を破壊しないようにするという一つの目的のために存在している。

これは一般的な億万長者のプレッパーコスプレではありません。ダグラス・ラッシュコフの「サバイバル・オブ・ザ・リッチest」における報告では、超富裕層のテクノロジーリーダーたちが「イベント」と呼ばれる気候崩壊、社会崩壊、またはAI主導の特異点に関する隠れた会議を開催している様子が描かれています。彼らの前提は、災害は避けられないが、十分なお金、安全保障の請負業者、そして強化コンクリートがあれば脱出の道を買うことができるというものです。

AGIリスクはその世界観にきっちり収まります。もし、少数の企業がまもなく人間よりも賢いシステムを支配することになると信じるなら、そのシステムが大量失業を引き起こしたり、ハイパーターゲティングされたプロパガンダで民主主義を不安定にしたり、生物兵器の設計を手助けする可能性があるとも信じなければなりません。Anthropicのダリオ・アモデイが提案したシナリオのように、10~20%の失業ショックが発生すれば、数百万の新たに怒りを抱き、無職となった人々が誰かを非難しようとすることになります。

バンカーは、その恐怖の物理的な具現化となります。彼らは、安全に関するメモよりも率直に、内部の人々がAIが非常に誤った方向に進む可能性があると考えており、実際にその影響から隠れる必要があるかもしれないと言っているのです—その影響が、不正な超知能のように見えるのか、供給網の失敗による食料暴動なのか、あるいは仕事がGPUに消えてしまったことに憤慨する群衆なのかは問いません。その怒りがどれほど早く高まるかを感じるには、フォーチュンのレポート「AIが労働力を奪っている—そして元Googleの幹部はCEOたちがそれを気にしていないと言っています」を読んでみてください。

一緒に見ると、サッツケバーの一心不乱のスタートアップ、アルトマンの強化された安全な部屋、ザッカーバーグの島の要塞は、一つのパターンを形成している。最前線に最も近い人々は、スムーズな着陸に賭けているわけではなく、彼らが築いている未来が彼らに向かって逆転する場合に備えて、静かにコンクリートを流し込んでいる。

「AI嫌悪の高まり」

AI関連のハッシュタグでTwitterを5分間 scrolling すると、雰囲気は「クールな新しいおもちゃ」よりも「デジタルランドロード」に近く感じられます。OpenAI、Google、Metaの製品発表に対する返信は、まるでストライキの行列のようです。「私の仕事を奪ってる」「自動化おめでとう」「私たちが飢えている間にボーナスを楽しんで」などといった声が寄せられています。バイラルな投稿は、AIを「サービスとしての盗作」や「GPUのための炭鉱」と呼ぶことで数十万のいいねを集めています。

騒音の裏には、いくつかのテーマがアルゴリズム的な精度で繰り返される。人々が最初に恐れるのは仕事の置き換えだ:コールセンターの労働者、コピーライター、イラストレーター、パラリーガル、さらにはジュニアエンジニアが、ChatGPTやMidjourneyのようなツールがキャリアの「エントリーレベル」の階層を侵食していくのを見ている。ダリオ・アモデイがAIが1~5年以内に失業率を10~20%に押し上げる可能性があると警告すると、その数字はすでに解雇のスプレッドシートで満ちたタイムラインに響く。

価値が下がった創造性が第2の怒りの波を生み出します。アーティストたちは、自分たちの作品が訓練データセットに含まれるAI生成の模倣品と並べて比較し、これを盗用と呼んでいます。作家たちは、SEOのくずやAIのスパムがアマゾン、キンドル、ニュース集約サイトをあふれさせ、人間の技術を安っぽく無限に生産されるコンテンツに変えているのを目の当たりにしています。

次に、気候とインフラに対する backlash が訪れます。スレッドでは、データセンターの電力消費と水使用量のチャートが流通し、AI企業がエグゼクティブたちがトークチャットボットをデモするためにメガワットや地下水を浪費していると非難しています。批評家たちは、大規模なモデルを「ビットコイン 2.0」として位置づけています:主に株主に利益が集中する投機的な上昇のために発生する膨大な環境コストです。

文化的に、AIは奇妙な新しさから周囲の脅威へと移行しました。テクノロジーのバブルの外にいる人々にとって、AIは現在以下のように現れます: - 解雇通知のメール - 壊れたカスタマーサポートライン - すでに子供たちが使用しているツールを禁止する学校

そのシフトにより、AIのCEOは標的となります。各キーノート、ポッドキャスト、またはツイートは、賃金、家賃、気候、そしてAI以前から存在する不平等に対する怒りの標的となりますが、今やそれに向ける顔とロゴが存在します。

ホワイトカラーの血の浴びがやってきた

イラスト:ホワイトカラーの血の洗礼がやってきた
イラスト:ホワイトカラーの血の洗礼がやってきた

ホワイトカラーの労働者たちはすでにその刃を感じ始めています。コールセンターの人材派遣会社は、クライアントが生のエージェントを10%以上削減していると報告しています。これは、企業が人間の目に触れる前に60〜80%の受信チケットを処理するAIチャットボットを導入しているためです。銀行、航空会社、そしてeコマースの巨人たちは「AIファーストサポート」を静かに宣伝しており、これは通常「給与にいる人が少なくなる」ということを意味します。

カスタマーサービスはカナリアです。2023年のゴールドマン・サックスの報告書では、生成AIが世界中で3億のフルタイムの仕事に相当するタスクを自動化できると推定されており、その中でもオフィスと管理サポートが最も影響を受けるとされています。人工知能と労働力に関する上院の報告書は、ルーチンの電話やチャットの役割が「急速な縮小」に直面しており、数十年にわたる徐々の減少ではないと警告しています。

コピーライターやコンテンツマーケターが次の標的となっています。メディアや広告業界の関係者は、クライアントがChatGPTやMidjourneyのようなツールを採用した後、フリーランス予算の50〜70%の削減を求めていることについて公然と話しています。あるマーケティングエージェンシーのCEOは、20人の契約者プールを2人の編集者がAIのプロンプトやテンプレートを監督する形に置き換えたと述べました。

エントリーレベルのコーディングは、中流階級への安全な入り口として長らく販売されてきましたが、今では脆弱に見えます。GitHubのデータによれば、Copilotはサポートされている言語の新しいコードの40〜60%を生成できることが示されています。また、大手テック企業は「AI支援開発」に基づいてチームを再編成しており、これによって上級エンジニアが少数のジュニアでより多くの仕事をこなせるようになっています。いくつかのソフトウェア企業は静かに新卒採用を凍結しながら、社内のコード生成プラットフォームへの投資を拡大しています。

最近のテック業界のレイオフは「マクロ経済の逆風」だけにとどまらない。Meta、Google、Amazon、Microsoftは、2022年以降に数万人規模の人員削減を発表しながら、同時にAIインフラやモデル開発に大規模な投資を約束している。企業が採用、サポート、中間管理職を削減し、GPU予算を増やすとき、彼らは人員よりもAI主導の効率性に長期的な賭けをしていることを示している。

楽観主義者たちは「AIは失うよりも多くの仕事を生み出す」と繰り返していますが、初期のバランスシートは偏っています。ゴールドマン・サックスの分析では、AIのガバナンス、エンジニアリング、データ作業における新しい役割が予測されていますが、これらは現在失われている数百万の事務職、サービス職、ジュニア職に比べて、非常に専門的で小規模なニッチに過ぎません。解雇されたカスタマーサポートの担当者やコピーライターにとって、「プロンプトエンジニア」は現実的な次のステップではありません。

求人掲示板や収益報告からの証拠は、次のようなパターンを示しています。企業はAIを使って組織図の下部を削減し、その後、生産性向上を株主に祝うのです。約束された新しい高品質の雇用の波は、カットのスピードに全く及ぶことなくまだ現れていません。

企業階梯が崩壊している

企業生活はかつて予測可能なシナリオに従っていました:低レベルの業務を何年もこなし、経験を積んでから、本当の意思決定に移行するというものです。AIはその第一幕を切り裂いています。GPT-4.1クラスのモデルがメモを作成し、会議を要約し、契約書の初版を書いた時、ジュニアスタッフは権力がどのように実際に機能するかを静かに教えてくれる反復的な作業を失ってしまいます。

コンサルティング、法律、財務、メディアはすべてこのアプレンティスシップモデルに依存していました。1年目のアナリストはデータを整理し、プレゼンテーション資料を作成し、ジュニアアソシエイトは文書レビューを行い、記者はプレスリリースを改訂していました。しかし、大手企業の内部導入データによれば、現在ではAIツールがその「雑務」の60〜80%を処理しており、新入社員は奇妙に空虚な履歴書を持ち、基本的な作業の反復が大幅に減少しています。

キャリアラダーはピラミッドを前提にしていました:多くのジュニア、中堅が少なく、上層には薄い層の幹部があります。AIはこれを逆転させて、砂時計の形にします。企業は最上部にほんの数人の専門家を維持し、下層を自動化し、契約社員やギグワーカーで中間層を圧迫します。彼らは現在のリーダーに代わる深みを蓄積することはありません。

それは不快な問いを提起します。2026年にエントリーレベルの人材供給が消えてしまった場合、2035年には誰がパートナーやVP、エディターインチーフになるのでしょうか?育成したことのない人を昇進させることはできません。適切な調査を行ったことがなく、午前3時にライブシステムのデバッグを行ったことがなく、怒っているクライアントと同じ部屋に座ったことがない世代が、最終的には数十億ドル規模の意思決定を行うよう求められることになるのです。

短期的には、CFOは利益率を重視します。しかし長期的には、取締役会は経験豊富な人材リーダーの深刻な不足に直面します。ハーバード・ビジネス・レビューはすでに「2025年にCEOの退任が増加している理由」(Why CEO Turnover Is Rising in 2025)のような記事で、経営陣の流出の急増を追跡していますが、本当の危機は、昇進させるための十分な戦闘経験を持つオペレーターがいないときに訪れます。

一部の企業は、自社の既存の専門知識を一度限り収穫していることをひっそりと認めています。上級スタッフは、自分の後進を置き換えるモデルを訓練し、人的資源の代わりにベクトルデータベースに彼らの制度的記憶を蓄積しています。これらの上級社員が退職したり燃え尽きたりすると、企業は判断を模倣できるAIに頼るようになり、間違いの結果を実際に経験したことはないAIに依存することになります。

「その人間は必要ですか?」

冷酷な数学が今や経営会議を支配しています。エマド・モスタクはそれを率直に表現します。「フロンティアモデル」が80〜90%の仕事をわずかなコストで、そして人事リスクなしにこなせるなら、すべての幹部は「人間は本当に必要なのか?」と尋ねることになるでしょう。

スプレッドシート上では、AI従業員は無敵のように見えます。24時間365日稼働し、病気で休むこともなく、1から10,000件まで瞬時にスケールでき、APIコールでは時給数セントから数ドルほどで済むのに対し、中堅のプロフェッショナルをフルに雇うには30ドルから70ドルかかります。

人間側の負債は積み重なります:医療費、給与税、マネージャー、オフィススペース、法的リスク、そして常に存在する離職のリスク。1人のAIエージェントが3人のカスタマーサポート担当者または2人のジュニア開発者を置き換えられる項目を見つめるCFOにとって、「倫理的」な選択は四半期の収益報告の前に負けてしまいます。

これは仮定の話ではありません。コールセンターは既にチャットボットを導入しており、60〜80%のチケットを人が見る前に処理しています。マーケティングチームは静かにフリーランスをテキストから画像やコピーのモデルに置き換え、法律事務所はAIを使って、かつて新人が夜通し取り組んでいた契約書を作成しています。

AIエージェントがツールを連携させ、ブラウズし、エンドツーエンドでワークフローを実行できるようになると、質問は「補完するか、置き換えるか?」から次のように変わります:

  • 1私たちは責任や印象のために何人の人間を保持していますか?
  • 2どの役割が法的または倫理的な責任を絶対に必要とするのか?
  • 3モデルが10倍の成果を上げた場合、どのように給与を正当化しますか?

その経済的論理は、雇用主と従業員の関係を再構築します。労働者は長期的な投資ではなく、規制やブランドの安全性のため、あるいは技術がまだ十分ではないために残される「レガシーインフラ」となります。

何百万もの仕事に広がるその論理は、不満のエンジンとなります。人々が利益と生産性が急増する一方で、賃金が停滞し機会が消えていくのを目にすると、すでにTwitter上に見える怒りが、より組織化された形へと固まり、抑えきれなくなります。

CEOの不可能な細い綱

イラスト:CEOの不可能な綱渡り
イラスト:CEOの不可能な綱渡り

AIの企業は現在、矛盾した状況の中で運営されています。勝つためには、自らを公然とした悪者に変えてしまう可能性のある技術を加速させなければなりません。彼らは何十億ドルもの資金を調達し、新しいモデルを出荷し、「生産性の向上」を約束しますが、その向上がサポート、マーケティング、ジュニアエンジニアリング職における雇用凍結、再編成、静かな解雇につながることを十分に理解しています。

そのダイナミクスは新しいタイプの経営リスクを生み出します。ダリオ・アモデイがAIによって失業率が1~5年で10~20%に達する可能性があると警告する時、彼は単にマクロデータを予測しているわけではなく、その変化から利益を得ていると見なされる人々に狙いを定めているのです。キャリアを失った人々は抽象的な「市場の力」に怒るのではなく、顔に対して怒りをぶつけます。

AIのCEOたちは、自分たちがその顔であることをますます理解しています。彼らの名前は、レイオフのメモや基調講演のライブストリーム、そして「人員効率」を祝う輝かしい投資家向け資料に記載されており、数千人のホワイトカラー労働者が自分たちの業界が縮小していくのを見守っています。

そのような環境では、個人の安全は単なる理論上の項目ではなく、日々の計算になる。テクノロジーのリーダーたちは、望まれない変化の象徴となった政治家や公衆衛生の担当者に起こる出来事を注視している:ドキシング、ストーキング、スワッティング、そして稀に物理的な攻撃などがある。

AIの幹部たちは、文化の中で同じような感情的な役割に自らが位置づく可能性を見出しています。彼らは単にアプリを構築しているだけではなく、コピーライター、パラリーガル、ジュニア開発者の未来を一つの製品サイクルで消し去るレバーを引いていると見なされています。

恐れは単なる「反テクノロジー」の感情にとどまりません。それは、Twitterやその他の場所でAIへの憎悪が高まる中、一人のCEOが自動化の象徴となる具体的な可能性です。一人の上院議員が不人気な法律の象徴となるのと同様です。このような責任の個人化は、カンファレンスやファンボーイパネル、オープンQ&AをPRの機会ではなく、安全上のリスクに見せてしまいます。

低姿勢は、妄想のように見えるのではなく、むしろプロトコルのように見えてきます。大学での講演をキャンセルし、フェスティバルのステージを飛ばします。公開のタウンホールミーティングを、厳密に管理されたライブストリーム、事前に審査された質問、法律およびセキュリティチームによって精査された企業ブログに置き換えます。

暗黒化はモデルを遅くすることはなく、GPUは秘密のデータセンターで静かに稼働し続ける。何が起こるかと言えば、人間と機械が切り離され、意思決定者はその決定が自分たちの未来を破壊しているとますます信じる一般の目から守られることになる。

なぜ政府はこれを止められないのか

規制は立法のテンポで進むが、AIはGPUのクロックスピードで動いている。法制化する側は「人工知能」が何を意味するのかを依然として議論しているが、OpenAI、Google、Meta、Anthropicは6〜12ヶ月ごとに最先端のモデルを次々と発表している。草案が委員会を通過する頃には、基盤となる技術はすでに世代交代を迎えている。

政府は基本的な可視性も欠いています。最も有能なモデルの多くは、公共のウェブサイトではなく、APIの壁の背後やプライベートデータセンター内で動作しており、規制当局がデータを収集することができません。銀行のアルゴリズムを監査するのに苦労している機関は、現在、数兆のトークンで訓練された不透明で複数のモードを持つシステムに直面しています。

地政学がアクセルを強化します。AI研究を停止する国は、競争相手に経済的および軍事的な力を譲るリスクがあります。ワシントンは北京の大規模なAIや監視技術への資金提供を懸念しており、一方で北京はアメリカのクラウドプロバイダー、チップメーカー、 defensecontractors が物流から武器に至るまであらゆるものにAIを組み込む様子を注視しています。

どの大国も、最初にひるむ存在になりたくはありません。世界的な調整の試みは、確認手段のない核兵器協議に似ており、プライベートなGPUクラスターでの訓練を衛星が見ることはできません。Nvidiaの高性能チップに対する輸出規制さえも、決意ある国家や企業を止めるのではなく、ただ遅らせるだけです。

国内政治がさらに状況を左右しています。ビッグテックは、米国だけで毎年数千万ドルを連邦ロビー活動に費やしており、製薬やエネルギーの巨大企業と競い合っています。これらのロビー活動を行う者たちは、責任あるように聞こえる「リスクベース」の枠組みを推進しており、新しいモデルの迅速な展開のための十分な余地を残しています。

議員たちは動き続ける目標に直面しています。彼らは以下のすべてに関する法律を制定しなければなりません: - 基盤モデル - オープンソースチェックポイント - エージェンティックシステム - 合成メディア

それぞれには、偏見や詐欺、労働ショック、国家安全保障に至るまで異なるリスクがあります。あまりにも広範な規則は基本的なソフトウェアを犯罪化するリスクがあり、狭すぎる規則は1年以内に時代遅れになります。

結果: 企業のラボは、何を構築し、出荷し、オープンソースにするかを決定することで、効果的なポリシーを静かに設定します。取締役会は、こうした環境をうまくナビゲートできないCEOをすでに交代させています;2025年6月、CEOの退任が加速している;取締役会は暫定的なリーダーシップを試みる を参照してください。次の10年間、公共政策は主にAIの動向に反応することになり、それを定義することはありません。

これからの混乱を乗り越える

不安な知識労働者たちは、相容れない二つの話を聞き続けています。AIは彼らの仕事を消し去るのか、それとも超人的に生産的にするのか。どちらも事実であり得ます。モデルが契約書を作成し、ロゴをデザインし、ローンチメールを1分以内に書ける場合、「それは私の仕事をできるのか?」という質問は、「マネージャーは私たちの中で何人必要か?」というものに変わります。

その世界でのサバイバルは「プログラミングを学ぶ」とは見えません。コーディングはまさにLLMが朝食に食べるものであり、重要なのは混沌とした現実を横断するスキルです:問題を捉え、トレードオフを考慮し、懐疑的な人々を動かすために説得することです。

批判的思考は履歴書の使い古された表現ではなく、防御の堀となります。誰でもChatGPTに10のアイデアを求めることができますが、その中から法務や財務、そして怒れる顧客基盤との接触を経て生き残るものを決定できる人ははるかに少数です。重要なのは、AIの出力を問いただし、隠れた前提を見抜き、「これは一見妥当だが、運営を崩壊させるだろう」と言える人々に移るのです。

複雑な問題解決は、価値連鎖の上流にも及びます。AIは限られた範囲内で最適化することができますが、その範囲自体が間違っていると苦労します。AIエージェントを中心にワークフローを再設計できる人々—単に古いプロセスにツールを追加するだけではなく—が、レバレッジ、予算、採用をコントロールすることになります。

感情知能はインフラに変わる。ボットは共感をシミュレートすることができるが、30%も人員が減少した衝撃を受けたチームの中で信頼を築くことはできない。自動化について正直にコミュニケーションを取り、人材を再訓練し、公共の怒りを受け入れることができるマネージャーは、モデルそのものと同じくらい重要になる。

個別の適応だけでは不十分です。ダリオ・アモディの10~20%の失業シナリオが現実になる場合、社会は構造的な対応を必要とします:普遍的基本所得、賃金助成金、または積極的な雇用保証です。フィンランドやカリフォルニア州ストックトンのような場所での実験は、UBIがメンタルヘルスと安定性を改善することを示唆していますが、AI時代の規模でのテストは行われていません。

短い労働週は、周辺的なアイデアから交渉材料へと移行するでしょう。1人のAI強化労働者が2019年の3人分の仕事をこなせるようになると、企業は人を2人削減するか、労働時間を短縮するかの選択を迫られます。フランスの35時間労働週や英国での4日間勤務の試験導入は、AIが普及した経済のプロトタイプを提供していますが、明確な青写真ではありません。

このすべての背後には、より難しい質問があります。それは、誰がその恩恵を受けるのかということです。もし少数の企業が基盤モデルから得られる生産性の向上をほとんど独占するならば、私たちは兆ドルの市場価値を持ち、中産階級が削られ、カウアイ島に強化された農場が立ち並ぶ世界を迎えることになります。逆に、AIをインフラとして扱い、課税され、規制され、広く共有されるようになれば、消えていくCEOの存在が彼らよりも長く続くシステムよりも重要でなくなる未来を手に入れることができるかもしれません。

よくある質問

AIのCEOは本当に公の場から「消えている」のか?

文字通り姿を消すわけではありませんが、元Stability AI CEOのエマド・モスタクのような人物からの逸話的証拠によれば、多くのAIリーダーが、公の場に出ることをキャンセルしているとされています。これは、増大する反AI感情や雇用喪失に対する公共の怒りの標的になることを避けるためです。

2026年はAI予測においてどのような意義を持つのでしょうか。

業界関係者は、2026年がAIモデルが有用なアシスタントから自律型エージェントに移行し、全体のホワイトカラーの業務を代替できる可能性がある重要な転換点であると示唆しています。これにより、重大な経済的混乱を引き起こすでしょう。

なぜテックの億万長者たちはシェルターを建設していると言われているのでしょうか?

「バンカー」というナarrativeは、AIによる大規模な失業が引き起こす短期的な社会不安と、人類が制御できない人工汎用知能(AGI)を生み出すことによる長期的な存在的リスクという二つの懸念から生まれています。

AIに対する公共の反発を引き起こしている要因は何ですか?

反発は、大規模な雇用の喪失への恐れ、創造的分野の劣化、データとバイアスに関する倫理的懸念、そしてAIが主に裕福な少数の人々に利益をもたらし、広範な人口の犠牲になっているという一般的な感情から引き起こされています。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts