TL;DR / Key Takeaways
「安全」のダーリンの衝撃的な新しい友達
Anthropicは、ルールと価値観を直接モデルに組み込む安全第一のフレームワークである憲法的AIに基づいて評判を築きました。会社の公のストーリーは、整合性研究、存在リスク、そして暴走するシステムがスカイネットのレベルの災害に陥るのを防ぐことに焦点を当てています。現在、その同じラボは、ウォール街向けに洗練された金融ツールを静かに展開しており、毎日数兆ドルを動かすヘッジファンド、銀行、そしてクオンツショップをターゲットにしています。
初期の展開は、収益発表を説明するチャットボットを超えています。Anthropicは、リアルタイムの市場フィードを取り込み、10-Kを解析し、DCFモデルや取引戦略を機械の速度で構築するエージェントのようなシステムを提案しています。この製品に詳しい関係者によると、社内デモは通常、ジュニアアナリストやクオンツが扱っている作業を自動化することを強調しており、まさにそこが機関投資家に競争優位性を与える層です。
その方針転換は、Anthropicの慎重に構築された安全性のイメージと衝突します。2021年に安全性を重視してOpenAIから分裂して設立されたこの会社は、機械学習を地代を求めるエンジンに変えるのに貢献した同じ高頻度なアルファ狩りのエコシステムを求めています。金融の分野では、アルゴリズムの不透明性や非対称情報、そして「迅速に動き、市場を壊す」インセンティブがすでに支配しています。
批評家は明白な矛盾を指摘している。システム的リスクを拡大するAIについて警告するラボが、地球上で最もシステム的に重要なセクターの一つに直接モデルを接続しているということだ。ウォール街はクラウドを詩を書くために使っているのではなく、基準点を見つけ、遅いプレーヤーを先回りし、すでに脆弱な市場から非効率を絞り出すためにクラウドを使っている。安全性に関する言葉は、最大の顧客がトレーディングフロアにいるときにはブランディングのように聞こえてくる。
デイビッド・シャピロ、長年のアラインメントコメンテーターは、彼のビデオ「Anthropicがウォール街に売り渡す!」で不安を捉えています。彼は、「安全性を重視すべき会社」が「ウォール街と寝ることになった」のか、そしてそれが「エリートキャプチャの兆しか」という問いかけから始めます。彼の視点はAnthropicの慎重なPRを貫通し、核心的な問いに直接迫ります。つまり、安全性の愛される存在が、十分な金額が得られるときに、すべてのアラインメントの話が次世代の量的インフラの構築と共存可能だと決断したのかということです。
人類を救うことから利益の最大化へ?
Anthropicの擁護者たちは、ウォール街の方針変更に対する即座の答えを持っている。「安全重視」になれば、スカイネットを防ぐためであれば、どんなことも道徳的に受け入れられる。この世界観において、ヘッジファンドや銀行とパートナーシップを結ぶことは売却ではなく、調整研究を資金提供し、AGIの展開に関する本当の決定が行われる場にAnthropicを留めておく限り、必要な妥協である。もし、不整合なAIが何十億もの命を奪う可能性があると真剣に信じているのであれば、あなたのモデルをゴールドマン・サックス経由で通すことは宇宙の帳簿上の四捨五入エラーのようなものだ。
その論理は、あからさまでほとんど漫画のようなトレードオフにつながります:サイバーパンクの地獄絵図か、絶滅か。安全絶対主義者たちは、「サイバーパンクな未来」—AIによって強化された企業、軍事化された政府、普遍的な生体認証トラッキング、全自動の金融システム—は醜いが生き延びることができると主張します。彼らが耐えられないのは、いわゆる「善良な人々」が好ましくないパートナーと協力することを拒んだために、無関係なシステムがフルスカイネットになって人類を滅ぼすような世界です。
サイバーパンクのシナリオはもはやSFのコンセプトアートの中には存在しません。AIはすでに以下を支えています: - ハイフリークエンシー取引と金融アービトラージ - 予測ポリシングと国境監視 - 従業員を分単位で圧迫するアルゴリズミックマネジメント
そのスタックにAnthropicの最も優れたモデルを組み込むと、解放ではなく集中の軌道を加速させることになります。
質問は抽象的な哲学から企業戦略のように聞こえるようになり始めます:これは原則に基づく倫理的トレードオフなのか、それとも権力と利益を追求するための便利な正当化なのか?安全に関する言説は、ウォール街の取引を危機からのシールドとして位置づけ、キャップテーブルや企業契約はエリートの調整に近いことを示唆しています。同じモデルが気候科学やパンデミック対応に役立つ可能性があるにもかかわらず、最初に量的デスク向けに調整されると、その優先順位はブログ投稿よりも雄弁に語ります。
Anthropicは今なおClaudeを「すべての人のための」ツールとして宣伝していますが、それは普遍的な利益のための民主化の力です。しかし、裏では、現実はデイビッド・シャピロのエリートキャプチャの説明に沿っています。階層化されたアクセス、金融および防衛クライアント向けのカスタマイズされた機能、そして現職を固定化する規制への影響が存在します。公共の使命と私的な展開とのギャップはますます広がっており、ウォール街の新たな統合がAnthropicの「皆のために」という約束をPRの虚構へとさらに押し込んでいます。
権力の手引き:『エリートキャプチャ』とは?
権力はただお金を蓄えるだけでなく、新しいツールも蓄えます。エリートキャプチャとは、ユートピア的な言葉で包まれた技術が到来し、その最大の利益を小さな親しい階級—企業の巨人、金融家、そして国家の安全機関—に静かに流す瞬間を指します。一方、その他の人々はマーケティングスローガンと制限されたアクセスしか得られません。
19世紀の鉄道は、国々を結びつけ、すべてのマーケットを開放することを約束しました。しかし、実際には少数のバロンたちが線路と運賃の支配を利用して競争相手を圧倒し、商取引に参加できる者を決定しました。最終的に、法律制定者たちはこのシステムが恒久的な独占に陥らないように、反トラスト法を新たに作り出す必要がありました。
1990年代の初期商業インターネットのレトリックは、分散化と許可のない革新の物語を売り込んでいました。20年後、いくつかのプラットフォーム—Google、Amazon、Meta、Apple—が検索、ショッピング、広告、モバイル配信を支配し、ほぼすべての取引や注意の流れから手数料を取っています。同じパターンが繰り返し現れます:オープンなフロンティア、急速な集中、そして規制の捕捉。
エリートキャプチャは認識可能なプレイブックに従います: - インフラのボトルネック(鉄道、ファイバー、データセンター、チップ)への支配 - スタック全体にわたる垂直統合 - 大手金融および政府クライアントへの優先的アクセスと価格設定 - 他のすべての人々を支配するルールへの強い影響力
AIは現在、その危険ゾーンにしっかりと位置しています。フロンティアモデルのトレーニングには、すでに数十億ドルの計算資源、独自のデータ契約、そしてごく限られた企業しかサインできないクラウド契約が必要です。公的またはオープンな代替手段は存在しますが、スケールが小さく、機能面でも遅れをとっており、「独立した」ISPがテレコムの大手に対抗できなくなった状況を反映しています。
この視点から見ると、Anthropicのウォール街向けの高級金融ツールへの静かな転換は、孤立したビジネス上の決定ではなく、より広い統合の物語の中でのデータポイントです。同社の公式ウェブサイト上でのメッセージは、この新たな現実と共存しており、その緊張こそがAIの未来の行方が決定される場所です。
AIがハイジャックされている6つの赤信号
コントロールは最初の兆候です。数社がボトルネック—先進的なチップ、ハイパースケールクラウド、データセンター、そして安価な電力—を支配していると、他のすべての企業は彼らから現実を借りることになります。フロンティアモデルのトレーニングにはすでに数億ドルの費用がかかり、その価格だけでほとんどの大学、スタートアップ、公共機関はこのゲームから締め出されています。
垂直統合は締め付けを強めます。同じ企業が今、シリコン設計、クラウドプラットフォーム、基盤モデル、アプリストア、消費者インターフェースのすべての層を所有しようと競っています。X.aiのマスクブランドのデータセンター、NvidiaのエンドツーエンドAI「プラットフォーム」、およびプロプライエタリツールとモデルを束ねるハイパースケーラーは、プロバイダーを切り替えることがほぼ不可能になる世界に向けて進んでいます。
階層化されたアクセスとは、ヒエラルキーが明示的になることです。最も能力の高い、コンテキストの豊かなモデルは、防衛請負業者、ヘッジファンド、巨大銀行のために秘密裡に運用されており、一方で一般市民には安全を考慮して制限されたバージョンが提供されています。実際、OpenAIも最強のシステムを広範なリリースから隠していることを認めており、計算能力の制限を理由としています。シャピロの指摘は、その制限が驚くべきことに、2億ドルの防衛契約が成立すると消えてしまうということです。
規制と物語の捕捉がその力を固める。フロンティアラボは、自らを管理する規則を策定し、その後中立的な「専門家」として議会やEUの前に現れる。サム・アルトマンが上院公聴会から議員との私的なディナーに歩いて行けるとき、あるいはアンソロピックの幹部が「責任あるスケーリング」について規制当局に説明する際、存在的リスクに関する物語は便利にも小規模な競合を排除するロビーイングの枠組みとして機能する。
レントシーキング最適化は、AIが実際に展開される領域に現れます。癌治療を最優先する代わりに、大きな資金が流入するのは以下の分野です: - 高頻度取引と金融アービトラージ - ハイパーターゲット広告とエンゲージメントハッキング - 労働者の自動化とアルゴリズミックマネジメント
これらのユースケースは経済のパイを大きくするのではなく、むしろ上方に再切り分けるものであり、AIをすべての取引、クリック、ギグのための通行料所に変えてしまいます。
力の弱い公共の代替手段が全体像を完成させます。Stable DiffusionやLLaMAの派生モデルのようなオープンソースモデルは存在しますが、スケール、トレーニングデータ、および推論予算において、閉じたシステムに対して桁違いに劣っています。国家に支えられたコンピュート、共有データインフラ、または真剣な資金提供がなければ、「公共AI」は、輝かしい民間研究パークの向かいにある崩れかけた図書館のデジタル版になるリスクがあります。
見えざる鎖:支配のインフラストラクチャー
インフラストラクチャーは、AIの高尚な言葉がオープンさについて語る一方で、厳しい経済現実とぶつかる場所です。少数の企業が、他のすべてが借りる必要のある物理スタックを所有しています。この最初のボトルネック—誰がコンピュートを支配するか—が、誰がプレイできるかを定義しています。
クラウドから始めましょう。AWS、Azure、およびGoogle Cloudは、ほとんどのアナリストの推計によると、世界のクラウド市場の約65%を占めています。本格的なモデルをトレーニングしたりデプロイする場合、その三つのゲートキーパーのいずれかにGPU時間あたりで料金を支払っている可能性が高いです。
層を一つ下げると、グリップが強まります。TSMCは、世界の最も先進的なチップの約90%を製造しており、AIトレーニングクラスター、ハイパースケールデータセンター、ウォールストリートの高頻度取引装置を支える最前線のノードです。もしTSMCが風邪をひけば—地政学的な問題、地震、輸出規制—AIエコシステム全体は肺炎にかかります。
次に登場するのがNvidiaで、彼らは実質的にアクセラレーターレベルを支配しています。Nvidiaは、最前線の研究所で使用されるH100から、ヘッジファンドで静かにリスクモデルを処理しているA100まで、現在使用されているAIアクセラレーターの約90%をコントロールしています。彼らのCUDAソフトウェアスタックと独自のネットワーキングにより、原料となるチップは競合他社が抜け出すのに苦労するエコシステムに変わります。
経済学者はこの構造を自然独占と呼びます:膨大な固定費とネットワーク効果により、市場が少数の支配的な提供者に向かわせる場面です。Nvidiaがデフォルトのアクセラレーターとして位置づけられることや、TSMCが3nmウエハの唯一の実行可能なファウンドリであることを禁じる法律はありません。半導体製造の物理的特性とハイパースケールクラウドの資本コストは、小規模な参入者を無関係に追いやるのです。
それが重要なのは、AIにおける「競争」がもはやGitHubリポジトリにある最も巧妙なアルゴリズムを持つことではないからです。それは、何万ものGPUを確保し、TSMCの先進的なノードへの優先アクセスを得ること、そしてAWS、Azure、またはGoogle Cloudとの有利な長期契約を結ぶことができるかどうかなのです。それがなければ、あなたの画期的なモデルはデモに過ぎず、製品にはなりません。
したがって、Anthropicがウォールストリート向けのツールを構築する際、それはすでに顕微鏡的なクラブによって占有されたハードウェアスタックの上に行われます。そのスタックへのアクセスこそが真の堀であり、実際の見えない鎖であり、他のすべての人々を閉め出しています。
3000億ドルのモートを築いているビッグテック
今や資本は、AIにおけるエリートキャプチャの最も鋭い道具として機能しています。チップ、データセンター、才能に最も多くの資金を投じることができる者が、他のすべてのルールを決定します。2023年には、ビッグテックが静かに未来を支援しました。推定によれば、大手プラットフォームは生成AIスタートアップへの資金提供の約67%を供給し、「エコシステム支援」を依存のパイプラインに変えました。
スタートアップは自らをディスラプターとして売り込むが、彼らのキャップテーブルは異なる物語を語る。マイクロソフト、グーグル、アマゾン、そしてエヌビディアが大部分の資金を提供するとき、彼らは単に株式を購入するのではなく、製品のロードマップ、インフラの選択、最前線モデルへのプレミアムアクセスを得るためのレバレッジを買う。依存関係は一時的なものではなく、構造的なものになる。
2025年に目を向けると、業界の予測ではAI関連の支出が年間約3000億ドルに達する見込みです。これには、ハイパースケールデータセンター、GPUクラスター、海底ケーブル、そしてそれらを稼働させるための電力インフラが含まれます。参考までに、3000億ドルはチリ、パキスタン、フィンランドなどの国の年間GDPに匹敵するか、それを超える額です。
大学、非営利の研究所、または小さな国は、その燃焼率に対抗できる信頼性を持つことはできません。資金が豊富な学術連合が数年にわたり数億ドルをかき集めることはあるかもしれませんが、大手テクノロジー企業にとってそれは単一のGPU契約の誤差の範囲内です。その結果、資本の溝は非常に広く、「オープンな代替品」は主にブランディングとして存在し、同等の存在とは言えません。
この支出の暴走は単にハードウェアを購入するだけでなく、議題設定の権力を手に入れます。3000億ドルのAIインフラを所有する者は以下を決定できます: - どの言語や地域が優れたモデルを得るか - どの産業が特化したツールを受け取るか - どの規制当局がルールの策定に「助け」を受けるか
フィナンシャル・タイムズのようなメディアでの報道は、これを革新の競争として描いていますが、その構造はむしろ囲い込みのように見えます。少数の企業が資本構造を支配すると、エリートキャプチャはリスクではなく、AIのデフォルトのオペレーティングシステムのように見えてきます。
自らのルールを書き上げる:ガバナンスの掌握
規制権力は空白の中から生まれるわけではなく、金融的および構造的な支配は直接的に規制の捕捉を通じて政治的な影響力に変わります。AIを監視すべき機関は、規制する企業から手本を得ることになりがちで、なぜならその企業は専門知識、雇用の流れ、そしてしばしば弱いルールを正当化する資金の物語をコントロールしているからです。
ワシントンとブリュッセルでは、AI政策が招待制の会話に変わり、同じ半ダースのCEOが繰り返し登場しています。サム・アルトマンの議会訪問がそのテンプレートを設定しました。プライベートなブリーフィングの数時間、繰り返し行われる公聴会、労働組合やプライバシーNGOが対抗できない直接的なアクセスが特徴です。
米国やヨーロッパの立法者たちは、AIの安全性と競争に関する主要なアドバイザーとして「フロンティアラボ」に依存するようになっています。スタッフがモデルの重み、GPU、または基盤モデルを理解できない時、彼らはAnthropic、OpenAI、Google、またはMetaに連絡し、これらの企業は後に従うように求められるガードレールを喜んで作成します。
そのアクセスの格差は仮説ではありません。EU AI法案の交渉中、業界のロビイストたちは数千ページに及ぶ修正案を提出し、その多くは妥協案にコピーペーストされていると報じられています。一方で、市民社会団体は提案のための会議の枠や翻訳支援を得るのに苦労しています。
ブレッチリー・パークで開催された英国AI安全サミットは、その不均衡を明らかにしました。約100の招待団体のうち、大部分は企業や産業支援の研究所であり、労働組合、労働者協同組合、草の根デジタル権利団体は部屋のほんの一部を占めていました。
政府はそのサミットをグローバルな民主的対話として位置づけましたが、議題は既にフロンティア企業が話したいと思っていた内容に集中していました:モデル評価、計算しきい値、そして今日の巨人たちを「責任ある」AIの恒久的な管理者として固定する自主的な安全へのコミットメントです。
ここでナラティブキャプチャが始まります。これらの企業は、表彰台、プレスブリーフィング、閉鎖的なラウンドテーブルを支配することで、AIが「本当に」何であるかを定義します。存在的リスク、暴走するシステム、SF的なスカイネットシナリオを強調しながら、アルゴリズムによる賃金の盗難や立退きスコアリングといった問題は周縁に押しやられています。
存在リスクが酸素を独占すると、現状の害は交渉可能な項目となります。クレジットスコアの偏見、自動化された労働組合の弱体化、大規模なホワイトカラーの移転は、AIが誰のために存在し、誰がその代償を支払うのかという核心的な問いではなく、二次的な懸念として見なされるようになります。
静寂の音: ブームに欠けているもの
沈黙はデータとなる。AIの狂騒の見出しから視点を広げると、その物語の中の静かな隙間は、この技術が実際に誰のためのものであるかを、どんな華々しいローンチイベントや基調講演よりも多く語っている。
インフラから始めましょう。「電気のようなもの」としてのAIに関する多くの言説がある一方で、公共の電力網に相当するものは存在しません。米国の国家AI研究資源(NIRR)のパイロットプロジェクトは、アナリストによると低い数十億ドルの予算を提案しており、Metaは自身のモデルを維持するためだけに、単一年でその額のGPUに相当する支出をしていると報じられています。
その非対称性は重要です。公共資金によるコンピューティングは、マイクロソフト、グーグル、アマゾン、そしてエヌビディアから数百億に達する民間のAI構築に比べて、ほんの端数に過ぎません。もしあなたが大学の研究室、地方団体、または市の政府であれば、ヘッジファンドや防衛請負業者に優先アクセスを販売する同じクラウドから、実質的にかすを乞うていることになります。
ガバナンスも同様に不均衡です。Anthropic、OpenAI、Google DeepMind、xAIの取締役会には、投資家、創業者、元規制当局者が含まれていますが、選出された労働者代表、コミュニティの代表、独立した市民社会の理事は一人もいません。AIによる解雇、監視、偽情報に最もさらされている人々は、最前線のシステムがどのように展開されるかについて形式的な声を持っていません。
共有ガバナンスに関する真剣な実験も欠けています。大規模な研究所は、影響を受けるコミュニティに対する拘束力のある拒否権や、展開決定に関する管理権を持つ労働者評議会、またはモデル監査にアクセスできる市レベルの監視委員会を設置していません。その代わりに、「安全」は内部のレッドチームやアドバイザリー委員会の中に存在し、ブログ記事で感謝される一方で、取締役会では無視されています。
その後ろには、静かに描かれた金融アーキテクチャがあります。OpenAIのCFOは、フロンティアAIのための明示的な政府のバックストップのアイデアを提案したと報じられています。事態が悪化した場合の公共の保証と、うまくいけば個人の利益を確保するというものです。それは「リスクの社会化、利益の privatization」の教科書的な例であり、2008年のサブプライムの崩壊が納税者による bailout に変わったのと同じ論理です。
これらの欠如は合わせて一つのパターンを形成しています。公共規模のインフラが存在せず、共有されたガバナンスもなく、民間賭博のための国家支援保険の早期要求はすべて一つの方向を指し示しています。それは、狭く豊かなエリートによって所有され、駆動される重要なシステムとして構築されたAIです。
「AIの安全性」は単なるトロイの木馬なのか?
Anthropicの最も熱心な擁護者は、高級モデルをウォール街のクオンツ、ヘッジファンド、そして防衛請負業者に販売することが「アライメント」への必要悪であると主張しています。これはデビッド・シャピロの批判の挑発的な核心です:長期的な存在リスクの議論は、短期的な権力掌握のための道徳的な白紙委任状として機能します。スカイネットが迫っていると自分に言い聞かせると、ほぼすべてのパートナーシップが捕獲ではなく責任ある管理のように見え始めます。
効果的利他主義者や合理主義者たちは、Anthropicのような研究所内で自身の仕事を文字通りの生存プロジェクトとして位置づけています。そのような考え方において、軍、情報機関、ウォール街の大規模なファンドと取引をすることは妥協ではなく、より大きな善のための犠牲となります。彼らは、サイバーパンクの監視ディストピアでさえ、人類を滅ぼすペーパークリップ最大化者よりはましだと主張しています。
その世界観は、AIの展開に関する倫理を静かに書き換えます。「私たちだけがスカイネットを止めることができる」と受け入れると、以下のようになります: - 政府との独占契約は「抑制」となり - メガバンクへの優先アクセスは「リスクテスト」となり - 秘密性と閉鎖的なモデルは「安全措置」となります
それらはすべて、資金を握る現職者たちの地位をさらに強固にすることになります。
安全性に関する物語のコントロールは、政策の武器へと変わります。フロンティアラボは、悪徳なオープンソースモデルやバイオリスク、モデルの外部流出について警告し、その後、 conveniently 巨額のコンピュートクラスター、レッドチーミングチーム、およびコンプライアンス部門を必要とする安全規則を提案します。スタートアップや大学、公共の研究所はそのハードルをクリアできませんが、ハイパースケーラーやフロンティアラボはすでにクリアしています。
ライセンス制度に関する概要が、FLOPしきい値に結びついたもの、トレーニング実行の必須監視、政府承認の団体への集中化されたインシデント報告に見て取れます。紙の上では、これらの措置は「フロンティア」システムを対象としていますが、実際には、監査や弁護士、カスタムシリコンを負担できる少数のプレーヤーのためだけの小さなクラブの中にフロンティアを閉じ込めてしまいます。安全は保証ではなく、防壁となります。
プロセーフティエリートはしばしばトレードオフを二元的に捉えます:厳しく管理された企業主導のAI環境を受け入れるか、絶滅のサイコロを振るか。この枠組みは第三の選択肢を消し去ります:強力な労働保護、独占禁止法の執行、そして実際の公共コンピュートを備えた民主的に統治され、公共に対して説明責任を持つAIエコシステムです。Anthropic Researchのような研究は技術的な整合性を示していますが、それらの整合したシステムを誰が所有し、統治するかは物理法則ではなく政治的選択です。
あなたの番: AIの約束を再び取り戻せるか?
Anthropicのウォール街へのシフトは、AIの力がすでにどれほど集中しているかを明らかにしますが、同時にどこから対抗圧力が生まれるかも明確にします。Llama 3、Mistral、およびStable Diffusionといったオープンソースプロジェクトは、3000億ドルの評価額やハイパースケールのデータセンターを必要とせずに、能力のあるシステムを構築できることを証明しています。高性能のGPUひとつで7B-13Bモデルを微調整し、有用なものを提供することができます。
オープンソースは依然として厳しい限界に直面しています。フロンティアモデルのトレーニングには、数万台のNvidia H100、メガワット単位の電力、そしてアマゾン、マイクロソフト、グーグル、およびその親しい友人たちでしか手に入れられないデータセンターのスペースが必要です。最も革新的なオープンウェイトモデルでさえ、他人のラックを借りているのが現状です。
AIにおける真の多元主義には、プライベートクラウドに匹敵する公共コンピューティングが必要です。それは、国立または地域のスーパーコンピューティング施設が、単に防衛請負業者やフォーチュン100企業だけでなく、学術研究所、非営利団体、スタートアップ、地方自治体のために明示的に割り当てられることを意味します。「公共図書館」を思い浮かべてください。ただし、TPUやGPUに関してで、透明な配分ルールと結果の必須公開が求められます。
政府はすでにデジタルインフラに数百億ドルを支出していますが、共有AIスタックに5〜10%を再配分することで大きな影響を与えることができます。公共研究機関は、オープントレーニングの実施を資金提供し、オープンデータの文書化を義務付け、基盤モデルをセキュリティ研究者がオペレーティングシステムを調査するのと同様に深く分析するコミュニティ監査チームを支援すべきです。これがなければ、「全ての人のためのAI」はただのクラウド請求書に貼り付けられたスローガンに過ぎません。
個々のユーザーは無力な観客ではありません。あなたには以下のことができます:
- 1EFFやFight for the Future、AlgorithmWatchなどのデジタル権利団体を支持し、AIの虐待を追跡し、規制の取り込みに対抗するためにロビー活動を行う。
- 2メールまたは電話で議員に連絡し、AIロビー活動の会議、計算補助金、および政府のAI契約の開示を要求してください。
- 3クラウドプロバイダーが提供するものに頼らず、使用状況、バグレポート、寄付を通じてオープンソースツールを支援しましょう。
重要な会話も大切です。ベンダーにデータの所有者、プレミアムモデルへの早期アクセス権を持つ者、そして補助金が切れたときに何が起こるのかを尋ねてください。実際に「AIの生産性」を仕事で享受している友人や同僚に、誰が恩恵を受け、誰がリスクを抱えているのかも聞いてみましょう。AIの約束を取り戻すことは、ウォール街のバージョンが唯一の可能な未来だと見なすことを拒否することから始まります。
よくある質問
エリートキャプチャーとは、AIの文脈において、特定の特権階級やエリートが技術やリソースを独占し、その影響力を利用して一般の人々に対する利益を最小限に抑える現象を指します。
エリートキャプチャとは、AI技術の開発、利益、およびガバナンスが、公共の利益に奉仕するのではなく、少数の強力な企業、投資家、政府機関の手に集中するプロセスを指します。
なぜAI安全企業のAnthropicはウォールストリートと提携しているのか?
批評家は、それがエリートの捕獲の兆候であると主張し、財務的インセンティブや資本の必要性が元の使命を上回っていると指摘しています。企業の擁護者は、強力なシステムの中で活動することがAI開発を安全に導き、競争するためのリソースを確保するために必要であると主張するかもしれません。
AIの中央集権化の主な兆候は何ですか?
主要な兆候には、少数の企業による重要なインフラ(チップ、クラウドデータセンター)へのコントロール、垂直統合、高額なクライアントへの優遇アクセス、そして政府規制に対する支配的な企業の影響が含まれます。
オープンソースのAIは、AnthropicやOpenAIのような企業と競争できるか?
オープンソースモデルは急速に進化していますが、重要な障害に直面しています。彼らはしばしば最先端モデルに遅れをとり、高価なハードウェアを必要とするため、基盤インフラを支配する大企業の優位性が強化されます。