知られてはいけない中国のAIのプロットツイスト

誰もが中国が無謀なAI競争に勝っていると言いますが、彼らはそのゲームさえも行っていません。衝撃的な真実は、彼らが厳しく管理されたAI帝国を築いている一方で、アメリカが規制緩和を進めているということです。

Stork.AI
Hero image for: 知られてはいけない中国のAIのプロットツイスト
💡

TL;DR / Key Takeaways

誰もが中国が無謀なAI競争に勝っていると言いますが、彼らはそのゲームさえも行っていません。衝撃的な真実は、彼らが厳しく管理されたAI帝国を築いている一方で、アメリカが規制緩和を進めているということです。

AI競争は完全な嘘です。

ワシントンの皆は同じ台本を繰り返しています:中国は規制のないAIの荒野であり、アメリカがもたつく中、中国は「全速前進」で人工汎用知能に向かっているというのです。そのストーリーは公聴会や防衛予算の提案では素晴らしく聞こえますが、中国が実際にどのようにAIを管理しているかを見た瞬間に崩れ去ります。

中国のAIエコシステムは、ブリュッセルを自由放任的に見せるほどの厳格なルールのもとで運営されています。2023年の「生成AIサービスに関する暫定措置」は、公共向けモデルに対して、安全性レビュー、合法的なデータ調達、そして「社会主義の核心的価値観」に沿ったコンテンツフィルタリングを要求しています。提供者は、国家の権威を損なったり、国家安全保障を脅かしたり、経済的および社会的秩序を乱したりする出力を防止しなければなりません。

さらに、2025年9月1日までに施行される必須のAIラベリング規則により、プラットフォームはAI生成のテキスト、画像、音声、および顔のスワップを明示的に表示し、他の場所に隠しウォーターマークを埋め込む必要があります。違反すると罰金、サービスの停止、さらには中国のサイバーセキュリティ法、データセキュリティ法、個人情報保護法の下での刑事責任を負う可能性があります。健康、安全、公共の意見に関わる高リスクのAIは、倫理審査および専門家による監督を受けることになります。

それと比較すると、米国では依然として包括的な連邦AI法が存在しません。政策立案者は「ガードレール」について話しますが、実際の執行は主に自主的な約束や業界が作成した枠組みに委ねられています。テックの大手企業はモデルの導入を遅らせる可能性のある規則を緩和または延期させるためにロビー活動を行い、あらゆる摩擦が北京に勝利をもたらすと主張しています。

中国のAI戦略の核心的な主張は明確だ: 中国はAGIの第一位を目指して競争しているわけではない。「AIプラス」計画のような政策の青写真は、製造、物流、金融、公共サービスにおいて、特定のタスク向けシステムを浸透させることに焦点を当てている—2027年までに主要セクターで70%、2030年までに90%のAI浸透を目指し、生産性を向上させることを目的としているのであり、機械の神性を追求するものではない。道具であり、代替品ではない。

このギャップは重要です。アメリカの法律制定者が解き放たれた中国のAIの巨人という神話を信じると、彼らは「追いつく」という名のもとに国内の規制緩和を正当化します。そのパニックに基づく姿勢は、より緩いルールから利益を得る企業に agenda-setting power を渡し、より遅く、よりコントロールされたゲームを展開している競争相手を誤解することになります。

「ヨーロッパよりも厳格」

イラスト: 「ヨーロッパより厳しい」とは何かの解読
イラスト: 「ヨーロッパより厳しい」とは何かの解読

中国の生成AIガバナンスに対する最初の大きな取り組みは、2023年8月に発表された生成AIサービスのための暫定措置によって行われました。「一般向け」に提供されるモデルは、中国国内でセキュリティ評価を通過し、規制当局に登録し、トレーニングデータの出所を記録しなければなりません。提供者は合法的なデータ収集を確保し、知的財産権を尊重し、詳細な技術文書を点検のために整えておく必要があります。

この文脈におけるセキュリティは、迅速なインジェクション防御以上の意味を持ちます。モデルは、国家安全保障を脅かしたり、国家機密を漏洩したり、「経済的および社会的秩序を混乱させたり」するコンテンツを生成してはいけません。企業がこれに従わなかった場合、サイバーセキュリティ法、データセキュリティ法、および個人情報保護法に基づき、是正命令、サービス停止、罰金、さらには刑事告発の対象となる可能性があります。

コンテンツ規則はさらに深く進展しています。生成システムは「国家権力の転覆を扇動する」素材や「テロを助長する」もの、また「噂」を広めるものを生成してはなりません。提供者は、禁止テーマの内部データベースを構築し、フラグが付けられた生成物やユーザーからの苦情を処理するための人間によるレビューチームを配置しなければなりません。

次に、イデオロギーのラインが登場します:AIの出力は「社会主義の核心的価値」を体現しなければなりません。このフレーズは、共産党によって推進された12の価値観リストに根ざしており、政治的および文化的整合性のためのキャッチオールとして機能します。実際には、これは開発者に対して、政治的に敏感なトピック、歴史的な対抗ナラティブ、そして「不適切」なライフスタイルからモデルを調整するよう圧力をかけるのです。

それに対照的なのはEU AI法であり、モデルが社会主義についてどう考えるかは気にせず、適切なリスクカテゴリに合致していれば問題ありません。ブリュッセルはシステムを以下のように分類しています: - 許容できないリスク(全面禁止) - 高リスク(厳しい義務、適合性評価) - 限定的/最小リスク(軽度の透明性または特別な規則なし)

受け入れ難いリスクカテゴリには、社会的スコアリング、操作的な「サブリミナル」技術、公共空間でのほとんどのリアルタイム遠隔生体認証が含まれます。高リスクシステム(クレジットスコアリング、採用ツール、医療機器など)は、厳格なテスト、文書化、および市場後モニタリングを受けなければなりません。汎用モデルは透明性と安全性の要件に直面しますが、イデオロギー的なスクリーニングはありません。

中国が「ヨーロッパよりも厳しい」と主張するのは、広範で迅速なコンテンツ管理を行う代わりに狭いカテゴリーごとの禁止を隠している。北京の規制当局は、既存のインターネットプラットフォーム法を通じて、数日以内に非準拠のチャットボットや画像生成ツールを排除でき、EUの2025年から2026年の段階的導入を待つ必要がない。

ヨーロッパの規則は、AIが基本的な権利や重要なインフラと交差する場所で最も厳しく適用されます。中国の規制は、ほぼすべての対外的な生成AIに横向きに広がり、範囲と執行の迅速さが力の乗数効果を生み出しています。技術的にリスクのある一部のアプリケーションが形式的に許可されている場合でも、です。

人間のコントロールマンダテ

中国のAI物語には静かな命令が隠れている:人間が主導権を持つ。当局はシリコンバレーの「AGI」という言葉を使わず、規制当局は繰り返し一つの赤線を示している—責任を負う人々なしに重要な決定を下す自律システムは許可されない。

中国の規則には「人間の制御を逃れるAIは許可しない」と明言しているわけではありませんが、広まっている主張とは異なります。代わりに、生成AIサービスに関する暫定措置および関連する枠組みは、自律型システムが発生する条件を制限しています。公共の意見を形成するための無監視ツールや、安全に関わる重要な決定を行うブラックボックスモデルはありません。

高リスクのAIは厳しく scrutinizedされています。2024年8月から施行される倫理規則は、健康、公衆安全、個人の評判に影響を与えるシステムに対して正式な倫理レビューを求めており、専門家パネルが展開前にトレーニングデータ、失敗モード、および人間の監視メカニズムを検討することが求められています。

セキュリティ評価は第二のブレーキを追加します。一般に提供される生成AIを使用するプロバイダーは、以下を調査する国家主導のセキュリティレビューを受けなければなりません: - コンテンツモデレーションパイプライン - データの出所と同意 - 人間の介入およびシャットダウンのメカニズム

生成モデルは「社会主義の核心的価値観」とも調和する必要があり、実際には積極的なコンテンツフィルタリングとトレーサビリティを意味します。このイデオロギー的な層は技術的要件としても機能します。プラットフォームは、モデルが何を発言できるか、そしてどれだけ迅速に修正または削除できるかについて強力な制御手段を必要とします。

それを西側のAGI安全性と「スーパーアライメント」に関する議論と比較すると、主に研究ブログやファウンデーションモデルのホワイトペーパーに存在しています。OpenAI、Anthropic、DeepMindはアライメントロードマップを発表していますが、高リスクAIに対して倫理レビューや導入前のセキュリティ監査を強制する米国連邦法は存在しません。

ヨーロッパのAI法案が進展し、「受け入れ不可能なリスク」のシステムを禁止し、高リスクのものを規制しますが、一般向けモデルのルールは2025年から段階的に導入されるだけです。それに対して中国は、サイバーセキュリティ、データ、個人情報に関する法律や、中国が国際AIガバナンスのためのアクションプランを発表するなど、新たなグローバルガバナンスの動きによって、コンプライアンスに市場アクセスを結びつけています。

アメリカが規制緩和を進める中、中国はフェンスを築く

アメリカのAI政策の物語は、現在、業界のロビー活動を行う者たちによるスローモーションの書き直しのように見えます。拘束力のある規則の提案は、常にボランタリーな約束、助言的な枠組み、そして施行が難しい行政命令に水をさされていきます。ワシントンで数千万ドルをロビー活動に費やすテック大手は、厳しい制約が「中国に勝利をもたらす」と主張しています。

中国は逆の方向に進んでいます:迅速で中央集権的、そして遠慮なく指示的です。2023年8月に生成AIサービスに関する暫定措置が発表された後、規制当局は義務的なAIラベリングルール(2025年9月1日施行)と、2025年11月1日から施行される生成AIのセキュリティおよびガバナンスに関する国家標準を発表しました。これらの標準は、データセキュリティ、コンテンツ制御、およびモデルリスク管理のための技術的基準を全体にわたって定義しています。

太平洋の向こうでは、連邦政府の包括的なAI法がまだありません。ホワイトハウスの2023年のAI行政命令は、機関にモデルのテストと差別の監視を促しましたが、明確な責任や展開の厳格な上限には至りませんでした。代わりに、アメリカはセクター別の規則に依存しています—不公平行為に関してはFTC、医療AIに関してはFDA、自動運転車に関してはNHTSAが担当しており、これらの規則が十分に広がることを期待しています。

中国のモデルは、比較するとほぼ封建的に見える:明確かつ階層的である。システムはリスクバンドに分類される—世論形成、重要インフラ、医療、教育—それぞれが増大する義務を伴う:セキュリティレビュー、アルゴリズムの提出、人間の介入、時には全面禁止。高リスクの用途は、スケーリングの前に倫理レビューと継続的なモニタリングを通過しなければならない。

アメリカの哲学は「イノベーション優先」であり、安全性は主に発売後の修正として扱われています。企業は最前線のモデルをリリースし、実際のフィードバックを収集し、その後、有害な部分をコンテンツフィルター、レッドチーム、オプトアウトツールで修正すると約束します。前提となるのは、さらなる実験と資本が最終的には革新とガードレールの両方を生み出すだろうということです。

これらの分岐する道には現実のリスクがあります。中国は、ユーザーがAIの出力が国家によって強制された制限や可視的なラベルの背後にあることを知っているため、より高い公共の信頼と引き換えに生の研究の自由を取引するかもしれません。一方、アメリカは最前線のモデル能力とオープンソースのエコシステムでリードを維持しつつ、ディープフェイク選挙、自動化された詐欺、安全性の問題といったより壮大な失敗を積み重ね、それが最終的に厳しい規制の強化を促すことになるかもしれません。

AGIを忘れよう、中国はAI経済を構築している。

イラスト:AGIを忘れよう、中国はAI経済を構築している
イラスト:AGIを忘れよう、中国はAI経済を構築している

SFのAGIデモは忘れてください。中国は、AIをその経済を動かすすべてに組み込むためのプレイブックを発表しました。これはデジタル超知能の研究ロードマップよりも、むしろ産業政策マニュアルに近い内容です。

「AIプラス」プランと呼ばれ、2025年8月27日に国務院によって発表されたこのプランは、AIが工場、病院、市役所、物流ハブにどのように浸透するべきかを示しています。北京はこれを「インターネットプラス」の次の段階として位置付けており、新たなセクターではなく、ほぼ全ての既存のセクターに対するアップグレード層として捉えています。

目標は明確で攻撃的です。2027年までに、政策立案者は「主要なセクター」の70%にAIを導入したいと考えています。主要なセクターには、製造、金融、交通、エネルギー、農業、ヘルスケア、公共サービスが含まれます。2030年までには90%の浸透を目指しており、2035年までには「知能経済」が完全に形成されることを見込んでいます。

スマート製造がトップに位置しています。この計画は、特に長江デルタや大湾区の数千の産業団地において、AI駆動の品質検査、予知保全、サプライチェーンの最適化を推進しています。リアルタイムで組立ラインの欠陥を検出するコンピュータビジョンや、ボトルネックに応じて自動的に生産を再ルーティングするスケジューリングシステムをイメージしてみてください。

インテリジェントガバナンスはもう一つの重要な柱です。地方自治体はすでに交通管理、環境モニタリング、行政承認のワークフローにAIを導入しています。AIプラスはこれらの試験的な取り組みを全国的な期待に高めます。自治体は、動的なバスルーティングから自動税リスクチェックまで、都市サービスにどの程度アルゴリズムを組み込んでいるかによって評価されます。

公益事業のアプリケーションが全体像を完成させます。この計画では、郡の病院でのAI支援による診断、地方の学校での個別学習システム、社会保障詐欺の検出が含まれています。AIの導入は、単に沿岸の大都市でのGDPを引き上げるだけでなく、地域間の格差を縮小することに明確に結び付けられています。

中国のテックジャイアントたちは、それに応じて支出を調整しています。アリババはAIネイティブの企業向けソフトウェアに力を入れており、Alibaba Cloudでのモデル・アズ・ア・サービス、中小企業向けの工場最適化ツール、調達、人事、財務のためにDingTalkに組み込まれたコ・パイロットを展開しています。テンセントは、業界特化型のモデルをWeComやそのクラウド部門を通じて推進しており、安全で狭いシステムを求める銀行、保険会社、地方政府をターゲットにしています。

資本の流れは、ツール重視の傾向を反映しています。投資は、製造、物流、公共サービスのための縦型モデルや、データセンターやエッジチップのようなインフラに集中しています。神のようなAIを競い合うことを宣伝する代わりに、中国は人間がしっかりと管理することを前提としたAI主導の経済を静かに補助しています。

予想外のオープンソースプレイ

オープンソースコード、輸出管理ではない、中国の最大のAIの劇的展開をもたらした。2025年にDeepSeekがオープンウェイトモデルを公開したことで、中国の開発者たちは突然、LlamaやMistralの代わりになる国産の選択肢を手に入れ、それを実際に調査し、微調整し、自己ホスティングすることができるようになった。この動きは、中国のAIが永久にプロプライエタリなブラックボックスの背後に存在しているという考えを打ち破った。

DeepSeekの戦略は、慈善事業というよりは産業政策が実行されているように見えます。オープンモデルは、数千の小規模チームが製造、物流、金融のためのバーティカルコパイロットを開発する国内エコシステムを育成し、アメリカのクラウドに対してトークンごとの賃料を支払うことなく成り立っています。700万人以上のソフトウェア開発者がいる国において、たとえ5〜10%の採用率であっても、数十万人のエンジニアが同じ基盤スタックの上に構築することを意味します。

これは、AI Plusプランの目標とほぼ完全に一致しています:2027年までに主要セクターでのAI浸透率70%、2030年までに90%。北京が必要としているのは一つの超知能ではなく、すべての工場のIT部門や地方政府オフィスが接続できる標準的なツールキットです。オープンソースモデルはそのツールキットを提供し、国家が支援する標準や次世代人工知能のための倫理基準 (CSET翻訳)のような文書がそのガードレールを定義しています。

地上では、DeepSeekのコードはすでにインフラストラクチャに変わりつつあります。国内のクラウドプロバイダーは、そのモデルをマネージドサービスとして事前パッケージ化しており、大学では課題に利用されています。スタートアップは、法律研究、越境電子商取引、そして産業の品質管理のためにドメインに特化したバリアントを提供しています。それぞれのフォークやファインチューニングは、元の研究開発投資を累積させ、単独の企業が管理できる範囲をはるかに超えたイテレーションを加速させています。

DeepSeekの計画されたIPOは、これは国家補助の科学プロジェクトではなく、市場が成熟していることを示しています。成功した上場は、中国のファンデーションモデル企業の価値基準を確立し、オープンウェイトアプローチへのプライベートキャピタルの流入を促すでしょう。それが実現すれば、中国の最も強力なAI輸出品は完成品ではなく、世界中が静かに依存する、常に進化する半オープンなスタックになるかもしれません。

北京が世界的なAIルールブックを策定する試み

北京は2025年7月にAIに関してただ防御的な役割を果たしているふりをやめました。李強首相は上海で開催された世界人工知能大会のステージを利用して、グローバルAIガバナンスのための行動計画を発表しました。これは中国の2023年のグローバルガバナンスイニシアティブのフォローアップとして位置づけられ、この文書はホワイトペーパーというよりも次のコンピュータ時代のルール策定委員会の議長を目指す試みのように読まれます。

その核心には、中国の複雑な国内ルールを輸出政策に変換しようとする13項目のロードマップがあります。これは、データセキュリティ、アルゴリズムの透明性、そして「制御可能で信頼できる」AIに関するグローバルなコンセンサスを促進しながら、安全性を「主権」や「開発権」と繰り返し結び付けて、グローバル・サウスのためのものとしています。

この計画では、トレーニングデータの品質、透かし、モデル評価基準などに関する統一された技術基準が求められています。国境を越えたデータの流れを支持していますが、これは中国のサイバーセキュリティ法、データセキュリティ法、個人情報保護法と似た「セキュリティ評価」制度の下でのみ可能です。

倫理に関するセクションが設けられています。北京は、金融、医療、公サービスにおける高リスクシステムに対する人間の監視、非差別、責任に関する国際的な基準を求めています。これは「人間の介入」の管理と、開発者だけでなく導入者に対する責任を明確に推進しており、2024年の国家AI倫理規則の草案における表現を反映しています。

外交が文書全体に流れています。中国は、新たな国連中心のメカニズム、G20およびBRICSの下での専用AIフォーラム、そして安全性とガバナンスに関する共同研究センターを提案しています。また、能力構築に強く重点を置いており、規制当局の訓練、ツールキットの共有、そして「責任あるAI」インフラの発展途上国への輸出を行っています。

これは一時的な方針変更ではなく、2021年の新世代AIに関する倫理基準から始まった規制の流れに組み込まれています。この基準は、公平性、プライバシー、制御可能性という初期の原則を定め、その後、レコメンデーションアルゴリズム(2022年)、ディープ合成(2022年)、生成AI(2023年)に関するルールに現れました。

一緒に見ると、倫理基準、生成AIサービスのための暫定措置、国家安全保障基準、および2025年アクションプランは、一貫した戦略を形成しています:国内の厳格な規制を法制化し、それをグローバルなテンプレートとして売り出すのです。ワシントンは「ガードレール」について話し、ブリュッセルはAI法を自慢していますが、北京は現在、あらゆる多国間の場にフルスタックのガバナンスモデルを持ち込み、それを拡大するための13項目の計画を掲げています。

ウォーターマーク、ラベル、そしてディープフェイクの終焉?

イラストレーション:透かし、ラベル、そしてディープフェイクの終焉?
イラストレーション:透かし、ラベル、そしてディープフェイクの終焉?

2025年9月1日、中国のAI実験において厳格な基準が設定されます。すべての主要プラットフォームは合成コンテンツを明示しなければならず、例外や「ベータ」ラベルは認められません。規制当局はこれをディープフェイクやAIスパムへの対策として位置付けていますが、同時に全国規模でのAIウォーターマーキングがどこまで行けるかを試すリアルタイムのストレステストともなっています。

中国の規則は二層のシステムを作り出します。あなたと対話したり、あなたを模倣したりするものには目に見えるスカーレットレターが付けられ、それ以外の全てには目に見えないタグが付けられます。

インタラクティブシステム—チャットボット、AIライティングツール、カスタマーサービスエージェント、合成音声、フェイススワップアプリなど—の提供者は、明確で持続的なシンボルまたはテキストを表示しなければなりません。「この出力は生成型AIから来ました」と伝えるために。WeChatボット、Douyinフィルター、Taobaoアシスタントなどが、最初のプロンプトから最終的な回答まで画面上にAIバッジを表示する様子を考えてみてください。

静的または放送スタイルのコンテンツ—チャットインターフェースなしで流通するAI画像、動画、音楽、テキスト—に対して、プラットフォームは隠れたウォーターマークを埋め込む必要があります。これらのマークは圧縮、再投稿、軽微な編集に耐えなければならず、サービスはアップロードをスキャンし、未ラベルの偽造物を警告する検出ツールを展開しなければなりません。

不遵守は規制の空白に存在するわけではありません。当局はサイバーセキュリティ法、データセキュリティ法、個人情報保護法を用いて、警告から数百万人民元の罰金、事業停止、あるいは刑事告発へと罰則を強化することができます。ラベルなしでウイルス性の顔入れ替えアプリを出荷するスタートアップは、アプリストアからの削除リスクだけでなく、全面的なサイバーセキュリティ調査のリスクも抱えています。

誤情報への影響は、少なくとも中国の封じられたプラットフォーム内では重要なものとなる可能性があります。もしWeibo、Douyin、Bilibiliがラベルチェックを厳格に実施すれば、匿名のAI生成の政治クリップ、詐欺の電話、リベンジポルノは追跡しやすくなり、「本物」として見せかけることが難しくなります。このシステムは実質的に主要なプラットフォームをAIの出所のゲートキーパーに変えるのです。

この深層偽造が実際に「終了する」かどうかは、完全にオフラインで動作するオープンソースツールと、中国の法的権限外にある外国のプラットフォームという2つの弱点にかかっています。しかし、北京は現在、米国やEUにはないテストベッドを持っています:AIの出所に関する国規模の命令です。西側の規制当局は、ウォーターマークのプレイブックを模倣するか、ボランティアの基準とモグラ叩きのファクトチェックに賭け続けるかを決めなければなりません。

あなたが中国のAIを恐れているとき、誰が利益を得るのか?

中国のAIに対する恐れは自然に生まれるものではなく、誰かがそれを書き、資金を提供し、常識のように聞こえるまで繰り返します。中国のAI戦略に関する動画は、そのエコシステム、つまり「私たちが遅れを取れば中国が勝つ」と繰り返すシンクタンク、ロビー団体、ベンチャーキャピタルから支援を受けたCEOたちに直接言及して締めくくられています。

西洋のテクノロジー大手は、「中国が勝っている」というストーリーを強調する明確なインセンティブを持っています。もし立法者が北京を無規制のAIジャグジャントと見なすなら、OpenAI、Google、Meta、Anthropicのような企業は、強力な規制を設けることが「中国に勝利を手渡す」ことになると主張できます。このような枠組みは、2023年から2025年の間にワシントンでの厳しいモデルライセンス、責任規則、および計算キャップに関する提案を弱める助けとなりました。

恐怖は直接的に予算に変わります。アメリカの防衛および情報機関は、AIへの支出を中国の「民軍融合」に対する対応として提案しており、数百億ドルの予算を正当化しています: - ペンタゴンのAIプログラム - 機密モデル開発 - 国内チップファブへの補助金

「中国がAGIに急速に進んでいる」という意見記事が発表されるたびに、不透明な公私パートナーシップに資金を流し込みやすくなり、選挙民がその行き先を問うのが難しくなります。議員たちは中国に対して厳しい姿勢を示しつつ、業界が求めるもの、つまり緩やかな監視と責任免除を静かに与えることができます。

パニックによる規制緩和も同様に機能します。中国にはルールがないという考えを受け入れれば、欧州のAI法やアメリカの安全基準は自己破壊的に見えてきます。この論調は、中国の生成AIサービスに関する暫定措置、義務的な透かし入れ、倫理審査を含む文書、例えば生成人工知能サービス管理に関する暫定措置(ANSI翻訳)を便利に無視しています。

メディアの報道は、怠惰な指標で恐怖の物語を強化することが多い:モデルのパラメーター数、ベンチマークスコア、または各国が生み出した「AIユニコーン」の数など。これらの数字はグラフで見栄えがするが、労働者の保護、市民権、またはシステムが依然として意味のある人間の制御下にあるかどうかについてはほとんど何も語らない。

読者は「中国がAI競争に勝っている」という主張を開示文書のように扱うべきです。それを信じることで、誰がより裕福になり、より力を持ち、または責任を問われにくくなるのでしょうか?もしその答えが毎回同じ限られた企業や公式のサークルであるなら、そのナラティブは分析ではなく、より良いグラフィックを伴ったロビー活動に過ぎません。

本当のAIゲーム:統合対投機

「AI競争」のメタファーは忘れよう。中国と西側諸国は同じスタジアムの明かりの下で異なるスポーツを繰り広げている。北京はAIを工場、港、病院、都市局に向けて活用しようとしている一方で、ワシントンとシリコンバレーは基盤モデルや仮説的なAGIに執着している。一方はAIをインフラとして扱い、もう一方はそれを月面着陸のような挑戦と捉えている。

中国の「AIプラス」計画は、2025年8月27日に発表され、2027年までに主要セクターにおけるAIの浸透率を70%、2030年までに90%にすることを目指しています。対象となるセクターには、製造業、物流、金融、農業、公共サービスが含まれており、2035年には完全な「知能経済」を実現することが目標です。この指標はパラメータやベンチマークスコアではなく、どれだけのワークフローが静かに自動化されるかです。

西洋のAI論調は依然としてモデルの優位性に焦点を当てています:GPT-5対Claude対Gemini、兆パラメータアーキテクチャ、出現能力。ベンチャーキャピタルや政策の関心は、AGIへの最短ルートを主張する者の周りに集まっています。一方、中国は成功を調整研究の引用数ではなく、展開数で測定しています。

実際の競争は、最初のAGIを生み出すことよりも、現在のシステムを複利的な生産性向上に変えることにかかっているかもしれません。物流、エネルギー、ヘルスケアでの5〜10%の効率向上は、実験室から出ない神のようなチャットボットのデモよりも価値があります。経済は、スケールでの限界的改善によって動いており、SF的なマイルストーンではありません。

中国のアプローチは、あらかじめ意図されたかのようにほとんど退屈に見える。国有企業は、スケジューリング、メンテナンス、品質管理にAIを統合する使命を受けている。地方自治体は、交通管理、給付金詐欺の検出、及び市民サービスのためにAIを導入し、2025年9月1日から厳格なコンテンツ規則と義務的な透かしに基づいている。

AIに関する世界的な競争は、少なくとも3つの重なり合う領域に分かれています: - ガバナンスとスタンダード、北京が「グローバルAIガバナンスのための13項目行動計画」を推進している領域 - アプリケーションの深さ、「AIプラス」がAIをあらゆる主要産業に組み込もうとする領域 - 経済の変革、両者がGDPの増加を追求していますが、異なる手法で進めています。

そのように捉えると、AGIははるかに大きなモザイクの中の一つのタイルに過ぎません。AGIを決して発明しない国でも、応用AIのインフラ、ルール、リターンを所有していれば支配的であり得ます。一方で、AGIの先駆者がその突破口を得ても、空洞化した産業基盤の上に立っているなら、逆に敗れる可能性もあります。

西側は神を作ろうとし続けているが、中国は着実に王国を築いている。

よくある質問

中国は本当にAI競争に勝っているのか?

この記事は、中国が西側と同じAGIの「競争」に参加していないと主張しています。むしろ、中国は異なるゲームに集中しており、経済全体に実用的なAIツールを迅速に、国家が管理する形で統合しています。

中国のAI規制は欧州のものより厳しいですか?

コンテンツ管理、政治的整合性、必須ラベル付けといった重要な分野において、中国の規制はヨーロッパのEU AI法よりも厳格で広範に適用されていると言えるでしょう。どちらも厳しいですが、優先事項は異なります。

中国の「AIプラス」計画とは何ですか?

「AIプラス」プランは、2025年に発表された国家戦略であり、主要産業やサービスへの深いAI統合を達成することを目指しており、2030年までに90%の浸透率を目指しています。このプランは、理論的なAGI開発よりも経済的な有用性を優先しています。

アメリカのAI戦略は中国のそれとどのように比較されるか?

米国は現在、テクノロジー企業の影響を大いに受けたイノベーション重視の軽規制アプローチを採用しています。中国は、管理と戦略的経済応用を優先する包括的な規制を伴う、トップダウンの国家主導戦略を採用しています。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts