TL;DR / Key Takeaways
Гонка искусственного интеллекта — это полная ложь.
Все в Вашингтоне продолжают повторять один и тот же сценарий: Китай — это не регулируемый запад диких технологий ИИ, который мчится "с полной скоростью" к искусственному общему интеллекту, в то время как США колеблетесь. Эта история звучит хорошо в зале заседаний или при представлении бюджета на оборону, но разваливается, как только вы начинаете смотреть, как Китай на самом деле регулирует ИИ.
Экосистема искусственного интеллекта в Китае работает под плотной сетью правил, которые делают Брюссель выглядеть как сторонник нерегулирования. "Временные меры по генеративным AI-сервисам" 2023 года требуют проведения проверок безопасности, законного источника данных и фильтрации контента, соответствующего "социальистическим основам". Поставщики должны предотвращать выводы, которые подрывают государственную власть, угрожают национальной безопасности или нарушают экономический и социальный порядок.
Кроме того, обязательные правила маркировки ИИ, вступающие в силу с 1 сентября 2025 года, обязывают платформы явно указывать текст, изображения, голос и замены лиц, созданные ИИ, а также внедрять скрытые водяные знаки в других местах. Несоблюдение этих требований может привести к штрафам, приостановлению обслуживания и даже уголовной ответственности в соответствии с Законом о кибербезопасности Китая, Законом о безопасности данных и Законом о защите персональной информации. ИИ высокого риска — все, что касается здоровья, безопасности или общественного мнения — подвергается этическим проверкам и экспертному контролю.
Сравните это с США, где по-прежнему нет комплексного федерального законодательства об ИИ. Политики говорят о "охранных мерах", но соблюдение правил в основном зависит от добровольных обязательств и рамок, написанных самой индустрией. Технические гиганты лоббируют ослабление или задержку правил, которые могут замедлить внедрение моделей, утверждая, что любое торможение дает преимущество Пекину.
Ядро стратегии искусственного интеллекта Китая представляет собой резкий удар: Китай не стремится стать первым в AGI. Политические планы, такие как план «Искусственный интеллект плюс», сосредоточены на насыщении производства, логистики, финансов и общественных услуг специализированными системами — 70% проникновения ИИ в ключевых секторах к 2027 году и 90% к 2030 году — нацеленные на продуктивность, а не на выполнение роли божественных машин. Инструменты, а не замены.
Этот разрыв имеет значение. Когда американские законодатели верят в миф о неконтролируемом китайском ИИ-гиганте, они оправдывают дерегуляцию на родине под предлогом «поддержания темпа». Эта паническая позиция передаёт власть формирования повестки дня компаниям, которые извлекают выгоду из ослабления правил, в то время как неправильно оценивает соперника, который ведет более медленную и контролируемую игру.
Расшифровка 'Строже, чем в Европе'
Первый крупный шаг Китая в области управления генеративным ИИ состоялся в августе 2023 года с принятием Временных мер по предоставлению услуг генеративного ИИ. Любая модель, предложенная «публике» в Китае, должна пройти оценку безопасности, зарегистрироваться у регулирующих органов и задокументировать источники обучающих данных. Поставщики обязаны обеспечивать законное сбор данных, уважать права интеллектуальной собственности и иметь подготовленную для проверки детальную техническую документацию.
Безопасность в этом контексте означает больше, чем просто защиту от инъекций. Модели не должны генерировать контент, который угрожает национальной безопасности, раскрывает государственные тайны или «нарушает экономический и социальный порядок». Компании рискуют получить предписания об устранении нарушений, приостановление услуг, штрафы и потенциальные уголовные обращения в соответствии с Законом о кибербезопасности, Законом о безопасности данных и PIPL, если они не выполняют требования.
Правила контента становятся еще строже. Генеративные системы не должны производить материалы, которые «подстрекают к подрыву государственной власти», «продвигают терроризм» или распространяют «слухи». Поставщики должны создавать внутренние базы данных черных списков тем и использовать команды человеческого обзора для обработки отмеченных генераций и жалоб пользователей.
Затем приходит идеологическая линия: выводы ИИ должны "воплощать основные социалистические ценности." Эта фраза, основанная на 12-пунктовом списке ценностей, продвигаемом Коммунистической партией, служит универсальным термином для политической и культурной согласованности. На практике это создает давление на разработчиков, чтобы они перенастраивали модели, избегая политически чувствительных тем, исторических альтернативных нарративов и "непристойных" образов жизни.
В отличие от этого, Закон о ИИ ЕС не интересуется, что ваше моделирование думает о социализме, если оно соответствует нужной категории риска. Брюссель классифицирует системы на: - Неприемлемый риск (запрещен полностью) - Высокий риск (серьезные обязательства, оценка соответствия) - Ограниченный/минимальный риск (легкая прозрачность или отсутствие специальных правил)
Категории неприемлемого риска включают социальный рейтинг, манипулятивные «сублиминальные» техники и большинство систем удаленной биометрической идентификации в общественных местах. Системы высокого риска — кредитные рейтинги, инструменты найма, медицинские устройства — должны проходить строгие испытания, документацию и постмаркетинговый мониторинг. Модели общего назначения подлежат требованиям прозрачности и безопасности, но не идеологическому отбору.
Заявление Китая о том, что он «строже Европы», скрывает торговую сделку: широкий и быстро меняющийся контроль за контентом вместо узких, категорико-ориентированных запретов. Регуляторы в Пекине могут удалить несоответствующий чат-бот или генератор изображений в течение нескольких дней по действующему закону о интернет-платформах, не дожидаясь поэтапного внедрения, как это запланировано в сроках ЕС на 2025–2026 годы.
Правила Европы оказывают наибольшее воздействие в тех областях, где ИИ пересекается с основополагающими правами и критической инфраструктурой. Удар Китая распространяется горизонтально на почти весь открытый генеративный ИИ, где охват и скорость применения становятся множителями силы — даже если некоторые технически рискованные приложения остаются формально разрешенными.
Мандат контроля человека
История искусственного интеллекта в Китае скрывает тихий мандат: человеки остаются у руля. Чиновники не используют язык «АГИ» из Силиконовой долины, но регуляторы многократно подают сигнал о одной красной линии — никакие автономные системы не имеют права принимать важные решения без ответственных людей.
Правила Китая никогда не говорят буквально «нет ИИ, который уходит из-под человеческого контроля», несмотря на вирусные утверждения. Вместо этого Временные меры для сервисов генеративного ИИ и связанные с ними рамки ограничивают условия для неконтролируемых систем: никаких нес контролируемых инструментов, формирующих общественное мнение, никаких черных ящиков, принимающих критически важные решения о безопасности.
Искусственный интеллект высокой степени риска находится под пристальным вниманием. Проект этических норм с августа 2024 года требует официальных этических оценок для систем, которые влияют на здоровье, общественную безопасность или индивидуальную репутацию. Экспертные панели будут исследовать тренировочные данные, потенциальные сбои и механизмы человеческого контроля перед внедрением.
Оценки безопасности добавляют второй тормоз. Провайдеры, предлагающие генеративный ИИ для широкой публики, должны проходить государственные проверки безопасности, которые исследуют: - Процессы модерации контента - Происхождение данных и согласие - Механизмы человеческого вмешательства и отключения
Генеративные модели также должны соответствовать "социалистическим основным ценностям", что на практике означает агрессивную фильтрацию контента и отслеживаемость. Этот идеологический слой также выполняет роль технического требования: платформы нуждаются в сильных рычагах контроля над тем, что модели могут говорить и насколько быстро они могут быть исправлены или удалены.
Сравните это с дискуссиями о безопасности ИИ и "супералтайнменте" на Западе, которые в основном существуют в исследовательских блогах и белых книгах по основным моделям. OpenAI, Anthropic и DeepMind публикуют дорожные карты по согласованию, но ни один федеральный закон США не обязывает проводить этические обзоры или аудит безопасности перед развертыванием для ИИ с высоким уровнем риска.
Законопроект Европейского Союза о ИИ продвигается вперед, запрещая системы с «неприемлемым риском» и регулируя высокорисковые, однако правила для моделей общего назначения начнут действовать только с 2025 года. Китай, в свою очередь, уже связывает доступ к рынку с соблюдением норм, поддерживаемых законами о кибербезопасности, данных и личной информации, а также новыми инициативами глобального управления, такими как Китай объявляет план действий по глобальному управлению ИИ - ANSI.
Пока Америка дерегулирует, Китай строит заборы.
История политики ИИ в Америке сейчас выглядит как замедленный переписанный сценарий, созданный лоббистами отрасли. Предложения по обязательным правилам постоянно ослабляются, превращаясь в добровольные обязательства, консультационные рамки и исполнительные указания, которые агентства с трудом пытаются реализовать. Технологические гиганты, тратящие десятки миллионов на лоббизм в Вашингтоне, утверждают, что любые жесткие ограничения «передадут победу Китаю».
Китай движется в противоположном направлении: быстро, централизованно и без извинений предписывающе. После того как Временные меры по сервисам генеративного ИИ вступили в силу в августе 2023 года, регуляторы представили обязательные правила маркировки ИИ (вступающие в силу 1 сентября 2025 года) и тройку национальных стандартов по безопасности и управлению генеративным ИИ, которые вступят в силу 1 ноября 2025 года. Эти стандарты определяют технические основы для безопасности данных, контроля контента и управления рисками моделей по всему стеку.
На другом берегу Тихого океана Конгресс все еще не разработал всеобъемлющий федеральный закон о ИИ. Исполнительный указ по ИИ, подписанный Белым домом в 2023 году, побудил ведомства тестировать модели и следить за дискриминацией, но не зашел дальше четкой ответственности или жестких ограничений на развертывание. Вместо этого США полагаются на секторные правила — FTC для несправедливых практик, FDA для медицинского ИИ, NHTSA для автономных автомобилей — и надеются, что они окажутся достаточно широкими.
Модель Китая выглядит почти феодальной в сравнении: категоричная и иерархическая. Системы распределяются по уровням риска — общественное мнение, критическая инфраструктура, здравоохранение, образование — каждая из которых требует все возрастающих обязательств: проверки безопасности, подачи алгоритмов, человеческого контроля и иногда прямого запрета. Использование с высоким риском должно проходить этическое рецензирование и постоянный мониторинг перед масштабированием.
Философия Америки остается "инновации на первом месте", при этом безопасность в основном рассматривается как решение после запуска. Компаниям нужно выпускать экспериментальные модели, собирать отзывы из реального мира и затем обещать исправить недостатки с помощью контентных фильтров, тестирования на уязвимости и инструментов отказа. Предположение: больше экспериментов и капиталовложений в конечном итоге приведут как к прорывам, так и к защитным механизмам.
Эти расходящиеся пути имеют реальные ставки. Китай может обменять свободу проведения исследований на более высокую доверие общества, поскольку пользователи понимают, что результаты ИИ находятся за государственными барьерами и видимыми ярлыками. США могут сохранить преимущество в возможностях передовых моделей и экосистемах с открытым исходным кодом, при этом накапливая более зрелищные неудачи — выборы с использованием дипфейков, автоматизированное мошенничество, инциденты с безопасностью — которые в конечном итоге приведут к более жесткому возврату к регулированию.
Забудьте об AGI, Китай создает экономику искусственного интеллекта.
Забудьте о демонстрациях ИИ и научной фантастике. Китай только что опубликовал руководство по внедрению ИИ во все, что поддерживает его экономику, и оно больше похоже на руководство по промышленной политике, чем на стратегию исследований для цифрового суперразума.
Названный «AI Plus» план, он был опубликован Госсоветом 27 августа 2025 года и описывает, как искусственный интеллект должен внедряться на фабрики, в больницы, городские управления и логистические центры. Пекин рассматривает это как следующую фазу после «Интернет Плюс»: это не новая отрасль, а уровень модернизации для почти каждой существующей.
Цели являются резкими и агрессивными. К 2027 году законодатели хотят внедрить ИИ в 70% «ключевых секторов» — производства, финансов, транспорта, энергетики, сельского хозяйства, здравоохранения и государственных услуг. К 2030 году они стремятся достичь 90% проникновения и обсуждают формирование «умной экономики» к 2035 году.
Умное производство находится на первом месте в списке. Планы включают внедрение инспекции качества на основе ИИ, предиктивного обслуживания и оптимизации цепочек поставок на тысячах промышленных площадок, особенно в дельте реки Янцзы и районе Большого залива. Представьте себе компьютерное зрение, выявляющее дефекты на сборочных линиях в режиме реального времени, и системы планирования, которые автоматически перенаправляют производство вокруг узких мест.
Интеллектуальное управление — это другой важный столп. Местные власти уже используют ИИ для управления движением, мониторинга окружающей среды и административных процессов; AI Plus превращает эти пилотные проекты в национальные ожидания. Муниципалитеты получают оценки за то, насколько глубоко они внедряют алгоритмы в городские услуги, от динамической маршрутизации автобусов до автоматизированной проверки налоговых рисков.
Приложения для общественного благосостояния дополняют общую картину. План предполагает использование ИИ для поддержки диагностики в окружных больницах, персонализированные образовательные системы в сельских школах и выявление мошенничества с социальным обеспечением. Он явно связывает внедрение ИИ с уменьшением региональных разрывов, а не только с увеличением ВВП в прибрежных мегаполисах.
Технологические гиганты Китая скорректировали свои расходы соответственно. Alibaba активно развивает программное обеспечение для предприятий на базе ИИ: модель как услуга на Alibaba Cloud, инструменты оптимизации для малых и средних предприятий, а также интегрированные помощники в DingTalk для закупок, кадров и финансов. Tencent продвигает специализированные модели через WeCom и свое облачное подразделение, нацеливаясь на банки, страховые компании и местные власти, которые предпочитают более безопасные и узкие системы вместо экспериментов с передовым AGI.
Капитальные потоки отражают этот уклон в сторону инструментов, а не «сознательных» систем. Инвестиции сосредоточены на вертикальных моделях для производства, логистики и государственных услуг, а также на инфраструктуре, такой как дата-центры и чипы на периферии. Вместо того чтобы рекламировать гонку к божественному ИИ, Китай тихо субсидирует экономику на базе ИИ, которая предполагает, что люди остаются твердо у руля.
Непредвиденная открытая игра, о которой вы не знали
Код с открытым исходным кодом, а не контроль за экспортом, стал главным поворотом в мире ИИ в Китае. Когда DeepSeek выпустил свои модели с открытыми весами в 2025 году, китайские разработчики внезапно получили родную альтернативу Llama и Mistral, которую они могли изучать, настраивать и самостоятельно развертывать. Этот шаг разрушил представление о том, что китайский ИИ живет за постоянным Великим файрволом собственнических черных ящиков.
Стратегия DeepSeek больше похожа на промышленную политику, чем на благотворительность. Открытые модели создают внутреннюю экосистему, где тысячи мелких команд могут разрабатывать вертикальные копилоты для производства, логистики и финансов, не выплачивая арендные платежи за токены облачным сервисам США. В стране с более чем 7 миллионами разработчиков программного обеспечения даже уровень принятия 5–10% означает сотни тысяч инженеров, работающих на одной основополагающей платформе.
Это почти идеально соответствует целям плана AI Plus: 70% внедрения ИИ в ключевых секторах к 2027 году и 90% к 2030 году. Пекину не нужна одна суперразумная система; ему нужен стандартный набор инструментов, который может использовать каждый ИТ-отдел фабрики и каждое провинциальное правительство. Модели с открытым исходным кодом предоставляют этот набор инструментов, в то время как стандарты и документы, поддерживаемые государством, такие как Этические нормы для искусственного интеллекта нового поколения (CSET Translation), определяют рамки.
На практике код DeepSeek уже превращается в инфраструктуру. Внутренние облачные провайдеры упаковывают его модели как управляемые услуги; университеты используют их в учебных курсах; стартапы разрабатывают адаптированные варианты для юридических исследований, трансграничной электронной торговли и контроля качества в промышленности. Каждое изменение и доработка увеличивают исходные инвестиции в НИОКР, ускоряя процесс итераций на порядок выше, чем могла бы справиться одна компания.
Запланированное IPO DeepSeek указывает на то, что это не научный проект с государственной субсидией, а развивающийся рынок. Успешный выход на биржу установит оценку для китайских компаний, работающих с базовыми моделями, и привлечет больше частного капитала к открытым подходам. Если это сработает, самым мощным экспортом ИИ из Китая могут стать не готовые продукты, а постоянно развивающийся, полузакрытый стек, от которого тихо зависит остальной мир.
Пекинская попытка составить глобальный правила для ИИ
Пекин перестал притворяться, что только защищается в области ИИ в июле 2025 года, когда премьер Ли Цянь выступил на сцене Всемирной конференции по искусственному интеллекту в Шанхае, чтобы представить План действий по глобальному управлению ИИ. Оформленный как продолжение инициативы Китая по глобальному управлению 2023 года, документ выглядит скорее как попытка возглавить комитет по написанию правил для следующей вычислительной эпохи, чем как белая книга.
В центре находится 13-пунктовый план, который пытается превратить плотный внутренний свод правил Китая в экспортную политику. Он выступает за глобальное согласие по вопросам данной безопасности, алгоритмической прозрачности и «контролируемого, доверенного» ИИ, при этом неоднократно связывая безопасность с «суверенитетом» и «правами на развитие» для стран Глобального Юга.
План предполагает единые технические стандарты по таким вопросам, как качество обучающих данных, водяные знаки и критерии оценки моделей. Он поддерживает трансграничные потоки данных, но только в рамках режимов «оценки безопасности», которые очень похожи на отечественные законы Китая: Закон о кибербезопасности, Закон о безопасности данных и Закон о защите персональной информации.
Этика получает отдельный раздел: Пекин хочет установить международные нормы, касающиеся человеческого контроля, недискриминации и ответственности за высокорисковые системы в финансах, здравоохранении и государственных услугах. Он явно настаивает на контроле с участием человека и ответственности развертывателей, а не только разработчиков, повторяя формулировки из проекта национальных правил этики ИИ на 2024 год.
Документ пронизан духом дипломатии. Китай предлагает новые механизмы в рамках ООН, специализированные форумы по ИИ в рамках G20 и БРИКС, а также совместные исследовательские центры по безопасности и управлению. Он также делает акцент на наращивании потенциала: обучение регуляторов, обмен инструментами и экспорт инфраструктуры "ответственного ИИ" в развивающиеся страны.
Это не разовый поворот; он вписывается в регуляторную арку, которая началась с Этических норм для ИИ нового поколения 2021 года. Эти нормы задали ранние принципы — справедливость, конфиденциальность, управляемость — которые позже появились в правилах для алгоритмов рекомендаций (2022), глубокой синтезы (2022) и генеративного ИИ (2023).
Вместе эти Этические Нормы, Временные Меры для Генеративных AI Услуг, стандарты национальной безопасности и План действий на 2025 год формируют целостную стратегию: кодифицировать строгие внутренние меры контроля, а затем продвигать их как глобальный шаблон. Вашингтон говорит о «ограждениях», Брюссель хвалит Закон о ИИ, но Пекин теперь входит в каждую многостороннюю дискуссию с полным моделью управления — и с 13-пунктным планом её масштабирования.
Водяные знаки, ярлыки и конец дипфейков?
1 сентября 2025 года станет жесткой границей в экспериментах Китая с ИИ: каждая крупная платформа должна будет отмечать синтетический контент, без исключений и без «бета» меток. Регуляторы подают это как ответ на дипфейки и спам на базе ИИ, но это также является испытанием на прочность для масштаба применения водяных знаков для ИИ на национальном уровне.
Правила Китая создают двухуровневую систему. Всё, что общается с вами или имитирует вас, получает видимый алый знак; всё остальное получает невидимый ярлык.
Для интерактивных систем — чат-ботов, инструментов AI для написания, агентов по обслуживанию клиентов, синтетических голосов и приложений для замены лиц — поставщики должны отображать четкие, постоянные символы или текст, который сообщает: этот вывод был получен с помощью генеративного ИИ. Подумайте о ботах WeChat, фильтрах Douyin или помощниках Taobao, которые на протяжении всего взаимодействия отображают значок ИИ на экране, от первого запроса до окончательного ответа.
Для статического или трансляционного контента — ИИ-изображений, видео, песен и текста, которые циркулируют без интерфейса чата — платформы обязаны внедрять скрытые водяные знаки. Эти знаки должны сохраняться при сжатии, перепостах и легком редактировании, а сервисы должны разрабатывать инструменты для обнаружения, чтобы сканировать загрузки и помечать unlabeled фейки.
Нарушение положений не существует в регуляторном vacuum. Власти могут обратиться к Закону о кибербезопасности, Закону о безопасности данных и Закону о защите персональной информации, чтобы повысить штрафы с предупреждений до многомиллионных штрафов, приостановки бизнеса или уголовных обвинений. Стартап, который выпускает вирусное приложение для смены лиц без этикеток, рискует не только удалением из магазина приложений; он также подвергает себя полному расследованию в области кибербезопасности.
Влияние на дезинформацию может быть значительным, по крайней мере, внутри закрытых платформ Китая. Если Weibo, Douyin и Bilibili будут активно проверять маркировки, анонимные политические клипы, созданные ИИ, мошеннические звонки и месть в виде интимных видео станут легче отслеживать и сложнее выдать за «настоящие». Таким образом, система фактически превращает крупные платформы в хранителей подлинности ИИ-контента.
То, действительно ли это «положит конец» дипфейкам, зависит от двух слабых звеньев: инструментов с открытым исходным кодом, работающих полностью в оффлайне, и иностранных платформ, находящихся вне юрисдикции Китая. Тем не менее, у Пекина теперь есть площадка для тестирования, которой у США и ЕС нет: мандат на уровне страны для подтверждения подлинности ИИ. Западным регуляторам предстоит решить, стоит ли им копировать стратегию с водяными знаками или продолжать делать ставку на добровольные стандарты и метод «бей по молоту» для проверки фактов.
Кто получает выгоду, когда вы боитесь искусственного интеллекта Китая?
Страх перед китайским ИИ не возникает сам по себе; его кто-то пишет, финансирует и повторяет до тех пор, пока это не начнет звучать как здравый смысл. Видео о стратегии ИИ Китая заканчивается указанием на эту экосистему: аналитические центры, лоббистские группы и CEOs с поддержкой венчурного капитала, которые продолжают утверждать: «Китай победит, если мы замедлимся».
Западные технологические гиганты имеют явные стимулы для того, чтобы усилить нарратив о том, что Китай побеждает. Если законодатели будут считать, что Пекин является нерегулируемым гигантом в сфере искусственного интеллекта, такие компании, как OpenAI, Google, Meta и Anthropic, смогут утверждать, что любые строгие ограничения «подарят победу Китаю». Эта интерпретация помогла смягчить предложения о строгой лицензировании моделей, правилах ответственности и ограничениях на вычислительные мощности в Вашингтоне с 2023 по 2025 год.
Страх также прямо трансформируется в бюджеты. Американские оборонные и разведывательные агентства теперь представляют финансирование ИИ как ответ на «гражданско-военное слияние» Китая, обосновывая выделение десятков миллиардов на: - Программы ИИ Пентагона - Разработку секретных моделей - Субсидии для отечественных фабрик по производству чипов
Каждая статья на тему "Китай стремится к ИИ" упрощает отвод денег в непрозрачные государственно-частные партнерства и усложняет для избирателей задавание вопросов о том, куда уходят эти средства. Законодатели могут делать вид, что жестко выступают против Китая, в то время как тихо предоставляют промышленности то, что она хочет: минимальный надзор и защиту от ответственности.
Дерегуляция в условиях паники работает так же. Если вы принимаете идею о том, что в Китае нет правил, то Европейский акт об ИИ или стандарты безопасности США начинают выглядеть как само sabotage. Этот нарратив удобно игнорирует Временные меры по предоставлению услуг генеративного ИИ, обязательную маркировку водяными знаками и этические обзоры, все об этом изложено в документах, таких как Временные меры по регулированию услуг генеративного искусственного интеллекта (перевод ANSI).
Средства массовой информации часто усиливают пугающие истории ленивыми метриками: количеством параметров моделей, баллами на бенчмарках или тем, сколько «Искусственных единорогов» создала каждая страна. Эти цифры хорошо смотрятся на графиках, но почти ничего не говорят о защите прав работников, гражданских правах или о том, остаются ли системы под значимым человеческим контролем.
Читатели должны воспринимать любые утверждения о том, что "Китай выигрывает гонку в области ИИ", как форму раскрытия информации. Кто становится богаче, мощнее или менее подотчетным, если вы этому верите? Если ответ каждый раз один и тот же — это круг компаний и чиновников, то повествование не является анализом; это лоббирование с более качественной графикой.
Настоящая игра ИИ: Интеграция против Спекуляций
Забудьте метафору "гонки ИИ"; Китай и Запад играют в разные виды спорта под одними и теми же стадионными огнями. Пекин нацеливает ИИ на фабрики, порты, больницы и городские управления, в то время как Вашингтон и Силиконовая долина одержимы фундаментальными моделями и гипотетическим AGI. Одна сторона рассматривает ИИ как инфраструктуру; другая — как рискованное предприятие.
План «Искусственный интеллект плюс» Китая, объявленный 27 августа 2025 года, нацелен на достижение 70% проникновения ИИ в ключевые секторы к 2027 году и 90% к 2030 году. Эти сектора включают производство, логистику, финансы, сельское хозяйство и государственные услуги, с целью создания полностью «умной экономики» к 2035 году. Критерием является не количество параметров или эталонных оценок, а количество рабочих процессов, которые будут тихо автоматизированы.
Западная дискуссия об ИИ все еще вращается вокруг превосходства моделей: GPT-5 против Claude против Gemini, триллионные архитектуры параметров, новые способности. Венчурный капитал и внимание к политике сосредоточены на тех, кто заявляет о кратчайшем пути к AGI. Китай, напротив, оценивает успех по числу развертываний, а не по цитированию исследований по выравниванию.
Настоящая конкуренция может зависеть не столько от того, кто создаст первую AGI, сколько от того, кто превратит существующие системы в умножающие производительность достижения. Увеличение эффективности на 5–10% в области логистики, энергетики и здравоохранения превзойдет демонстрацию божественного чат-бота, который никогда не покинет лабораторию. Экономики работают на основе маломасштабных улучшений, а не на научно-фантастических вехах.
Подход Китая кажется почти скучным по замыслу. Государственные предприятия получают полномочия внедрять ИИ в планирование, техническое обслуживание и контроль качества. Муниципальные правительства внедряют ИИ для управления движением, обнаружения мошенничества с льготами и услуг для граждан, поддерживаемые строгими правилами контента и обязательными водяными знаками, вступающими в силу с 1 сентября 2025 года.
Глобальная конкуренция в области ИИ теперь делится как минимум на три пересекающихся арены: - Управление и стандарты, где Пекин продвигает свой 13-пунктовый План действий по глобальному управлению ИИ - Глубина применения, где "ИИ плюс" пытается интегрировать ИИ в каждую major индустрию - Экономическая трансформация, где обе стороны стремятся к росту ВВП, но через разные стратегии.
С такой точки зрения, ИИ общего назначения становится лишь одной плиткой в гораздо большей мозаике. Страна, которая никогда не создаст ИИ общего назначения, всё равно может доминировать, если будет владеть инфраструктурой, правилами и доходами от прикладного ИИ. Напротив, пионер ИИ общего назначения всё равно может потерять, если его достижения будут основаны на опустошенной промышленной базе.
Запад продолжает пытаться создать бога. Китай, методично, строит королевство.
Часто задаваемые вопросы
Китай действительно выигрывает гонку в области ИИ?
В статье утверждается, что Китай не участвует в той же "гонке" в области общего искусственного интеллекта, что и Запад. Вместо этого страна сосредоточена на другой стратегии: быстром, контролируемом государством внедрении практических ИИ-инструментов в свою экономику.
Являются ли регулирования ИИ в Китае более строгими, чем в Европе?
В ключевых областях, таких как контроль контента, политическая согласованность и обязательное маркирование, регуляции Китая, возможно, строже и шире применяются, чем Еврокомиссия в рамках Закона об ИИ. Оба подхода строгие, но имеют разные приоритеты.
Что такое план Китая "Искусственный интеллект плюс"?
План «AI Plus» — это национальная стратегия, запущенная в 2025 году, направленная на глубокую интеграцию ИИ в ключевые отрасли и услуги, с целью достижения 90% проникновения к 2030 году. Он ставит экономическую полезность выше теоретического развития AGI.
Как стратегия США в области ИИ сравнится со стратегией Китая?
В настоящее время США придерживаются более инновационного, мягкого регулирующего подхода, сильно зависимого от технологических компаний. Китай использует государственную стратегию сверху вниз с комплексными регуляциями, которые приоритизируют контроль и стратегическое экономическое применение.