TL;DR / Key Takeaways
La course à l'IA est un mensonge complet.
Tout le monde à Washington ne cesse de répéter le même discours : la Chine est un Far West de l'IA non régulé, avançant "à pleine vitesse" vers l'intelligence artificielle générale pendant que les États-Unis tergiversent. Cette histoire est excellente dans une salle d'audience ou lors d'une présentation de budget de défense, mais elle s'effondre dès que l'on examine la manière dont la Chine gouverne réellement l'IA.
L'écosystème de l'IA en Chine fonctionne sous un dense réseau de règles qui rendent Bruxelles presque laxiste. Les "Mesures intérimaires pour les services d'IA générative" de 2023 exigent des examens de sécurité, une collecte de données légale et un filtrage de contenu aligné sur les "valeurs fondamentales socialistes" pour tout modèle destiné au public. Les fournisseurs doivent prévenir les résultats qui sapent l'autorité de l'État, menacent la sécurité nationale ou perturbent l'ordre économique et social.
De plus, des règles de marquage de l'IA obligatoires entreront en vigueur le 1er septembre 2025, obligeant les plateformes à marquer visiblement les textes, images, voix et échanges de visages générés par l’IA, ainsi qu'à intégrer des filigranes invisibles ailleurs. Le non-respect de ces règles expose à des amendes, des suspensions de service et même à des responsabilités criminelles en vertu de la Loi sur la cybersécurité, de la Loi sur la sécurité des données et de la Loi sur la protection des informations personnelles en Chine. L'IA à haut risque — tout ce qui touche à la santé, la sécurité ou l'opinion publique — fait face à des examens éthiques et à une supervision d'experts.
Comparez cela aux États-Unis, où il n'existe toujours pas de loi fédérale complète sur l'IA. Les décideurs parlent de "barrières", mais l'application des règles repose en grande partie sur des engagements volontaires et des cadres rédigés par l'industrie. Les géants de la technologie font pression pour affaiblir ou retarder des règles qui pourraient ralentir le déploiement des modèles, arguant que toute friction donnerait l'avantage à Pékin.
La thèse centrale de la stratégie chinoise en matière d'IA porte un coup direct : la Chine ne cherche pas à être la première à développer une IA générale. Des plans politiques comme le plan « AI Plus » se concentrent sur la saturation de la fabrication, de la logistique, de la finance et des services publics avec des systèmes spécifiques à des tâches - 70 % de pénétration de l'IA dans les secteurs clés d'ici 2027, 90 % d'ici 2030 - visant à améliorer la productivité, et non à atteindre la divinité machine. Des outils, pas des remplacements.
Cette déconnexion a son importance. Lorsque les législateurs américains croient au mythe d'un monstre AI chinois déchaîné, ils justifient la déréglementation chez eux au nom de "se maintenir à jour". Cette posture alimentée par la panique confère un pouvoir d'agenda à ces entreprises qui tirent profit de règles moins strictes, tout en mécomprenant un rival qui joue un jeu plus lent et plus contrôlé.
Décoder 'Plus strict que l'Europe'
La première grande action de la Chine en matière de gouvernance de l'IA générative a eu lieu en août 2023 avec les Mesures provisoires pour les services d'IA générative. Tout modèle proposé "au public" en Chine doit passer une évaluation de sécurité, s'enregistrer auprès des régulateurs et enregistrer les sources de données d'entraînement. Les fournisseurs doivent s'assurer d'une collecte de données légale, respecter les droits de propriété intellectuelle et maintenir une documentation technique détaillée prête pour inspection.
La sécurité dans ce contexte signifie plus que des défenses contre les injections rapides. Les modèles ne doivent pas générer de contenu qui met en danger la sécurité nationale, divulgue des secrets d'État ou « perturbe l'ordre économique et social ». Les entreprises font face à des ordres de rectification, des suspensions de service, des amendes et des référés pénaux potentiels en vertu de la loi sur la cybersécurité, de la loi sur la sécurité des données et du PIPL si elles ne se conforment pas.
Les règles de contenu poussent encore plus en profondeur. Les systèmes génératifs ne doivent pas produire de matériel qui "incite à la subversion du pouvoir de l'État", "propage le terrorisme" ou diffuse des "rumeurs". Les fournisseurs doivent constituer des bases de données internes de sujets sur liste noire et déployer des équipes de revue humaine pour traiter les générations signalées et les plaintes des utilisateurs.
Puis vient la ligne idéologique : les résultats de l'IA doivent « incarner les valeurs fondamentales socialistes ». Cette phrase, ancrée dans une liste de valeurs en 12 points promue par le Parti communiste, sert de fourre-tout pour l'alignement politique et culturel. Dans la pratique, elle met la pression sur les développeurs pour qu'ils ajustent les modèles afin de s'écarter des sujets politiquement sensibles, des contre-narrations historiques et des modes de vie « inappropriés ».
Contrastons cela avec le Règlement sur l'IA de l'UE, qui ne se préoccupe pas de ce que votre modèle pense du socialisme tant qu'il correspond à la bonne catégorie de risque. Bruxelles classe les systèmes en : - Risque inacceptable (interdit) - Risque élevé (fortes obligations, évaluations de conformité) - Risque limité/minimal (légère transparence ou pas de règles spéciales)
Les catégories de risques inacceptables comprennent le scoring social, les techniques manipulatrices « subliminales », et la plupart des systèmes d'identification biométrique à distance en temps réel dans les espaces publics. Les systèmes à haut risque—scoring de crédit, outils de recrutement, dispositifs médicaux—doivent faire l'objet de tests rigoureux, de documentation et d'une surveillance post-commercialisation. Les modèles à usage général sont soumis à des exigences de transparence et de sécurité, mais pas à un filtrage idéologique.
La revendication de la Chine d'être « plus stricte que l'Europe » cache un échange : un contrôle du contenu large et rapide au lieu d'interdictions étroites et basées sur des catégories. Les régulateurs de Pékin peuvent retirer un chatbot ou un générateur d'images non conforme en quelques jours grâce à la législation sur les plateformes Internet existante, sans attendre un déploiement échelonné comme les calendriers 2025-2026 de l'UE.
Les règles de l'Europe ont le plus d'impact là où l'IA intersecte avec les droits fondamentaux et les infrastructures critiques. L'impact de la Chine s'étend horizontalement à presque toutes les applications d'IA générative destinées au public, avec l'ampleur et la rapidité d'application comme multiplicateurs de force, même si certaines applications techniquement risquées restent formellement autorisées.
Le Mandat du Contrôle Humain
L'histoire de l'IA en Chine cache un mandat silencieux : les humains restent aux commandes. Les responsables n'utilisent pas le langage de la “AGI” de la Silicon Valley, mais les régulateurs signalent à maintes reprises une ligne rouge : aucun système autonome ne doit prendre des décisions conséquentes sans que des personnes responsables soient impliquées.
Les règles de la Chine ne disent jamais littéralement "pas d'IA qui échappe au contrôle humain", malgré cette affirmation virale. Au lieu de cela, les Mesures provisoires pour les services d'IA générative et les cadres connexes étouffent les conditions pour des systèmes échappant à tout contrôle : pas d'outils non supervisés influençant l'opinion publique, pas de modèles en boîte noire prenant des décisions critiques pour la sécurité.
L'IA à haut risque est sous microscope. Les règles éthiques préparées pour août 2024 exigent des examens éthiques formels pour les systèmes ayant un impact sur la santé, la sécurité publique ou la réputation individuelle, des panels d'experts examinant les données d'entraînement, les modes de défaillance et les mécanismes de surveillance humaine avant le déploiement.
Les évaluations de sécurité ajoutent un second frein. Les fournisseurs proposant de l’IA générative au public doivent passer par des examens de sécurité dirigés par l’État qui examinent : - Les pipelines de modération de contenu - La provenance des données et le consentement - Les mécanismes d'intervention humaine et d'arrêt
Les modèles génératifs doivent également être en accord avec les « valeurs fondamentales socialistes », ce qui, en pratique, signifie un filtrage de contenu agressif et une traçabilité. Cette couche idéologique fait également office d'exigence technique : les plateformes ont besoin de leviers de contrôle solides sur ce que les modèles peuvent dire et à quelle vitesse ils peuvent être corrigés ou retirés.
Comparez cela aux discours sur la sécurité de l'AGI et le "superalignement" de l'Ouest, qui vivent principalement dans les blogs de recherche et les livres blancs des modèles fondamentaux. OpenAI, Anthropic et DeepMind publient des feuilles de route sur l'alignement, mais aucune loi fédérale américaine n'oblige des évaluations éthiques ou des audits de sécurité avant le déploiement pour l'IA à haut risque.
L'Acte sur l'IA en Europe avance, interdisant les systèmes d'« risque inacceptable » et régulant ceux à haut risque, mais ses règles pour les modèles à usage général ne commenceront à être mises en œuvre qu'à partir de 2025. La Chine, en revanche, lie déjà l'accès au marché à la conformité, soutenue par des lois sur la cybersécurité, les données et les informations personnelles, ainsi que par de nouvelles initiatives de gouvernance mondiale telles que la Chine annonce un plan d'action pour la gouvernance mondiale de l'IA - ANSI.
Alors que l'Amérique se dérégule, la Chine construit des clôtures.
L'histoire de la politique américaine en matière d'IA ressemble actuellement à une réécriture au ralenti par des lobbyistes de l'industrie. Les propositions de règles contraignantes sont continuellement diluées en engagements volontaires, en cadres consultatifs et en ordonnances exécutives que les agences ont du mal à appliquer. Les géants de la technologie qui dépensent des dizaines de millions en lobbying à Washington soutiennent que toute contrainte stricte "offrira la victoire à la Chine."
La Chine évolue dans la direction opposée : rapide, centralisée et sans détour. Après l'adoption des Mesures provisoires pour les services d'IA générative en août 2023, les régulateurs ont suivi avec des règles obligatoires d'étiquetage de l'IA (à compter du 1er septembre 2025) et un trio de normes nationales sur la sécurité et la gouvernance de l'IA générative qui entreront en vigueur le 1er novembre 2025. Ces normes définissent des références techniques pour la sécurité des données, le contrôle des contenus et la gestion des risques liés aux modèles dans l'ensemble de l'architecture.
De l'autre côté du Pacifique, le Congrès n'a toujours pas de loi fédérale exhaustive sur l'IA. L'Ordonnance exécutive sur l'IA de la Maison Blanche en 2023 a incité les agences à tester des modèles et à surveiller la discrimination, mais elle n'a pas établi de responsabilité claire ni de plafonds stricteurs sur le déploiement. Au lieu de cela, les États-Unis s'appuient sur des règles sectorielles—la FTC pour les pratiques déloyales, la FDA pour l'IA médicale, la NHTSA pour les véhicules autonomes—et espèrent qu'elles seront suffisamment étendues.
Le modèle de la Chine semble presque féodal en comparaison : catégorique et hiérarchique. Les systèmes sont classés dans des catégories de risque—opinion publique, infrastructures critiques, soins de santé, éducation—chacune avec des obligations croissantes : examens de sécurité, déclaration d'algorithmes, intervention humaine, et parfois interdiction totale. Les usages à haut risque doivent passer par une évaluation éthique et un suivi continu avant d'être étendus.
La philosophie américaine reste « innovation d'abord », avec la sécurité principalement considérée comme un correctif après le lancement. Les entreprises lancent des modèles de pointe, recueillent des retours du monde réel, puis promettent de corriger les nuisances avec des filtres de contenu, des équipes de sécurité, et des outils de désinscription. L'hypothèse : plus d'expérimentation et de capital produiront finalement à la fois des percées et des garde-fous.
Ces chemins divergents ont de réelles implications. La Chine pourrait échanger la liberté de recherche brute contre une plus grande confiance publique, car les utilisateurs savent que les résultats de l'IA se trouvent derrière des clôtures imposées par l'État et des étiquettes visibles. Les États-Unis pourraient maintenir un avantage en matière de capacités de modèles de pointe et d'écosystèmes open source, tout en accumulant des échecs spectaculaires de plus en plus nombreux—élections falsifiées, fraudes automatisées, incidents de sécurité—qui finiraient par forcer un retour réglementaire plus sévère.
Oubliez l'AGI, la Chine construit une économie basée sur l'IA.
Oubliez les démonstrations d’AGI de science-fiction. La Chine vient de publier un manuel pour intégrer l'IA dans tout ce qui fait fonctionner son économie, et cela ressemble davantage à un manuel de politique industrielle qu'à une feuille de route de recherche pour une superintelligence numérique.
Appelé le plan “AI Plus” et publié par le Conseil d'État le 27 août 2025, il décrit comment l'IA devrait s'infiltrer dans les usines, les hôpitaux, les mairies et les centres logistiques. Pékin le présente comme la prochaine phase après “Internet Plus” : pas un nouveau secteur, mais une couche de mise à niveau pour presque tous les secteurs existants.
Les objectifs sont directs et agressifs. D'ici 2027, les décideurs politiques souhaitent que l'IA soit présente dans 70 % des « secteurs clés » — manufacturing, finance, transport, énergie, agriculture, santé et services publics. D'ici 2030, ils visent une pénétration de 90 % et parlent d'une « économie intelligente » prenant pleinement forme d'ici 2035.
La fabrication intelligente occupe la première place de la liste. Le plan vise à promouvoir l'inspection de qualité pilotée par l'IA, la maintenance prédictive et l'optimisation de la chaîne d'approvisionnement dans des milliers de parcs industriels, en particulier dans le delta du Yangtsé et la Grande Baie. Imaginez une vision par ordinateur détectant des défauts sur les lignes de production en temps réel, et des systèmes de planification qui redirigent automatiquement la production autour des goulots d'étranglement.
La gouvernance intelligente est l'autre pilier majeur. Les gouvernements locaux déploient déjà l'IA pour la gestion du trafic, la surveillance environnementale et les flux de travail d'approbation administrative ; AI Plus transforme ces projets pilotes en attentes nationales. Les municipalités sont évaluées sur la manière dont elles intègrent les algorithmes dans les services municipaux, de l'acheminement dynamique des bus aux vérifications automatisées des risques fiscaux.
Les applications de bien-être public complètent le tableau. Le plan prévoit des diagnostics assistés par intelligence artificielle dans les hôpitaux de comté, des systèmes d'apprentissage personnalisé dans les écoles rurales, et la détection de fraudes dans la sécurité sociale. Il relie explicitement le déploiement de l'IA à la réduction des écarts régionaux, et pas seulement à l'augmentation du PIB dans les mégapoles côtières.
Les géants technologiques chinois ont ajusté leurs dépenses en conséquence. Alibaba mise fortement sur les logiciels d'entreprise natifs de l'IA : modèle-en-tant-que-service sur Alibaba Cloud, outils d'optimisation des usines pour les PME, et co-pilotes intégrés dans DingTalk pour les achats, les ressources humaines et la finance. Tencent promeut des modèles spécifiques à l'industrie via WeCom et son unité cloud, ciblant les banques, les assureurs et les gouvernements locaux qui préfèrent des systèmes plus sûrs et moins vastes plutôt que des expérimentations d'AGI à la frontière.
Les flux de capitaux reflètent ce biais en faveur des outils plutôt que des systèmes "sentients". L'investissement se concentre sur des modèles verticaux pour la fabrication, la logistique et les services publics, ainsi que sur des infrastructures telles que des centres de données et des puces edge. Plutôt que de promouvoir une course vers une IA divinisée, la Chine subvient discrètement à une économie alimentée par l'IA qui suppose que les humains restent fermement aux commandes.
La pièce open-source que vous n'avez pas vue venir
Le code open-source, et non les contrôles à l'exportation, a apporté le plus grand retournement de situation de l'IA en Chine. Lorsque DeepSeek a lancé ses modèles open-weight en 2025, les développeurs chinois ont soudainement eu une alternative locale à Llama et Mistral qu'ils pouvaient réellement inspecter, affiner et héberger eux-mêmes. Ce mouvement a remis en question l'idée selon laquelle l'IA chinoise vit derrière un Grand Pare-feu permanent de boîtes noires propriétaires.
La stratégie de DeepSeek ressemble moins à de la charité et plus à une politique industrielle en action. Les modèles ouverts favorisent un écosystème national où des milliers de petites équipes peuvent déployer des copilotes verticaux pour la fabrication, la logistique et la finance sans avoir à payer des loyers par jeton aux nuages américains. Dans un pays comptant plus de 7 millions de développeurs de logiciels, même un taux d'adoption de 5 à 10 % signifie des centaines de milliers d'ingénieurs travaillant sur la même pile fondamentale.
Cela s'aligne presque parfaitement avec les objectifs du plan AI Plus : 70 % de pénétration de l'IA dans les secteurs clés d'ici 2027 et 90 % d'ici 2030. Pékin n'a pas besoin d'une superintelligence ; il lui faut une boîte à outils standard que chaque département informatique d'usine et bureau gouvernemental provincial puisse utiliser. Les modèles open-source fournissent cette boîte à outils, tandis que les normes et documents soutenus par l'État, comme les Normes Éthiques pour l'Intelligence Artificielle de Nouvelle Génération (CSET Translation), définissent les limites.
Sur le terrain, le code de DeepSeek se transforme déjà en infrastructure. Des fournisseurs de cloud nationaux pré-emballent ses modèles en tant que services gérés ; des universités les utilisent dans leurs cours ; des startups déploient des variantes adaptées aux domaines pour la recherche juridique, le commerce électronique transfrontalier et le contrôle qualité industriel. Chaque ajustement et étude approfondie renforce l'investissement initial en R&D, accélérant l'itération bien au-delà de ce qu'une seule entreprise pourrait gérer.
L'introduction en bourse prévue de DeepSeek est l'indice que ceci n'est pas un projet scientifique subventionné par l'État, mais un marché en maturation. Une introduction réussie fixerait des références de valorisation pour les acteurs chinois du modèle de base et attirerait davantage de capitaux privés vers des approches ouvertes. Si cela fonctionne, l'exportation d'IA la plus puissante de la Chine pourrait ne pas être des produits finis, mais un empilement semi-ouvert en constante évolution sur lequel le reste du monde compte discrètement.
La candidature de Pékin pour rédiger le règlement mondial de l'IA
Pékin a cessé de faire semblant de ne jouer qu'en défense sur l'IA en juillet 2025, lorsque le Premier Li Qiang a utilisé la scène de la Conférence mondiale sur l'intelligence artificielle à Shanghai pour lancer le Plan d'action pour la gouvernance mondiale de l'IA. Présenté comme un suivi de l'initiative de gouvernance mondiale de la Chine de 2023, le document se lit moins comme un livre blanc et davantage comme une candidature pour présider le comité d'écriture des règles pour la prochaine ère informatique.
Au cœur se trouve une feuille de route en 13 points qui tente de transformer le dense règlement intérieur de la Chine en politique d'exportation. Elle plaide en faveur d'un consensus mondial sur la sécurité des données, la transparence algorithmique, et une IA « contrôlable et digne de confiance », tout en liant à plusieurs reprises la sécurité à la « souveraineté » et aux « droits au développement » pour le Sud global.
Le plan prévoit des normes techniques unifiées sur des éléments tels que la qualité des données d'entraînement, le marquage et les critères d'évaluation des modèles. Il soutient les flux de données transfrontaliers, mais uniquement dans le cadre de régimes d'« évaluation de la sécurité » qui ressemblent beaucoup à l'ensemble des lois chinoises sur la cybersécurité, la sécurité des données et la protection des informations personnelles.
L'éthique occupe une section entière : Pékin souhaite des normes internationales concernant la supervision humaine, la non-discrimination et la responsabilité pour les systèmes à haut risque dans la finance, la santé et les services publics. Il pousse explicitement pour des contrôles "humain dans la boucle" et la responsabilité des déployeurs, et pas seulement des développeurs, reprenant ainsi des formulations présentes dans le projet de règles éthiques sur l'IA pour 2024.
La diplomatie traverse le document. La Chine propose de nouveaux mécanismes centrés sur l'ONU, des forums consacrés à l'IA sous le G20 et les BRICS, ainsi que des centres de recherche conjoints sur la sécurité et la gouvernance. Elle insiste également sur le renforcement des capacités : formation des régulateurs, partage d'outils, et exportation d'infrastructures d'« IA responsable » vers les pays en développement.
Ce n'est pas un pivot isolé ; cela s'inscrit dans une dynamique réglementaire qui a commencé avec les Normes Éthiques pour l'IA de Nouvelle Génération de 2021. Ces normes ont établi des principes initiaux — équité, vie privée, contrôlabilité — qui ont ensuite été intégrés dans les règles concernant les algorithmes de recommandation (2022), la synthèse approfondie (2022) et l'IA générative (2023).
Vu ensemble, les Normes Éthiques, les Mesures Intermédiaires pour les Services d'IA Générative, les normes de sécurité nationale et le Plan d'Action 2025 forment un ensemble cohérent : codifier des contrôles nationaux stricts, puis les vendre comme le modèle mondial. Washington parle de "barrières", Bruxelles vante la Loi sur l'IA, mais Pékin entre désormais dans chaque salle multilatérale avec un modèle de gouvernance complet - et un plan en 13 points pour le développer.
Filigranes, Étiquettes et la Fin des Deepfakes ?
Le 1er septembre 2025 marque une ligne de fracture dans l'expérience de l'IA en Chine : chaque grande plateforme doit marquer le contenu synthétique, sans exceptions, sans étiquettes « bêta ». Les régulateurs le présentent comme une réponse aux deepfakes et au spam généré par l'IA, mais cela sert également de test de stress en temps réel pour évaluer jusqu'où le marquage de l'IA peut réellement aller à l'échelle nationale.
Les règles de la Chine créent un système à deux niveaux. Tout ce qui vous parle ou vous imite reçoit une lettre écarlate visible ; tout le reste obtient une étiquette invisible.
Pour les systèmes interactifs—chatbots, outils de rédaction AI, agents de service client, voix synthétiques et applications de changement de visage—les fournisseurs doivent afficher des symboles ou du texte clairs et persistants indiquant : cette réponse provient de l'IA générative. Pensez aux bots WeChat, aux filtres Douyin ou aux assistants Taobao, tous portant un badge AI à l'écran, depuis la première invite jusqu'à la réponse finale.
Pour le contenu statique ou de style diffusion—images générées par AI, vidéos, chansons et textes qui circulent sans interface de discussion—les plateformes doivent intégrer des filigranes cachés. Ces marques doivent résister à la compression, aux reposts et à un léger montage, et les services doivent déployer des outils de détection pour analyser les téléchargements et signaler les contrefaçons non étiquetées.
Le non-respect ne se situe pas dans un vide réglementaire. Les autorités peuvent se référer à la Loi sur la cybersécurité, à la Loi sur la sécurité des données et à la Loi sur la protection des informations personnelles pour intensifier les sanctions, passant d'avertissements à des amendes de plusieurs millions de yuans, des suspensions d'activité ou des poursuites judiciaires. Une start-up qui lance une application de changement de visage virale sans étiquettes ne risque pas seulement de voir son application retirée des stores ; elle s'expose à une enquête complète sur la cybersécurité.
L'impact sur la désinformation pourrait être significatif, au moins à l'intérieur des plateformes clôturées de la Chine. Si Weibo, Douyin et Bilibili appliquent de manière agressive des contrôles d'étiquetage, les clips politiques anonymes générés par l'IA, les appels frauduleux et la pornographie de vengeance deviennent plus faciles à tracer et plus difficiles à faire passer pour « réels ». Le système transforme effectivement les grandes plateformes en gardiens de la provenance de l'IA.
Que cela "mette réellement fin" aux deepfakes dépend de deux maillons faibles : des outils open source fonctionnant entièrement hors ligne et des plateformes étrangères échappant à la juridiction chinoise. Pourtant, Pékin dispose désormais d'un terrain d'essai que les États-Unis et l'UE n'ont pas : un mandat à l'échelle nationale pour la provenance de l'IA. Les régulateurs occidentaux devront décider s'ils choisissent de copier le manuel des filigranes - ou s'ils continuent à parier sur des normes volontaires et un fact-checking inefficace.
Qui profite de votre peur de l'IA en Chine ?
La peur de l'IA chinoise ne surgit pas de nulle part ; quelqu'un l'écrit, la finance et la répète jusqu'à ce qu'elle ressemble à du bon sens. La vidéo sur la stratégie de l'IA en Chine se termine en pointant directement ce système : les groupes de réflexion, les groupes de pression et les PDG financés par des capitaux-risque qui ne cessent de répéter que « la Chine gagnera si nous ralentissons ».
Les grandes entreprises technologiques occidentales ont des incitations claires à amplifier le récit selon lequel la Chine gagne. Si les législateurs croient que Pékin est un colosse de l'IA non régulé, des entreprises comme OpenAI, Google, Meta et Anthropic peuvent soutenir que toute réglementation stricte "donnerait la victoire à la Chine". Cette façon de présenter les choses a contribué à affaiblir les propositions de licences de modèles strictes, de règles de responsabilité et de plafonds de calcul à Washington entre 2023 et 2025.
La peur se traduit également directement en budgets. Les agences de défense et de renseignement américaines présentent désormais les dépenses en IA comme une réponse à la « fusion civile-militaire » de la Chine, justifiant des dizaines de milliards pour : - Les programmes d'IA du Pentagone - Le développement de modèles classifiés - Des subventions pour les fonderies de puces nationales
Chaque article d'opinion affirmant que "la Chine court vers l'AGI" facilite le transfert d'argent vers des partenariats public-privé opaques et rend plus difficile pour les électeurs de demander où va cet argent. Les législateurs peuvent prétendre être fermes sur la Chine tout en accordant discrètement à l'industrie ce qu'elle veut : une supervision légère et des protections contre la responsabilité.
La déréglementation par la panique fonctionne de la même manière. Si vous adoptez l'idée que la Chine n'a pas de règles, alors l'AI Act de l'Europe ou les normes de sécurité des États-Unis commencent à sembler être un auto-sabotage. Ce récit ignore commodément les Mesures intérimaires pour les services d'IA générative de la Chine, le marquage obligatoire et les examens éthiques, tous décrits dans des documents comme les Mesures intérimaires pour l'administration des services d'intelligence artificielle générative (Traduction ANSI).
La couverture médiatique renforce souvent l'histoire d'épouvante avec des métriques paresseuses : le nombre de paramètres des modèles, les scores de référence, ou combien de « licornes de l'IA » chaque pays a créé. Ces chiffres se prêtent bien à un graphique mais ne disent presque rien sur la protection des travailleurs, les droits civiques, ou sur le fait que les systèmes restent sous un contrôle humain significatif.
Les lecteurs devraient considérer toute affirmation selon laquelle "la Chine gagne la course à l'IA" comme un formulaire de divulgation. Qui devient plus riche, plus puissant ou moins responsable si vous y croyez ? Si la réponse est toujours le même petit cercle d'entreprises et de fonctionnaires, le récit n'est pas une analyse ; c'est du lobbying avec de meilleures graphiques.
Le Vrai Jeu de l'IA : Intégration vs. Spéculation
Oubliez la métaphore de la "course à l'IA" ; la Chine et l'Occident jouent à des sports différents sous les mêmes éclairages. Pékin oriente l'IA vers les usines, les ports, les hôpitaux et les bureaux municipaux, tandis que Washington et la Silicon Valley se concentrent sur les modèles fondamentaux et l'AGI hypothétique. D'un côté, l'IA est considérée comme une infrastructure ; de l'autre, elle est considérée comme un projet ambitieux.
Le plan « AI Plus » de la Chine, annoncé le 27 août 2025, vise une pénétration de l'IA de 70 % dans les secteurs clés d'ici 2027 et de 90 % d'ici 2030. Ces secteurs comprennent la fabrication, la logistique, la finance, l'agriculture et les services publics, avec un objectif pour 2035 d'une « économie intelligente » entièrement réalisée. La mesure n'est pas basée sur des paramètres ou des scores de référence ; il s'agit de savoir combien de flux de travail sont discrètement automatisés.
Le discours occidental sur l'IA tourne toujours autour de la suprématie des modèles : GPT-5 contre Claude contre Gemini, architectures à mille milliards de paramètres, capacités émergentes. Les investissements en capital-risque et l'attention politique se concentrent sur celui qui revendique le chemin le plus court vers l'AGI. La Chine, en revanche, évalue le succès en fonction des chiffres de déploiement, et non des citations de recherche sur l'alignement.
Le véritable enjeu du concours pourrait moins dépendre de qui met au monde la première AGI et davantage de qui transforme les systèmes actuels en gains de productivité exponentiels. Un gain d'efficacité de 5 à 10 % dans la logistique, l'énergie et les soins de santé dépasse une démonstration d'un chatbot surhumain qui ne quitte jamais le laboratoire. Les économies fonctionnent grâce à des améliorations marginales à grande échelle, et non à des jalons de science-fiction.
L'approche de la Chine semble presque ennuyeuse par conception. Les entreprises d'État reçoivent des mandats pour intégrer l'IA dans la planification, la maintenance et le contrôle qualité. Les gouvernements municipaux déploient l'IA pour la gestion du trafic, la détection de fraudes aux prestations sociales et les services aux citoyens, soutenus par des règles strictes concernant le contenu et des filigranes obligatoires à partir du 1er septembre 2025.
La compétition mondiale autour de l'IA se fragmente désormais en au moins trois arènes qui se chevauchent : - Gouvernance et normes, où Pékin pousse son Plan d'Action en 13 points pour la Gouvernance Mondiale de l'IA - Profondeur d'application, où l'« IA Plus » tente d'intégrer l'IA dans chaque industrie majeure - Transformation économique, où les deux parties poursuivent des gains de PIB, mais avec des stratégies différentes.
Présenté de cette manière, l'AGI ne représente qu'une tuile dans une mosaïque beaucoup plus vaste. Un pays qui n'invente jamais l'AGI pourrait tout de même dominer s'il possède les infrastructures, les règles et les retours de l'IA appliquée. À l'inverse, un pionnier de l'AGI pourrait néanmoins échouer si ses avancées reposent sur une base industrielle désaffectée.
Ainsi, l'Occident s'efforce de construire un dieu. La Chine, de manière méthodique, construit un royaume.
Questions Fréquemment Posées
La Chine est-elle vraiment en train de gagner la course à l'IA ?
L'article soutient que la Chine ne participe pas à la même "course" à l'AGI que l'Occident. Au lieu de cela, elle se concentre sur un autre enjeu : l'intégration rapide et contrôlée par l'État d'outils d'IA pratiques dans toute son économie.
Les réglementations sur l'IA en Chine sont-elles plus strictes que celles de l'Europe ?
Dans des domaines clés tels que le contrôle du contenu, l'alignement politique et l'étiquetage obligatoire, les réglementations de la Chine sont sans doute plus strictes et plus largement appliquées que celles de l'Acte sur l'IA de l'UE. Les deux sont rigoureuses mais ont des priorités différentes.
Quel est le plan 'AI Plus' de la Chine ?
Le plan 'AI Plus' est une stratégie nationale lancée en 2025 pour réaliser une intégration profonde de l'IA dans les secteurs et services clés, visant une pénétration de 90 % d'ici 2030. Il privilégie l'utilité économique au développement théorique de l'AGI.
Comment la stratégie d'IA des États-Unis se compare-t-elle à celle de la Chine ?
Les États-Unis adoptent actuellement une approche réglementaire axée sur l'innovation et légère, fortement influencée par les entreprises technologiques. La Chine, quant à elle, applique une stratégie descendante, pilotée par l'État, avec des réglementations complètes qui privilégient le contrôle et l'application économique stratégique.