La guerre des puces fantômes de la Chine de 15 milliards de dollars

Nvidia a conçu la puce parfaite pour naviguer dans les sanctions américaines, seulement pour que la Chine ferme la porte en un retournement de situation surprenant. Voici l'histoire d'un marché de 15 milliards de dollars bouleversé du jour au lendemain.

Stork.AI
Hero image for: La guerre des puces fantômes de la Chine de 15 milliards de dollars
💡

TL;DR / Key Takeaways

Nvidia a conçu la puce parfaite pour naviguer dans les sanctions américaines, seulement pour que la Chine ferme la porte en un retournement de situation surprenant. Voici l'histoire d'un marché de 15 milliards de dollars bouleversé du jour au lendemain.

Le combat pour le prix de 15 milliards de dollars

Quinze milliards de dollars achètent beaucoup de patience. Pour Nvidia, la Chine a représenté environ 15 milliards de dollars en potentiel de ventes annuelles, constituant historiquement environ 20 à 25 % de ses revenus en centre de données, selon les estimations des analystes. Cette part n'est pas une activité secondaire ; elle est l'un des piliers principaux sous l'évaluation d'un trillion de dollars de Nvidia et sa maîtrise de l'ère de l'IA.

Jensen Huang le comprend mieux que quiconque. Le PDG de Nvidia a passé des années à faire des allers-retours à Pékin, rencontrant des régulateurs, des géants de l'internet et des groupes industriels pour maintenir les canaux ouverts. Son message a été clair : Nvidia crée les meilleurs accélérateurs d'IA sur la planète, et il veut que tout le monde entraîne des modèles sur eux.

La personnalité de Huang, en tant que visionnaire vêtu d'une veste en cuir, cache un opérateur profondément pragmatique. Il a à plusieurs reprises ajusté les feuilles de route des produits pour rester en conformité avec les règles d'exportation américaines en mutation, tout en continuant à servir les hyperscalers chinois. Cela a signifié la création de GPU « compatibles avec la Chine » comme l'H20, suffisamment dépuissants pour passer les seuils de Washington, tout en étant suffisamment puissants pour soutenir d'énormes clusters d'IA à Shenzhen et à Shanghai.

Le plan d'action d'Nvidia est simple et impitoyable : dominer le marché mondial des accélérateurs en vendant à tous les bâtisseurs d'IA sérieux de la planète. L'entreprise contrôle déjà plus de 80 % du marché des GPU AI haut de gamme, et elle souhaite étendre cette part de marché de Silicon Valley à Zhongguancun. Les géants technologiques chinois—Tencent, Alibaba, Baidu, ByteDance—ont investi des milliards dans des centres de données basés sur Nvidia, standardisant leurs infrastructures d'IA sur CUDA et son écosystème logiciel.

Cette ubiquité est un atout stratégique et un risque géopolitique. Washington considère désormais les puces d'IA avancées de la même manière qu'il a autrefois traité les bombardiers furtifs et la cryptographie : comme des outils de sécurité nationale, et non pas seulement comme des composants. Les administrations américaines successives ont renforcé les contrôles à l'exportation spécifiquement pour ralentir l'accès de la Chine au silicium le plus performant de Nvidia.

Ces contrôles entrent en collision directe avec les incitations commerciales d'Nvidia. Chaque nouvelle restriction représente un double coup : une perte de revenus immédiate provenant de l'un de ses plus grands marchés et un risque à long terme que le secteur de l'IA en Chine se tourne vers des alternatives nationales comme les puces Ascend de Huawei. Huang est effectivement piégé entre deux superpuissances : l'une qui rédige ses licences d'exportation, et l'autre qui a financé environ un quart de son activité de centres de données.

Construire un Géant de la 'Zone Verte'

Illustration : Construire un 'Géant de la Zone Verte'
Illustration : Construire un 'Géant de la Zone Verte'

Octobre 2022 a marqué le moment où Washington a transformé les activités chinoises d'Nvidia en substance contrôlée. Les règles d'exportation de l'administration Biden interdisaient l'expédition de GPU pour centres de données haut de gamme A100 et H100 vers la Chine, invoquant des préoccupations liées à la sécurité nationale et à l'IA militaire. Tout processeur dépassant un seuil de performance et de bande passante interconnectée défini nécessitait soudainement une licence quasiment impossible à obtenir.

Nvidia venait de bâtir son empire de centres de données sur ces accélérateurs. Un seul cluster A100 pouvait entraîner des modèles de langage à la pointe de la technologie ; des hyperscalers chinois comme Alibaba, Tencent et Baidu en avaient commandé des milliers. Du jour au lendemain, cette demande est devenue un revenu perdu à moins que Nvidia ne puisse naviguer habilement à travers les tableurs du Département du Commerce.

Les ingénieurs de Santa Clara ont réagi avec un mouvement classique de Nvidia : concevoir une pièce sur mesure qui se situe dans la “zone verte” réglementaire. Voici donc le H20, un GPU spécifique à la Chine optimisé pour rester juste en dessous des limites de contrôle des exportations sur la densité de calcul et la bande passante entre puces. Nvidia a efficacement adouci les arêtes les plus tranchantes de son architecture phare tout en préservant l'écosystème logiciel intact.

Comparé à un H100, le H20 a réduits les performances brutes et la vitesse d'interconnexion. Des rapports ont évalué son débit FP8 et FP16 bien en dessous des niveaux du H100, et sa connectivité de type NVLink a été diminuée pour rester conforme. Pourtant, dans de grands clusters, des entreprises chinoises pouvaient encore empiler 20 ou 30 H20 pour approcher la production d'un seul A100 ou H100 interdit pour de nombreux travaux d'entraînement et d'inférence.

Pour des charges de travail telles que les systèmes de recommandation, les modèles de vision et les modèles de langage à échelle intermédiaire, H20 est resté largement suffisant. Les fournisseurs de cloud pouvaient continuer à développer des services d'IA sur CUDA et la pile logicielle de Nvidia sans remplacer les outils existants. Cette continuité importait autant que les téraflops.

Les analystes politiques ont rapidement présenté H20 comme une solution gagnant-gagnant. Washington a obtenu un plafond de performance sur l'accès de la Chine aux puces d'IA de pointe, du moins sur le papier. Nvidia a préservé son accès à un marché de ~15 milliards de dollars qui a historiquement fourni 20 à 25 % de ses revenus de centres de données tout en affirmant respecter strictement la législation américaine.

Jensen Huang a ouvertement adopté cette stratégie. Nvidia respecterait les règles, a-t-il déclaré, mais il serait également prêt à flirter avec les limites. H20 est devenu le symbole de cette philosophie.

L'astuce ingénieuse de la Chine : la stratégie de regroupement

Les géants technologiques chinois n'ont pas boudé lorsque Washington a retiré l'accès aux A100 en octobre 2022. Ils se sont mis à faire des emplettes. En quelques mois, Tencent, Alibaba, Baidu et un grand nombre de startups d'IA ont commencé à passer des commandes en gros des accélérateurs H20 "sécurisés pour la Chine", les considérant comme le seul choix disponible.

H20 n'a jamais été destiné à être glamour. Nvidia a délibérément bridé ses performances et ses capacités de mise en réseau pour rester sous les seuils d'exportation américains, sacrifiant la puissance brute pour maintenir le canal chinois ouvert. Mais les ingénieurs chinois ont rapidement compris qu'ils pouvaient contourner ce handicap par la force brute grâce à l'échelle.

Au lieu d'un seul A100, les centres de données ont commencé à câbler des clusters de 20 à 30 H20 afin d'approximer une puissance de calcul agrégée similaire. Vous perdez en efficacité sur une base par watt et par rack, mais avec suffisamment de GPU et un logiciel intelligent, l'entraînement des grands modèles de langage et les moteurs de recommandation fonctionnent toujours. Des frameworks tels que Megatron-LM et DeepSpeed supposent déjà un parallélisme massif, donc remplacer un monstre GPU par une nuée de GPU moins puissants devient un problème d'ingénierie, et non un obstacle insurmontable.

Cette solution de contournement s'est transformée en aubaine pour Nvidia. Vendre un A100 avec une marge élevée est une bonne affaire ; vendre 20 à 30 H20 pour remplir le même rôle est spectaculaire. Chaque puce restreinte s'est effectivement multipliée en dizaines d'unités « zone verte », augmentant les volumes d'unités et ancrant encore plus les clouds chinois dans l'écosystème CUDA.

Les analystes suivant les données douanières et de la chaîne d'approvisionnement estiment que depuis fin 2024, plus de 1 million de puces H20 ont été expédiées en Chine. À plusieurs milliers de dollars par GPU, cela représente plusieurs milliards de dollars de revenus provenant d'un produit explicitement conçu comme un compromis. Pour les actionnaires, cette solution de contournement ressemblait moins à une concession qu'à une opportunité de vente supplémentaire.

L'économie des clusters a introduit des points de douleur du côté chinois. Les opérateurs ont dû accepter des factures d'électricité plus élevées, des exigences de refroidissement plus denses et des topologies d'interconnexion plus complexes pour faire en sorte que 30 GPU fonctionnent comme un seul. Mais avec Pékin plaçant la capacité IA en priorité et subventionnant l'infrastructure, ces compromis sont préférables à stagner pendant que le reste du monde faisait évoluer des modèles de pointe.

Le retournement de politique n'a fait qu'amplifier les enjeux. Lorsque l'administration Trump a temporairement rétabli les exportations de H20, une couverture comme Trump a levé l'interdiction des puces IA sur la Chine, permettant à Nvidia et AMD de reprendre leurs ventes de puces IA a souligné à quel point les deux parties étaient devenues dépendantes de ce compromis enchevêtré.

Le Plan B du Dragon : L'essor de Huawei

Le plan B à Pékin n'implique pas du tout Nvidia. Les décideurs chinois parlent maintenant de « xin chuang »—innovation informationnelle—comme d'une stratégie de survie, investissant de l'argent public dans une infrastructure de puces IA domestique afin que le prochain tour de contrôles à l’exportation américains ne puisse pas étouffer les ambitions du pays en matière d'apprentissage machine.

Au lieu de s'appuyer sur des pièces H20 déclassées, Pékin dirige les fournisseurs de services cloud et les entreprises publiques vers des accélérateurs nationaux. Des fonds centralisés et provinciaux, ainsi que des subventions pour les "petits géants", dirigent des milliards de yuans vers des usines, des bureaux de design et des intégrateurs de systèmes chargés de construire un pipeline de calcul AI totalement chinois.

Huawei se trouve au cœur de ce plan. Inscrit sur la liste noire de Washington et coupé des nœuds avancés de TSMC, l'entreprise a fortement réorienté ses efforts vers sa ligne d'accélérateurs Ascend, associant des puces développées en interne avec la pile logicielle CANN et le cadre MindSpore pour réduire sa dépendance à l'écosystème CUDA de Nvidia.

Ascend 910B, construit sur la technologie de process limité de SMIC, apparaît désormais dans des fuites de références et des documents d'approvisionnement chinois comme une alternative crédible au H20. Des analystes suivant les premiers déploiements chez Baidu et dans des laboratoires de recherche d'État rapportent des performances par watt et un débit d'entraînement qui correspondent à peu près ou légèrement inférieurs à ceux du GPU conforme aux normes chinoises de Nvidia.

Huawei n'atteint toujours pas un A100, sans parler d'un H100, en termes de FLOPs ou de bande passante mémoire. Mais pour de nombreuses charges de travail nationales—moteurs de recommandation, ajustement de LLM, modèles de vision—le matériel de classe Ascend atteint désormais le seuil du « suffisamment bon » qui rend le remplacement des puces étrangères politiquement et économiquement viable.

Les stratégistes à Pékin considèrent cette capacité comme un changement structurel, et non comme une solution temporaire. Chaque nouvelle règle d’exportation accélère désormais le capital et les talents vers Huawei et ses rivaux plus petits—Inspur, Biren, Moore Threads—plutôt que de ramener les entreprises chinoises vers le catalogue de Nvidia.

Ce boucle de rétroaction modifie le calcul des risques. Chaque année, le fait que la Chine dépense pour former des modèles sur Ascend plutôt que sur H2O érode le verrouillage logiciel de Nvidia, développe un écosystème rival et rend toute réouverture future du marché moins lucrative que le prix de 15 milliards de dollars que Jensen Huang a poursuivi lors de ses vols vers Pékin.

Le coup de fouet de Trump : Le tournant ultime

Illustration : Le coup de fouet de Trump : Le virage ultime
Illustration : Le coup de fouet de Trump : Le virage ultime

Avril 2025 a apporté un revirement politique que même les avocats spécialisés dans le contrôle des exportations n'avaient pas vu venir. Après des mois de signaux indiquant que les puces de la « zone verte » étaient sûres, l'administration Trump a soudainement interdit les ventes de la H20 d'Nvidia vers la Chine, la regroupant avec des composants de premier choix comme l'A100 et l'H100. Du jour au lendemain, une puce explicitement conçue pour respecter les propres seuils de Washington est devenue illégale à expédier.

Pour Nvidia, ce mouvement a déclenché sa principale issue vers un marché d'une valeur d'environ 15 milliards de dollars par an. H2O était devenu l'option par défaut pour les hyperscalers chinois après l'interdiction de l'A100, les entreprises assemblant des clusters de 20 à 30 H2O pour approcher la production d'un seul A100. Cette stratégie reposait sur une hypothèse : que le silicium conforme resterait du bon côté de la loi américaine.

La commande d'avril a brisé cette hypothèse et provoqué des ondes de choc à travers l'industrie. Le pipeline chinois de Nvidia, historiquement représentant 20 à 25 % de ses revenus de centres de données, semblait soudainement radioactif pour les conseils d'administration et les équipes de conformité averses au risque. Des concurrents américains comme AMD, qui avaient leurs propres conceptions " sûres pour la Chine ", ont discrètement gelé leurs projets pendant que les avocats décortiquaient les nouvelles lignes rouges.

Les acheteurs chinois ont réagi tout aussi rapidement. Les géants de la technologie qui avaient réservé à l'avance la capacité H20 ont commencé à chercher des alternatives, déplaçant les équipes d'approvisionnement vers les GPU Ascend de Huawei et d'autres accélérateurs nationaux. Les intégrateurs systèmes à Shenzhen et Shanghai ont commencé à réécrire leurs feuilles de route autour des architectures non américaines, même au prix d'un compromis en termes de performance ou d'efficacité.

Puis, seulement trois mois plus tard, Washington a de nouveau tiré sur le volant. La même administration Trump qui avait fermé la porte sur H20 a discrètement informé l'industrie qu'elle recommencerait à approuver les licences pour les produits H20 de Nvidia et des pièces comparables d'AMD. Pas de grande annonce dans le jardin rose, juste un avis politique et une série d'appels soulagés et confus entre la Silicon Valley et Pékin.

Ce virage à 180 degrés a eu l'impact d'un sursaut géopolitique à Zhongnanhai. Du point de vue de Pékin, le message était clair : même les puces "conformes" pouvaient disparaître avec une signature à Washington et réapparaître tout aussi arbitrairement. Les analystes désignent désormais ce moment comme le point de basculement qui a convaincu les responsables chinois de cesser de considérer Nvidia comme un partenaire fiable et de commencer à considérer les GPU américains comme une vulnérabilité stratégique à éliminer.

Échec et mat ? La réponse choquante de Pékin

Le mat a été enregistré plus vite que quiconque ne l'avait prévu. En trois jours après le revirement de Washington permettant à Nvidia d'introduire de nouveau son H20 en Chine, Pékin a riposté avec sa propre décision choc : une interdiction, ou une restriction quasi-totale, sur ces mêmes puces pour les grandes entreprises technologiques chinoises. Ce qui semblait être une bouée de sauvetage pour les 15 milliards de dollars de l'activité de Nvidia en Chine s'est transformé en un piège politique.

Les régulateurs chinois ont présenté cette décision comme un effort pour stimuler « l'innovation indigène », mais le timing ressemblait à une revanche. Selon des rapports, des recommandations de l'État ont demandé aux principaux fournisseurs de cloud et aux plateformes Internet de suspendre les nouvelles acquisitions d'H20 et de privilégier les GPU nationaux de Huawei et d'autres fournisseurs locaux. Du jour au lendemain, la puce que tout le monde cherchait à amasser est devenue radioactive.

Il y a seulement quelques mois, des entreprises comme Alibaba, Tencent et ByteDance s'étaient ruées pour sécuriser le plus grand nombre possible d'unités H20. Elles avaient construit d'immenses clusters de GPU, connectant des milliers de cartes de la série H déclassées pour approcher la puissance de sortie des systèmes A100 et H100 interdits. Maintenant, ces mêmes entreprises faisaient soudainement face à un risque politique en achetant le matériel même qui avait été leur solution de contournement.

L'ironie allait dans les deux sens. L'escalade de Washington en avril 2025, qui a initialement bloqué même les puces « zone verte » comme H20, visait à étouffer la capacité de formation en IA de la Chine. Le retour en arrière ultérieur de Trump, détaillé dans des couvertures comme Le feu vert de Trump pour les ventes de Nvidia en Chine suscite l'alarme au Capitole, a tenté de rouvrir un canal d'exportation lucratif. L'interdiction contre-attaque de Pékin a effectivement annulé ce pivot avant même que la première nouvelle expédition puisse arriver.

Pour Nvidia, l'impact financier s'est matérialisé instantanément dans les tableaux, même s'il n'était pas encore visible dans les rapports de bénéfices. Les analystes avaient prévu des milliards de dollars en ventes supplémentaires de H20 au cours des 12 à 18 mois à venir, en supposant une demande refoulée de la part des hyperscalers chinois. Ces projections se sont évaporées en une seule annonce de politique.

Les investisseurs devaient désormais modéliser un monde où jusqu'à 20–25 % des revenus historiques de Nvidia provenant des centres de données—soit environ 15 milliards de dollars pour la part en Chine—n'étaient plus considérés comme sécurisés. Au lieu d'un passage progressif des GPU fabriqués aux États-Unis vers des alternatives chinoises, Pékin a imposé un découplage brutal. Washington a changé les règles ; Pékin a supprimé le marché.

Pourquoi la Chine vient de dire 'Non' à Nvidia

L'interdiction de l'H20 par la Chine ressemble moins à une crise de colère qu'à un plan d'action. Pékin a transformé la porte de sortie « zone verte » de Nvidia en trappe, utilisant la politique pour remodeler sa pile matérielle d'IA selon ses propres termes.

Premier motif : éliminer la dépendance à un fournisseur soumis à des contrôles d'exportation américains imprévisibles. En trois ans, les entreprises chinoises ont vu Washington passer de l'interdiction des A100 en 2022, à l'autorisation des H20 "conformes" début 2025, pour ensuite retirer même ceux-ci, puis rouvrir à nouveau les ventes. Cette instabilité rend tout calendrier Nvidia en Chine impossible à croire.

En interdisant totalement les H20, Pékin oblige les géants du cloud, les plateformes Internet et les laboratoires d'État à s'engager en faveur des puces nationales que Washington ne peut pas désactiver. Au lieu de se protéger avec des GPU importés lorsqu'ils sont disponibles, les entreprises doivent désormais sécuriser des contrats à long terme avec Huawei, Biren et d'autres acteurs locaux. La politique élimine la valeur d’option d'attendre la prochaine solution de contournement de Nvidia.

Deuxième raison : convertir les 15 milliards de dollars d'exposition de Nvidia en Chine en levier dans la plus large guerre commerciale entre les États-Unis et la Chine. Les revenus des centres de données de Nvidia ont historiquement dépendu à 20-25 % de la Chine ; couper cette demande touche directement une entreprise phare américaine et ses actionnaires. Pékin envoie un signal à Washington selon lequel chaque nouveau contrôle sur la technologie chinoise fera face à une réponse symétrique et très médiatisée.

Cette influence est importante car Nvidia n'est pas un entrepreneur de défense de niche ; c'est un indicateur du marché intégré dans les indices américains et les fonds de retraite. Lorsque Pékin dit non à H20, cela recrute efficacement des lobbyistes de Wall Street et de la Silicon Valley pour plaider contre une escalade supplémentaire. Le message à l'intention des décideurs politiques américains : les sanctions technologiques entraînent désormais des coûts politiques internes visibles.

Troisième motif : utiliser l'interdiction comme un mégaphone pour du matériel local « suffisamment bon ». En déclarant que les entreprises chinoises ne peuvent pas acheter de puces de classe H20, Pékin sous-entend que la gamme Ascend de Huawei peut déjà rivaliser avec cette catégorie pour de nombreuses charges de travail. Les responsables parient qu'un pivot forcé accélérera l'optimisation des logiciels, l'outillage et les services cloud autour des accélérateurs nationaux.

La perception devient un carburant pour la politique. Si les nuages soutenus par l'État et les projets d'IA nationaux se standardisent sur Huawei et d'autres GPU nationaux, les capitaux-risque, les startups et les universités suivront. L'interdiction de H20 fait également office de campagne marketing : la Chine affirme qu'elle n'a plus besoin de Nvidia au milieu de la pile.

Le fossé CUDA sous siège

Illustration : La fosse CUDA sous siège
Illustration : La fosse CUDA sous siège

L'atout le plus précieux d'Nvidia en matière d'IA n'est pas le silicium, mais CUDA. La plateforme de programmation propriétaire soutient tout, des extensions PyTorch aux noyaux d'inférence personnalisés, donnant à Nvidia un fossé logiciel que ses rivaux ont passé 15 ans à essayer, sans succès, de franchir. Une fois qu'un laboratoire se standardise sur CUDA, le changement de GPU signifie souvent réécrire du code, requalifier des ingénieurs et revalider des pipelines entiers.

Ce verrouillage fait désormais face à une attaque directe soutenue par l'État. En interdisant le H20 de Nvidia et en dirigeant les entreprises d'État et les géants de l'internet vers Huawei Ascend et d'autres accélérateurs locaux, Pékin contraint les développeurs chinois à abandonner CUDA au profit de solutions locales telles que CANN et MindSpore. Ce ne sera pas la performance, mais la politique qui déterminera quels outils la prochaine génération d'ingénieurs en IA chinois apprendra en premier.

CUDA domine actuellement le paysage de l'IA en Chine. Les analystes estiment qu’environ 70 à 80 % des accélérateurs d'IA dans les centres de données chinois fonctionnent toujours avec des GPU Nvidia compatibles CUDA, même après les interdictions des A100 et H100. Des milliards de dollars en clusters existants, allant des équipements d'entraînement ERNIE de Baidu aux moteurs de recommandation de ByteDance, dépendent toujours de la pile logicielle de Nvidia.

Cette part de 75 % semble désormais fragile. De nouvelles régions cloud soutenues par le gouvernement, des centres de calcul IA nationaux et des projets de formation hyperscale vont presque certainement déployer des puces de Huawei, Biren ou d'autres marques compatibles avec les sanctions plutôt que des puces H20. Chaque nouveau rack qui démarre avec un ensemble de puces non-CUDA érode le statut de norme de facto d'Nvidia.

Perdre une seule « génération » de développeurs sur un marché aussi vaste que celui de la Chine a des répercussions sur le long terme. Les ingénieurs qui se perfectionnent en optimisant des modèles sur Ascend rédigeront des tutoriels, des bibliothèques open-source et des outils internes qui supposent l'utilisation des API Huawei en premier. Les startups se tourneront naturellement vers des accélérateurs nationaux, car leur vivier de talents maîtrise déjà ces plateformes.

Les modèles d'IA eux-mêmes intègrent ce verrouillage. Les modèles de base formés et optimisés sur du matériel non-CUDA auront des opérateurs spécifiques, des schémas de quantification et des piles de services adaptés aux puces chinoises. Les porter à nouveau vers Nvidia nécessitera un véritable travail d'ingénierie, pas seulement un échange de pilotes.

L'influence mondiale émane de l'endroit où se réalise le travail de pointe. Si une part significative de la recherche de pointe, des LLM commerciaux et des normes industrielles se déplace vers un écosystème parallèle centré sur la Chine, Nvidia risque de se retrouver dans un avenir où CUDA est dominant en Occident mais n'est qu'un des plusieurs "dialectes" de l'IA incompatibles dans le monde.

Le pari à haut risque des géants technologiques chinois

Coincés entre les sanctions de Washington et la politique industrielle de Pékin, Baidu, Tencent et Alibaba fonctionnent désormais en mode crise permanent. Leurs divisions cloud ont construit des réputations mondiales sur le silicium d'Nvidia ; leur avenir dépend de leur capacité à prouver qu'ils peuvent s'en passer. Chaque trimestre de retard dans l'accès aux GPU de pointe risque de céder le leadership en IA à des concurrents américains et à des nouveaux venus au Moyen-Orient.

Publicement, ces entreprises continuent à faire pression pour obtenir le meilleur de Nvidia. Les dirigeants avertissent que sans des puces quasi de pointe, les grands modèles linguistiques de la Chine auront un retard de plusieurs années, et non de quelques mois. Ils présentent l'accès à l'écosystème de Nvidia comme essentiel pour rivaliser avec OpenAI, Anthropic et Google DeepMind.

En privé, la couverture semble impitoyable. L'unité Kunlun de Baidu, les accélérateurs Hanguang d'Alibaba et les puces d'inférence sur mesure de Tencent sont passées de "projet scientifique" à priorité au niveau du conseil d'administration. Les ingénieurs portent tranquillement les charges de travail fondamentales de CUDA vers l'écosystème Ascend de Huawei, même si les présentations marketing arborent toujours les logos de Nvidia.

L'interdiction H20 de Pékin arrache le bandage. Avec des puces Nvidia conformes désormais politiquement toxiques, les grandes plateformes doivent rediriger leurs investissements vers du matériel national pour : - Les contrats de cloud gouvernemental et de villes intelligentes - Les mises à niveau informatiques des entreprises publiques - L'IA pour les infrastructures critiques, de l'énergie aux transports

Ce mandat pousse Huawei et d'autres fournisseurs locaux en tête de chaque liste de fournisseurs lors des appels d'offres.

Pour ces géants, le risque va dans les deux sens. S'engager trop auprès de Huawei les expose à un verrouillage sur des GPU qui sont en retard d'une génération par rapport aux meilleures pièces d'Nvidia. Rester trop fidèle à Nvidia les expose au risque que les régulateurs gèlent les approbations, ou pire, poussent les clients gouvernementaux vers des concurrents plus affamés comme iFlytek ou des fournisseurs de cloud soutenus par l'État.

Les feuilles de route internes se divisent désormais nettement en deux. Les entreprises tournées vers l'exportation et les centres de données à l'étranger s'efforcent de maintenir Nvidia là où cela est légalement possible, poursuivant des performances de pointe et des clients occidentaux. Les lignes gouvernementales nationales et de "cloud sécurisé" se standardisent sur des puces chinoises, même si cela signifie réécrire des années de code optimisé pour CUDA.

Les experts en politique à Washington considèrent cette bifurcation comme une caractéristique et non comme un défaut, et soutiennent que tout assouplissement ne fait que gagner du temps à la Chine pour renforcer sa position. Pour avoir un aperçu de ce débat, consultez des analyses comme Permettre à Nvidia de vendre des puces H200 à la Chine est une erreur, qui considèrent chaque expédition de GPU comme une concession stratégique.

Que se passe-t-il lorsque la guerre des puces atteint son paroxysme ?

L'escalade de la guerre des puces dépend désormais de la décision de Washington et de Pékin, soit de s'engager davantage, soit de redessiner discrètement leurs lignes rouges. D'autres contrôles à l'exportation de la part des États-Unis pourraient cibler non seulement les GPU, mais aussi les logiciels EDA, l'accès au cloud, et même les poids des modèles, transformant le conflit actuel sur les puces en un embargo complet. Pékin peut réagir avec ses propres leviers : les terres rares, les permis de fabrication, et des boycotts de facto des plateformes américaines.

Nvidia fait face à une fourche brutale. Elle peut concevoir un successeur encore plus limité, dans le style H20, qui s'adapte à la « zone verte » définie par Washington, ou elle peut accepter que le marché des centres de données en Chine, d'environ 15 milliards de dollars, devienne une erreur d'arrondi, et non un pilier de croissance. Quel que soit le chemin choisi, cela redéfinira la manière dont Jensen Huang alloue les ressources en R&D, en usines et en talents logiciels pour la prochaine décennie.

Concevoir une nouvelle puce restreinte achète du temps mais comporte de réels risques. Chaque SKU compromis offre à Huawei Ascend, Biren et d'autres concurrents chinois une fiche technique plus claire à poursuivre et une base de clients domestiques captive. À un moment donné, Nvidia pourrait décider que protéger son haut de gamme et son écosystème CUDA sur les marchés alliés vaut mieux que de jouer à un jeu de morpions avec les régulateurs américains.

Le développement mondial de l'IA commence à se diviser si cela se durcit. Une pile tourne autour de Nvidia, AMD et TSMC, utilisant PyTorch et CUDA à travers des clouds aux États-Unis, en Europe, au Japon et en Inde. Une autre pile s'appuie sur Huawei, SMIC et des frameworks domestiques comme PaddlePaddle ou des forks personnalisés de PyTorch, optimisés pour des accélérateurs chinois et protégés par des règles de localisation des données.

Les chaînes d'approvisionnement se fracturent le long de la même ligne de faille. Les emballages avancés, les outils de lithographie et la licence de propriété intellectuelle sont déjà regroupés au sein d'un bloc aligné sur les États-Unis ; la Chine réagit en surinvestissant dans des conceptions de 7 nm et plus, des chiplets et des outils nationaux. Les pays d'Asie du Sud-Est, du Moyen-Orient et d'Amérique Latine sont confrontés à un menu d'écosystèmes incompatibles et à des conditions politiques liées au camp qu'ils choisissent.

La question sous-jacente reste brutalement simple : les deux plus grandes économies du monde peuvent-elles vraiment découpler les technologies avancées sans paralyser les progrès de tous les autres ? Une séparation nette ralentit l'entraînement des modèles à la pointe, augmente les coûts pour les startups, et transforme la sécurité et les normes de l'IA en régimes opposés au lieu de garde-fous partagés. La guerre des puces qui déborde ne redessine pas seulement les flux commerciaux ; elle modifie qui a la possibilité de construire l'avenir de l'intelligence.

Questions Fréquemment Posées

Quel est le processeur Nvidia H20 ?

Le H20 est un GPU IA spécialisé que Nvidia a conçu pour le marché chinois. Sa performance a été limitée pour se conformer aux contrôles d'exportation américains qui interdisent la vente de puces haut de gamme comme les A100 et H100.

Pourquoi la Chine a-t-elle interdit la puce Nvidia H20 ?

La Chine a interdit le H20 pour accélérer son industrie de matériel d'IA domestique, en particulier en soutenant des fournisseurs comme Huawei. Cette décision réduit sa vulnérabilité face aux politiques américaines fluctuantes et sert de levier dans la guerre technologique en cours.

Comment le chip Ascend de Huawei se compare-t-il à l'H20 de Nvidia ?

Des rapports indiquent que les derniers puces AI Ascend de Huawei ont atteint des performances comparables à celles des H20 de Nvidia. Bien qu'elles ne soient pas encore au niveau des A100 ou H100 de Nvidia, elles sont considérées comme une alternative domestique viable pour de nombreuses charges de travail en IA.

Quelle est la valeur du marché chinois pour Nvidia ?

Le marché chinois est estimé à environ 15 milliards de dollars pour Nvidia, représentant une part significative de ses revenus provenant des centres de données avant l'adoption des contrôles à l'exportation les plus stricts.

Frequently Asked Questions

Que se passe-t-il lorsque la guerre des puces atteint son paroxysme ?
L'escalade de la guerre des puces dépend désormais de la décision de Washington et de Pékin, soit de s'engager davantage, soit de redessiner discrètement leurs lignes rouges. D'autres contrôles à l'exportation de la part des États-Unis pourraient cibler non seulement les GPU, mais aussi les logiciels EDA, l'accès au cloud, et même les poids des modèles, transformant le conflit actuel sur les puces en un embargo complet. Pékin peut réagir avec ses propres leviers : les terres rares, les permis de fabrication, et des boycotts de facto des plateformes américaines.
Quel est le processeur Nvidia H20 ?
Le H20 est un GPU IA spécialisé que Nvidia a conçu pour le marché chinois. Sa performance a été limitée pour se conformer aux contrôles d'exportation américains qui interdisent la vente de puces haut de gamme comme les A100 et H100.
Pourquoi la Chine a-t-elle interdit la puce Nvidia H20 ?
La Chine a interdit le H20 pour accélérer son industrie de matériel d'IA domestique, en particulier en soutenant des fournisseurs comme Huawei. Cette décision réduit sa vulnérabilité face aux politiques américaines fluctuantes et sert de levier dans la guerre technologique en cours.
Comment le chip Ascend de Huawei se compare-t-il à l'H20 de Nvidia ?
Des rapports indiquent que les derniers puces AI Ascend de Huawei ont atteint des performances comparables à celles des H20 de Nvidia. Bien qu'elles ne soient pas encore au niveau des A100 ou H100 de Nvidia, elles sont considérées comme une alternative domestique viable pour de nombreuses charges de travail en IA.
Quelle est la valeur du marché chinois pour Nvidia ?
Le marché chinois est estimé à environ 15 milliards de dollars pour Nvidia, représentant une part significative de ses revenus provenant des centres de données avant l'adoption des contrôles à l'exportation les plus stricts.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts