En bref / Points clés
Le grand paradoxe du compute d'IA
Des laboratoires comme OpenAI et Anthropic citent fréquemment un goulot d'étranglement critique : la rareté du compute d'IA. Pourtant, Google opère depuis une position de profonde abondance, non seulement en alimentant ses propres modèles colossaux comme Gemini, mais aussi en fournissant de la puissance de traitement à ses concurrents les plus féroces. Ce paradoxe frappant révèle l'avantage stratégique unique de Google.
Thomas Kurian, PDG de Google Cloud, offre un aperçu clé de cette disparité. Il souligne la position singulière de Google : possédant l'intégralité de la pile d'IA, du silicon personnalisé comme ses Tensor Processing Units (TPUs) aux modèles d'IA avancés et à l'infrastructure de données d'entreprise sous-jacente. Ce contrôle complet de la pile permet à Google d'optimiser chaque couche pour une efficacité et une échelle inégalées.
Comment Google peut-il maintenir cette immense capacité, même en vendant à des rivaux comme Anthropic, alors que d'autres peinent ? La réponse réside dans des décennies de planification stratégique méticuleuse et à long terme. Google a anticipé le boom de l'IA il y a des années, en sécurisant de manière proactive de vastes terrains pour les centres de données et en diversifiant ses sources d'énergie pour assurer une alimentation ininterrompue.
L'entreprise a également révolutionné la construction des centres de données, passant des méthodes de construction traditionnelles à un processus de fabrication plus efficace. Cela a considérablement réduit les temps de cycle de déploiement des machines, permettant une mise à l'échelle rapide. L'engagement de Google dans le développement de ses propres TPU depuis plus d'une décennie a encore solidifié son indépendance matérielle et son efficacité en termes de coûts, garantissant qu'il réalise de "grandes marges" quelle que soit la manière dont il monétise son compute.
Cette prévoyance culmine en des engagements massifs, tels que l'engagement d'Anthropic à utiliser jusqu'à un million de TPUs et environ 3,5 gigawatts de compute basé sur des TPU de nouvelle génération à partir de 2027. La capacité de Google à générer un flux de trésorerie important en fournissant cette capacité finance sa propre recherche ambitieuse en IA, créant un cycle auto-entretenu d'innovation et de domination infrastructurelle.
L'atout de Google : Une décennie de silicon personnalisé
L'arme secrète de Google est son silicon personnalisé, le Tensor Processing Unit (TPU). Contrairement aux GPUs à usage général de NVIDIA, les TPU sont des circuits intégrés spécifiques à une application (ASICs) conçus dès le départ pour l'apprentissage automatique. Cette conception spécialisée leur confère une efficacité et une performance par watt supérieures pour les charges de travail d'IA, optimisant à la fois les tâches d'entraînement et d'inférence à travers la vaste infrastructure de Google.
L'entreprise s'est lancée dans cette ambitieuse aventure il y a plus de 12 ans, un pari stratégique qui rapporte aujourd'hui d'énormes dividendes. Cet engagement à long terme dans le développement de puces propriétaires a positionné Google de manière unique en avance sur le boom actuel de l'IA, lui permettant de mettre à l'échelle ses propres modèles et de soutenir des partenaires comme Anthropic. Les derniers TPU de 8e génération de Google, le TPU 8t pour l'entraînement et le TPU 8i pour l'inférence, illustrent cette avance. Le TPU 8t s'adapte à 9 600 puces avec deux petabytes de mémoire partagée à haute bande passante, doublant la bande passante inter-puces par rapport à la génération précédente et offrant jusqu'à 2,7 fois l'amélioration des performances par dollar pour l'entraînement à grande échelle.
La possession de cette propriété intellectuelle permet à Google d'exercer un contrôle inégalé sur son infrastructure d'IA. Cette intégration verticale se traduit directement par un contrôle significatif des coûts, des performances optimisées adaptées à son vaste écosystème, et une isolation cruciale des goulots d'étranglement de la chaîne d'approvisionnement qui affligent les concurrents dépendants de matériel tiers. Le PDG de Google Cloud, Thomas Kurian, souligne : « Nous possédons notre propre IP. Nous ne sommes pas seulement un distributeur de l'IP d'autres personnes », mettant en évidence leur capacité à atteindre de solides marges d'exploitation et à obtenir des conditions favorables avec les fournisseurs grâce à la demande agrégée.
Les TPUs s'étendent désormais bien au-delà des besoins internes d'IA de Google ou même de l'alimentation de partenaires comme Anthropic, qui s'est engagé à utiliser jusqu'à un million de TPUs à partir de 2027 pour son modèle Mythos de 10 billions de paramètres. Google Cloud diversifie la monétisation des TPUs, les déployant comme infrastructure à usage général. Le Department of Energy utilise les TPUs pour le calcul haute performance. Les sociétés de marchés de capitaux comme Citadel les utilisent de plus en plus pour le trading algorithmique, passant du calcul numérique traditionnel à des techniques basées sur l'inférence plus rapides et plus efficaces. Cette large adoption souligne la polyvalence des TPUs et l'avantage stratégique de Google dans le paysage de l'IA contraint par la puissance de calcul.
Pourquoi Partager Votre Superpouvoir ?
Pourquoi Google, avec sa capacité de calcul d'IA inégalée, partagerait-il son arme secrète ? Le PDG de Google Cloud, Thomas Kurian, aborde directement cette question, affirmant la nécessité de « gagner de l'argent pour financer tout cela ». Même avec les vastes ressources de Google, l'immense dépense en capital requise pour le développement de l'IA – projetée entre 175 et 185 milliards de dollars d'ici 2026 – exige un flux de trésorerie continu.
Kurian expose une logique commerciale en trois points pour démocratiser l'accès à leurs Tensor Processing Units (TPUs) personnalisées. Premièrement, cela génère un flux de trésorerie crucial, équilibrant les besoins internes de Google avec la demande externe. Deuxièmement, cela confère un levier significatif sur la chaîne d'approvisionnement. La demande combinée de Google, représentant un bassin beaucoup plus vaste, assure des conditions favorables auprès des fournisseurs de composants, garantissant une chaîne de fabrication robuste et efficace.
Troisièmement, le partage des TPUs améliore le produit lui-même. Les exigences diversifiées des clients, des sociétés financières comme Citadel aux entités gouvernementales comme le Department of Energy, poussent Google à innover et à affiner son matériel et ses logiciels. Cette large utilisation transforme les TPUs en une infrastructure plus polyvalente, bien au-delà des algorithmes d'IA initiaux. Pour plus de détails techniques, explorez Tensor Processing Units (TPUs) - Google Cloud.
Cette stratégie offre également une bouée de sauvetage cruciale à d'autres laboratoires d'IA. Kurian souligne que « le capital-risque ne peut pas vous financer indéfiniment » à mesure que les coûts de calcul pour les exécutions d'entraînement massives augmentent. Le modèle de Google offre une voie vers la rentabilité, permettant à des laboratoires comme Anthropic de se développer sans dépendre uniquement d'un financement de capital-risque de plus en plus insoutenable. L'engagement d'Anthropic à utiliser jusqu'à un million de Google Cloud TPUs pour son modèle Claude Mythos 5, à partir de 2027, illustre cette relation symbiotique.
En fin de compte, Google transforme une merveille d'ingénierie interne en une plateforme puissante et génératrice de revenus. Cette démarche consolide la position de Google Cloud sur le marché, non pas simplement en tant que fournisseur d'infrastructure, mais en tant que partenaire essentiel pour le développement de l'IA de pointe. Avec 75 % des clients de Google Cloud utilisant désormais ses produits d'IA et des modèles traitant plus de 16 milliards de tokens par minute, cette stratégie porte clairement ses fruits.
Les Nouveaux Titans : TPU v8 est Arrivé
Google a officiellement dévoilé sa 8ème génération de Tensor Processing Units, marquant un bond significatif dans le matériel d'IA. La gamme comprend le TPU 8t pour les charges de travail d'entraînement intensives et le TPU 8i optimisé pour l'inférence efficace. Cette approche à double volet cible des phases distinctes de développement et de déploiement de modèles d'IA.
La recherche met en évidence des gains de performance substantiels grâce au nouveau matériel. Le TPU 8t offre une amélioration impressionnante de 2,7x des performances par dollar pour l'entraînement à grande échelle par rapport à son prédécesseur, Ironwood. Pour l'inférence, le TPU 8i affiche une augmentation allant jusqu'à 80 % des performances par dollar, rendant l'IA à grande échelle plus accessible et rentable.
Au-delà de la vitesse brute, les TPU de 8ème génération privilégient l'efficacité. Les 8t et 8i atteignent jusqu'à 2x une meilleure efficacité énergétique, répondant aux préoccupations croissantes concernant l'empreinte énergétique de l'IA. Le TPU 8t s'adapte à un nombre impressionnant de 9 600 puces et deux pétaoctets de mémoire partagée à large bande passante, avec le double de la bande passante inter-puces. Le TPU 8i augmente également considérablement sa capacité avec jusqu'à 331,8 To de HBM par pod, un bond massif par rapport aux 49,2 To de la génération précédente.
Ces avancées matérielles ouvrent de nouvelles possibilités pour l'IA. Un entraînement plus rapide signifie que les développeurs peuvent itérer sur des modèles plus grands et plus complexes en moins de temps, repoussant les limites de ce que l'IA peut accomplir. Une inférence moins chère et plus efficace permet de déployer des modèles de nouvelle génération à grande échelle, réduisant les coûts opérationnels pour les utilisateurs de Google Cloud.
De manière critique, cette puissance de calcul permet d'héberger des modèles auparavant jugés irréalisables en raison de leur échelle. Le modèle d'Anthropic, Mythos, qui compterait 10 mille milliards de paramètres, en est un exemple. De tels modèles massifs, exigeant des ressources de calcul sans précédent, peuvent désormais trouver leur place sur l'infrastructure TPU avancée de Google, propulsant la prochaine vague d'IA agentique.
Le monstre à 10 mille milliards de paramètres d'Anthropic
Le modèle Claude Mythos 5 d'Anthropic, dont la rumeur court, représente une nouvelle frontière en IA. Ce modèle colossal afficherait un nombre sans précédent de 10 mille milliards de paramètres, une échelle qui éclipse même les plus grands modèles connus publiquement et redéfinit les attentes en matière d'IA générative. Une telle ampleur signale un bond profond dans les capacités de l'IA, indiquant un passage des chatbots à usage général vers des agents puissants et hautement spécialisés.
De manière cruciale, ce léviathan d'IA générative n'est pas qu'un concept ; il est activement entraîné et servi sur l'infrastructure TPU robuste de Google Cloud. La décision d'Anthropic de tirer parti du silicium personnalisé de Google pour un modèle de l'ampleur de Mythos sert d'approbation publique et puissante de la puissance de calcul, de l'efficacité et de la scalabilité inégalées de la plateforme. Ce partenariat souligne le rôle critique de Google
La stratégie « d'ennemi-ami » : Alimenter la concurrence
La stratégie de Google avec ses Tensor Processing Units (TPUs) personnalisées révèle une dynamique de « co-opétition » fascinante, en particulier avec Anthropic. Alors que Google développe ses propres modèles fondamentaux comme Gemini, il alimente simultanément des concurrents tels qu'Anthropic, un laboratoire d'IA de premier plan qui développerait le modèle Claude Mythos 5 à 10 mille milliards de paramètres. Cette relation paradoxale souligne une décision calculée dans la course à l'IA aux enjeux élevés.
Anthropic obtient un accès critique à une puissance de calcul de classe mondiale et rentable sur Google Cloud, essentielle pour l'entraînement et le déploiement de modèles de l'immense échelle de Mythos 5. Le TPU 8t nouvellement annoncé offre jusqu'à 2,7x une amélioration des performances par dollar pour l'entraînement à grande échelle, tandis que le TPU 8i offre jusqu'à 80 % de meilleures performances par dollar pour l'inférence. Ces efficacités permettent à Anthropic de repousser les limites du développement de l'IA sans les coûts d'infrastructure initiaux prohibitifs.
Pour Google, cette relation valide sa plateforme TPU comme une solution de pointe pour la recherche en IA de nouvelle génération. Alimenter Anthropic génère des revenus substantiels, contribuant au flux de trésorerie nécessaire pour financer les dépenses d'investissement massives de Google, projetées entre 175 et 185 milliards de dollars en 2026. Cette diversification renforce également la position de Google auprès des fournisseurs de la chaîne d'approvisionnement, garantissant des conditions favorables grâce à la demande agrégée.
L'adoption d'une approche de plateforme ouverte, plutôt que de thésauriser la puissance de calcul, accélère l'innovation dans l'ensemble de l'industrie de l'IA. Thomas Kurian, PDG de Google Cloud, souligne que Google équilibre ses propres besoins avec la demande externe, assurant un flux de trésorerie suffisant tout en favorisant un écosystème plus large. Cela contraste fortement avec une stratégie fermée, qui pourrait étouffer les percées mêmes qui pourraient stimuler la demande future pour l'infrastructure de Google.
Bien qu'elle maintienne une stratégie multi-cloud, utilisant également des plateformes comme AWS et NVIDIA, Anthropic approfondit considérablement son investissement avec Google. L'entreprise s'est engagée à utiliser jusqu'à un million de TPUs et environ 3,5 gigawatts de puissance de calcul basée sur les TPUs de nouvelle génération de Google Cloud à partir de 2027. Cet engagement substantiel démontre la confiance d'Anthropic dans les puces personnalisées de Google pour ses projets les plus ambitieux. Pour plus de détails sur leur travail, visitez Home \ Anthropic.
Au-delà de la puissance brute : L'économie de la domination de l'IA
Au-delà des téraflops bruts et des performances de pointe théoriques, le véritable champ de bataille pour la domination de l'IA se déplace de plus en plus vers le Coût Total de Possession (TCO). Alors que NVIDIA vante ses prouesses en matière de GPU, Google Cloud positionne ses Tensor Processing Units (TPUs) personnalisées comme le choix économiquement supérieur, un argument particulièrement convaincant pour les entreprises aux prises avec les coûts astronomiques du développement et du déploiement de grands modèles linguistiques. Il ne s'agit pas seulement de puces plus rapides ; il s'agit de l'ensemble des dépenses opérationnelles.
L'avantage distinct de Google découle de sa profonde intégration verticale. L'entreprise conçoit ses propres puces, construit ses centres de données personnalisés optimisés pour ce matériel, et développe la pile logicielle qui orchestre le tout. Ce contrôle de bout en bout permet à Google d'ajuster chaque couche pour une efficacité maximale et de répercuter ces économies sur les clients. Les concurrents revendent souvent le matériel d'une autre entreprise, ce qui entraîne des marges supplémentaires et un manque d'optimisation holistique que Google offre. Cette différence fondamentale permet à Google d'offrir une économie unitaire supérieure.
Thomas Kurian, PDG de Google Cloud, souligne ces « économies unitaires attrayantes » comme un avantage concurrentiel majeur dans un environnement perpétuellement contraint en capacité. Pour des clients comme Anthropic, l'entraînement d'un modèle colossal de 10 billions de paramètres comme Mythos 5, les gains d'efficacité se traduisent directement par des milliards économisés sur la durée de vie d'un projet. Le TPU 8t nouvellement annoncé, par exemple, promet une amélioration allant jusqu'à 2,7 fois la performance par dollar par rapport à son prédécesseur pour l'entraînement à grande échelle, tandis que le TPU 8i offre jusqu'à 80 % d'amélioration de la performance par dollar pour les charges de travail d'inférence.
De manière cruciale, cette efficacité économique s'étend à la performance par watt. Dans un monde soucieux de l'énergie, où les centres de données d'IA consomment une puissance immense, l'efficacité matérielle de Google représente à la fois un impératif écologique et un avantage économique significatif. Les TPUs de 8e génération offrent jusqu'à 2 fois plus de performance par watt par rapport à la génération précédente, réduisant directement les dépenses opérationnelles liées à l'électricité et au refroidissement. Cette efficacité rend la puissance de calcul de Google non seulement puissante mais aussi durablement évolutive, un facteur critique pour l'infrastructure d'IA à long terme.
Cette approche globale permet à Google non seulement d'alimenter ses propres projets d'AI ambitieux, mais aussi de soutenir stratégiquement ses partenaires et concurrents clés. En fournissant une base rentable et performante, Google s'assure que ses TPUs deviennent une infrastructure indispensable, consolidant sa position dans l'écosystème de l'AI même si la concurrence s'intensifie. C'est le levier subtil, mais puissant, de la stratégie de « frenemy » de Google.
Construire l'avenir, façon usine
Thomas Kurian, CEO de Google Cloud, révèle un changement radical dans le déploiement des centres de données, passant de la construction traditionnelle à une mentalité de fabrication. Cette approche innovante implique la préfabrication et le pré-test de rangées entières de centres de données hors site. Google déploie ensuite rapidement ces unités modulaires standardisées, réduisant considérablement le temps de cycle par rapport aux méthodes de construction conventionnelles, partant de zéro.
Cette efficacité opérationnelle est primordiale pour rester en tête de la courbe de calcul de l'AI. Kurian souligne que la fabrication permet un déploiement d'infrastructure significativement plus rapide que la construction, une capacité vitale étant donné la demande incessante et croissante des projets internes de Google et des laboratoires d'AI externes comme Anthropic. Cette stratégie permet directement à Google d'étendre son empreinte physique à un rythme sans précédent.
L'engagement de Google envers cette infrastructure physique est immense, avec des dépenses en capital qui devraient atteindre entre 175 et 185 milliards de dollars en 2026. Cet investissement substantiel se traduit directement par un impact économique significatif, favorisant la création d'emplois dans les communautés locales entourant ces installations avancées. Des métiers de la construction aux techniciens hautement qualifiés, un large éventail d'opportunités d'emploi émerge.
L'entreprise répond activement à l'opinion publique en intégrant des solutions énergétiques avancées dans sa stratégie de centres de données. Cela inclut la diversification des sources d'énergie, le déploiement de technologies « behind-the-meter » et l'utilisation d'énergies renouvelables pour améliorer la durabilité et la fiabilité de ses installations à forte consommation énergétique. Google vise à être un voisin responsable tout en construisant l'avenir de l'AI.
Ce changement stratégique, passant de la construction sur mesure à une fabrication efficace et reproductible, soutient directement la capacité de Google à satisfaire la demande insatiable de calcul d'AI. Il assure la mise à l'échelle rapide de ses Tensor Processing Units (TPUs) personnalisées, répondant aux exigences colossales de modèles comme Mythos 5 d'Anthropic, avec ses 10 billions de paramètres.
En optimisant son empreinte physique et en accélérant le déploiement, Google assure non seulement la capacité de calcul nécessaire à ses propres avancées en AI, mais maintient également sa position de fournisseur essentiel d'infrastructures haute performance. Cette prouesse opérationnelle permet à Google d'alimenter un écosystème diversifié de développement d'AI, y compris celui de ses concurrents « frenemy », consolidant ainsi son rôle fondamental dans l'ère de l'AI.
L'aube de l'« ère agentique »
Thomas Kurian, CEO de Google Cloud, a déclaré sans équivoque que « l'ère de l'agent est là », marquant un tournant décisif dans l'application de l'AI. Cette annonce signale un passage au-delà des chatbots conversationnels et des systèmes de questions-réponses simples vers des entités sophistiquées et autonomes capables d'exécuter des flux de travail métier complexes à travers les entreprises. L'infrastructure de calcul formidable de Google, soutenue par ses derniers TPU 8t et TPU 8i, est spécialement conçue pour alimenter cette prochaine vague d'AI.
Un agent IA transcende la simple récupération d'informations ; c'est un système conçu pour automatiser des processus complexes et multi-étapes avec une intervention humaine minimale. Contrairement à un modèle statique, un agent peut percevoir son environnement, raisonner sur ses objectifs, planifier des actions et les exécuter, interagissant souvent avec de multiples systèmes d'entreprise et sources de données. Cette capacité est cruciale pour transformer les efficacités opérationnelles dans diverses industries.
La pile verticalement intégrée de Google, du silicium personnalisé aux modèles avancés, la positionne de manière unique pour prendre en charge ces charges de travail exigeantes. Imaginez des agents aidant les assureurs santé en automatisant le traitement complexe des réclamations, de la soumission initiale au paiement final, ou permettant aux oncologues de passer au crible une vaste littérature médicale et des données de patients pour suggérer des protocoles de traitement personnalisés. Ces applications exigent une fiabilité et des performances inégalées, tirant directement parti des avancées significatives de la technologie TPU.
Pour faciliter le développement et le déploiement de ces systèmes sophistiqués, Google a introduit la Gemini Enterprise Agent Platform. Cette solution complète fournit les outils robustes nécessaires pour construire, orchestrer et gouverner des agents IA à l'échelle dans n'importe quel environnement d'entreprise. Elle garantit que les agents peuvent accéder en toute sécurité aux données sensibles, se conformer aux réglementations strictes et s'intégrer de manière transparente dans les paysages IT existants, débloquant des niveaux d'automatisation entièrement nouveaux. Pour plus d'informations sur les grands modèles qui alimentent de tels agents, on peut explorer des discussions comme Anthropic Claude Mythos 5: The First 10-Trillion-Parameter Model — Scaling Laws Hit a New Milestone | by Analyst Uttam | AI & Analytics Diaries | Apr, 2026 | Medium. Cette plateforme souligne l'engagement de Google à permettre des solutions IA pratiques et agissantes pour l'avenir.
Le véritable avantage concurrentiel n'est pas le modèle
Le véritable avantage concurrentiel de Google s'étend bien au-delà de tout modèle IA singulier comme Gemini, ou même d'un mastodonte de 10 billions de paramètres comme le Mythos 5 d'Anthropic. Sa brillance stratégique réside dans le contrôle de l'ensemble de la chaîne de valeur de l'IA, un empire verticalement intégré allant du silicium à la plateforme. Cette approche full-stack positionne Google comme le fondement indispensable de l'économie de l'IA en plein essor, permettant une échelle dont les autres ne peuvent que rêver.
En concevant ses propres Tensor Processing Units (TPUs) personnalisées, en construisant des centres de données hyper-efficaces et en orchestrant un réseau mondial conçu pour les charges de travail IA, Google dicte l'économie et les performances sous-jacentes de l'ensemble de l'industrie. Ses plateformes logicielles robustes cimentent davantage cette domination, offrant aux développeurs et aux entreprises un écosystème complet et optimisé. Cette infrastructure inégalée est ce qui permet à Google Cloud d'alimenter le développement de modèles aussi massifs que Mythos 5, et de soutenir « l'ère des agents » que Kurian envisage.
Le public et les médias se focalisent souvent sur la « course de chevaux des modèles », célébrant les percées dans les grands modèles linguistiques et leurs capacités. Cependant, le véritable pouvoir revient à l'entreprise qui possède l'hippodrome, les écuries et le fourrage. Google n'est pas seulement un participant ; c'est l'architecte et le propriétaire de toute l'arène de l'IA, profitant que ses propres modèles ou ceux de ses « amis-ennemis » comme Anthropic réussissent.
À mesure que les modèles IA deviendront inévitablement plus banalisés, les véritables faiseurs de rois seront les fournisseurs de cette infrastructure de calcul fondamentale. Le pari décennal de Google sur le silicium personnalisé et une offre cloud de bout en bout la positionne parfaitement pour être cette force indispensable. Ce contrôle complet assure l'influence durable de Google, en faisant le moteur silencieux et puissant derrière la prochaine génération d'intelligence artificielle.
Foire aux questions
Qu'est-ce qu'un Google TPU et pourquoi est-il important ?
Une Tensor Processing Unit (TPU) est une puce accélératrice d'IA conçue sur mesure par Google. Elle est cruciale car elle fournit une puissance de calcul très efficace et rentable pour l'entraînement et l'exécution de modèles d'IA à grande échelle, donnant à Google le contrôle sur l'ensemble de sa pile matérielle et logicielle.
Qu'est-ce que le modèle Mythos d'Anthropic ?
Le Claude Mythos 5 d'Anthropic est un modèle d'IA de 10 billions de paramètres, l'un des plus grands jamais conçus. Il est conçu pour des tâches à enjeux élevés comme la cybersécurité et le codage et est développé en utilisant la puissante infrastructure TPU de Google Cloud.
Pourquoi Google vend-il sa précieuse puissance de calcul TPU à des concurrents comme Anthropic ?
Thomas Kurian, PDG de Google Cloud, explique que c'est une décision commerciale stratégique. Cela génère un flux de trésorerie important pour financer la R&D, crée un marché plus vaste qui offre un levier avec les fournisseurs de la chaîne d'approvisionnement, et la diversification des cas d'utilisation améliore le produit pour tous.
En quoi le nouveau TPU v8 de Google est-il une amélioration ?
La 8ème génération de TPU v8 offre des gains significatifs. Le TPU 8t (entraînement) a une performance par dollar jusqu'à 2,7 fois supérieure, tandis que le TPU 8i (inférence) a une amélioration allant jusqu'à 80%. Les deux sont jusqu'à 2 fois plus économes en énergie que la génération précédente.