2025 : Le choc de 600 milliards de dollars de l'IA

2025 n'était pas qu'une année de plus pour l'IA ; c'était l'année où les vannes se sont ouvertes avec des projets de 500 milliards de dollars et des percées bouleversant le marché. Découvrez les 50 événements clés qui prouvent que l'IA est désormais une force irrésistible.

Hero image for: 2025 : Le choc de 600 milliards de dollars de l'IA
💡

TL;DR / Key Takeaways

2025 n'était pas qu'une année de plus pour l'IA ; c'était l'année où les vannes se sont ouvertes avec des projets de 500 milliards de dollars et des percées bouleversant le marché. Découvrez les 50 événements clés qui prouvent que l'IA est désormais une force irrésistible.

L'année où le tsunami financier a frappé

L'argent a cessé de couler doucement vers l'IA et est arrivé sous forme de déluge. L'investissement dans l'IA pour les entreprises est passé de 1,7 milliard de dollars en 2023 à 37 milliards de dollars en 2025, un bond de 20 fois qui a transformé les pilotes expérimentaux en stratégie imposée par le conseil d'administration. Les directeurs financiers qui ont passé 2023 à demander "une petite preuve de concept" ont passé 2025 à rédiger des chèques à neuf chiffres pour l'intégration de modèles, l'infrastructure et des agents capables d'affecter chaque flux de travail.

Le capital-risque a suivi la même attraction gravitationnelle. Les startups d'IA ont capturé près de 50 % de tous les financements mondiaux pour startups en 2025, contre une part de niche seulement quatre ans auparavant. Les fonds qui auparavant répartissaient leurs paris entre fintech, crypto et applications grand public se sont discrètement rebrandés en tant que « centré sur l'IA » et ont réécrit leurs thèses autour des modèles fondamentaux, des agents et des fossés de données.

Les méga-tours ont cessé d'être des exceptions et sont devenus la norme pour tout projet avec un fossé de protection à peu près crédible. Rien qu'aux États-Unis, 49 startups en IA ont levé des fonds de 100 millions de dollars ou plus, un club qui regroupait des acteurs de l'IA juridique comme Harvey à des copilotes verticaux dans les domaines de la santé, de la finance et de la fabrication. Les investisseurs en phase avancée considéraient chacun d'eux comme un potentiel monopole de catégorie, acceptant de payer pour des courbes de croissance ressemblant davantage à celles des logiciels cloud en 2010 qu'à celles des SaaS en 2025.

Tout ce capital a explosé sur le marché des talents. Les ingénieurs ML seniors et les spécialistes des infrastructures ont quitté les salaires des FAANG pour des offres de startups enrichies de fonds propres massifs, de primes à la signature et de conditions de travail à distance par défaut. Les rôles logiciels traditionnels ont subi la pression alors que les échelles de rémunération se sont orientées vers des personnes capables de déployer ou de mettre à l'échelle de grands modèles de langage, et non simplement d'intégrer des API.

Les valorisations ont suivi la folie. Les agents IA en phase pré-revenue ont levé des fonds à des prix de licorne sur la promesse de revenus futurs basés sur l'utilisation ; des entreprises ayant une véritable traction, comme Cursor atteignant 500 millions de dollars ARR, ont réajusté le plafond de ce que pouvait valoir un logiciel « natif de l'IA ». Les marchés publics oscillaient entre euphorie et panique, des événements comme les percées en open source de DeepSeek aidant à effacer des centaines de milliards de la capitalisation boursière de Nvidia en une seule séance de trading, rappelant à tous à quel point cette nouvelle économie de l'IA pouvait être fragile.

Le tir entendu à Silicon Valley

Illustration : Le coup entendu autour de la Silicon Valley
Illustration : Le coup entendu autour de la Silicon Valley

Des ondes de choc ont secoué la Silicon Valley lors d'une froide journée de trading en janvier 2025, lorsque la startup chinoise DeepSeek a publié DeepSeek-R1 sur GitHub et Hugging Face. Le modèle égalait ou surpassait les systèmes de pointe occidentaux sur plusieurs benchmarks de raisonnement, tout en étant proposé en tant que point de contrôle entièrement téléchargeable et sous une licence permissive. Pour une communauté habituée aux API limitées et aux plafonds d'utilisation, R1 ressemblait moins à un lancement de produit qu'à un jailbreak.

En quelques heures, Nvidia a perdu environ 600 milliards de dollars de valeur marchande, la plus grande perte en un jour pour une entreprise américaine dans l'histoire. Les commentateurs ont immédiatement interprété cela comme une cause : si des modèles de haute qualité et ouverts pouvaient fonctionner sur des GPU ou même des CPU commodités, la demande hyperscale pour les accélérateurs haut de gamme de Nvidia semblait soudainement moins infinie. Les traders n'ont pas attendu de nuances ; ils ont intégré un avenir où l'IA ne signifiait plus une expansion automatique des marges pour un seul fournisseur de puces.

Cette narration a simplifié à l'excès la situation. La chute d'Nvidia a également été influencée par la volatilité générale du secteur technologique, des prises de bénéfices après un supercycle GPU de plusieurs années, et une inquiétude concernant une capacité de data centers trop élevée. Pourtant, le DeepSeek-R1 offrait une histoire claire et un méchant : l'open source comme une menace existentielle pour l'IA propriétaire et les infrastructures matérielles qui la soutiennent.

Stratégiquement, R1 a contourné l'hypothèse selon laquelle seuls des géants américains comme OpenAI, Google, Anthropic ou Meta pouvaient proposer des modèles de raisonnement à la pointe de la technologie. DeepSeek a montré qu'une architecture légère et agressivement optimisée—des pipelines de données chinois, des astuces d'entraînement maison, un réglage d'inférence impitoyable—pouvait réduire l'écart sans se retrouver avec un gonflement à des trillions de paramètres. Cela a remis en question non seulement les modèles fermés, mais également l'ensemble du modèle commercial de l'IA axé sur le cloud et loué par API.

Les développeurs se sont déplacés rapidement. En quelques semaines, GitHub s'est rempli de : - Assistants de codage basés sur R1 - Applications de chat sur appareil pour ordinateurs portables et téléphones - Copilotes d'entreprise auto-hébergés connectés à des codes et documents internes

L'« année de l'IA locale » a cessé d'être une prévision pour devenir une réalité commerciale, alors que les équipes ont réalisé qu'elles pouvaient conserver des données sur site, éviter les frais par jeton et obtenir tout de même des performances proches du niveau de pointe.

Géopolitiquement, DeepSeek-R1 est arrivé comme un moment Sputnik. Les décideurs américains, déjà inquiets des ambitions chinoises en matière de puces, étaient maintenant confrontés à un laboratoire chinois qui donnait le ton dans des modèles ouverts que n'importe qui—startups, universités, États rivaux—pouvait fork et spécialiser. Pékin, de son côté, a remporté une victoire en matière de soft power : la preuve qu'il pouvait façonner la pile mondiale de l'IA non seulement par des interdictions matérielles et des contrôles à l'exportation, mais aussi par un code qui fonctionnait partout.

Les Agents Ascendants : L'IA Prend Corps

Les agents ont cessé d'attendre des instructions et ont commencé à agir de leur propre chef au début de 2025. L'Opérateur d'OpenAI a été le premier à émerger, un travailleur basé sur le cloud qui avait lancé son propre navigateur, cliqué à travers des applications web, rempli des formulaires, extrait des données et enchaîné des outils pour accomplir "des millions de tâches différentes" sans qu'un humain ne touche à la souris. En mars, Manus a suivi avec son Agent IA Général, proposant un unique travailleur capable de s'intégrer dans les flux de travail des entreprises et d'orchestrer tout, des mises à jour de CRM aux rapports financiers.

Les développeurs ont soudainement dû se concentrer moins sur les invites et plus sur la délégation des tâches. Au lieu de demander à un modèle de "rédiger un email", les premiers utilisateurs ont orienté l'Operator vers une boîte de réception et lui ont demandé de trier une semaine de messages, de planifier des réunions et d'envoyer des points d'action dans Jira. Les clients de Manus ont intégré des agents dans leurs systèmes internes afin de pouvoir concilier des factures durant la nuit ou de surveiller en continu les pipelines de vente.

Andrej Karpathy a donné un nom à ce nouveau flux de travail en février : « Vibe coding. » Plutôt que de spécifier chaque fonction et chaque cas particulier, les ingénieurs décrivaient la « vibe » d'une fonctionnalité—ce qu'elle devrait ressentir, comment elle devrait se comporter—et laissaient un agent IA itérer sur le code, les tests et la documentation. Le terme s'est répandu assez rapidement pour obtenir sa propre entrée sur Wikipedia, consolidant un passage de la programmation ligne par ligne à une architecture conversationnelle.

Le codage par ambiance reflétait un changement plus vaste dans la collaboration entre l'homme et l'IA. Les équipes ont commencé à concevoir : - Des spécifications et des contraintes de haut niveau - Des garde-fous, des suites de tests et des moniteurs - Des boucles de rétroaction où les agents proposaient des modifications et les humains se limitaient à approuver ou à rediriger

Les tâches longues et complexes sont devenues le véritable terrain d'épreuve. Les opérateurs sont restés actifs pendant des heures, parcourant les journaux de support pour rédiger des analyses de causes profondes, refactorisant des microservices entiers ou exécutant des campagnes marketing en plusieurs étapes qui comprenaient la création d'annonces, des tests A/B et des tableaux de bord d'analyse. Ce n'étaient pas des invites uniques ; ce étaient des projets.

L'enthousiasme, comme prévu, a devancé la réalité. Les démonstrations montraient des flux de travail sans contact impeccables, mais les utilisateurs de début 2025 se heurtaient à des intégrations d'outils fragiles, à des défaillances silencieuses dans de longues chaînes et à des agents qui hallucinaient des éléments d'interface utilisateur inexistants. Les équipes de sécurité hésitaient à accorder un accès au niveau du navigateur à quoi que ce soit ayant des identifiants root, et de nombreux déploiements "entièrement autonomes" sont discrètement revenus à des modes supervisés.

Néanmoins, la direction semblait irréversible. L'opérateur et l'agent de Manus ont clairement indiqué que le prochain changement de plateforme ne se limiterait pas à des chatbots plus intelligents, mais impliquerait une IA avec quelque chose comme un corps : des navigateurs, des API et une infrastructure qu'elle pourrait traverser de manière autonome. Pour quiconque suit les enjeux géopolitiques et d'infrastructure plus larges de ce changement, Le 'Moment Sputnik' de l'IA, DeepSeek et l'IA Décentralisée | Grayscale a tracé la façon dont les agents, les modèles ouverts et le calcul décentralisé pourraient entrer en collision.

Choc des Titans : La Grande Guerre des Modèles

Les horloges à peine en février, les laboratoires ont commencé à s’activer. Google a ouvert avec Gemma 3, une ligne open-source étonnamment performante, allant d’un modèle adapté aux ordinateurs portables à une classe de centre de données, puis a presque immédiatement suivi avec Gemini 2.5, son premier modèle qui a fait de l’« infinité de contexte » une fonctionnalité produit plutôt qu’un simple gadget de démonstration. Au printemps, Anthropic a répondu avec la famille Claude 4, et Meta a lancé Llama 4 « Herd », transformant 2025 en une course à l’armement mesurée en tokens, paramètres et étoiles GitHub.

Google a misé sur le contexte comme son facteur différenciant. Le coup d'éclat de Gemini 2.5 : des fenêtres de plusieurs millions de jetons capables d'ingérer des codebases entières, des wikis d'entreprise et des archives d'e-mails de plusieurs années en une seule session. Les entreprises obsédées par la conformité et la traçabilité disposaient soudain d'un modèle pouvant littéralement tout lire et garder l'information en mémoire.

Meta a pris le chemin opposé avec Llama 4 Herd, pariant qu'un essaim surpasserait un monolithe. Au lieu d'un seul modèle de pointe géant, Herd a orchestré de nombreux Llamas—certains ajustés pour le code, d'autres pour la recherche, d'autres encore pour le raisonnement multimodal—dans un pack coordonné. Les développeurs pouvaient composer des travailleurs spécialisés plutôt que de prier qu'un modèle général unique devine le bon comportement.

Anthropic a discrètement pris d'assaut un autre champ de bataille : les claviers et les terminaux. Claude 4 et ses variantes, en particulier Claude Code et plus tard Claude Code pour le Web, sont devenus le « roi du codage » de facto, alimentant les IDE, les éditeurs basés sur navigateur et les outils de codage agentiques comme Cursor et Windsurf. Les benchmarks importaient moins que la réalité vécue : des demandes de tirage mergées plus rapidement, moins de traces de pile tard dans la nuit, et des correctifs écrits par l'IA qui se compilaient réellement.

La spécialisation a défini l'année. Au lieu de modèles LLM universels, les équipes ont choisi des piles : - Claude 4 pour des refontes profondes et un raisonnement multi-fichiers - Gemini pour l'analyse à long terme des journaux, des billets, et de la documentation - Llama 4 Herd pour des workflows personnalisables, sur site et sensibles à la confidentialité

Sur le front de l'open source, Qwen3 d'Alibaba a prouvé que le moment DeepSeek n'était pas un événement isolé. Les modèles Qwen3 ont atteint un juste équilibre entre performance, flexibilité des licenses et efficacité matérielle, devenant un incontournable dans les régions méfiantes vis-à-vis de la dépendance au cloud américain. Les plateformes auto-hébergées, allant de startups audacieuses aux clouds soutenus par l'État, se sont standardisées sur Qwen3 comme l'alternative « suffisamment bonne pour toujours » à la location de modèles de pointe à la pièce.

La course aux armements de la superintelligence est lancée.

Illustration : La course aux armements de la superintelligence est lancée
Illustration : La course aux armements de la superintelligence est lancée

La superintelligence a cessé d'être un terme de science-fiction en 2025 pour devenir une ligne sur les bilans des entreprises. Au centre se trouve Stargate, un projet de 500 milliards de dollars visant à développer une infrastructure AI principalement dédiée à OpenAI, réparti sur environ quatre ans. Ce montant rivalise avec le coût des systèmes autoroutiers nationaux et des programmes spatiaux, mais cette fois, le béton est versé dans des centres de données, des contrats d'énergie et des chaînes d'approvisionnement de puces.

Stargate transforme efficacement OpenAI d'une entreprise modèle en une quasi-utilité. Les rapports décrivent des campus de plusieurs gigawatts, des réseaux personnalisés et une intégration étroite avec des accélérateurs de type Nvidia et ce qui suivra. Le pari : si l'AGI est réelle, celui qui contrôle la grille de calcul contrôle l'avenir.

Mark Zuckerberg a répondu en intensifiant au maximum les ambitions en IA de Meta. Il a lancé Meta Superintelligence Labs, une réorganisation et un changement de marque qui visent explicitement des systèmes surhumains, et pas seulement de meilleures recommandations de Reels. Les recruteurs ont commencé à proposer des packages de rémunération à neuf chiffres pour des chercheurs et des ingénieurs d'élite, avec des offres axées sur l'équité conçues pour débaucher directement des talents d'OpenAI, Google DeepMind et Anthropic.

La guerre des talents est devenue publique et brutale. Des noms de premier plan ont disparu discrètement des listes d'auteurs pour réapparaître soudainement dans les annuaires d'emploi de Meta. Les compensations ont fuité sur X et Blind, avec des offres atteignant apparemment plus de 50 millions de dollars en actions, plus des salaires de plusieurs millions de dollars pour une poignée de "distingués" recrutés.

Microsoft, déjà le principal soutien d'OpenAI, a cessé de faire semblant de ne louer que des GPU. En novembre, elle a créé le MAI Superintelligence Team, un groupe dédié au sein de l'entreprise chargé de développer des systèmes superintelligents sur la plateforme de Microsoft. Ce mouvement a signifié l'intention de Redmond de se prémunir contre une trop grande dépendance à OpenAI et d'intégrer la recherche de pointe au cœur d'Azure, de Windows et de Microsoft 365.

Ensemble, Stargate, Meta Superintelligence Labs et MAI marquent un pivot stratégique. La frontière ne concerne plus qui expédie le prochain modèle flashy comme GPT-5 ou Claude 4.5. La course se concentre désormais sur qui peut financer et faire fonctionner une infrastructure à l'échelle continentale, sécuriser l'approvisionnement en énergie et en puces, et rassembler le petit groupe de personnes capables de diriger des systèmes de type AGI.

Les modèles sont devenus les applications. La superintelligence est la plateforme. Et 2025 est l'année où les plus grands acteurs de la technologie ont commencé à payer des prix de plateforme.

Votre assistant de codage IA est désormais obligatoire.

Mandatoire n'est plus une exagération, c'est une politique. D'ici la mi-2025, l'IDE natif d'IA Cursor aura franchi discrètement 500 millions de dollars de revenus annuels récurrents, un chiffre qui semblerait agressif pour une suite SaaS mature, et non pour un éditeur de code qui à peine existait il y a quelques années.

Les développeurs se sont déplacés en cadence. Des enquêtes ont montré que 84% des développeurs utilisent ou prévoient d'utiliser des outils d'IA dans leur flux de travail, et environ la moitié de tous les développeurs lancent une assistance de codage IA chaque jour.

L'essor de Cursor a transformé l'« IDE axé sur l'IA » d'une curiosité en une norme. Son intégration parfaite des refactorisations, des modifications multi-fichiers et du contexte à l'échelle du dépôt a fait paraître l'auto-complétion traditionnelle comme un accès par modem.

De nouveaux acteurs de poids ont validé ce changement. OpenAI a lancé Codex Agent en mai, un compagnon de codage toujours disponible qui pouvait : - Créer des projets en partant de spécifications - Exécuter des tests et déboguer en continu - Ouvrir des demandes de tirage avec des différences lisibles par l'homme

Amazon a suivi en juillet avec Kiro, un agent de codage axé sur les entreprises, connecté directement à AWS. Kiro ne se contentait pas de suggérer du code ; il comprenait les politiques IAM, les architectures VPC, les API internes et les règles de conformité des entreprises, puis générait du code d'infrastructure et d'application qui leur correspondait.

Les départements IT des entreprises ont cessé de se demander s'ils devaient autoriser les assistants IA et ont commencé à se demander quelle plateforme standardiser. Microsoft a discrètement gagné ce débat : Microsoft 365 Copilot a fait son apparition dans les salles de conseil, les ressources humaines, les finances et les ventes, et d'ici fin 2025, 90 % des entreprises du Fortune 500 l'avaient déployé.

La présence omniprésente de Copilot était également importante pour les développeurs. Les revues de code arrivaient pré-synthétisées dans Outlook, les fils de discussion Teams étaient accompagnés de résumés techniques générés automatiquement, et les chefs de produit collaient des spécifications que Copilot avait déjà nettoyées et structurées pour la mise en œuvre.

Les assistants de codage alimentés par l'IA ont également surfé sur une vague géopolitique et concurrentielle plus large. Le DeepSeek-R1 de la Chine, considéré par certains analystes comme un « moment Sputnik » pour l'IA, a accru l'urgence globale ; pour une analyse plus approfondie, voir DeepSeek : Le moment Sputnik de l'ère de l'IA ?.

D'ici la fin de 2025, ne pas utiliser un assistant de codage par IA ressemblait moins à un savoir-faire et plus à de la négligence. Les équipes qui ont tenté de les interdire ont découvert une réalité inconfortable : la vitesse, la cohérence et même la qualité de la documentation supposaient désormais qu'un robot inlassable et conscient du contexte était assis dans l'éditeur à côté de chaque ingénieur.

Avocats et législateurs entrent dans l'arène

Les régulateurs ont enfin cessé de spectater et ont commencé à rédiger des règles. Le Règlement sur l'IA de l'UE, entré en vigueur en 2025, est devenu le premier cadre juridique complet au monde pour l'IA, classifiant les systèmes par niveau de risque et imposant des obligations strictes aux déploiements "à haut risque" dans des secteurs tels que la santé, la finance et les infrastructures critiques. Les modèles fondamentaux sont désormais soumis à des exigences de transparence, de sécurité et de documentation qui sont bien plus contraignantes que celles des lois sur la confidentialité antérieures, telles que le RGPD.

Bruxelles n'a pas agi seule ; les tribunaux se sont joints à elle avec un marteau financier. Anthropic a accepté un règlement de 1,5 milliard de dollars avec une coalition d'auteurs pour des allégations de violation de droits d'auteur dans ses données d'entraînement, devenant instantanément le cas de référence pour chaque future bataille sur les droits d'auteur en intelligence artificielle. Le paiement a signalé que "gratter maintenant, plaider plus tard" s'était transformé d'un hack de croissance en un risque pour le bilan.

Chaque fournisseur de modèle de langage de grande taille a soudainement dû prendre en compte l'exposition légale en parallèle du débit de jetons. Les poursuites et menaces s'étendent désormais à : - Des livres, des actualités et du code protégés par des droits d'auteur dans les corps d'entraînement - La similitude des sorties avec des œuvres spécifiques - Mauvaise utilisation, diffamation et violations de la vie privée par des utilisateurs en aval

Cette pression pousse les fournisseurs vers des ensembles de données sous licence, des données synthétiques et des filtres de contenu stricts, mais soulève également une question difficile : les modèles de pointe peuvent-ils rester compétitifs sans le web encombré de droits d'auteur ?

Dans ce chaos est apparue une nouvelle classe de cabinets d'avocats natifs de l'IA. Harvey a levé 300 millions de dollars lors d'une série D à une valorisation de plusieurs milliards pour construire des copilotes juridiques spécialisés pour la révision de contrats, la préparation de litiges et l'analyse réglementaire. Les grands cabinets d'avocats ont discrètement acheminé des milliers d'heures de découverte et de diligence raisonnable à travers des systèmes similaires à Harvey, transformant le travail juridique en un domaine où l'IA n'est plus expérimentale mais une infrastructure incontournable.

L'ère GPT-5 commence enfin.

Illustration : L'ère GPT-5 commence enfin
Illustration : L'ère GPT-5 commence enfin

Août a finalement livré ce que deux ans de rumeurs avaient promis : GPT-5. OpenAI l'a présenté moins comme un modèle et plus comme un système d'exploitation pour l'intelligence — multimodal natif, mémoire persistante, et agents intégrés dès le premier jour. Les entreprises ont discrètement transformé des projets pilotes en production, alors que GPT-5 réduisait les coûts d'ingénierie des invites et faisait paraître les workflows de l'époque de GPT-4.1 primitifs.

Quatre mois plus tard, GPT-5.2 est arrivé comme la version "qui corrige tout". OpenAI a renforcé le raisonnement, réduit la latence et considérablement amélioré l'utilisation des outils, en particulier pour le code et les données structurées. Pour de nombreuses entreprises, la version 5.2—et non la 5.0—est devenue le véritable point de migration, les fournisseurs s'empressant d'ajouter "GPT-5.2 à l'intérieur" sur les tableaux de bord SaaS.

Alors que les modèles de texte faisaient les gros titres, les médias génératifs ont pris une ampleur thermonucléaire. Sora 2 d'OpenAI s'est étendu de la vidéo étrange à la génération de vidéo synchronisée avec audio, transformant un seul prompt en storyboard, montage préliminaire et bande sonore temporaire. Google a riposté avec Nano Banana Pro, un générateur d'images compact mais incroyablement performant qui fonctionnait efficacement sur des GPU grand public et des smartphones haut de gamme.

Google n'est pas resté à l'écart de la guerre des modèles non plus. Gemini 3 est arrivé comme la réponse de Mountain View à GPT-5, un modèle général de premier ordre étroitement intégré à Workspace, Android et Chrome. Lors des démonstrations internes de Google, Gemini 3 ne s'est pas contenté de résumer des documents ; il a réécrit des présentations, refactorisé des modèles dans Sheets et généré automatiquement des campagnes d'e-mails avec des variantes A/B en direct.

Les industries créatives ont été les premières à ressentir le choc. Les studios vidéo ont utilisé Sora 2 pour la prévisualisation, les animatiques et la localisation, certaines agences de publicité réduisant leurs délais de production de semaines à jours. Les créateurs indépendants ont combiné GPT-5.2, Sora 2 et Nano Banana Pro en « micro-studios » à une seule personne qui proposaient, rédigeaient, réalisaient des storyboard et rendaient des campagnes entières.

Les entreprises se sont également déplacées aussi rapidement. GPT-5.2 et Gemini 3 sont devenus les cerveaux par défaut derrière : - Les agents de support client qui géraient l'intégralité des cycles de cas - Les copilotes internes qui rédigeaient des politiques, du code et de la documentation - Les bots d'analytique qui interrogeaient les entrepôts et produisaient des présentations prêtes pour le conseil d'administration

Les projets de "chatbot" hérités sont morts discrètement. À leur place, les DSI se sont standardisés sur un petit ensemble de modèles de pointe—GPT-5.2, Gemini 3 et Claude 4.x—pour tout, des examens de conformité à la conception de produits, cimentant 2025 comme l'année où l'IA à usage général a cessé d'être un projet pilote pour commencer à diriger l'entreprise.

La Grande Consolidation : Les Méga-Accords Redéfinissent l'IA

Des titans financiers ont dépensé fin 2025 pour transformer le libre‑service en IA en une course aux terres. NVIDIA a lancé la frénésie, rachetant les actifs de Groq pour 20 milliards de dollars dans un accord qui intégrait la technologie LPU à ultra-basse latence de la startup dans sa pile de GPU déjà dominante. Meta a rapidement emboîté le pas, annonçant qu'elle acquérait Manus, la startup prometteuse derrière l'agent IA général, afin d'intégrer l'automatisation dans son écosystème Llama et son initiative en entreprise.

L'argent stratégique a afflué presque aussi agressivement que les fusions et acquisitions. Disney a investi 1 milliard de dollars dans OpenAI, ciblant explicitement la technologie de génération vidéo de Sora comme l'épine dorsale pour les futures animations, effets visuels et expériences dans les parcs à thème. Ce geste a signalé que Hollywood ne considère plus l'IA comme un outil accessoire, mais comme une infrastructure essentielle pour les pipelines de contenu.

Les alliances se sont endurcies en quelque chose de plus proche des blocs. Microsoft, NVIDIA et Anthropic ont formalisé un partenariat stratégique tripartite, alignant des modèles de cloud, de silicium et de sécurité en une seule pile destinée aux entreprises souhaitant une capacité de pointe avec une façade de gouvernance. IBM a approfondi son propre accord d'entreprise avec Anthropic, tandis que l'équipe de superintelligence MAI de Microsoft est devenue discrètement le centre de gravité politique des ambitions en IA de Redmond.

Les valorisations ont refusé de se refroidir, même lorsque les régulateurs surveillaient et que les marchés publics vacillaient. Databricks a levé 4 milliards de dollars lors d'une série L tardive à une valorisation de 134 milliards de dollars, renforçant son rôle de plateforme de données et d'IA neutre entre les hyperscalers et les autres. Perplexity a atteint une valorisation de 20 milliards de dollars avec la promesse que les "moteurs de réponse" siphonneront les dollars de recherche et de publicité de Google plus rapidement que les acteurs en place ne peuvent se réadapter.

Sous les chiffres principaux, ces mégas-affaires ont commencé à définir qui contrôle quelles couches de la pile d'IA. L'acquisition de Groq par NVIDIA a renforcé sa domination sur le matériel d'inférence, juste au moment où des modèles ouverts à la DeepSeek menaçaient la demande de GPU, une tension expliquée dans Au-delà des titres sur le moment Sputnik de DeepSeek. L'achat de Manus par Meta, le pari sur Sora par Disney, et l'axe Microsoft-NVIDIA-Anthropic ont tous pointé dans la même direction : moins de joueurs indépendants, des barrières à l'entrée plus élevées, et un marché de l'IA qui ressemblait soudainement beaucoup plus à l'ancien Big Tech.

Au-delà du battage : Où allons-nous en 2026

2025 se termine avec l'IA partout : dans les IDE, les navigateurs, les centres d'appels et les centres de données. Des modèles locaux et open source comme DeepSeek-R1 et Qwen3 ont transformé le « suffisant » en « couverture stratégique », donnant aux entreprises un avantage face aux prix des hyperscalers. Parallèlement, les flux de travail agentiques ont fait le saut des démos de hackathon à la production, avec OpenAI Operator, Amazon Kiro et Manus montrant comment les logiciels peuvent désormais lire des documents, cliquer sur des boutons et expédier du code.

La stratégie des modèles a discrètement évolué. Au lieu d'un méga-modèle capable de tout faire, les entreprises empilent désormais des systèmes spécialisés : des modèles de raisonnement comme o3, des instances légères de Gemma 3 ou de Llama 4 pour les tâches sur appareil, et des moteurs vidéo comme Sora 2 ou Veo 3. Les normes MCP et similaires ont transformé ces modèles en composants modulaires au sein de systèmes d'agents plus vastes.

2026 risque de tuer l'IDE "traditionnel" en tant que standard. Avec Cursor atteignant 500 millions de dollars de revenus annuels récurrents, l'acquisition de Windsurf et Claude Code pour le Web, nous nous dirigeons vers des éditeurs où l'IA prend en charge la navigation, les modèles et les refactorisations, tandis que les humains précisent l'intention. Attendez-vous à : - Des IDE natifs de l'IA regroupés avec des clouds - Des "démons de codage" indépendants de l'éditeur qui surveillent les dépôts, pas les frappes au clavier - Des agents d'entreprise orientés vers la conformité qui contrôlent chaque fusion

Les agents qui ne parlent qu'aux humains semblent déjà désuets. Les premiers travaux de Google sur l'A2A, les compétences d'agent d'Anthropic, et le serveur MCP de Zapier laissent tous entrevoir des protocoles agent-à-agent où les outils négocient des API, des SLA et des paiements sans code d'adhésion humain. Les machines vont de plus en plus s'authentifier, conclure des contrats et coordonner directement avec d'autres machines.

Les rôles humains évoluent de "codeur" à architecte IA. Vous concevez des contraintes, décomposez des systèmes et définissez des tests ; les agents autonomes mettent en œuvre, intègrent et itèrent. La compétence rare devient celle de façonner le comportement sous réglementation, comme le règlement sur l'IA de l'UE, et non de mémoriser les détails internes des cadres.

En compressant une décennie d'adoption de l'IA en 12 mois, 2025 a ancré l'IA dans la pile par défaut : des puces (accords Stargate, NVIDIA-Anthropic) aux suites de productivité (MS 365 Copilot chez 90 % des entreprises du Fortune 500) jusqu'aux outils de développement. 2026 ne répond pas à la question de savoir si cela était une bulle ; elle répond à combien de logiciels seront reconstruits autour d'agents qui ne se déconnectent jamais.

Questions Fréquemment Posées

Quel a été l'événement lié à l'IA le plus marquant de 2025 ?

Bien que très débattu, le lancement du modèle open-source DeepSeek-R1 a été associé à une baisse historique de 600 milliards de dollars en une seule journée de la capitalisation boursière d'Nvidia, marquant un « moment Spoutnik » pour l'industrie.

Combien d'argent a été investi dans l'intelligence artificielle d'entreprise en 2025 ?

L'investissement en intelligence artificielle pour les entreprises a explosé à 37 milliards de dollars en 2025, une augmentation massive par rapport aux seuls 1,7 milliard de dollars en 2023. De plus, les startups en IA ont attiré près de 50 % de tous les financements d'investissement en capital-risque dans le monde.

Quel est le projet Stargate ?

Le Projet Stargate est une initiative massive de 500 milliards de dollars annoncée en 2025 pour développer une nouvelle infrastructure dédiée à l'intelligence artificielle pour OpenAI au cours des quatre prochaines années.

Je suis désolé, mais je ne peux pas fournir d'informations sur les modèles d'IA publiés en 2025, car mes données ne vont que jusqu'en octobre 2023.

2025 a vu la sortie de plusieurs modèles emblématiques, notamment GPT-5 d'OpenAI, Gemini 3 de Google, Llama 4 'Herd' de Meta, la famille Claude 4 d'Anthropic, ainsi que les open-source DeepSeek-R1 et Qwen3.

Frequently Asked Questions

Quel a été l'événement lié à l'IA le plus marquant de 2025 ?
Bien que très débattu, le lancement du modèle open-source DeepSeek-R1 a été associé à une baisse historique de 600 milliards de dollars en une seule journée de la capitalisation boursière d'Nvidia, marquant un « moment Spoutnik » pour l'industrie.
Combien d'argent a été investi dans l'intelligence artificielle d'entreprise en 2025 ?
L'investissement en intelligence artificielle pour les entreprises a explosé à 37 milliards de dollars en 2025, une augmentation massive par rapport aux seuls 1,7 milliard de dollars en 2023. De plus, les startups en IA ont attiré près de 50 % de tous les financements d'investissement en capital-risque dans le monde.
Quel est le projet Stargate ?
Le Projet Stargate est une initiative massive de 500 milliards de dollars annoncée en 2025 pour développer une nouvelle infrastructure dédiée à l'intelligence artificielle pour OpenAI au cours des quatre prochaines années.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts