TL;DR / Key Takeaways
Le nouveau panel de puissance en IA : pourquoi ces voix comptent maintenant
Forward Future s'est discrètement transformé en l'une des salles de guerre AI les plus influentes d'internet. L'animateur Matthew Berman s'adresse maintenant quotidiennement à un public de plus de 500 000 bâtisseurs et décisionnaires à travers YouTube, X, et sa newsletter Forward Future, en reliant les sorties de modèles, les pénuries de puces, et les combats politiques en un seul fil d'actualités très exploitable. Ses streams Forward Future Live fonctionnent moins comme des émissions YouTube et plus comme des briefings stratégiques en temps réel pour les personnes misant leur carrière sur l'IA.
La programmation du 12/12/2025 ressemble à un instantané de l'écosystème de l'IA en 2026. Tejal Patwardhan, chercheur chez OpenAI, représente la couche de modèles fondamentaux qui continue de fixer le rythme pour tous les autres. Fabian Stelzer, co-fondateur de Glif, apporte la couche d'agent qui transforme ces modèles en workflows autonomes. En plus de cela, Christina Cacioppo et Jeremy Epling de Vanta ancrent la sécurité et la conformité, tandis que Spenser Skates, PDG et co-fondateur d'Amplitude, boucle la boucle avec l'analyse de produits et les données sur le comportement des utilisateurs.
Ensemble, ces invités couvrent l'ensemble du parcours, du GPU au KPI commercial. OpenAI définit les capacités et les contraintes. Glif expérimente jusqu'où l'on peut pousser les agents avant qu'ils ne cèdent — ou qu'ils ne causent des problèmes. Vanta répond à la question de savoir si tout cela peut réussir un audit SOC 2 ou un comité des risques d'une banque, tandis qu'Amplitude suit si les clients utilisent réellement les fonctionnalités d'IA que les équipes continuent de déployer.
Tout cela se déroule dans un moment post-GPT-5.2 volatil. La performance des modèles a de nouveau fait un bond, mais la réaction du marché est passée d'une admiration totale à des questions difficiles sur le coût, la fiabilité et le contrôle. Les VC concluent désormais des accords "uniquement AI" en moins de 15 minutes, mais ces investissements exigent de plus en plus des histoires de déploiement réelles, pas seulement des graphiques de référence.
Les entreprises, quant à elles, ont cessé de considérer l'IA comme une expérimentation. Les équipes du Fortune 500 intègrent désormais des modèles de type GPT dans le support client, la recherche interne et l'analyse, tandis que les régulateurs peinent à suivre et que les lois sur l'IA au niveau des États stagnent dans les tribunaux. Le panel de Berman se trouve précisément à cette frontière : les personnes qui construisent les modèles, les agents qui agissent en votre nom, les garde-fous qui apaisent les régulateurs, et les tableaux de bord qui prouvent si tout cela valait la peine d'être fait.
La vision de Glif : votre main-d'œuvre d'agents IA est ici.
Le co-fondateur de Glif, Fabian Stelzer, parle des agents comme les premiers pionniers du web parlaient des navigateurs : en tant que nouveau runtime, et non comme une simple application supplémentaire. Au lieu d'une seule fenêtre de chatbot, il imagine des essaims d'agents autonomes coordonnant leurs actions à travers des API, des entrepôts de données et des outils SaaS, passant des tâches comme sur une chaîne de production. Un agent élabore la stratégie, un autre extrait des analyses, un troisième négocie avec des fournisseurs ou des services cloud, le tout sans qu'un humain ne relie les différentes étapes du workflow.
Ce changement fait passer l'IA de "fonctionnalité intelligente" à "orchestrateur de travail". Le Glif de Stelzer considère les agents comme des blocs de construction composables : de petits processus spécialisés qui peuvent surveiller des événements, déclencher des actions et appeler d'autres agents. Vous ne vous contentez pas de donner une consigne à un modèle ; vous concevez un système où les agents maintiennent le contexte sur plusieurs jours, se souviennent des règles commerciales et passent à la vitesse supérieure uniquement lorsque la confiance descend en dessous d'un certain seuil.
Pour les développeurs, cela correspond directement au Vibe Coding Playbook de Matthew Berman : décrire l'intention, les contraintes et la "vibe" souhaitée, puis laisser les agents gérer le câblage. Au lieu d'intégrer manuellement 10 SDK, un développeur définit des objectifs tels que "surveiller le risque de désabonnement et lancer des expériences de rétention", et un graphe d'agents détermine quelles API appeler, quels tableaux de bord mettre à jour et quand alerter un humain sur Slack. Le codage devient davantage une question de spécification des garde-fous et moins d'écriture de code de liaison.
Les entreprises voient cela comme un levier, pas une nouveauté. Une startup de 10 personnes peut créer une "équipe de croissance AI" d'agents qui : - Récupèrent quotidiennement les changements de concurrents - Génèrent automatiquement des tests A/B - Poussent des mises à jour dans des outils comme Amplitude et les plateformes publicitaires
Chaque agent fonctionne 24 heures sur 24, 7 jours sur 7, coûte quelques centimes par heure et enregistre chaque décision pour des raisons de conformité et d'analyses post-mortem.
Les grandes plateformes s'affrontent pour posséder cette couche. Les dirigeants d'AWS évoquent désormais les flux de travail agentiques sur un pied d'égalité avec le silicium sur mesure et les bases de données vectorielles, positionnant Bedrock et Step Functions comme l'épine dorsale des systèmes multi-agents. Microsoft, Google et OpenAI convergent vers des piles similaires : des modèles hébergés, des magasins de mémoire, des bus d'événements et des moteurs de politiques adaptés aux agents qui agissent, et ne se contentent pas de discuter.
Un monde centré sur les agents semble différent pour les créateurs et les entreprises. Les produits se lancent avec « attribuer un agent à cela » intégré—recherche, prospection, assurance qualité, finances. Les feuilles de route commencent par « Quels agents possèdent ce processus ? » plutôt que « Quelle équipe peut libérer un sprint ? »
La prochaine frontière d'OpenAI : au-delà des modèles fondamentaux
La demande en IA d'entreprise dans les tableaux de bord d'OpenAI ressemble moins à une courbe et plus à un mur. Tejal Patwardhan a décrit une utilisation de clients du Fortune 500 multipliant d'un trimestre à l'autre alors que les équipes intègrent des modèles de type GPT dans les opérations de vente, le support client et les systèmes de connaissances internes, souvent via de discrets "projets pilotes silencieux" avant même que les DSI ne donnent leur accord. Pour OpenAI, ces schémas transforment la recherche abstraite en exigences concrètes pour les produits : fiabilité, latence, conformité et points d'intégration approfondis.
Après GPT-5.2, l'agenda de recherche d'OpenAI semble s'orienter vers des systèmes auto-améliorants plutôt que de simples monolithes plus grands. Pensez à des flottes de modèles qui se requalifient en continu sur des données approuvées par les utilisateurs, générant automatiquement des outils, et apprenant à orchestrer des agents spécialisés. Ce changement s'aligne avec ce que Fabian Stelzer construit chez Glif, où des réseaux d'agents enchaînent déjà des modèles, des API et de la mémoire ; pour un aperçu de cet avenir, consultez le site officiel de Glif.
Les commentaires de Patwardhan font allusion à une pile où les modèles agissent en tant que méta-optimisateurs : ils écrivent du code, conçoivent des expériences, évaluent des résultats et intègrent les meilleurs résultats dans de nouvelles versions. L'auto-jeu a transformé l'IA dans les jeux ; OpenAI souhaite désormais l'auto-itération dans la recherche, les workflows d'entreprise et même l'expérience utilisateur des produits. L'évaluation devient aussi stratégique que les données d'entraînement, avec des benchmarks synthétiques et des tests de stress basés sur des agents fonctionnant en continu.
Les délais prévus pour que l'IA génère le « plus de nouvelles connaissances » d'ici 2028 divisent le panel. Les optimistes soutiennent qu'une fois que les modèles peuvent proposer de manière autonome des hypothèses, exécuter des simulations et explorer des données multimodales, la production scientifique pourrait exploser de 10 fois dans des domaines spécifiques comme la science des matériaux ou la découverte de médicaments. Les sceptiques rétorquent que des goulets d'étranglement — validation en laboratoire, réglementation et conservatisme institutionnel — limiteront l'impact bien après que les modèles aient dépassé l'examen des écrits humains.
Les futurs invités de Forward ont souligné trois contraintes qui rendent l'objectif de 90 % de connaissances générées par l'IA dans 2 à 3 ans ambitieux : - Plafonds matériels et énergétiques - Cadres juridiques et de sécurité - Confiance humaine et taux d'adoption.
Pour les entreprises qui planifient leurs feuilles de route de 2026 à 2028, la trajectoire d'OpenAI impose des choix difficiles. Miser uniquement sur des modèles fondamentaux statiques risque de devenir obsolète alors que les concurrents adoptent des piles agentiques et auto-améliorantes capables de reconfigurer les flux de travail chaque semaine. Les équipes plus astucieuses prévoient des budgets pour une intégration continue avec les API d'OpenAI, une gouvernance des données qui anticipe le recyclage automatisé et des organigrammes où les "opérations AI" côtoient DevOps et la sécurité.
Avertissement de Vanta : l'énorme point aveugle de sécurité de l'IA.
La confiance se brise plus rapidement que tout modèle ne peut le compléter, et Christina Cacioppo et Jeremy Epling considèrent cela comme la véritable limite de l'IA. De leur point de vue chez Vanta, les entreprises n'adoptent pas seulement des systèmes de type GPT ; elles les intègrent discrètement dans les données clients, le code de production et la prise de décision sans rien qui ressemble à un examen de sécurité.
Se précipiter pour intégrer des modèles dans des CRM, des dépôts de code et des systèmes de paiement crée un nouveau rayon d'explosion. Un assistant IA "innocent" capable de lire les tickets Jira, les logs Stripe et les messages privés Slack devient un outil de déplacement latéral parfait dès qu'une seule clé API fuit ou qu'un jeton OAuth est volé.
Les listes de vérification traditionnelles en matière de sécurité des applications ne s'appliquent pas clairement au comportement de l'IA. Les modèles peuvent exfiltrer des données par le biais de sorties, divulguer des exemples d'entraînement et inférer des attributs sensibles à partir de journaux "anonymisés". L'injection de commandes, le sabotage de données et les contournements ne sont plus hypothétiques ; ils représentent la nouvelle injection SQL, et la plupart des équipes de sécurité n’ont pas de protocoles ou de surveillance à cet égard.
Cacioppo et Epling soutiennent que les équipes de conformité sont confrontées à un dilemme : les régulateurs exigent un contrôle sur des systèmes opaques que les fournisseurs ne peuvent pas expliquer complètement. Lorsqu'un modèle hallucine une recommandation financière ou redirige des informations de santé protégées, qui possède le rapport d'incident : l'entreprise, le fournisseur du modèle ou l'intégrateur qui assemble le tout ?
La réglementation n'amplifie que le chaos. Les entreprises développant des produits d'IA à l'échelle nationale doivent naviguer à travers un patchwork de : - projets de loi sur l'IA au niveau des États - règles sectorielles pour la santé, la finance et l'éducation - cadres émergents pour l'IA au niveau fédéral et de l'UE
Les lois bloquées ou en attente ne réduisent pas les frictions ; elles créent de l'incertitude. Les équipes retardent les fonctionnalités ou restreignent discrètement certaines capacités, car personne ne souhaite lancer un outil de souscription par IA ou un filtre de recrutement qui pourrait enfreindre un statut ravivé ou une nouvelle interprétation de la FTC six mois plus tard.
La sécurité, dans le cadre de Vanta, ne peut pas être considérée comme une simple case à cocher en fin de processus. Traiter la confiance et la conformité comme des exigences produit de premier ordre—minimisation des données, journaux auditables pour chaque décision d'IA, provenance claire des modèles—deviendra le seul moyen de continuer à livrer une fois que les régulateurs, les auditeurs et les clients seront à jour.
Les entreprises qui gagneront la course à l'IA de 2026 n'auront pas seulement des agents plus rapides ou des GPU plus puissants. Elles disposeront d'une trace de preuves : des rapports SOC 2 incluant des systèmes d'IA, un scoring de risque en temps réel pour les requêtes et les résultats, et une histoire sur la sécurité qui peut survivre à la fois à une violation et à une citation à comparaître.
Les données sont rois : Amplitude sur l'impact réel de l'IA
Les données, et non les ressentis, déterminent si l'IA fonctionne vraiment. C'est l'argument principal de Spenser Skates : si vous ne mesurez pas chaque clic, chaque prompt et chaque complétion avec un outil d'analyse produit comme Amplitude, vous n'êtes qu'en train de deviner. Les DAU, les courbes de rétention et les abandons dans le tunnel révèlent quelles fonctionnalités d'IA les utilisateurs adoptent, ignorent ou contournent activement.
Skates pousse les entreprises à suivre l'utilisation de l'IA au niveau des fonctionnalités, et non comme un simple ensemble d'« engagements IA ». Les équipes doivent savoir si un assistant de rédaction IA augmente de 20 % le taux d'achèvement des documents, ou si un copilote de support réduit le temps moyen de traitement de 7 minutes à 3. Sans cette télémétrie comportementale, les dirigeants ne voient qu'une ligne dans la facture cloud, sans savoir si cela a modifié le comportement des utilisateurs.
Le retour sur investissement pour l'IA, soutient-il, réside dans une chaîne simple : appel du modèle → action de l'utilisateur → résultat commercial. Vous mesurez cela en liant les événements d'IA à des indicateurs tels que : - Taux d'achèvement des tâches - Temps jusqu'à la valeur ou temps jusqu'à la résolution - Conversion, expansion et taux d'attrition
Si une fonction de recherche AI augmente le taux de requêtes réussies de 55 % à 80 % et accroît la conversion de 5 %, c'est un retour sur investissement rentable, et non une victoire sur le terrain de démonstration.
Les données transcendent également la guerre marketing entre ChatGPT, Gemini, Claude et les autres. Le monde de Skates se soucie moins du modèle qui obtient le meilleur score sur des benchmarks synthétiques et davantage de celui qui génère le plus de documents expédiés, de tickets fermés ou de tableaux de bord créés par utilisateur actif. Lorsque vous testez des modèles en A/B derrière la même interface utilisateur, les analyses révèlent un gagnant clair en termes de succès des tâches et de fidélité des utilisateurs.
Cette télémétrie devient un tableau de scores en temps réel pour la course des plateformes d'IA. Si un passage d'un LLM à un autre fait chuter discrètement l'utilisation active hebdomadaire de 10 % ou augmente les clics de rage déclenchés par des erreurs, vous savez que le modèle "moins cher" vous a réellement coûté de l'argent. Le paysage concurrentiel ne se réduit plus à un concours de battage médiatique, mais devient un ensemble de données.
L'itération continue repose sur cette pile de mesures. Les équipes qui déploient des fonctionnalités d'IA chaque semaine peuvent consulter des graphiques de cohorte et des rapports de parcours pour observer comment les utilisateurs s'adaptent, puis affiner les invites, les garde-fous et l'UX. Le message de Skates : les entreprises qui réussiront dans l'IA ne se contenteront pas d'ajuster des modèles ; elles affineront le comportement, en utilisant les données comme boucle de rétroaction.
L'accord VC de 15 minutes : L'IA est-elle dans une bulle ?
Les fiches de conditions de quinze minutes sont discrètement devenues la nouvelle norme dans l'IA, avec des tours de financement en seed et en série A se concluant lors d'un seul appel Zoom et d'une page Notion partagée. Les investisseurs à la recherche d'un potentiel "une fois par génération" se devancent les uns les autres avec une diligence légère, pariant que manquer la prochaine OpenAI est plus douloureux que de soutenir dix futures pertes. Les co-fondateurs se vantent de captures d'écran de calendrier où une présentation froide se transforme en un SAFE signé avant le déjeuner.
Le capital hyper-accéléré présente des avantages évidents. Des équipes comme Glif peuvent recruter des ingénieurs, acheter du temps de GPU et expédier des fonctionnalités agentiques des mois plus vite que les startups SaaS traditionnelles ne l'ont jamais fait. Tejal Patwardhan d'OpenAI a décrit des entreprises qui passent de projets pilotes à des contrats de plusieurs millions de dollars en un trimestre, ce qui rend la rapidité un choix par défaut rationnel—mais risqué.
Les coûts s'accumulent tout aussi rapidement. Christina Cacioppo et Jeremy Epling ont averti que la conformité, le SOC 2 et la gouvernance des données ne suivent que rarement le rythme des transactions de 15 minutes, laissant la sécurité comme un ajout plutôt qu'une contrainte de conception. La croissance de Vanta elle-même reflète combien d'entreprises d'IA ont besoin d'une couche de confiance ajoutée après le pic de financement ; plus de détails se trouvent sur le site officiel de Vanta.
Derrière la frénésie se cache une course à l'infrastructure brutale. Les startups dépensent des capitaux frais sur des clusters NVIDIA H100, des baux A100 rares, ou des accéléreurs de type Groq, s'engageant souvent à des minimums cloud sur plusieurs années avec AWS, Azure ou Google Cloud. Si vous manquez une fenêtre d'allocation GPU, tout votre calendrier glisse d'un trimestre.
Cette course s'étend aux personnes, pas seulement aux puces. Les co-fondateurs courtisent des anciens chercheurs de DeepMind et OpenAI avec des compensations totalisant plus de 500 000 $ et des actions qui supposent des résultats de décacorne d'ici 2027. Spenser Skates d'Amplitude a soutenu que les acteurs établis riches en données peuvent dépenser davantage que les équipes en phase de démarrage en matière de talents et d'infrastructure, contraignant les plus petits acteurs à se concentrer sur des niches étroites ou à adopter des fusions et acquisitions agressives.
Les délais compressés déforment la stratégie produit. Au lieu de valider les cas d'utilisation avec des analyses minutieuses, de nombreuses startups d'IA lancent des copilotes à moitié finis, puis s'affolent lorsque la rétention et l'utilisation quotidienne active s'effondrent. Les conseils d'administration s'attendent à des changements radicaux « au niveau de GPT-4 » tous les 6 à 9 mois, même si la formation des modèles, les évaluations et les examens de sécurité ne se compressent pas sur la même courbe.
Bulle ou non, le marché intègre déjà des résultats de science-fiction. Si ces avancées prennent du retard - parce que les puces restent rares, que les régulateurs se durcissent, ou que les utilisateurs atteignent tout simplement un plateau - les affaires d'aujourd'hui en 15 minutes pourraient devenir demain des down-rounds longs et désagréables.
La bataille pour l'âme de l'IA : Ouvert contre Fermé
L'IA ouverte contre l'IA fermée ne ressemble plus à une guerre culturelle sur GitHub ; c'est un combat pour le contrôle de la cognition à grande échelle. D'un côté se trouvent des piles centralisées comme OpenAI, Anthropic et Google, qui regroupent des modèles de pointe, l'hébergement et des couches de sécurité derrière des API. De l'autre, la famille Llama de Meta et une multitude de petits laboratoires défendent des licences permissives, l'inférence locale et des poids de modèle que vous pouvez réellement toucher.
Les partisans des systèmes fermés soutiennent que seuls des systèmes strictement contrôlés peuvent gérer des modèles de trillions de paramètres, des investissements de formation de plusieurs milliards de dollars et les régimes de sécurité exigés par les régulateurs. Les pro-logiciels open source répliquent que la reproductibilité et la possibilité de bifurcation sont les seules véritables protections contre la concentration du pouvoir en intelligence artificielle. Ils citent Llama 3, Mistral et des dérivés open DeepSeek comme preuve que la qualité n’appartient plus exclusivement aux laboratoires scellés.
La géopolitique traverse désormais directement les cartes des modèles. Les startups américaines parlent de plus en plus d'« américaniser » des modèles étrangers puissants comme DeepSeek : supprimer ou retrainer les données alignées sur le PCC, ajouter des garde-fous juridiques américains et acheminer tout via des fournisseurs de cloud américains. Washington, Bruxelles et Pékin souhaitent tous une IA de pointe qui soit conforme à leurs propres lois, langues et valeurs.
Cela crée une dynamique étrange : des poids ouverts entraînés en Chine ou en Europe, légèrement adaptés par des entreprises américaines, puis réexportés comme des produits d'entreprise "sûrs". Les partisans d'une politique stricte s'inquiètent que cela fasse toujours fuir des capacités à travers les frontières ; les défenseurs du code source ouvert soutiennent que tenter de mettre des frontières nationales autour des mathématiques échouera, tout comme cela a été le cas avec la cryptographie forte dans les années 1990.
Sous les luttes liées aux licences se cache une fracture philosophique plus profonde. Certains laboratoires poursuivent discrètement l'idée d'une superintelligence unique et massivement capable, agissant comme un service public mondial : un modèle, de nombreux utilisateurs. D'autres, y compris des plateformes axées sur les agents comme Glif, imaginent des milliards de petits agents personnalisés adaptés aux préférences, aux données et à la tolérance au risque de chaque personne.
Les développeurs se trouvent à la frontière. Les APIs fermées offrent une échelle instantanée, des SLA de disponibilité et des cases à cocher pour la conformité que Vanta peut auditer, mais elles verrouillent les équipes dans des prix, des politiques de contenu et des mises à jour de modèles opaques. Les modèles ouverts permettent aux ingénieurs de fixer les versions, de peaufiner sur des données propriétaires et de fonctionner localement ou sur des GPU moins chers, au prix d'un travail d'exploitation supplémentaire et d'une responsabilité accrue en matière de sécurité.
La distribution de pouvoir à l'ère de l'IA suivra probablement ce choix. Si les plateformes fermées l'emportent, quelques entreprises américaines et chinoises deviendront effectivement des utilités cognitives, louant leur capacité de raisonnement. Si les écosystèmes ouverts continuent de se développer, l'IA ressemblera davantage à Linux ou Android : désordonnée, fragmentée, mais finalement contrôlée par le plus grand nombre, et non par un petit groupe.
Le Dernier Avertissement de l'Humanité ? L'Avenir du Travail Redéfini
Le dernier guide de l'ingénierie des prompts de l'humanité, que Berman présente comme un manuel de survie, ressemble moins à une aide-mémoire et plus à une description de poste pour la prochaine décennie : vous ne serez pas la personne qui effectue le travail, vous serez la personne qui dit à une armée d'agents d'IA quoi faire. Proposer des prompts cesse d'être un tour de magie et devient une science du management, plus proche de la rédaction d'une spécification produit ou d'un document juridique que de discuter avec un bot.
Les flux de travail qui étaient autrefois linéaires se fragmentent déjà en essaims d'agents. Un marketeur ne "crée plus une campagne" ; il orchestre une série d'agents qui : - Récupèrent des données sur les concurrents - Génèrent des variantes de textes - Exécutent automatiquement des tests A/B dans Amplitude - Envoient des actifs vers les plateformes publicitaires
Dans ce monde, les titres de poste mutent discrètement. Un « analyste senior » commence à ressembler à un chef d'équipe IA, supervisant 10 à 50 agents, vérifiant les cas particuliers et établissant des garde-fous plutôt que de construire des tableaux de bord ligne par ligne. Les développeurs passent de l’écriture manuelle de code standard à la conception de systèmes agissants qui appellent des API, surveillent les journaux et se réparent eux-mêmes.
Les interfaces dépassent également l'onglet du navigateur. Les interfaces conversationnelles sont déjà présentes dans Slack, Notion et Figma ; d'ici 2026, le public de Berman s'attend à des surfaces natives d'IA comme des lunettes intelligentes de style Gemini, des dispositifs portables inspirés de Limitless de Meta, et des écouteurs sensibles au contexte qui écoutent les réunions et chuchotent des actions suggérées. Votre « ordinateur » devient un maillage de capteurs, de caméras et de micros alimentant un agent persistant qui connaît votre calendrier, votre base de code et vos contrats.
Cela change même ce que signifie « logiciel de productivité ». Au lieu d'applications, les gens s'abonnent à des équipes d'IA verticales : une équipe financière qui clôture les comptes, une équipe commerciale qui priorise les prospects, une équipe de conformité qui prépare les audits Vanta. Le travail humain se déplace vers l'évaluation des compromis : coût vs. précision, risque vs. rapidité, vie privée vs. personnalisation.
Le récit catastrophique—l'IA comme pur destructeur d'emplois—manque cette réaffectation. Les invités de Berman présentent l'IA à plusieurs reprises comme un multiplicateur de force qui crée de nouvelles catégories de productivité : une personne gérant ce qui était autrefois un service administratif de 20 personnes, ou un co-fondateur seul mettant en place toute une machine de mise sur le marché en un week-end. La difficulté ne sera pas de trouver des tâches pour l'IA ; ce sera de former les humains suffisamment rapidement pour gérer ce dont ils sont soudainement devenus capables.
La guerre des infrastructures que vous ne voyez pas
Le pouvoir, et non les invites, détermine qui expédie réellement l'IA. Sous chaque démonstration d'agent et chaque mise à jour de GPT se cache une course d'infrastructure brutale dont parlent constamment les habitués de Forward Future, mais que les consommateurs voient rarement. Les GPU, les centres de données et les liaisons en fibre optique fonctionnent désormais comme les véritables limites de l'API.
Les décideurs américains considèrent enfin la capacité de semi-conducteurs comme une question de sécurité nationale. La loi CHIPS et Science réserve plus de 52 milliards de dollars pour relocaliser les usines avancées, TSMC, Intel et Samsung construisant ou étendant des installations en Arizona, dans l'Ohio et au Texas. Quiconque contrôle la production en dessous de 3 nm contrôle la rapidité avec laquelle la prochaine génération de modèles peut être formée.
Ce changement transforme les usines basées aux États-Unis en points névralgiques géopolitiques. Les contrôles à l'exportation restreignent déjà les expéditions de haute technologie NVIDIA H100 et B200 vers la Chine, fragmentant l'écosystème mondial de l'IA. Des blocs rivaux sont désormais en course pour sécuriser leurs propres talents en design, outils de lithographie et capacités d'emballage afin d'éviter de se retrouver du mauvais côté d'une interruption de l'approvisionnement.
Le silicium seul ne gagne pas cette guerre ; ce sont les personnes qui le font. Les meilleurs chercheurs en IA et les ingénieurs en infrastructure commandent des packages de rémunération qui dépassent régulièrement 1 à 3 millions de dollars par an en espèces et en actions. OpenAI, Google DeepMind, Meta et une multitude de startups bien financées se recrutent discrètement entre elles chaque trimestre, et un seul départ peut faire basculer toute une feuille de route produit.
Cet écart de talents se manifeste par la rapidité avec laquelle les équipes peuvent exploiter le nouveau matériel. Former un modèle de pointe nécessite désormais des centaines de milliers d'accélérateurs, un logiciel d'orchestration qui ne s'effondre pas à plus de 10 000 nœuds, et des ingénieurs capables de réduire les pertes d'utilisation de quelques points de pourcentage. Les entreprises qui ne peuvent pas recruter ces spécialistes finissent par louer de la capacité à celles qui le peuvent.
Groq illustre la pression exercée sur les natifs de l'infrastructure. Ses clusters d'inférence basés sur le LPU offrent un débit de tokens époustouflant, mais la demande croissante des plateformes d'agents et des copilotes d'entreprise dépasse déjà les listes d'attente et les plafonds de capacité régionaux. Lorsque qu'une seule application virale peut multiplier l'utilisation par 10 à 20 fois du jour au lendemain, même les fournisseurs bien capitalisés se précipitent pour ajouter des racks, de l'énergie et du refroidissement.
Forward Future invite les futurs invités à considérer cela comme un nouveau type de verrouillage de plateforme. Les constructeurs qui souhaitent comprendre où se situent les véritables contraintes—puces, énergie, bande passante, ou savoir-faire—finissent par suivre l'actualité des infrastructures aussi attentivement que les lancements de modèles, souvent en commençant par des hubs comme **Forward Future par Matthew Berman**.
Votre Plan d'Action 2026 : Ce que les Constructeurs font ensuite
Le momentum favorise désormais les personnes capables de livrer des produits d'IA, et pas seulement d'en parler. Au cours des 12 à 18 prochains mois, les bâtisseurs doivent considérer les agents, les données et la sécurité comme des fonctionnalités de premier plan, et non comme des idées après coup. Cela signifie passer de « nous avons ajouté un LLM » à « notre flux de travail entier fonctionne sur des agents autonomes qui sont observables, testables et responsables.**
Commencez par des flux de travail agentiques. Des outils comme Glif indiquent un défaut à court terme où les produits orchestrent des flottes d'agents spécialisés : un pour la recherche, un pour l'exécution, un pour l'assurance qualité. Les développeurs devraient prototyper des flux étroits à fort retour sur investissement—prise de contact commerciale, tri de support, opérations internes—puis connecter les agents avec des transitions claires et une possibilité de sursis humain.
La demande des entreprises explose autour de plateformes comme OpenAI, mais les entreprises achètent de la fiabilité, pas des démonstrations. Les développeurs doivent concevoir en tenant compte des SLA, de l'auditabilité et de la redondance des fournisseurs entre OpenAI, Anthropic et les modèles ouverts. Cela inclut des stratégies de changement de modèle explicites, des budgets de latence et des contrôles de coûts intégrés dans l'architecture, et non ajoutés lors de l'approvisionnement.
La sécurité décide maintenant de qui peut être déployé à grande échelle. Le message de Vanta est clair : l'IA sans gouvernance devient un moteur d'exfiltration de données non surveillé. Les équipes devraient : - Classifier les données avant qu'elles n'atteignent un modèle - Enregistrer chaque invite et réponse touchant des systèmes sensibles - Cartographier l'utilisation de l'IA aux exigences SOC 2, ISO 27001 et aux règles sectorielles dès le premier jour
La stratégie de données sépare les jouets des entreprises durables. Le monde de Spenser Skates chez Amplitude tourne autour de l'instrumentation de chaque interaction avec l'IA : invites, réponses, modifications des utilisateurs, actions en aval. Les créateurs devraient traiter les fonctionnalités d'IA comme n'importe quelle expérience de croissance : réaliser des tests A/B sur les invites, mesurer l'impact sur la rétention, et abandonner ce qui ne fait pas évoluer les indicateurs clés.
Personne n'a besoin de faire cela en isolation. L'écosystème Forward Future de Matthew Berman—newsletter, répertoire d'outils, et communauté—fonctionne comme une carte en temps réel de ce qui fonctionne chez plus de 500 000 créateurs. Utilisez-le pour évaluer des stacks, découvrir des outils centrés sur l'utilisateur et suivre l'évolution des meilleures pratiques.
L'année et demie à venir établira la hiérarchie permanente des gagnants de l'IA. Les infrastructures matérielles, les capacités des modèles et les contrats d'entreprise se solidifieront d'ici 2026. Quiconque souhaite s'implanter dans l'économie de l'IA doit expédier des agents, sécuriser des données et mesurer l'impact réel—maintenant, pas lors du prochain cycle de financement.
Questions Fréquemment Posées
Qu'est-ce que Glif et de quoi son co-fondateur a-t-il discuté ?
Glif est une plateforme de création et d'utilisation d'agents IA. Le co-fondateur Fabian Stelzer a discuté de la transition des outils IA à requête unique vers des flux de travail agentiques complexes et interconnectés qui automatiseront des processus entiers pour les développeurs et les entreprises.
Comment Vanta s'attaque-t-elle aux risques de sécurité liés à l'IA ?
Vanta, représentée par son PDG et son CPO, se concentre sur la confiance et la conformité pour les systèmes d'IA. Ils ont souligné l'urgence de mettre en place des cadres de sécurité robustes pour gérer les risques alors que les entreprises adoptent rapidement l'IA, en particulier avec l'évolution des réglementations.
Quelles ont été les principales conclusions de la chercheuse d'OpenAI ?
Le chercheur d'OpenAI, Tejal Patwardhan, a probablement fourni des informations sur l'énorme augmentation de l'adoption de l'IA dans les entreprises. La discussion a évoqué les futurs développements de modèles au-delà de GPT-5, y compris l'IA auto-améliorante et des délais ambitieux pour la génération de connaissances par l'IA.
Pourquoi l'analyse des données est-elle importante pour l'avenir de l'IA ?
Spenser Skates, PDG d'Amplitude, a souligné que l'analyse des données est essentielle pour comprendre la réaction des utilisateurs à l'IA dans le monde réel et le retour sur investissement. Les données aident les entreprises à mesurer l'impact réel des fonctionnalités de l'IA et orientent le développement futur des produits.