Le Responsable de l'IA de Microsoft : Le Piège des Deux Personnes

L'EVP de l'IA de Microsoft révèle pourquoi la plupart des gens utilisent l'IA de manière incorrecte, les classant en deux groupes distincts. Découvrez le changement culturel nécessaire pour survivre et prospérer dans la nouvelle ère du développement logiciel.

Stork.AI
Hero image for: Le Responsable de l'IA de Microsoft : Le Piège des Deux Personnes
💡

TL;DR / Key Takeaways

L'EVP de l'IA de Microsoft révèle pourquoi la plupart des gens utilisent l'IA de manière incorrecte, les classant en deux groupes distincts. Découvrez le changement culturel nécessaire pour survivre et prospérer dans la nouvelle ère du développement logiciel.

La nouvelle 'Factory Agent' de Microsoft est arrivée.

Microsoft a discrètement réorganisé son organigramme AI cette année, et le nouveau circuit passe par Core AI, une équipe qui fusionne ce qui était autrefois des univers séparés : la division des développeurs et le groupe d'infrastructure cloud. Jay Parikh, qui rend directement compte à Satya Nadella, est maintenant responsable de tout, des outils de style Visual Studio et GitHub aux clusters Azure qui entraînent et exécutent de grands modèles de langage. Au lieu de faire des allers-retours de fonctionnalités entre des équipes cloisonnées, Core AI fonctionne comme un groupe de produits unique avec un seul mandat : construire l'infrastructure sur laquelle tout le monde pourra s'appuyer.

Parikh décrit cette pile comme « évolutive », mais les contours sont déjà clairs. Au sommet se trouvent des outils natifs à l'IA qui réinventent la manière dont les logiciels sont écrits, testés et livrés, avec des copilotes intégrés tout au long du cycle de développement plutôt que fixés à un IDE. En dessous se trouve Foundry, la soi-disant « usine d'agents » de Microsoft, une plateforme où les entreprises conçoivent, déploient et surveillent des agents IA qui agissent plus comme des employés numériques que comme des applications statiques.

Foundry n'est pas simplement une couche d'hébergement ; c'est le point central de la stack. C'est ici que les entreprises intègrent des agents dans des données internes, les connectent à des outils et des API, et les observent fonctionner en production avec une visibilité qui ressemble davantage à un centre d'opérations de sécurité qu'à un tableau de bord traditionnel. Microsoft souhaite que Foundry soit l'endroit où les développeurs cessent de lutter avec des modèles bruts et commencent à composer des comportements de niveau supérieur.

Au cœur de tout cela se trouve une couche de sécurité et de confiance qui suppose que l'IA est non-deterministe et potentiellement dangereuse dès le départ. Plutôt que de recourir à des audits a posteriori, Core AI intègre des contrôles politiques, des garde-fous et des points de conformité au même niveau où les agents obtiennent leur accès aux outils et aux données. L'objectif est d'appliquer le principe du "sécurisé par défaut" aux systèmes de raisonnement qui planifient, utilisent des outils et agissent de manière autonome au sein des flux de travail les plus sensibles d'une entreprise.

Enfin, Microsoft conçoit l'architecture pour un déploiement flexible : d'abord dans le cloud, mais pas uniquement dans le cloud. Le même modèle de programmation doit s'étendre sur les régions Azure, les clouds souverains réglementés et le matériel en périphérie dans les usines, les magasins de détail ou les appareils de terrain. Pour les développeurs, cette abstraction est essentielle : un seul modèle de comportement des agents, quel que soit l'emplacement physique des GPU, CPU ou données.

La véritable raison d'un retour complet au bureau.

Illustration : La véritable raison d'un retour complet au bureau
Illustration : La véritable raison d'un retour complet au bureau

La nouvelle équipe de cerveaux AI de Microsoft revient à ses bureaux cinq jours par semaine, et ce n'est pas une nostalgie pour 2019 qui motive ce retour. Jay Parikh, vice-président exécutif de Core AI, affirme que lorsque les modèles, les outils et les protocoles comme MCP changent chaque semaine, une équipe répartie perd trop de temps à cause de boucles de rétroaction lentes et d'opportunités manquées.

Le pitch de Parikh est simple : l'IA évolue selon une courbe exponentielle et les humains ont besoin d'une boucle d'apprentissage tout aussi rapide pour rester à jour. Il affirme que le seul moyen d'y parvenir à grande échelle est une collaboration dense et en personne, où le coaching, le débogage et l'expérimentation se déroulent en continu, et non en créneaux horaires d'une heure planifiés sur Teams.

Dans les bureaux d'IA de Microsoft, un commentaire lâché peut être aussi précieux qu'une formation formelle. Un ingénieur pourrait évoquer un nouveau modèle de prompt Copilot qui a réduit le temps d'exécution d'une suite de tests de plusieurs heures à quelques minutes, ou une astuce pour enchaîner des outils via un agent qui divise par deux le temps de résolution des tickets de support, et soudain, l'ensemble de l'équipe progresse.

Ces micro-leçons se propagent rarement sur Slack ou par email avec la même fidélité. Dans un couloir, quelqu'un peut saisir un ordinateur portable, rejouer l'invite, ajuster l'échafaudage et observer les résultats changer en temps réel, avec trois autres personnes intervenant sur les fenêtres contextuelles, les données de référence ou les garde-fous.

Parikh le présente comme la création d'un "laboratoire vivant" où la découverte est sociale et continue. Au lieu que des individus expérimentent tranquillement avec Copilot en isolation, les équipes se regroupent sur des problèmes complexes : comment amener un agent à fonctionner en toute sécurité avec des données de production, comment réduire les hallucinations dans un flux de travail financier, comment concevoir des instructions que des non-ingénieurs peuvent réellement maintenir.

L'élément contre-intuitif est que la maîtrise d'un outil axé sur le numérique dépend maintenant fortement de la présence physique. Selon Parikh, plus l'IA est performante, plus le partage de modèles entre humains devient important, car la surface des flux de travail possibles explose et aucun ensemble de documentation ne peut suivre.

Le travail à distance reste pertinent pour des systèmes stables et bien compris. Mais pour l'architecture d'IA à la pointe de Microsoft - où les modèles, SDK et cibles de déploiement évoluent du cloud aux dispositifs edge en quelques mois - Parikh parie que la proximité, et non la bande passante, est le véritable multiplicateur de productivité.

C'est une guerre culturelle, pas une compétition technologique.

La culture, et non l'informatique, domine le calendrier de Jay Parikh. Il déclare qu'environ 90 pour cent de ses conversations avec des dirigeants de Fortune 500 n'ont rien à voir avec la taille des modèles, le nombre de GPU ou l'empreinte des centres de données, mais tout à voir avec la volonté de leurs organisations de changer la façon dont le travail se déroule au quotidien.

Microsoft essaie de se servir de lui-même comme cobaye pour ce changement. Au sein de Core AI, Parikh souligne un programme appelé Thrive Inside, qui suit la façon dont les employés utilisent leur temps et s'attaque à la lenteur de “la gestion des affaires” — rapports de statut, coordination, documentation manuelle — avec des agents de style Copilot qui résument, rédigent et acheminent le travail automatiquement.

L'objectif semble simple et brutal : récupérer des heures et les réaffecter au produit. Au lieu que les ingénieurs et les chefs de produit gaspillent leur temps sur des opérations administratives, Thrive Inside vise à consacrer davantage de temps à la conception de nouvelles fonctionnalités, à la réalisation d'expériences et à la discussion avec les clients—exactement le genre de travail que l'IA ne peut pas encore faire pour eux.

Cette réorientation modifie la façon dont les équipes développent des logiciels. Plutôt que de créer manuellement un seul prototype et d'attendre des semaines pour des retours, Parikh veut que les équipes génèrent cinq variations créées par IA simultanément, les expédient à des utilisateurs internes ou externes, et observent ce qui fonctionne réellement.

Le prototypage rapide et parallèle ne fonctionne que si la direction accepte un pipeline plus désordonné. Cela signifie plus d'idées inachevées présentées aux utilisateurs, plus d'expériences interrompues rapidement, et des feuilles de route produit qui s'adaptent en fonction des données plutôt qu'en fonction de ce qu'un comité directeur a décidé le trimestre précédent.

Parikh soutient que c'est là que la plupart des entreprises stagnent. Les approbations budgétaires arrivent, les fournisseurs se présentent, les talents sont disponibles—mais l'entreprise refuse de réécrire les flux de travail, les chaînes d'approbation et les structures d'incitation autour des méthodes de travail natives de l'IA.

Donc, le véritable avantage concurrentiel ne réside pas dans l'accès aux modèles ou aux partenariats comme ceux d'OpenAI. C'est plutôt de savoir si une entreprise va redéfinir son système d'exploitation pour correspondre à la pile d'IA intégrée verticalement que Microsoft propose dans Core AI et dans Introduction à CoreAI – Plateforme et Outils - Le Blog Officiel de Microsoft.

Votre titre de poste devient obsolète.

Des titres de postes comme « responsable produit » et « ingénieur front-end » commencent à sembler fragiles lorsque des outils peuvent franchir ces frontières en quelques secondes. Le groupe Core AI de Microsoft parle de « builders » plutôt que de développeurs pour une raison : le travail s'étend désormais sur un continuum allant de l'idée à la mise en production, et l'IA comble les lacunes entre les rôles traditionnels. Les garde-fous restent importants, mais les murs entre les disciplines s'effondrent.

Un chef de produit qui vivait autrefois dans Jira et PowerPoint peut désormais corriger un bogue à faible risque en collant un trace de pile dans GitHub Copilot ou un modèle local et en demandant un correctif. Il peut générer des tests unitaires, exécuter le pipeline et déployer un correctif sans attendre qu'un ingénieur se libère. Cela ne remplace pas les spécialistes, mais cela change radicalement qui peut toucher au code de production.

De l'autre côté, les ingénieurs systèmes et les SRE qui n'ont jamais ouvert Figma esquissent maintenant des flux d'interface utilisateur avec une simple invite. Ils décrivent un tableau de bord pour l'utilisation des GPU à travers les centres de données, et Copilot dans Visual Studio Code génère des composants React, du Tailwind CSS, et même des graphiques de télémétrie d'exemple. Un designer peut le peaufiner par la suite, mais le premier prototype interactif existe en quelques heures, et non en semaines.

Le travail cesse de ressembler à une course de relais entre des silos et commence à ressembler à une toile partagée. Une personne peut : - Rédiger du texte UX - Générer des stubs d'API - Configurer la journalisation - Lancer une expérience derrière un drapeau de fonctionnalité

Tous avec la même chaîne d'outils alimentée par l'IA, tout en faisant appel à des experts pour garantir l'échelle, la sécurité et le raffinement.

La propre vision d'« usine d'agents » de Microsoft intègre cela dans l'infrastructure : la même plateforme Foundry prend en charge la construction, le déploiement et l'observation des agents à travers le cloud et l'edge. Ce pipeline unifié encourage les équipes interfonctionnelles à travailler ensemble, à itérer les prompts, à ajuster le code d'infrastructure et à déployer en production dans des boucles serrées. Moins de transferts signifient moins d'exigences perdues et des retours plus rapides.

La convergence déclenche également des idées plus étranges et plus ambitieuses. Un ingénieur en sécurité peut prototyper un bot d'incidents auto-réparateur. Un analyste financier peut créer un microservice de prévision. Lorsque chacun peut créer, déployer et opérer, les titres de poste ont moins d'importance que ceux qui posent la question la plus intéressante — et qui peuvent faire fonctionner un agent pour y répondre.

Êtes-vous émerveillé ou frustré par l'IA ?

Illustration : Êtes-vous émerveillé ou frustré par l'IA ?
Illustration : Êtes-vous émerveillé ou frustré par l'IA ?

Jay Parikh dit que la plupart des personnes qu'il rencontre se divisent en deux camps en matière d'IA. Groupe 1 s'éloigne d'une réponse correcte de Copilot en disant : « Wow, c'est magique. » Groupe 2 s'éloigne de la même réponse en murmurant : « Pourquoi n'a-t-il pas également fait X, Y et Z ? » et commence immédiatement à expérimenter.

Le groupe 1 utilise l'IA comme un gadget de nouveauté. Ils copient un court e-mail, demandent un résumé, génèrent peut-être une diapositive une fois par semaine, et s'arrêtent dès qu'ils rencontrent la première réponse étrange ou hallucination. Leur courbe de compétence est en gros plate car leurs attentes demeurent basses et leur utilisation reste superficielle.

Le Groupe 2 considère l'IA comme un système d'exploitation pour leur journée de travail. Ils enchaînent les invites, intègrent les données de l'entreprise et poussent les agents à gérer des projets en plusieurs étapes : rédaction de contrats, refactorisation de code ancien, création de rapports clients à partir de CSV bruts. Ils vivent au cœur des messages d'erreur, apprennent des échecs et continuent d'augmenter la difficulté à mesure que les modèles s'améliorent mois après mois.

Les équipes de Parikh chez Microsoft appartiennent clairement à ce second groupe. Les ingénieurs principaux en IA se regroupent en personne pour déterminer comment faire en sorte que Copilot rédige des test harnesses, génère des tableaux de bord de télémétrie ou raisonne sur des journaux volumineux. Ils essaient quelque chose, observent les échecs, échangent des instructions et des outils, puis essaient à nouveau—car c’est ainsi que l’on reste sur ce que Parikh appelle la trajectoire exponentielle de cette technologie.

Temps de vérification : au cours de la semaine dernière, combien d'heures avez-vous réellement passé à l'intérieur d'un outil d'IA ? Si votre réponse est « quelques requêtes, peut-être 10 minutes au total », vous êtes dans le Groupe 1. Si vous mesurez l'utilisation en heures par jour et pouvez nommer au moins 3 flux de travail spécifiques que vous avez reconstruits autour de l'IA, vous vous dirigez vers le Groupe 2.

Posez-vous quelques questions plus difficiles : - Tenez-vous un document à jour des incitations et des astuces qui ont fonctionné ? - Avez-vous connecté l'IA à votre agenda, votre dépôt de code, votre CRM ou votre entrepôt de données ? - Avez-vous causé des problèmes au travail parce que vous avez trop fait confiance à un modèle, puis ajusté votre processus ?

Le groupe 1 bénéficiera d'une augmentation de la productivité marginale à mesure que l'IA s'améliore par défaut. Le groupe 2 remplacera discrètement les descriptions de postes. Lorsque Parikh affirme que les rôles traditionnels s'estompent, il parle de personnes qui utilisent l'IA pour effectuer 3 emplois à la fois : ingénieur, analyste et penseur de produit fusionnés en un seul « constructeur ».

Les carrières dépendent désormais de la courbe que vous choisissez. Être étonné est optionnel. Être frustré—et apprendre rapidement—est obligatoire.

L'état d'esprit d'un utilisateur avancé d'intelligence artificielle

Les utilisateurs du groupe 2 considèrent l'IA comme un nouveau langage de programmation auquel ils refusent de rester médiocres. Ils effectuent des tests côte à côte sur GPT-4o, Claude, Gemini et des modèles open-source, échangent des invites comme des extraits de code et gardent des repères mentaux sur le système qui gère le mieux le raisonnement à long contexte ou la sortie structurée. Ils ne font pas confiance au marketing des fournisseurs ; ils font confiance à leurs propres expériences.

Les habitudes semblent presque obsessionnelles. Elles enregistrent les incitations, suivent les échecs et itèrent jusqu'à ce qu'un flux de travail soit suffisamment fiable pour être exécuté quotidiennement. Lorsque un modèle hallucine, ils ne haussent pas les épaules et passent à autre chose ; ils redéfinissent l'incitation, ajoutent des outils ou changent le modèle, puis documentent ce qui a résolu le problème.

Sous le capot, ils apprennent discrètement l'ingénierie de contexte. Ils pensent en tokens et en récupération, pas en sensations : ce qui entre dans l'invite du système, ce qui reste dans l'entrée de l'utilisateur, ce qui passe dans un stockage vectoriel. Ils conçoivent des schémas, découpent des documents et testent comment différentes fenêtres de contexte et températures affectent la latence et le coût.

Ils commencent également à parler le langage des métriques d'évaluation. Au lieu de dire "cela semble mieux", ils suivent : - Les taux de réussite des tâches sur 20 à 50 cas de test - La latence et le coût en dollars par tâche - Les types d'erreurs : hallucination, mise en forme, sécurité, mauvaise utilisation d'outils Ils construisent de petits dispositifs d'évaluation en Python ou utilisent des outils d'évaluation prêts à l'emploi pour éviter de mettre en production des agents basés sur des impressions.

À partir de là, beaucoup s'aventurent dans le fine-tuning et l'apprentissage par renforcement. Ils effectuent de petits ajustements spécifiques à un domaine sur des tickets de support ou des bases de code, puis les comparent à des sollicitations pures. Ils expérimentent l'apprentissage par renforcement basé sur les retours humains sur des agents internes, en récompensant des comportements tels que la discipline dans l'utilisation des outils ou le respect de la politique de l'entreprise.

La frustration est leur état par défaut—et leur meilleur signal. Lorsque vous continuez à toucher aux limites de ce que Copilot ou ChatGPT peuvent faire, cela signifie que vos ambitions ont dépassé "l'autocomplétion pour le travail" et sont passées à la conception de systèmes. Rencontrer ces obstacles vous oblige à apprendre comment les modèles se comportent réellement.

Le passage du Groupe 1 au Groupe 2 commence par une intention. Bloquez 30 à 60 minutes par jour pour : - Effectuer des tests A/B sur différents modèles - Créer un prompt ou un agent réutilisable par semaine - Noter les échecs et ce que vous avez modifié Des ressources comme Jay Parikh - Microsoft Build illustrent la direction que prend cet état d'esprit à grande échelle ; votre mission est de recréer cette boucle d'expérimentation à une échelle réduite.

Au-delà de Copilot : Vous gérerez bientôt des armées d'agents.

Copilot n'était que le niveau didactique. Le groupe Core AI de Jay Parikh joue déjà à un jeu différent : orchestrer des essaims d'agents spécialisés qui communiquent entre eux plus qu'ils ne vous parlent. Au lieu de demander à un modèle de « rédiger du code », des équipes avancées connectent des planificateurs, des codeurs, des testeurs et des examinateurs dans une petite entreprise de logiciels qui fonctionne sur du silicium.

À l'intérieur de Microsoft, certains des groupes les plus avancés évitent désormais de toucher à une seule ligne de code source. Les ingénieurs décrivent des flux de travail où ils définissent des spécifications, des contraintes et des interfaces à un niveau élevé, puis transmettent ce plan à une série d'agents fonctionnant sur la plateforme interne Foundry de Microsoft, une « usine d'agents ». L'attention humaine se déplace vers un niveau supérieur, visant à façonner le comportement et à établir des garde-fous, plutôt qu'à micromanager la syntaxe.

Un élément essentiel de cette pile est l'agent de vérification. Plutôt que de déverser du code généré par l'IA dans une file d'attente d'examen humain, les agents de vérification exécutent automatiquement des tests, des analyses statiques et des contrôles de politique, puis renvoient des retours structurés aux agents de codage. Le cycle se déroule ainsi : générer → vérifier → régénérer, se répétant plusieurs fois avant qu'un humain ne voit une différence.

Ce retour d'information ne se limite pas à "tests échoués". Les agents de vérification peuvent signaler des cas limites manquants, des régressions de performance, des violations de la politique de sécurité ou des ruptures de contrat d'API. Les agents de codage utilisent ensuite ce retour machine comme contexte, mettant à jour leurs propres invites et stratégies pour résoudre les problèmes de manière autonome. Les humains interviennent lorsque la boucle se bloque, et non pas à chaque fois qu'un bug trivial apparaît.

Les équipes de Parikh fonctionnent efficacement comme des usines de logiciels où des agents possèdent la ligne de production. Un agent pourrait s'occuper de l'expansion des exigences, un autre construit des services, un troisième gère l'observabilité, tandis que d'autres se spécialisent dans la documentation et les manifests de déploiement. Chaque agent expose des outils et des API à ses pairs, transformant un dépôt en un système multi-agents vivant plutôt qu'une pile de fichiers statiques.

Votre rôle dans ce monde ressemble beaucoup moins à celui de « développeur » et beaucoup plus à celui de « directeur d'usine ». Vous décidez quels agents déployer, quelles capacités leur accorder, jusqu'où restreindre leur accès aux données et quelles portes de vérification faire respecter. Le véritable pouvoir se déplace vers les personnes capables de concevoir, de planifier et de réguler ces armées d'agents, car le travail sur clavier devient rapidement la partie la moins importante.

La guerre invisible : la sécurité dans un monde agentique

Illustration : La Guerre Invisible : Sécurité dans un Monde Agentique
Illustration : La Guerre Invisible : Sécurité dans un Monde Agentique

Les agents d'IA non déterministes ne se contentent pas de mal se comporter ; ils créent une surface d'attaque complètement nouvelle. Les applications traditionnelles suivent des chemins de code fixes, mais les agents peuvent planifier, explorer des outils et improviser pour se mettre dans des situations délicates, même lorsque personne n'a explicitement codé ce comportement indésirable. Cette imprévisibilité brise des décennies d'hypothèses de sécurité construites autour de flux de travail répétables et vérifiables.

La sécurité des entreprises conventionnelle s'appuie sur des listes de contrôle statiques : niveaux de correctifs, contrôles d'accès basés sur les rôles, attestations de conformité. Les systèmes agentiques dépassent ce modèle car un seul agent peut, en temps réel, enchaîner des API, parcourir des bases de connaissances et synthétiser des actions à travers des environnements SaaS, sur site et en périphérie. Vous ne vous contentez plus de sécuriser des points de terminaison ; vous sécurisez un comportement émergent.

La sécurité pour les agents ressemble davantage à un contrôle aérien continu qu'à un test de pénétration ponctuel. Les entreprises auront besoin de : - Permissions fins et révocables pour les outils et les données - Moteurs de politiques qui évaluent chaque étape du plan d'un agent - "Disjoncteurs" en temps réel qui stoppent les chaînes d'actions suspectes Tout cela doit être observable, consigné et explicable aux auditeurs qui demanderont pourquoi une IA a agi comme elle l'a fait à 3h17.

Parikh revient constamment à un point : la sécurité et la confiance ne peuvent pas être ajoutées ultérieurement. Si un agent peut se connecter de manière autonome à un CRM, un ERP et un dépôt de code, toute mauvaise configuration devient un problème de zone d'impact, et non un simple problème de bug. Les garde-fous, la gouvernance et les tests de sécurité doivent être présents à tous les niveaux de la pile d'IA, de la sélection du modèle et de l'élaboration des invites jusqu'au déploiement et à la surveillance.

La plateforme Foundry de Microsoft—sa soi-disant "usine d'agents"—est l'endroit où ces principes sont armés pour les entreprises. Foundry vise à appliquer une orchestration consciente des politiques, à refuser par défaut l'accès aux outils et aux données, et à assurer une observabilité approfondie à travers des milliers d'agents fonctionnant dans Azure, sur site ou à la périphérie. Le message est simple mais agressif : si vous prévoyez de déchaîner des armées d'agents, la mission de Foundry est d'empêcher qu'un seul agent renégat ou compromis ne se transforme en un SolarWinds interne.

Propulser la Révolution : Datacenters et Énergie

Fairwater, le dernier campus de centres de données IA de Microsoft, est une admission silencieuse que le boom de l'IA est désormais un problème d'infrastructure autant qu'un problème de modèle. Entraîner et faire fonctionner Copilot, des modèles de classe GPT-4, et des flottes d'agents ne repose plus uniquement sur des architectures ingénieuses ; cela dépend de béton, d'acier et de mégawatts. Microsoft dépense des dizaines de milliards de dollars par an pour de nouveaux centres de données, des réseaux sur mesure et un refroidissement liquide juste pour suivre la demande.

Le discours sur les "GPU sombres" — des accélérateurs haut de gamme supposément inactifs — est en contradiction avec ce que Jay Parikh décrit sur le terrain. La capacité existe, mais elle est fragmentée à travers les régions, les types de produits et les topologies réseau, et souvent réservée des mois à l'avance pour des sessions d'entraînement hyperscale. Les véritables goulets d'étranglement se situent dans la livraison d'énergie, les enveloppes de refroidissement, et l'acheminement de connexions à large bande et faible latence vers les bons racks, et non dans des palettes de H100 inutilisées qui prennent la poussière.

L'énergie apparaît désormais comme le plafond infranchissable. Les centres de données liés à l'IA consomment déjà des dizaines de térawatt-heures chaque année, et les prévisions sectorielles des entreprises de services publics et des régulateurs annoncent une croissance à deux chiffres de la charge des centres de données au cours de la prochaine décennie. Les opérateurs de réseau aux États-Unis et en Europe avertissent que les grands campus d'IA peuvent nécessiter entre 1 et 5 GW chacun, équivalant à une ville de taille moyenne, entraînant des mises à niveau à long terme dans la transmission et la génération.

La réponse de Microsoft n'est pas simplement de « construire plus de centres de données », mais de « déplacer plus d'intelligence vers l'edge ». L'équipe de Parikh conçoit un modèle de programmation où des applications agentiques peuvent fonctionner sur quatre plans : cloud, centres de données régionaux, infrastructure sur site et appareils edge. Cette répartition réduit les allers-retours vers le cloud, réduit la bande passante et déplace une partie du calcul loin des installations les plus limitées en énergie.

Les agents orientés vers le edge créent également une histoire d'efficacité différente. Si un agent de l'atelier peut raisonner localement sur une passerelle équipée d'un GPU, le cloud ne voit que l'état résumé, et non les flux de données brutes des capteurs. La vision plus large de Microsoft sur "l'usine d'agents", détaillée dans De l'usine logicielle à l'usine d'agents : Comment Microsoft réinvente le développement, repose sur ce continuum : un entraînement intensif dans des centres de données hyperscale, l'orchestration dans le cloud et une inférence rapide et optimisée en énergie au edge.

Votre plan d'action pour l'ère de l'IA

Arrêtez de traiter ChatGPT ou Copilot comme un tour de magie. Traitez-les comme des stagiaires peu performants que vous êtes déterminé à transformer en opérateurs de niveau personnel. Si vous êtes encore "étonné" qu'un LLM puisse écrire un email, relevez le niveau : exigez du code fonctionnel, des analyses en plusieurs étapes et des ébauches de projet de bout en bout, puis insistez à nouveau lorsqu'il échoue.

Commencez chaque semaine en choisissant une tâche difficile et en demandant : « Que ferait Groupe 2 avec l'IA ici ? » Poussez le modèle à travers trois ou quatre itérations, changez de modèles (GPT-4, Claude, Gemini), et intégrez des outils réels : votre IDE, calendrier, CRM ou entrepôt de données. Évaluez-vous par les résultats : heures économisées, bugs corrigés, expériences réalisées.

L'apprentissage interfonctionnel devient désormais une compétence de survie. Si vous êtes ingénieur, utilisez GitHub Copilot ou GPT-4 pour construire un prototype UX rudimentaire dans Figma et rédiger le brief de lancement. Si vous êtes chef de projet, faites appel à l'IA pour vous guider dans le débogage d'un test échouant, générer un correctif et ouvrir une demande de tirage. Les designers peuvent utiliser des modèles pour créer des requêtes SQL, des tableaux de bord de télémétrie de base, ou même des modèles de menaces.

Pensez en systèmes, pas en invites. Prenez un projet complexe—par exemple, le lancement d'un nouvel outil interne—et décomposez-le en agents : - Agent de recherche : marché, concurrents, entretiens avec les utilisateurs - Agent architecte : exigences, schémas, compromis - Agent d'exécution : code, tests, scripts de déploiement - Agent de l'équipe rouge : sécurité, abus, modes de défaillance

Ensuite, rédigez le processus de transmission du travail, de la révision mutuelle et de l'escalade vers vous.

Au sein de votre entreprise, devenez la personne qui parle de culture, pas seulement d'outils. Organisez des « exercices d'IA » courts lors des réunions d'équipe, partagez des succès et des échecs concrets dans un post hebdomadaire, et poussez les dirigeants à récompenser les expériences, même celles qui échouent. Si le groupe core d'IA de Microsoft a besoin de collaboration en personne pour suivre le rythme, votre équipe a probablement besoin d'au moins un manuel d'IA vivant et respirant.

Questions Fréquemment Posées

Quelle est la nouvelle équipe d'IA Core de Microsoft ?

C'est une nouvelle division combinée dirigée par le vice-président exécutif Jay Parikh, intégrant des outils de développement, une infrastructure de base et des plateformes d'IA pour créer une 'pile' unifiée pour construire, déployer et sécuriser des agents et des applications d'IA.

Pourquoi l'équipe de Jay Parikh revient-elle au bureau à temps plein ?

Parikh pense que le rythme rapide et exponentiel du développement de l'IA nécessite une collaboration en personne, du coaching et de l'apprentissage. Il soutient que les équipes apprennent et s'adaptent plus rapidement ensemble, ce qui est essentiel pour rester à la pointe de l'innovation en IA.

Comment l'IA transforme-t-elle le rôle d'un développeur de logiciels ?

L'IA brouille les frontières entre des rôles tels que l'ingénierie, le produit et le design. Elle permet aux individus d'accomplir des tâches en dehors de leur domaine traditionnel, déplaçant l'accent de l'écriture de code vers l'orchestration d'agents IA, l'ingénierie du contexte et la validation des résultats.

Quels sont les deux types d'utilisateurs d'IA que Jay Parikh décrit ?

Le groupe 1 est facilement émerveillé par l'IA et l'utilise peu fréquemment, ayant des attentes faibles. Le groupe 2 utilise l'IA en permanence pour des tâches complexes, est souvent frustré par ses limites, et pousse activement ses frontières, profitant ainsi de la courbe d'apprentissage exponentielle.

Frequently Asked Questions

Êtes-vous émerveillé ou frustré par l'IA ?
See article for details.
Quelle est la nouvelle équipe d'IA Core de Microsoft ?
C'est une nouvelle division combinée dirigée par le vice-président exécutif Jay Parikh, intégrant des outils de développement, une infrastructure de base et des plateformes d'IA pour créer une 'pile' unifiée pour construire, déployer et sécuriser des agents et des applications d'IA.
Pourquoi l'équipe de Jay Parikh revient-elle au bureau à temps plein ?
Parikh pense que le rythme rapide et exponentiel du développement de l'IA nécessite une collaboration en personne, du coaching et de l'apprentissage. Il soutient que les équipes apprennent et s'adaptent plus rapidement ensemble, ce qui est essentiel pour rester à la pointe de l'innovation en IA.
Comment l'IA transforme-t-elle le rôle d'un développeur de logiciels ?
L'IA brouille les frontières entre des rôles tels que l'ingénierie, le produit et le design. Elle permet aux individus d'accomplir des tâches en dehors de leur domaine traditionnel, déplaçant l'accent de l'écriture de code vers l'orchestration d'agents IA, l'ingénierie du contexte et la validation des résultats.
Quels sont les deux types d'utilisateurs d'IA que Jay Parikh décrit ?
Le groupe 1 est facilement émerveillé par l'IA et l'utilise peu fréquemment, ayant des attentes faibles. Le groupe 2 utilise l'IA en permanence pour des tâches complexes, est souvent frustré par ses limites, et pousse activement ses frontières, profitant ainsi de la courbe d'apprentissage exponentielle.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts