Les PDG d'IA se mettent dans l'ombre. Voici pourquoi.

Les hauts dirigeants de l'IA annulent leurs apparitions publiques et construisent apparemment des bunkers. Ils savent qu'une massive vague de disruptions sociales et économiques est sur le point de frapper, et ils se préparent aux conséquences.

Stork.AI
Hero image for: Les PDG d'IA se mettent dans l'ombre. Voici pourquoi.
💡

TL;DR / Key Takeaways

Les hauts dirigeants de l'IA annulent leurs apparitions publiques et construisent apparemment des bunkers. Ils savent qu'une massive vague de disruptions sociales et économiques est sur le point de frapper, et ils se préparent aux conséquences.

La panique silencieuse dans la Silicon Valley

Les plus fervents partisans de l'IA se font soudainement rares. Emad Mostaque, le fondateur destitué de Stability AI, a lâché une véritable bombe lors d'un podcast : il connaît "beaucoup de PDG d'IA" qui ont annulé toutes leurs apparitions publiques, effrayés par ce qu'il appelle la "prochaine vague de sentiment anti-IA" qui pourrait survenir dès l'année prochaine.

Il ne parlait pas d'une recalibration des relations publiques après un mauvais cycle d'actualités. Il l'a présenté comme une posture de sécurité, une réponse à un avenir où l'IA cesse d'être une nouveauté et commence à saper massivement les emplois de cols blancs. En coulisses, les dirigeants considèrent cela comme une surface de risque, et non comme un défi de marque.

Ce retrait discret se heurte à un récit public qui considère toujours l'IA comme un outil de productivité brillant. Sur scène, l'IA est le "membre stupide de votre équipe", un stagiaire un peu trop enthousiaste qui rédige des e-mails et résume des réunions. Dans des mémos privés, les dirigeants parlent de modèles qui passent, presque du jour au lendemain, de l'assistant au remplaçant.

Dario Amodei chez Anthropic a déjà avancé un chiffre : l'IA pourrait faire grimper le chômage à 10–20 % d'ici 1 à 5 ans si son déploiement se déroule mal. En interne, les entreprises modélisent des scénarios où des analystes juniors, des codeurs, des assistants juridiques et des représentants du service client disparaissent des feuilles de paie. Les personnes qui construisent ces systèmes envisagent un calendrier mesuré en cycles de produits, et non en décennies.

Pendant ce temps, des fondateurs milliardaires investissent discrètement dans des bunkers, des complexes renforcés et des ranchs isolés. Le livre de Douglas Rushkoff, « La survie des plus riches », décrit des briefings à huis clos où les élites technologiques s’obsèdent pour des scénarios d'« événements » et comment garder la loyauté de leurs équipes de sécurité lorsque l’argent s’effondre. L’IA se trouve au cœur de ces fantasmes d’effondrement.

En public, les PDG de l'IA se retrouvent toujours sur les scènes de conférences et parlent d'« innovation responsable » et de « complémentarité, pas de remplacement des humains ». En privé, ils se retirent d'événements après avoir vu des figures politiques comme Charlie Kirk instrumenter la colère anti-IA et observer les attaques ciblant des PDG célèbres dans des affaires sans rapport. Le calcul passe de la visibilité à la survie.

C'est la tension centrale du boom de l'IA : plus la machine à hype est bruyante, plus ses architectes se font discrets. Les personnes les plus proches des modèles de pointe agissent comme si elles étaient également les plus proches du rayon d'explosion. Pour la première fois dans l'histoire de la technologie, les créateurs semblent se préparer à se cacher de leur propre création.

Le Point de Bascule de 2026

Illustration : Le point de basculement de 2026
Illustration : Le point de basculement de 2026

Appellez cela l'ère des « stagiaires maladroits » de l'IA. Les modèles de langage à grande échelle d'aujourd'hui ressemblent principalement à des juniors trop enthousiastes : ils rédigent des e-mails, résument des réunions et se laissent emporter par leur imagination dès que les tâches deviennent trop complexes. L'anxiété au sein des laboratoires d'IA provient d'une conviction partagée selon laquelle cette phase se termine brusquement lorsque les systèmes cessent d'être des outils et commencent à agir en tant qu'agents autonomes capables de planifier, d'exécuter et de faire évoluer des tâches avec un minimum de supervision.

Les chercheurs parlent d'un passage de « copilote » à « collègue que vous n'avez pas besoin de payer ». Au lieu de solliciter un chatbot 50 fois par jour, vous confiez à un agent d'IA votre CRM, votre code source et votre calendrier, et vous lui demandez d'augmenter les revenus de 10 % ou de déployer une nouvelle fonctionnalité. Cet agent enchaîne les outils, appelle des API, engage des prestataires, et ne sollicite un humain que pour obtenir une validation.

Pourquoi 2025–2026 ? Le matériel, l'échelle des modèles et les pipelines de données s'accumulent tous sur des cycles d'environ 6 à 12 mois. Les laboratoires de pointe forment déjà des modèles de classe trillions de paramètres ; deux générations supplémentaires pourraient produire des systèmes capables de combiner raisonnement, mémoire et utilisation d'outils suffisamment bien pour exécuter de manière autonome de vastes pans des flux de travail de cols blancs.

Goldman Sachs a estimé en 2023 que l'IA générative pourrait automatiser l'équivalent de 300 millions d'emplois à temps plein dans le monde et affecter deux tiers des postes actuels. À l'époque, cela semblait être une histoire à l'échelle d'une décennie. À l'intérieur des entreprises d'IA, l'horizon temporel s'est discrètement rétréci.

Le PDG d'Anthropic, Dario Amodei, a récemment déclaré à Axios que l'IA pourrait raisonnablement faire grimper le chômage à 10-20% d'ici 1 à 5 ans. Il l'a présenté comme un véritable risque probable, et non comme de la science-fiction : les analystes débutants, les assistants juridiques, les représentants du support et les ingénieurs juniors font tous partie des personnes concernées. Ce sont généralement celles que l'Amérique corporative licencie en premier.

La partie effrayante, c'est la forme de la courbe. Ce n'est pas prévu comme un chemin lisse de révolution industrielle où les travailleurs se requalifient lentement. Les initiés s'attendent à un effet de seuil : les modèles restent visiblement défaillants, puis une seule génération franchit un seuil de qualité et soudain, un « employé » IA remplace cinq humains dans une équipe.

Les marchés du travail ne digèrent pas ce genre de choc avec aisance. Les économies occidentales considèrent un taux de chômage de 5 % comme normal et 8 à 9 % comme une crise. Une montée vers 15 % en quelques années, concentrée parmi les travailleurs universitaires endettés, ressemble moins à une « disruption » et plus à un test de légitimité pour les gouvernements, les banques et Big Tech lui-même.

Ce point de basculement en 2026 pousse les PDG de l'IA à agir dans l'ombre. Ils s'efforcent de développer les agents qui le déclencheront tout en se préparant discrètement à la réaction lorsque tout le monde réalisera ce qui vient de se passer.

Décrypter la Mentalité du Bunker des Milliardaires

Les discussions sur les bunkers dans la Silicon Valley ne sont plus une blague depuis des années. Sam Altman a admis de manière détendue qu'il garde des armes, de l'or, de l'iodure de potassium, des antibiotiques et un terrain à Big Sur prêts pour les urgences, en plus de ce qu'il appelle un « sous-sol » fortement renforcé qui ressemble beaucoup à un bunker. Mark Zuckerberg transforme discrètement son domaine de 1 400 acres à Kauai en une forteresse autonome, complète avec d'importantes installations souterraines et un prix rapporté se chiffrant en centaines de millions.

Ilya Sutskever pousse l'anxiété un peu plus loin. Avant de quitter OpenAI, il aurait déclaré : « Nous allons définitivement construire un bunker avant de lancer l'AGI », considérant l'abri physique comme une partie intégrante de la feuille de route du produit. Sa nouvelle entreprise, Safe Superintelligence Inc., existe pour un unique objectif : construire une superintelligence et s'assurer qu'elle ne détruise pas le monde.

Ce n'est pas un cosplay générique de milliardaire survivaliste. Le reportage de Douglas Rushkoff dans « Survival of the Richest » décrit des sessions à huis clos où des dirigeants technologiques ultra-riches s'obsèdent pour « L'Événement » — un terme générique pour l'effondrement climatique, la désintégration sociale ou une singularité pilotée par l'IA. Leur hypothèse de travail : la catastrophe est inévitable, mais suffisamment d'argent, de contractuels de sécurité et de béton armé peuvent acheter une issue.

Le risque de l'AGI s'inscrit parfaitement dans cette vision du monde. Si vous croyez qu'un petit groupe d'entreprises contrôlera bientôt des systèmes plus intelligents que n'importe quel humain, vous devez également croire que ces systèmes pourraient provoquer un chômage massif, déstabiliser les démocraties avec une propagande hyper-ciblée, ou aider à concevoir des armes biologiques. Un choc de chômage de 10 à 20 %, comme le scénario avancé par Dario Amodei d'Anthropic, signifie des millions de personnes nouvelles, en colère et inoccupées, cherchant quelqu'un à blâmer.

Les bunkers deviennent l'incarnation physique de cette peur. Ils disent, plus clairement que n'importe quelle note de sécurité, que des initiés pensent que l'IA pourrait mal tourner au point qu'ils pourraient avoir besoin de se cacher littéralement des conséquences — que ces conséquences ressemblent à une superintelligence hors de contrôle, à des émeutes alimentaires après un échec de la chaîne d'approvisionnement, ou à des foules furieuses que leurs emplois aient disparu dans des GPU. Pour avoir une idée de la rapidité avec laquelle cette colère pourrait grandir, lisez le rapport de Fortune "L'IA dévore les effectifs - et un ancien exécutif de Google affirme que les PDG ne réagissent pas assez."

Vu ensemble, la startup à la détermination unique de Sutskever, les chambres sécurisées renforcées d'Altman, et le réduit insulaire de Zuckerberg forment un schéma. Les personnes les plus proches de la frontière ne parient pas sur un atterrissage en douceur ; elles versent discrètement du béton au cas où le futur qu'elles bâtissent déciderait de se retourner contre elles.

La montée de la "haine de l'IA"

Faites défiler Twitter pendant cinq minutes sous n'importe quel hashtag lié à l'IA et l'ambiance semble moins « jouet cool et nouveau » et plus « propriétaire numérique ». Les réponses aux lancements de produits d'OpenAI, Google et Meta ressemblent à une ligne de grève en cours : « Tu prends mon emploi », « Félicitations pour nous avoir automatisés », « Profite de ton bonus pendant que nous mourrons de faim ». Les publications virales accumulent des centaines de milliers de likes en qualifiant l'IA de « plagiat en tant que service » ou de « mine de charbon pour GPU ».

Sous le bruit, quelques thèmes se répètent avec une précision algorithmique. Les gens craignent d'abord le remplacement d'emploi : les travailleurs de centres d'appels, les rédacteurs, les illustrateurs, les assistants juridiques, même les ingénieurs débutants observent des outils comme ChatGPT et Midjourney prendre les échelons « d'entrée de gamme » de leur carrière. Lorsque Dario Amodei prévient que l'IA pourrait faire grimper le taux de chômage à 10–20 % dans 1 à 5 ans, ces chiffres s'inscrivent dans des chronologies déjà chargées de tableaux de licenciements.

La créativité dévaluée nourrit une seconde vague de colère. Les artistes publient des comparaisons côte à côte de leur travail dans des ensembles de données d'entraînement à côté de contrefaçons générées par l'IA, les qualifiant de vol. Les écrivains constatent que la boue du SEO et le spam de l'IA inondent Amazon, Kindle et les agrégateurs de nouvelles, transformant le savoir-faire humain en contenu bon marché et infini.

Puis vient la réaction contre le climat et les infrastructures. Des fils partagent des graphiques sur la consommation d'énergie des centres de données et l'utilisation de l'eau, accusant les entreprises d'IA de consommer des mégawatts et d'épuiser les aquifères pour que les dirigeants puissent présenter des chatbots parlants. Les critiques présentent les grands modèles comme le « Bitcoin 2.0 » : des coûts environnementaux énormes pour un potentiel spéculatif qui revient principalement aux actionnaires.

Culturellement, l'IA est passée de la nouveauté étrange à une menace ambiante. Pour les personnes en dehors de la bulle technologique, l'IA se manifeste désormais par : - Un e-mail de licenciement - Une ligne d'assistance clientèle défaillante - Une école interdisant des outils que leurs enfants utilisent déjà

Ce changement transforme les PDG de l'IA en cibles de foudre. Chaque discours, podcast ou tweet devient une cible pour la colère concernant les salaires, le loyer, le climat et l'inégalité qui préexistaient à l'IA—mais qui ont désormais un visage et un logo à viser.

Le bain de sang des cols blancs est là.

Illustration : Le Massacre des Cadres est Arrivé
Illustration : Le Massacre des Cadres est Arrivé

Les travailleurs de bureau ressentent déjà la pression. Les agences de recrutement pour les centres d'appels rapportent que leurs clients réduisent le nombre d'agents en direct de manière à deux chiffres, alors que les entreprises déploient des chatbots IA qui gèrent 60 à 80 % des tickets entrants avant qu'un humain ne les voie. Les banques, les compagnies aériennes et les géants du e-commerce font discrètement la promotion d’un « support prioritaires au AI », ce qui se traduit généralement par « moins de personnes sur la paie ».

Le service client est le canari. Un rapport de Goldman Sachs de 2023 a estimé que l'IA générative pourrait automatiser des tâches équivalentes à 300 millions d'emplois à temps plein dans le monde, avec le soutien administratif et de bureau parmi les plus exposés. Un rapport du Sénat sur l'IA et le monde du travail a averti que les rôles de téléphone et de chat de routine font face à une « contraction rapide », et non à une attrition progressive étalée sur des décennies.

Les rédacteurs et les spécialistes du marketing de contenu sont les prochains sur la liste. Les acteurs du secteur des médias et de la publicité parlent ouvertement des clients exigeant des réductions de 50 à 70 % des budgets pour les freelances après avoir adopté des outils comme ChatGPT et Midjourney. Un PDG d'agence marketing a décrit le remplacement d'un bassin de 20 sous-traitants par deux éditeurs supervisant une série d'instructions et de modèles générés par l'IA.

Le codage de niveau débutant, longtemps présenté comme un passage sûr vers la classe moyenne, apparaît désormais fragile. Les données de GitHub montrent que Copilot peut générer 40 à 60 % du nouveau code dans les langages pris en charge, et les grandes entreprises technologiques réorganisent leurs équipes autour du « développement assisté par l'IA », ce qui permet aux ingénieurs seniors de faire plus avec moins de juniors. Plusieurs entreprises de logiciels ont discrètement gelé le recrutement de diplômés tout en augmentant les investissements dans des plateformes de génération de code internes.

Les récentes suppressions d'emplois dans le secteur technologique ne se réduisent pas à de simples « vents macroéconomiques contraires ». Meta, Google, Amazon et Microsoft ont tous annoncé des dizaines de milliers de suppressions depuis 2022 tout en promettant, dans le même temps, des investissements massifs dans l'infrastructure d'IA et le développement de modèles. Lorsque les entreprises coupent dans le recrutement, le support et la gestion intermédiaire tout en augmentant leurs budgets GPU, elles annoncent un pari à long terme sur l'efficacité alimentée par l'IA plutôt que sur la masse salariale.

Les optimistes ne cessent de répéter que « l'IA créera plus d'emplois qu'elle n'en détruit », mais le bilan préliminaire semble déséquilibré. L'analyse de Goldman Sachs prévoit de nouveaux rôles dans la gouvernance de l'IA, l'ingénierie et le travail des données — cependant, ceux-ci représentent des niches hautement spécialisées et à faible volume par rapport aux millions de postes de bureau, de services et de professions juniors actuellement menacés. Pour un représentant du support client licencié ou un rédacteur, « ingénieur en prompts » n'est pas une étape réaliste.

Des preuves provenant des sites d'emploi et des appels aux résultats montrent un schéma : les entreprises utilisent l'IA pour vider la base de l'organigramme, puis célèbrent les gains de productivité auprès des actionnaires. La vague promise de nouveaux emplois de haute qualité ne s'est toujours pas matérialisée au rythme des suppressions de postes.

L'échelle hiérarchique s'effondre.

La vie d'entreprise suivait autrefois un script prévisible : travailler pendant des années à des tâches de niveau inférieur, acquérir des cicatrices, puis passer à une véritable prise de décision. L'IA est en train de déchirer le premier acte. Quand un modèle de classe GPT-4.1 rédige le mémo, résume la réunion et rédige la première version du contrat, les employés juniors perdent les tâches répétitives qui leur enseignaient discrètement comment le pouvoir fonctionne réellement.

Le consulting, le droit, la finance et les médias ont tous basé leur modèle sur cet apprentissage. Les analystes de première année nettoyaient des données et construisaient des présentations ; les associés juniors effectuaient des revues de documents ; les jeunes journalistes réécrivaient des communiqués de presse. Aujourd'hui, les outils d'IA s'occupent de 60 à 80 % de ce "travail de base", selon les chiffres d'adoption internes des grandes entreprises, laissant les nouvelles recrues avec des CV étrangement vides et beaucoup moins de répétitions sur les fondamentaux.

Les échelons de carrière se représentaient sous la forme d'une pyramide : de nombreux juniors, moins de profils intermédiaires, et une fine couche d'exécutifs. L'IA renverse cela en un sablier. Les entreprises conservent une poignée d'experts dans leur domaine au sommet, automatisent la base, et compriment le milieu avec des travailleurs sous contrat et des travailleurs indépendants qui n'accumulent jamais la profondeur nécessaire pour remplacer les leaders d'aujourd'hui.

Cela soulève une question inconfortable : qui deviendra partenaire, vice-président ou rédacteur en chef en 2035 si le pipeline d'entrée disparaît en 2026 ? Vous ne pouvez pas promouvoir ce que vous n'avez jamais formé. Une génération qui n'a jamais fait de diligence raisonnable, qui n'a jamais débogué un système en direct à 3 heures du matin, qui n'a jamais été assise dans une pièce avec un client en colère sera finalement appelée à diriger des décisions de plusieurs milliards de dollars.

À court terme, les directeurs financiers adorent les marges. À long terme, les conseils d'administration héritent d'organisations confrontées à une pénurie critique de leadership humain expérimenté. Harvard Business Review suit déjà une augmentation du turnover exécutif dans des articles comme Pourquoi le turnover des PDG augmente en 2025, mais la véritable difficulté survient lorsque, tout simplement, il n'y a pas suffisamment d'opérateurs éprouvés à promouvoir.

Certaines entreprises admettent discrètement qu'elles procèdent à une récolte unique de l'expertise existante. Les employés seniors forment les modèles qui remplacent leurs propres juniors, capturant leur mémoire institutionnelle dans des bases de données vectorielles au lieu de la transmettre aux personnes. Une fois que ces seniors prendront leur retraite ou s'épuiseront, l'entreprise s'appuiera sur une IA capable de mimer le jugement mais qui n'a jamais réellement vécu les conséquences d'une erreur.

'Ai-je besoin de cet humain ?'

Les mathématiques froides régissent désormais les salles de conseil. Emad Mostaque le formule sans détour : chaque cadre demandera bientôt : « Ai-je vraiment besoin de cet humain ? » lorsqu'un modèle de pointe peut accomplir 80 à 90 % du travail pour une fraction du coût et aucun des risques liés aux ressources humaines.

Sur une feuille de calcul, l'employé IA semble imbattable. Il travaille 24/7, ne s'absente jamais pour cause de maladie, peut se multiplier de 1 à 10 000 exemplaires instantanément, et coûte peut-être quelques centimes à quelques dollars de l'heure en appels API au lieu de 30 à 70 dollars entièrement chargés pour un professionnel de niveau intermédiaire.

Les passifs s'accumulent du côté humain : soins de santé, charges sociales, gestionnaires, espace de bureau, risque juridique, et le risque toujours présent de turn-over. Pour un directeur financier qui observe un poste budgétaire où un agent IA peut remplacer trois représentants du service client ou deux développeurs juniors, le choix "éthique" cède la place à l'appel des résultats trimestriels.

Ce n'est pas hypothétique. Les centres d'appels déploient déjà des chatbots qui gèrent 60 à 80 % des tickets avant qu'une personne ne les voie. Les équipes marketing remplacent discrètement les freelances par des modèles de texte à image et de rédaction ; les cabinets d'avocats utilisent l'IA pour rédiger des contrats que les premières années passaient autrefois des nuits à travailler.

Une fois que les agents IA peuvent enchaîner des outils, naviguer et exécuter des flux de travail de bout en bout, la question passe de "augmenter ou remplacer ?" à :

  • 1Combien d'humains gardons-nous pour des raisons de responsabilité et d'image ?
  • 2Quels rôles nécessitent absolument une responsabilité légale ou morale ?
  • 3Comment justifier un salaire lorsque qu'un modèle produit 10 fois plus ?

Cette logique économique redéfinit la relation entre employeur et employé. Les travailleurs ne sont plus considérés comme des investissements à long terme, mais deviennent une "infrastructure héritée" conservée en raison de réglementations, de la sécurité de la marque, ou parce que la technologie n'est pas encore tout à fait au point.

À l'échelle de millions d'emplois, cette même logique devient un moteur de mécontentement. Lorsque les gens constatent que les bénéfices et la productivité explosent tandis que les salaires stagnent et que les opportunités disparaissent, la colère déjà visible sur Twitter se transforme en quelque chose de plus organisé—et beaucoup plus difficile à contenir.

La corde raide impossible du PDG

Illustration : L'équilibre impossible du PDG
Illustration : L'équilibre impossible du PDG

Les dirigeants d'IA opèrent maintenant sous un paradoxe : pour gagner, ils doivent accélérer la technologie même qui pourrait les transformer en méchants publics. Ils lèvent des milliards, lancent de nouveaux modèles et promettent des "gains de productivité", tout en étant pleinement conscients que ces gains se traduisent souvent par des gelées de recrutement, des réorganisations et des licenciements discrets dans les postes de soutien, de marketing et d'ingénierie junior.

Cette dynamique crée un nouveau type de risque exécutif. Lorsque Dario Amodei avertit que l'IA pourrait faire grimper le taux de chômage à 10-20 % dans 1 à 5 ans, il ne se contente pas de prévoir des données macroéconomiques ; il fait en réalité de chacun de ceux perçus comme profitant de ce changement une cible. Les personnes qui perdent leur carrière ne se mettent pas en colère contre des "forces de marché" abstraites — elles s'en prennent à des visages.

Les PDG de l'intelligence artificielle comprennent de plus en plus qu'ils sont ces visages. Leurs noms apparaissent sur les mémos de licenciement, les diffusions en direct des discours d'ouverture et les présentations éblouissantes aux investisseurs qui célèbrent l'« efficacité des effectifs », tandis que des milliers de travailleurs de col blanc voient leurs industries se réduire.

Dans cet environnement, la sécurité personnelle cesse d'être un poste théorique et devient un calcul quotidien. Les responsables technologiques observaient déjà ce qui arrive aux politiciens et aux responsables de la santé publique qui deviennent des symboles de changements indésirables : doxxing, harcèlement, swatting et, dans de rares cas, attaques physiques.

Les dirigeants de l'IA voient désormais une voie plausible où ils occupent cette même place émotionnelle dans la culture. Ils ne se contentent pas de créer des applications ; ils sont perçus comme ceux qui actionnent le levier effaçant l'avenir des rédacteurs, des auxiliaires juridiques et des développeurs juniors en un cycle de produit.

La peur n'est pas seulement un sentiment généralisé d'«anti-tech». C'est la possibilité spécifique que, alors que la haine de l'IA monte en flèche sur Twitter et ailleurs, un PDG devienne l'avatar de l'automatisation de la manière dont un sénateur devient l'avatar d'une loi impopulaire. Ce type de personnalisation du blâme rend les conférences, les panels de fans et les sessions de questions-réponses ouvertes moins comme des opportunités de relations publiques et plus comme des risques pour la sécurité.

Ainsi, un profil discret commence à ressembler moins à de la paranoïa et plus à un protocole. Annulez la présentation à l'université. Évitez la scène du festival. Remplacez les assemblées publiques par des livestreams étroitement contrôlés, des questions pré-sélectionnées et des blogs d'entreprise examinés par les équipes juridiques et de sécurité.

Devenir opaque ne ralentit pas les modèles ; les GPU continuent de fonctionner en silence dans des centres de données secrets. Ce que cela fait, c'est découpler l'humain de la machine — protégeant les décideurs d'un public qui croit de plus en plus que ces décisions détruisent son avenir.

Pourquoi les gouvernements ne peuvent pas arrêter cela

La réglementation avance à un tempo législatif ; l'IA évolue à la vitesse de l'horloge des GPU. Les législateurs se chamaillent encore sur la définition de ce que signifie véritablement l'intelligence artificielle, tandis qu'OpenAI, Google, Meta et Anthropic lancent des modèles de pointe tous les 6 à 12 mois. Au moment où un projet de loi passe en commission, la technologie sous-jacente a déjà franchi une génération.

Les gouvernements manquent également de visibilité de base. Beaucoup des modèles les plus performants fonctionnent derrière des murs d'API ou à l'intérieur de centres de données privés, et non sur des sites web publics que les régulateurs peuvent explorer. Les agences qui ont encore du mal à auditer les algorithmes bancaires sont désormais confrontées à des systèmes multimodaux opaques entraînés sur des trillions de tokens.

La géopolitique fige l'accélérateur. Tout pays qui freine la recherche en intelligence artificielle risque de céder son pouvoir économique et militaire à des rivaux. Washington s'inquiète du financement à grande échelle de l'IA et des technologies de surveillance par Pékin ; Pékin observe les fournisseurs de cloud, les fabricants de puces et les entrepreneurs de la défense américains intégrer l'IA dans tout, de la logistique aux armes.

Aucune grande puissance ne souhaite être celle qui cède la première. Les tentatives de coordination mondiale ressemblent à des discussions sur les armes nucléaires sans outils de vérification : aucun satellite ne peut voir l'intérieur d'un entraînement sur un cluster GPU privé. Même les contrôles à l'exportation des puces haut de gamme d'Nvidia ralentissent uniquement, mais ne stoppent pas, des États et des entreprises déterminés.

La politique nationale incline encore davantage le terrain. Les grandes entreprises technologiques dépensent maintenant des dizaines de millions de dollars par an en lobbying fédéral rien qu'aux États-Unis, rivalisant avec les géants de la pharmacie et de l'énergie. Ces lobbyistes plaident pour des cadres "basés sur le risque" qui semblent responsables mais laissent une large marge pour le déploiement rapide de nouveaux modèles.

Les législateurs font face à une cible mouvante. Ils doivent légiférer sur tout, y compris : - Les modèles de base - Les points de contrôle open-source - Les systèmes agents - Les médias synthétiques

Chacun présente des risques différents, allant du biais et de la fraude aux chocs du travail et à la sécurité nationale. Des règles trop larges risquent de criminaliser des logiciels basiques ; celles trop étroites deviennent obsolètes en moins d'un an.

Résultat : les laboratoires d'entreprise établissent discrètement la politique efficace en décidant de ce qu'il faut construire, expédier et publier en open-source. Les conseils d'administration remplacent déjà les PDG qui ne peuvent pas naviguer dans ce paysage ; voir Les PDG partent à un rythme plus rapide en juin 2025 ; les conseils expérimentent avec un leadership intérimaire. Au cours de la prochaine décennie, la politique publique réagira principalement à la trajectoire de l'IA, sans la définir.

Les travailleurs de la connaissance anxieux entendent deux histoires incompatibles : l'IA va soit éliminer leurs emplois, soit les rendre surhumains en termes de productivité. Les deux peuvent être vraies. Lorsqu'un modèle peut rédiger un contrat, concevoir un logo et écrire l'e-mail de lancement en moins d'une minute, la question ne devient plus « Peut-elle faire mon travail ? » mais « Combien d'entre nous un manager a-t-il encore besoin ? »

La survie dans ce monde ne ressemble pas à « apprendre à coder ». Le codage est exactement ce que les LLM dévorent déjà au petit déjeuner. Ce qui reste rare ce sont les compétences qui couvrent la réalité complexe : formuler des problèmes, évaluer des compromis et persuader des humains sceptiques d'agir.

La pensée critique ne cesse plus d'être un cliché sur un CV et devient un rempart défensif. Tout le monde peut demander à ChatGPT 10 idées ; beaucoup moins de personnes peuvent décider laquelle survit au contact des aspects juridiques, financiers et d'une clientèle mécontente. La valeur se déplace vers ceux qui peuvent interroger les résultats de l'IA, repérer les hypothèses cachées et dire « cela semble plausible mais risque de faire exploser les opérations ».

La résolution de problèmes complexes monte également dans la chaîne de valeur. L'IA peut optimiser à l'intérieur d'une boîte ; elle a du mal lorsque la boîte elle-même est erronée. Les personnes capables de repenser les flux de travail autour des agents d'IA — et pas seulement d'ajouter des outils aux anciens processus — contrôleront le levier, les budgets et le recrutement.

L'intelligence émotionnelle se transforme en infrastructure. Un bot peut simuler l'empathie, mais il ne crée pas de confiance au sein d'une équipe traumatisée qui vient de voir ses effectifs chuter de 30 %. Les managers capables de communiquer honnêtement sur l'automatisation, de recycler les employés et d'absorber la colère du public deviennent aussi importants que les modèles eux-mêmes.

L'adaptation individuelle ne suffira pas. Si le scénario de chômage de 10 à 20 % de Dario Amodei se réalise, les sociétés auront besoin de réponses structurelles : revenu de base universel, subventions salariales ou garanties d'emploi agressives. Les expériences menées dans des lieux comme la Finlande et Stockton, en Californie, suggèrent que le revenu de base universel améliore la santé mentale et la stabilité, mais elles n'ont pas été testées à une échelle correspondant à l'ère de l'IA.

Les semaines de travail plus courtes passeront d'idée marginale à enjeu de négociation. Lorsqu'un seul travailleur assisté par l'IA peut accomplir le travail de trois d'ici 2019, les entreprises peuvent soit réduire le nombre de personnes, soit diminuer les heures. La semaine de 35 heures en France et les projets de semaine de quatre jours au Royaume-Uni offrent des prototypes, mais pas de plans détaillés, pour une économie saturée par l'IA.

Derrière tout cela se cache une question plus difficile : qui détient le potentiel de profit. Si une poignée d'entreprises s'approprie la majorité des gains de productivité des modèles de base, nous nous retrouvons avec un monde de capitalisations boursières à mille milliards de dollars, des classes moyennes en déshérence et des ranchs fortement fortifiés à Kauai. En revanche, si nous considérons l'IA comme une infrastructure — taxée, réglementée et largement partagée — nous avons une chance d'atteindre un avenir où la disparition des PDG compte moins que les systèmes qui les survivent.

Questions Fréquemment Posées

Les CEO d'IA disparaissent-ils réellement de la vie publique ?

Bien qu'ils ne disparaissent pas littéralement, il existe des preuves anecdotiques de personnalités comme l'ancien PDG de Stability AI, Emad Mostaque, selon lesquelles de nombreux leaders de l'IA annulent leurs apparitions publiques pour éviter de devenir des cibles face à la montée du sentiment anti-AI et à la colère du public concernant les pertes d'emplois.

Quelle est l'importance de l'année 2026 dans les prévisions sur l'IA ?

Des experts de l'industrie suggèrent que 2026 pourrait être un point de basculement où les modèles d'IA passent de simples assistants utiles à des agents autonomes capables de remplacer des flux de travail entiers dans les bureaux, entraînant une perturbation économique significative.

Pourquoi les milliardaires de la technologie construisent-ils apparemment des bunkers ?

Le récit du 'bunker' découle de deux préoccupations : le risque de troubles sociaux à court terme en raison du chômage de masse causé par l'IA, et le risque existentiel à long terme de créer une Intelligence Générale Artificielle (IGA) que l'humanité ne peut pas contrôler.

Qu'est-ce qui pousse le public à s'opposer à l'IA ?

Le contrecoup est alimenté par des craintes de déplacements massifs d'emplois, la dégradation des domaines créatifs, des préoccupations éthiques concernant les données et les biais, ainsi qu'un sentiment général que l'IA profite principalement à un petit groupe de personnes riches au détriment de la population au sens large.

Frequently Asked Questions

Les CEO d'IA disparaissent-ils réellement de la vie publique ?
Bien qu'ils ne disparaissent pas littéralement, il existe des preuves anecdotiques de personnalités comme l'ancien PDG de Stability AI, Emad Mostaque, selon lesquelles de nombreux leaders de l'IA annulent leurs apparitions publiques pour éviter de devenir des cibles face à la montée du sentiment anti-AI et à la colère du public concernant les pertes d'emplois.
Quelle est l'importance de l'année 2026 dans les prévisions sur l'IA ?
Des experts de l'industrie suggèrent que 2026 pourrait être un point de basculement où les modèles d'IA passent de simples assistants utiles à des agents autonomes capables de remplacer des flux de travail entiers dans les bureaux, entraînant une perturbation économique significative.
Pourquoi les milliardaires de la technologie construisent-ils apparemment des bunkers ?
Le récit du 'bunker' découle de deux préoccupations : le risque de troubles sociaux à court terme en raison du chômage de masse causé par l'IA, et le risque existentiel à long terme de créer une Intelligence Générale Artificielle que l'humanité ne peut pas contrôler.
Qu'est-ce qui pousse le public à s'opposer à l'IA ?
Le contrecoup est alimenté par des craintes de déplacements massifs d'emplois, la dégradation des domaines créatifs, des préoccupations éthiques concernant les données et les biais, ainsi qu'un sentiment général que l'IA profite principalement à un petit groupe de personnes riches au détriment de la population au sens large.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts