TL;DR / Key Takeaways
Le Canari dans la Mine de Charbon de l'IA
Un choc a parcouru le monde de l'IA lorsque la nouvelle s'est répandue que plusieurs chercheurs avaient discrètement quitté OpenAI, le fleuron de 80 milliards de dollars de l'IA générative. Ce n'était pas un simple remaniement dans une jeune entreprise prometteuse; c'était une sortie coordonnée d'un des employeurs les plus prisés du secteur technologique, où les employés seniors gagnent souvent des salaires élevés à six chiffres plus des parts dans une entreprise qui court vers des ambitions de trillion de dollars.
Des départs comme celui-ci déclenchent des alarmes car les gens n'abandonnent presque jamais une telle somme d'argent et un tel prestige pour de simples désaccords. Lorsque des chercheurs annoncent qu'ils partent pour des préoccupations éthiques ou d'intégrité, cela signale un conflit plus profond : le moment où les données internes sur les risques de l'IA entrent en collision avec le récit de croissance d'une entreprise et ses obligations légales envers les investisseurs.
Au centre de la tempête se trouve l'économiste Tom Cunningham, membre de l'équipe de recherche économique d'OpenAI. Dans un message de départ partagé en interne, Cunningham a averti que le groupe était en train de "s'éloigner de la véritable recherche" et de dériver vers le rôle d'un "bras de propagande" d'entreprise, selon des informations relayées par Wired et Futurism.
Ces mots ont fait mouche parce qu'ils contredisent l'image soigneusement façonnée d'OpenAI en tant que laboratoire d'intérêt quasi-public soutenu par les 13 milliards de dollars de Microsoft. La critique de Cunningham suggérait que lorsque des études internes montraient que l'IA nuisait à l'emploi ou amplifiait les inégalités, la mission a changé de « publier et débattre » à « manipuler et contenir ».
Ce qui pourrait sembler être une histoire personnelle en surface s'est rapidement transformé en une crise de transparence et de confiance. Les allégations selon lesquelles OpenAI a minimisé les pertes d'emplois, a présenté la disruption comme étant « temporaire ou gérable », et a évité de publier des recherches qui pourraient alimenter la réglementation ou des réactions négatives soulèvent une question directe : quels intérêts façonnent la science qui informe la politique en matière d'IA ?
Pour une industrie déjà critiquée pour ses données d'entraînement opaques, ses modèles fermés et son théâtre de la sécurité, ces démissions servent de signal d'alarme dans la mine de charbon de l'IA. Si les employés du laboratoire phare ne font plus confiance à l'intégrité de leur propre chaîne de recherche, les répercussions vont bien au-delà du registre des ressources humaines d'une seule entreprise.
Un 'bras de propagande IA' ?
Des accusations provenant du sein même du groupe économique d'OpenAI portent plus profondément qu'un simple différend de travail. Dans un message de départ rapporté par Wired, l'économiste Tom Cunningham a averti ses collègues que l'équipe de recherche économique était en train de “s'éloigner de la véritable recherche” pour agir plutôt comme le “bras de propagande” de l'entreprise. Pour un laboratoire qui mise encore sur son aura quasi-académique, cela résonne comme un coup direct à sa crédibilité scientifique.
Selon quatre sources "proches de la situation" citées par Wired et résumées par Futurism, OpenAI est devenue de plus en plus sélective quant aux conclusions économiques qui sont rendues publiques. Le travail interne mettant en avant les gains de productivité des outils comme ChatGPT et GPT-4 est mis en avant ; la recherche montrant des travailleurs déplacés ou des salaires stagnants serait, dit-on, bloquée. Le résultat : une narration soigneusement élaborée sur l'IA en tant que moteur de croissance pure, dépouillée de ses dommages collatéraux.
Ces sources affirment qu'OpenAI filtre désormais régulièrement les résultats économiques à travers une perspective politique : cette publication invitera-t-elle à une réglementation, nourrira-t-elle un rejet public ou ralentira-t-elle l'adoption par les entreprises ? Si la réponse est affirmative, la publication devient peu probable. Une personne a décrit un schéma où les résultats négatifs du marché du travail sont requalifiés de "turbulences" "temporaires" ou de "perturbations" "gérables", un langage qui ressemble davantage aux présentations pour investisseurs qu'aux revues à comité de lecture.
Ce changement transforme ce qui devait être une unité scientifique en quelque chose de plus proche d'un service de relations publiques. Au lieu de tester des hypothèses sur l'automatisation, l'inégalité et les chocs sectoriels, l'équipe soutient de plus en plus une narration prédéfinie : l'IA stimule le PIB, aide les travailleurs et crée principalement de nouveaux emplois. Lorsque les économistes internes se sentent poussés à mettre en avant les aspects positifs et à enterrer les aspects négatifs, la "recherche" devient un outil de plaidoirie, et non d'enquête.
La direction d'OpenAI semble reconnaître ce tournant. Dans un mémo cité par Wired, le directeur de la stratégie Jason Kwon a soutenu que l'entreprise ne devrait pas se contenter de publier sur des “sujets difficiles” mais “construire des solutions,” soulignant qu'OpenAI n'est “pas seulement une institution de recherche mais aussi un acteur sur la scène mondiale.” Cette façon de présenter les choses justifie l'orientation de la recherche vers des résultats qui défendent le rôle de l'entreprise en tant que “principal acteur” dans le déploiement de l'IA.
Prises ensemble, les démissions, les mémos internes et les récits non officiels indiquent une ligne directrice simple : OpenAI souhaite façonner l'histoire économique de l'IA aussi agressivement qu'elle façonne la technologie elle-même.
De la recherche ouverte aux portes closes
OpenAI a été fondée en 2015 en tant qu'organisation à but non lucratif promettant de rendre open-source ses systèmes les plus puissants et de “profiter à toute l'humanité.” Les cofondateurs parlaient de publier des recherches librement, de libérer du code et d'éviter un pouvoir concentré sur l'IA avancée. Moins d'une décennie plus tard, l'organisation fonctionne comme un géant à profit contrôlé et limité, construit autour de modèles propriétaires comme GPT-4 et d'API fermées, avec Microsoft investissant environ 13 milliards de dollars et des accords d'accès exclusifs remplaçant les dépôts GitHub.
Ce changement ne concerne pas seulement l'argent ; il s'agit de qui a le droit de poser des questions et quelles réponses peuvent en toute sécurité avoir une visibilité. Les chercheurs décrivent une culture croissante de la discipline du message, où les travaux mettant en évidence les risques négatifs - déplacements de masse, conditions de travail dégradées, déclencheurs réglementaires - rencontrent plus de friction que les études de cas sur la productivité élogieuse. Le reportage de Wired dans Un employé d'OpenAI quitte en allégant que la recherche économique de l'entreprise dérive vers un plaidoyer en faveur de l'IA documente comment des dissidents internes ont vu la partie "ouverte" d'OpenAI s'éloigner derrière des NDA et une vérification par les relations publiques.
Un mémo interne du directeur de la stratégie Jason Kwon a explicité la nouvelle posture. Kwon a soutenu qu'OpenAI devrait « construire des solutions » et agir en tant que « principal acteur dans le monde », et non pas se contenter d'être un laboratoire de recherche publiant des résultats dérangeants. Sa déclaration selon laquelle OpenAI est « non seulement une institution de recherche mais aussi un acteur dans le monde » a signalé un tournant : le savoir-faire se situe désormais en aval de la stratégie, et non à côté.
Au sein du groupe de recherche économique, ce cadre a été perçu comme un ordre. Si OpenAI est un « acteur majeur », alors chaque article sur l'automatisation, la répression salariale ou les pertes d'emplois régionales fait également office d'acte politique susceptible d'inviter à la réglementation ou de ralentir l'adoption. Les chercheurs affirment que l'incitation est claire : - Mettre l'accent sur les gains de productivité - Redéfinir la disruption comme étant « temporaire » ou « gérable » - Enterrer ou retarder les travaux qui compliquent le récit de la croissance
Le chercheur en politique Miles Brundage, qui est parti plus tôt, a décrit comment il est devenu "difficile" de publier sur des sujets importants. Son commentaire s'aligne avec les témoignages d'au moins deux chercheurs en économie qui ont démissionné après des conflits concernant ce qui pouvait être publié et comment cela serait présenté. OpenAI semble désormais moins un laboratoire poursuivant une recherche objective et plus une plateforme technologique où la recherche survit uniquement si elle avance les ambitions commerciales et géopolitiques de l'entreprise.
Un Modèle de Désaccord en Matière de Sécurité
Une seule démission du groupe de recherche économique d'OpenAI peut sembler anecdotique. Mise à côté d'une liste croissante de départs axés sur la sécurité, cela commence à ressembler à un modèle. Les personnes engagées pour évaluer les inconvénients des modèles puissants continuent de quitter l'entreprise, se plaignant souvent que leur travail ne correspond plus à l'appétit de l'entreprise pour les mauvaises nouvelles.
Plus tôt cette année, OpenAI a discrètement dissous son équipe très médiatisée Superalignment, le groupe que Sam Altman avait présenté comme le grand projet de l'entreprise pour diriger l'intelligence artificielle générale de manière sécurisée. Co-dirigée par Ilya Sutskever et Jan Leike, l'équipe devait résoudre l'alignement de l'IA "surhumaine" en quatre ans, soutenue par 20 % de la capacité de calcul d'OpenAI. Au lieu de cela, à la mi-2024, les deux dirigeants étaient partis, l'équipe avait été dissoute et son mandat dispersé à travers d'autres groupes plus axés sur les produits.
L'ancien chercheur en alignement William Saunders, qui a travaillé sur les systèmes de sécurité et les tests d'intrusion, n'a pas mâché ses mots après son départ. Il a déclaré que la direction d'OpenAI avait systématiquement priorisé des « produits attrayants » au détriment des travaux fondamentaux sur la sécurité, récompensant les équipes qui livraient des fonctionnalités visibles tout en affamant la recherche à plus long terme d'influence et de ressources. Sa critique fait écho à la plainte publique de Leike selon laquelle la sécurité avait été mise « au second plan » par rapport à la croissance.
Pris ensemble avec l'accusation de Tom Cunningham selon laquelle la recherche économique était devenue un « bras de propagande », ces départs mettent en lumière une tension systémique, et non un simple conflit isolé dans un coin de l'organigramme. Les personnes travaillant sur : - L'alignement à long terme - Les impacts sociétaux et économiques - La gouvernance et les politiques
décrivez la même attraction gravitationnelle envers les délais de lancement et les objectifs de revenus.
La dissolution de Superalignment est particulièrement importante car OpenAI l'a utilisée comme preuve qu'elle prenait le risque existentiel au sérieux. Lorsque l'équipe phare de sécurité disparaît moins de deux ans après son lancement, tandis que GPT-4.1, GPT-4o et de nouvelles fonctionnalités multimodales sont livrées à un rythme incessant, le message au sein de l'entreprise devient clair : la sécurité est un centre de coûts, pas un moteur de croissance.
C'est le « secret accablant » qui émerge des départs. OpenAI parle toujours de sécurité AGI, mais les personnes embauchées pour dire « ralentissez » découvrent constamment que leur véritable tâche est d'aider l'entreprise à accélérer.
Un Titanic sans assez de canots de sauvetage
Un ancien chercheur en sécurité d'OpenAI a récemment utilisé une métaphore assez grande pour correspondre aux ambitions de l'entreprise : Titanic. Dans des conversations internes, ils décrivaient OpenAI comme en course pour construire un vaisseau d'intelligence générale artificielle "insubmersible", un merveille technologique étincelante filets à pleine vitesse. Le problème, ont-ils averti, est que la direction est beaucoup plus concentrée sur les moteurs que sur les canaux de sauvetage.
Dans cette analogie, l'AGI est le navire : immense, luxueux, largement commercialisé comme l'avenir du progrès humain. Les canots de sauvetage représentent les éléments peu glamour - la recherche en alignement, la prévention des abus, les systèmes de red‑team, les protections des utilisateurs et la surveillance dans le monde réel lorsque les modèles dérapent. Les critiques disent qu'OpenAI investit des milliards dans la coque et la propulsion tout en traitant ces garanties comme du mobilier de pont optionnel.
L'ancien chercheur Steven Adler a souligné ce point de manière plus précise, qualifiant l'approche d'OpenAI de "risquée" et critiquant son manque d'attention aux conséquences néfastes pour les utilisateurs. Adler a travaillé sur le comportement des modèles dans des environnements réels complexes, où une seule demande peut faire surface des contenus d'auto‑harm, du harcèlement ciblé ou des escroqueries financières plausibles. Son inquiétude : la direction a priorisé les capacités médiatiques et la croissance des produits plutôt que de suivre systématiquement et de réduire ces préjudices.
Adler et d'autres membres du personnel de sécurité décrivent une culture où les signaux d'alerte rencontrent souvent une réponse familière : expédier maintenant, corriger plus tard, ou reformuler le problème en tant que souci de relations publiques plutôt qu'en tant que risque produit. Les critiques internes soulignent des cycles de lancement comme ceux de GPT‑4, GPT‑4o et de nouvelles fonctionnalités multimodales qui ont atteint des millions d'utilisateurs en quelques jours, tandis que les évaluations de sécurité post-lancement ont pris du retard. Le résultat ressemble moins à une navigation prudente qu'à une course à travers des champs de glace inexplorés.
Mis ensemble, la métaphore du Titanic et la critique d'Adler esquissent une entreprise de plus en plus piégée par sa propre mythologie. OpenAI se présente comme l'« acteur principal » dans l'IA, indispensable et inévitable, ce qui rend le ralentissement presque hérétique. Lorsque des initiés avertissent que les canots de sauvetage manquent ou sont mal fixés, ils ne remettent pas seulement en question des fonctionnalités spécifiques—ils contestent une vision du monde qui considère que l'élan vers l'avant est suffisant pour garantir la sécurité.
Le contraste anthropique : transparence radicale.
Le problème de secret d'OpenAI semble encore plus aigu à côté d'Anthropic, le concurrent qui ne cesse de dire tout haut ce que les autres pensent tout bas. Alors qu'OpenAI aurait soi-disant dissimulé des conclusions internes sur les pertes d'emplois et les risques de régulation, les dirigeants d'Anthropic ont publiquement prédit que l'IA pourrait automatiser une grande part des emplois de bureau et déstabiliser les échelles de carrière existantes.
Le PDG d'Anthropic, Dario Amodei, a maintes fois averti dans des interviews qu'une « grande partie » des tâches cognitives, de bureau et professionnelles pourrait être soumise à l'automatisation cette décennie. Il a décrit des scénarios où les systèmes d'IA s'occupent de beaucoup de ce que font aujourd'hui les ingénieurs en logiciel, les assistants juridiques, les représentants du service client, et même certains gestionnaires, avec des répercussions pour des millions de travailleurs du savoir.
Cette franchise peut sembler terrifiante si vous êtes un comptable en milieu de carrière ou un avocat junior, mais elle considère le public comme un intervenant plutôt que comme un obstacle. En affirmant ouvertement que la disruption pourrait être importante, durable et politiquement explosive, Anthropic invite à débattre de : - Comment rythmer le déploiement - Quelles normes de sécurité et d'alignement exiger - Quelles protections sociales mettre en place avant que la displacement de masse ne survienne
Contrairement à cela, chez OpenAI, l'économiste sortant Tom Cunningham a accusé la société de transformer son groupe de recherche économique en un « bras de propagande » et d'éviter la publication de travaux qui pourraient alimenter la réglementation ou la réaction. Le reportage de Wired, résumé dans Un chercheur d'OpenAI démissionne, disant que la société cache la vérité, décrit une entreprise s'efforçant de lisser les angles vifs de ses propres conclusions.
Les décideurs politiques constatent l'écart. Un laboratoire déclare, en substance, « cela pourrait anéantir des pans entiers du travail de bureau ; voici pourquoi et comment réagir. » L'autre s'appuie sur des discours sur la productivité et des articles de blog réservés. Chaque citation directe d'Anthropic concernant le déplacement d'emplois rend l'opacité d'OpenAI moins prudente et plus semblable à un contrôle de message intéressé.
Le 'Blueprint' est-il une solution ou un écran de fumée ?
La réponse d'OpenAI aux accusations de blanchiment économique se présente sous la forme d'un document de politiques. En mai, la société a publié « L'IA au travail : le plan de main-d'œuvre d'OpenAI », un document de plus de 40 pages qui ressemble à un mélange de résumé de recherche et de manifeste d'entreprise. Il décrit comment l'IA va « remodeler le travail au fil du temps » et ce qu'OpenAI affirme faire pour que les travailleurs ne soient pas écrasés dans le processus.
Au cœur de cette offre se trouve OpenAI Academy, une plateforme éducative que l'entreprise affirme avoir déjà engagée 2 millions d'Américains. Le plan promet d'aider 10 millions d'Américains à “améliorer leurs compétences en IA d'ici 2030” grâce à des certifications destinées à donner aux employeurs “la confiance” lors de l'embauche de candidats formés sur les outils OpenAI. Une plateforme d'emplois OpenAI distincte vise à “préparer la main-d'œuvre pour l'avenir” en connectant les personnes à des rôles adjacents à l'IA qui offriraient supposément stabilité et sécurité à long terme.
Sur le papier, cela ressemble à une réponse à l'échelle face aux disruptions que leurs propres modèles accélèrent. ChatGPT, GPT‑4 et leurs successeurs automatisent déjà des parties du travail pour les rédacteurs, les développeurs, les juristes et les agents de support, Goldman Sachs estimant qu'environ 300 millions d'emplois à temps plein dans le monde pourraient être exposés à l'automatisation par l'IA. La feuille de route d'OpenAI admet tacitement ce risque, avertissant qu'une adoption rapide pourrait "rendre la première marche de l'échelle inaccessibile pour de nombreux nouveaux diplômés" plus vite que de nouveaux rôles n'apparaissent.
La question est de savoir si ces programmes répondent à l'échelle et à la rapidité de cette menace, ou servent principalement d'armure narrative. Former 10 millions d'Américains en six ans semble impressionnant jusqu'à ce que l'on le compare à une main-d'œuvre américaine d'environ 167 millions et à des plateformes mondiales capables de remplacer des emplois pour des centaines de millions en quelques cycles de produits. Même si OpenAI atteint ses objectifs, la grande majorité des travailleurs concernés ne touchera jamais à son Académie.
La reconversion avance également à la vitesse humaine, tandis que le déploiement de l'IA se fait à la vitesse du cloud. Les entreprises peuvent déployer une automatisation alimentée par GPT sur des milliers de postes en quelques mois ; la reconversion d'un travailleur en milieu de carrière nécessite souvent des années et un soutien bien au-delà d'une certification. Cet écart donne l'impression que le plan ressemble moins à une solution globale et plus à une stratégie de communication pour se prémunir contre les résultats plus sombres que les économistes d'OpenAI auraient apparemment eu du mal à publier.
L'incitation à obscurcir d'un trillion de dollars
L'argent plane au-dessus d'OpenAI comme un système météorologique. Après avoir reçu environ 13 milliards de dollars en espèces et crédits de Microsoft, la société soutient désormais efficacement des produits allant de Windows à GitHub Copilot, avec des prévisions internes et des discussions entre investisseurs qui fantasment déjà sur une future valorisation à un trillion de dollars ou un événement de liquidité à l'échelle d'une introduction en bourse.
Ces chiffres créent une structure d'incitation très spécifique. Si OpenAI parvient à présenter l'IA comme un miracle de la productivité nette avec des perturbations "gérables", cela soutient la thèse cloud de Microsoft, renforce les ventes aux entreprises et justifie des tours de financement de plus en plus importants. Si ses propres économistes publient des données suggérant un déplacement massif d'emplois, une compression salariale ou une instabilité systémique, ce récit — et les multiples qui y sont associés — commencent à vaciller.
Tout graphique interne montrant de fortes probabilités de chômage de long terme ou de chocs régionaux concentrés n'est pas seulement un problème de politique ; c'est un problème de titres. Des recherches prouvant de manière crédible que GPT-6 pourrait automatiser de larges pans de travail de cols blancs plus rapidement que les marchés du travail ne peuvent s'adapter sont précisément le genre de preuves que les régulateurs, les syndicats et les législateurs sceptiques exploiteraient lors des auditions et des combats antitrust. Ces mêmes preuves pourraient également inquiéter les comités de risque des clients du Fortune 500 cherchant à savoir s'ils doivent parier l'intégralité de leurs flux de travail sur les API d'OpenAI.
Dans ces conditions, le prétendu passage d'une analyse neutre à un « bras de propagande » ressemble moins à un retournement de caricature de méchant et plus à un comportement standard de startup en fin de cycle, sous une pression extrême. Lorsque votre tableau de capitalisation et votre partenaire stratégique s'attendent à une hypercroissance, vous récompensez les équipes qui racontent une histoire de travail sûr et « augmenté » tout en écartant les perturbations. Vous enterrez discrètement ou reformulez les ensembles de données qui disent le contraire.
Les dissidents internes décrivent précisément ce glissement. Les sources de Wired affirment qu'OpenAI met l'accent sur des gains de productivité optimistes tout en minimisant les pertes d'emplois et évite de publier des recherches qui pourraient « alimenter la régulation, provoquer un retour de bâton du public et ralentir l'adoption ». Dans un monde où chaque coefficient négatif sur une régression concernant l'IA et l'emploi pourrait faire perdre des milliards lors d'une introduction en bourse hypothétique, le silence devient un choix commercial rationnel—même s'il est profondément troublant.
Vu sous cet angle, l'allégation de suppression de la recherche sur les risques économiques semble moins un échec éthique isolé qu'un résultat prévisible d'une entreprise structurellement campée sur la maximisation du déploiement, de la valorisation et de la satisfaction des partenaires à presque n'importe quel coût informatif.
L'essor de l'« animosité ambiante »
Un ressentiment ambiant envers l'IA générative plane désormais sur tout, des contrats à Hollywood aux politiques scolaires. Les scénaristes, illustrateurs, programmeurs et travailleurs de centres d'appel voient de plus en plus l'IA non comme un outil mais comme un licenciement automatisé, et ils s'organisent contre elle à travers des syndicats, des poursuites judiciaires et des réglementations locales.
Cette hostilité ne vient pas de nulle part ; elle se nourrit directement du sentiment que les géants de l'IA manipulent le récit. Lorsque les chercheurs d'OpenAI allèguent que les études sur l'impact économique se transforment discrètement en “propagande”, cela confirme une suspicion croissante selon laquelle le public ne voit que les graphiques positifs, jamais les prévisions négatives.
Les scandales de transparence comme celui de la saga de la recherche économique d'OpenAI renforcent cette suspicion en une méfiance. Les rapports selon lesquels l'entreprise a minimisé les pertes d'emplois, évité de publier des résultats négatifs et a présenté la perturbation comme "temporaire ou gérable" rendent chaque "plan" brillant sur la main-d'œuvre similaire à une communication de crise.
Cela s'inscrit directement dans le techlash plus large qui s'est intensifié depuis l'ère Facebook–Cambridge Analytica. Le schéma narratif est familier et marquant : une entreprise de plateforme secrète, surévaluée, accumule des données, enterre les mauvaises nouvelles et avance à toute vitesse tandis que les régulateurs et les travailleurs tentent de rattraper leur retard.
L'IA s'intègre dans ce modèle presque trop parfaitement. Un laboratoire fermé, soutenu par Microsoft, détenant des modèles qui pourraient transformer des industries entières, prétendument filtrant ses propres recherches pour éviter la réglementation et les réactions du public, ressemble moins à un institut de recherche et plus à un Big Tech 2.0 avec des enjeux plus élevés.
Chaque démission médiatisée amplifie l'ambiance. Des chercheurs économiques quittent des packages à six chiffres, des équipes de sécurité se dissolvent, et des lanceurs d'alerte avertissent de « paris risqués sur l'humanité » — voir Un autre chercheur d'OpenAI démissionne—affirme que les laboratoires d'IA prennent des paris risqués sur l'humanité — tout cela alimente le sentiment qu'une menace dangereuse est cachée.
Si cette érosion de la confiance se poursuit, le contrecoup ne restera pas en ligne. Les législateurs qui flirtaient déjà avec des moratoires sur l'IA et des règles de responsabilité radicales pourraient établir des réglementations draconiennes qui ne touchent pas seulement OpenAI, mais gèlent l'expérimentation, renforcent les acteurs en place et ralentissent les utilisations bénéfiques de la technologie pour toute une génération.
Jour du Jugement : Pouvons-nous encore faire confiance à OpenAI ?
La confiance dans OpenAI était autrefois un réglage par défaut. Un laboratoire à but non lucratif promettant de « bénéficier à toute l'humanité », open-sourçant des modèles et des travaux de sécurité, donnait l'impression d'être l'adulte de la pièce en matière d'IA. Maintenant, vous avez Tom Cunningham accusant son équipe de recherche économique de se transformer en un atelier de « propagande », plusieurs chercheurs en sécurité et en politique quittant le navire, et une entreprise structurée pour protéger un potentiel paiement d'un trillion de dollars.
L'allégation de Cunningham prend plus de poids lorsqu'elle est associée à des rapports selon lesquels au moins deux chercheurs économiques ont quitté OpenAI après que l'entreprise aurait manifesté des réticences à publier des travaux soulignant les pertes d'emplois, les risques réglementaires ou les perturbations sévères. Des sources ont déclaré à Wired que les analyses internes mettant en avant les gains de productivité étaient préservées, tandis que les recherches susceptibles de "nourrir la réglementation" ou de "déclencher un mécontentement public" étaient bloquées. Ce n'est pas un filtre neutre ; c'est un filtre corporatif.
Ajoutez à cela l'exode en matière de sécurité. Les membres de l'équipe Superalignment, des chercheurs sur les risques à long terme et le personnel de politique ont quitté ou ont été mis de côté au cours des 18 derniers mois. Plusieurs ont cité leur frustration de voir que le travail sur la sécurité était de plus en plus relégué au second plan par rapport aux lancements de produits comme GPT‑4, GPT‑4o, et l'écosystème d'applications qui soutient désormais la stratégie IA de Microsoft.
Pendant ce temps, l'argent déforme tout. La structure de profit limité d'OpenAI permet néanmoins aux investisseurs de réaliser des retours allant jusqu'à 100 fois leur investissement. Microsoft a investi plus de 10 milliards de dollars dans l'entreprise, intégrant ChatGPT et Copilot dans Windows et Office, et aurait discuté de valorisations approchant les 100 milliards de dollars, avec des discours enthousiastes autour d'une future introduction en bourse d'un trillion de dollars. Lorsque tant de capital pèse sur vous, la "recherche" commence à ressembler beaucoup à un "support marketing".
Contrastons cela avec Anthropic, qui publie au moins des fiches de modèle détaillées, des rapports de red-teaming et des cadres politiques expliquant comment elle envisage le risque catastrophique. Anthropic est loin d'être parfaite, mais sa posture par défaut est d'expliquer. La posture par défaut d'OpenAI semble maintenant davantage orientée vers la désinformation.
Ainsi, les utilisateurs, les régulateurs et d'autres chercheurs sont confrontés à une question brutale : lorsque OpenAI publie un brillant plan "L'IA au travail" ou un document blanc sur l'impact économique, doit-on le considérer comme de la science ou simplement comme un plaidoyer d'entreprise ? Si des initiés qualifient leur propre production de propagande, le scepticisme n'est pas de la paranoïa ; c'est de l'hygiène.
Des audits obligatoires, indépendants et tiers des déclarations de sécurité, des études d'impact économique et des pratiques de formation des données ne sont plus un luxe. Ils sont désormais indispensables pour tout laboratoire expédiant des modèles susceptibles de remodeler les marchés du travail, les écosystèmes d'information et la sécurité nationale. L'auto-régulation a échoué dans les réseaux sociaux ; l'IA n'aura pas droit à une seconde chance.
Les avancées futures de l'IA compteront moins que la croyance du public envers ceux qui les développent. Sans confiance, même des systèmes véritablement bénéfiques feront face à un mur d'« animosité ambiante » et de retours politiques négatifs. La crise d'OpenAI ne concerne pas seulement les secrets d'une entreprise ; il s'agit d'un premier référendum sur la question de savoir si cette industrie mérite de continuer à avancer rapidement.
Questions Fréquemment Posées
Pourquoi l'économiste Tom Cunningham a-t-il quitté OpenAI ?
Il aurait démissionné après avoir allégué en interne que l'équipe de recherche économique d'OpenAI s'éloignait de la « vraie recherche » et agissait comme le « bras de propagande » de l'entreprise, privilégiant la défense de l'IA au détriment des résultats objectifs.
De quoi OpenAI est-elle accusée de cacher ?
Des sources affirment qu'OpenAI est devenu réticent à publier des recherches internes montrant des impacts économiques négatifs significatifs de l'IA, tels que des pertes d'emplois, afin d'éviter d'alimenter la réglementation, le mécontentement du public et de ralentir l'adoption.
Que sont devenus les équipes de Superalignement d'OpenAI ?
OpenAI a dissous son équipe de Superalignment, qui se concentrait sur la sécurité à long terme de l'AGI. Ce mouvement, associé à des départs clés, a alimenté les critiques selon lesquelles l'entreprise privilégierait le développement de nouveaux produits au détriment de la sécurité.
Quelle est la position publique d'OpenAI sur le risque lié à l'IA par rapport à celle d'Anthropic ?
Alors qu'OpenAI est accusé de minimiser les impacts négatifs, des concurrents comme Anthropic se sont exprimés publiquement sur la forte probabilité que l'IA entraîne un déplacement significatif d'emplois, créant un contraste marqué en matière de transparence.