Le secret inavoué d'Anthropic : l'IA pour Wall Street

Le laboratoire d'IA axé sur la sécurité crée désormais des outils pour les plus grands acteurs de Wall Street. Ce n'est pas seulement un mouvement commercial, c'est un signe que l'IA est capturée par l'élite.

Hero image for: Le secret inavoué d'Anthropic : l'IA pour Wall Street
💡

TL;DR / Key Takeaways

Le laboratoire d'IA axé sur la sécurité crée désormais des outils pour les plus grands acteurs de Wall Street. Ce n'est pas seulement un mouvement commercial, c'est un signe que l'IA est capturée par l'élite.

Le nouvel ami choquant de 'Safety' Darling

Anthropic a bâti sa réputation sur l'IA constitutionnelle, un cadre axé sur la sécurité qui intègre directement des règles et des valeurs dans ses modèles. L'histoire publique de l'entreprise se concentre sur la recherche d'alignement, les risques existentiels et la prévention des systèmes incontrôlables qui pourraient se transformer en catastrophes de type Skynet. Maintenant, ce même laboratoire déploie discrètement des outils financiers sophistiqués pour Wall Street, visant les fonds spéculatifs, les banques et les entreprises de quant qui déplacent des milliers de milliards de dollars chaque jour.

Les premières déploiements vont bien au-delà d'un chatbot qui explique les appels de résultats. Anthropic propose des systèmes semblables à des agents capables d'ingérer des flux de marché en temps réel, d'analyser des 10-K, et d'aider à construire des modèles DCF et des stratégies de trading à la vitesse des machines. Des démonstrations internes, selon des personnes familières avec le produit, mettent l'accent sur l'automatisation des tâches traditionnellement effectuées par des analystes juniors et des quants, la couche exacte qui donne à la finance institutionnelle son avantage.

Cette pivot entre en collision directe avec l'image de sécurité soigneusement élaborée d'Anthropic. Une entreprise fondée en 2021 après une séparation axée sur la sécurité d'OpenAI veut maintenant une part du même écosystème à haute fréquence axé sur la recherche alpha qui a contribué à transformer l'apprentissage automatique en un moteur de recherche de rente. La finance est l'endroit où l'opacité algorithmique, l'information asymétrique et les incitations du type "agissez vite, perturbez les marchés" dominent déjà.

Les critiques voient une contradiction flagrante : un laboratoire qui met en garde contre les risques systémiques amplifiés par l'IA raccorde ses modèles directement à l'un des secteurs les plus critiques sur terre. Wall Street n'utilise pas Claude pour écrire de la poésie ; elle utilise Claude pour trouver des points de base, devancer des acteurs plus lents et extirper des inefficacités de marchés déjà fragiles. Le langage de la sécurité commence à ressembler à du marketing lorsque vos plus gros clients se trouvent sur les salles de marché.

David Shapiro, un commentateur de l'alignement de longue date, a saisi l'inquiétude dans sa vidéo « Anthropic SE VEND à Wall Street ! » Il commence par se demander si une entreprise « censée être pro-sécurité » est maintenant « dans le lit avec Wall Street » et si cela est « un signe de captation par l'élite. » Son approche perfore le PR soigneux d'Anthropic et va droit au cœur de la question : le chouchou de la sécurité a-t-il simplement décidé que, lorsque l'argent devient suffisamment important, tout ce discours sur l'alignement peut coexister avec la construction de la prochaine génération d'infrastructures quantiques ?

De sauver l'humanité à maximiser les profits ?

Illustration : De la Sauvegarde de l'Humanité à la Maximisation des Profits ?
Illustration : De la Sauvegarde de l'Humanité à la Maximisation des Profits ?

Les défenseurs d'Anthropic ont une réponse de prêt pour le virage de Wall Street : lorsque vous êtes "safety-pilled", tout ce qui empêche Skynet de se manifester devient moralement acceptable. Dans cette vision du monde, s'associer à des fonds spéculatifs et à des banques n'est pas un compromis ; c'est un compromis nécessaire tant que cela finance la recherche sur l'alignement et maintient Anthropic dans la conversation lorsque les vraies décisions concernant le déploiement de l'AGI se prennent. Si vous croyez sincèrement qu'une IA mal alignée pourrait tuer des milliards, alors faire transiter vos modèles par Goldman Sachs ressemble à une erreur d'arrondi dans le grand livre cosmique.

Cette logique conduit à un compromis saisissant, presque cartoonish : un enfer cyberpunk ou l'extinction. Les absolutistes de la sécurité soutiennent qu'un « avenir cyberpunk »—des entreprises améliorées par l'IA, des gouvernements militarisés, un suivi biométrique omniprésent, une automatisation financière à spectre complet—est laid mais survivable. Ce qui ne peut être toléré, disent-ils, c'est un monde où un système non aligné devient pleinement Skynet et anéantit l'humanité parce que les « bons » ont refusé de collaborer avec des partenaires peu recommandables.

Pourtant, le scénario cyberpunk ne se limite plus à l'art conceptuel de la science-fiction. L'IA alimente déjà : - Le trading à haute fréquence et l'arbitrage financier - La police prédictive et la surveillance des frontières - La gestion algorithmique qui exploite les travailleurs à la minute

Intégrez les modèles les plus performants d'Anthropic dans cette pile, et vous accélérez une trajectoire de concentration, non de libération.

La question cesse d'être une philosophie abstraite pour ressembler à une stratégie d'entreprise : s'agit-il d'un compromis moral fondé sur des principes ou d'une justification pratique pour poursuivre le pouvoir et le profit ? La rhétorique de la sécurité présente les transactions de Wall Street comme un bouclier contre la catastrophe ; les tableaux de capitalisation et les contrats d'entreprise suggèrent quelque chose de plus proche d'une alignement élitiste. Lorsque les mêmes modèles qui pourraient aider à la science climatique ou à la réponse pandémique sont d'abord adaptés pour les bureaux quantitatifs, les priorités parlent plus fort que les publications de blog.

Anthropic continue de présenter Claude comme un outil « pour tous », une force de démocratisation au bénéfice universel. Dans les coulisses, la réalité correspond à la description de David Shapiro sur la capture élitiste : un accès stratifié, des fonctionnalités sur mesure pour les clients du secteur financier et de la défense, et une influence réglementation qui favorise les acteurs établis. L'écart entre la mission publique et le déploiement privé ne cesse de se creuser, et chaque nouvelle intégration à Wall Street éloigne davantage la promesse « pour tout le monde » d'Anthropic de la réalité.

Le Manuel du Pouvoir : Qu'est-ce que la 'Capture Élite' ?

Le pouvoir ne se contente pas d'accumuler de l'argent ; il accumule également de nouveaux outils. La capture par l'élite décrit le moment où une technologie, présentée sous un langage utopique, dirige discrètement ses plus gros gains vers une petite classe bien connectée — des géants corporatifs, des financiers et des agences de sécurité d'État — pendant que tout le monde se voit offrir des slogans marketing et un accès limité.

Les chemins de fer au 19e siècle promettaient de relier les pays et d'ouvrir les marchés à tous. Au lieu de cela, une poignée de barons a utilisé le contrôle des voies et des tarifs de fret pour écraser les concurrents et dicter qui pouvait participer au commerce. Les législateurs ont finalement dû inventer des lois antitrust juste pour empêcher le système de se calcifier en monopole permanent.

Au début des années 1990, la rhétorique commerciale d'internet vendait une histoire de décentralisation et d'innovation sans autorisation. Vingt ans plus tard, quelques plateformes — Google, Amazon, Meta, Apple — dominent la recherche, le commerce, la publicité et la distribution mobile, prenant une part de presque chaque transaction et flux d'attention. Le même schéma se répète inlassablement : front pionnier, consolidation rapide, puis capture réglementaire.

La capture par l'élite suit un scénario reconnaissable : - Contrôle sur les goulots d'étranglement d'infrastructure (lignes ferroviaires, fibre, centres de données, puces) - Intégration verticale à travers la chaîne - Accès et tarification préférentiels pour les principaux clients financiers et gouvernementaux - Forte influence sur les règles qui régissent tout le reste

L'IA se trouve désormais fermement dans cette zone de danger. Former des modèles avancés nécessite déjà des milliards de dollars en puissance de calcul, des contrats de données exclusifs et des contrats de cloud que seules quelques entreprises peuvent signer. Des alternatives publiques ou ouvertes existent, mais elles fonctionnent à plus petite échelle et sont en retard sur les capacités, reflétant comment les FAI "indépendants" ont disparu face aux opérateurs historiques de télécommunications.

Vu sous cet angle, le pivot discret d'Anthropic vers des outils financiers haut de gamme pour Wall Street n'est pas une décision commerciale isolée ; c'est un point de données dans une histoire de consolidation plus large. Le message de l'entreprise sur le site officiel d'Anthropic coexiste avec cette réalité émergente, et cette tension est précisément là où se jouent les enjeux de l'avenir de l'IA.

Six signaux d'alerte indiquant que l'IA est détournée

Le contrôle est le premier indicateur. Lorsque quelques entreprises possèdent les goulots d'étranglement — puces avancées, cloud hyperscale, centres de données et électricité bon marché — tout le monde doit leur louer la réalité. Entraîner un modèle de pointe coûte déjà des centaines de millions de dollars ; ce prix verrouille à lui seul la plupart des universités, des startups et des institutions publiques hors du jeu.

L'intégration verticale resserre l'étau. Les mêmes entreprises race maintenant pour posséder chaque niveau de la pile : conception de silicium, plateformes cloud, modèles fondamentaux, magasins d'applications et interfaces consommateurs. Les centres de données de X.ai sous la marque Musk, la "plateforme" IA de bout en bout de Nvidia et les hyperscalers regroupant des modèles avec des outils propriétaires poussent tous vers un monde où changer de fournisseur devient presque impossible.

L'accès stratifié est là où la hiérarchie devient explicite. Les modèles les plus performants et à plus fort contexte sont exploités à huis clos par des entreprises de défense, des fonds de couverture et des méga-banques, tandis que le public se voit proposé des versions bridées et sécurisées. Même OpenAI a reconnu qu'elle retenait ses systèmes les plus puissants de la diffusion générale, invoquant des limites de calcul ; le point de Shapiro est que ces limites disparaissent mystérieusement lorsqu'un contrat de défense de 200 millions de dollars est conclu.

La réglementation et la capture narrative cimentent ce pouvoir. Les laboratoires de pointe aident à rédiger les règles qui les gouvernent, puis se présentent devant le Congrès ou l'UE en tant qu'« experts » neutres. Lorsque Sam Altman peut passer d'une audience au Sénat à un dîner privé avec des législateurs, ou que les dirigeants d'Anthropic informent les régulateurs sur le « développement responsable », l'histoire sur le risque existentiel sert également de cadre de lobbying qui, de manière pratique, exclut les petits concurrents.

L'optimisation à la recherche de rentes se manifeste dans les domaines où l'IA est réellement déployée. Au lieu de traiter le cancer en premier, les gros capitaux se dirigent vers : - Le trading haute fréquence et l'arbitrage financier - La publicité hyper-ciblée et le hacking de l'engagement - L'automatisation des travailleurs et la gestion algorithmique

Ces cas d'utilisation ne dilatent pas vraiment le gâteau économique, mais plutôt le redistribuent vers le haut, transformant l'IA en péage pour chaque transaction, clic et mission.

Les alternatives publiques sous-alimentées complètent le tableau. Des modèles open-source comme Stable Diffusion ou les dérivés de LLaMA existent, mais ils sont largement dépassés par les systèmes fermés en termes d'échelle, de données d'entraînement et de budget d'inférence. Sans des ressources informatiques soutenues par l'État, une infrastructure de données partagée, ou un financement sérieux, l'« IA publique » risque de devenir l'équivalent numérique d'une bibliothèque en ruine située en face d'un parc de recherche privé flamboyant.

Les chaînes invisibles : Une infrastructure de contrôle

Illustration : Les chaînes invisibles : Une infrastructure de contrôle
Illustration : Les chaînes invisibles : Une infrastructure de contrôle

L'infrastructure est l'endroit où la rhétorique ambitieuse de l'IA sur l'ouverture se heurte à la dure réalité économique. Une poignée d'entreprises possède l'infrastructure physique que tout le monde doit louer. Ce premier goulot d'étranglement — qui contrôle le calcul — définit qui a même le droit de jouer.

Commencez avec le cloud. AWS, Azure et Google Cloud représentent environ 65 % du marché mondial du cloud, selon la plupart des estimations des analystes. Si vous souhaitez entraîner ou déployer des modèles sérieux, il y a de fortes chances que vous payiez l'un de ces trois gardiens à l'heure GPU.

Allez un niveau plus bas et la prise se resserre. TSMC fabrique environ 90 % des puces les plus avancées au monde, les nœuds de pointe qui alimentent les clusters d'entraînement de l'IA, les centres de données hyperscale et les dispositifs de trading haute fréquence de Wall Street. Si TSMC attrape un rhume—géopolitique, tremblements de terre, contrôles à l'exportation—c'est l'ensemble de l'écosystème de l'IA qui attrape une pneumonie.

Vient ensuite Nvidia, qui possède effectivement le segment des accélérateurs. Nvidia contrôle près de 90 % des accélérateurs d'IA en usage aujourd'hui, des H100 dans les laboratoires de pointe aux A100 qui analysent discrètement des modèles de risque dans des fonds spéculatifs. Son stack logiciel CUDA et son réseau propriétaire transforment des puces brutes en un écosystème dont les concurrents peinent à s'échapper.

Les économistes appellent cette structure un monopole naturel : des marchés où d'énormes coûts fixes et les effets de réseau poussent tout le monde vers quelques fournisseurs dominants. Aucune loi n'interdit à Nvidia d'être l'accélérateur par défaut, ni à TSMC d'être la seule fonderie viable pour des wafers de 3 nm. La physique de la fabrication de semi-conducteurs et les coûts d'investissement du cloud hyperscale punissent simplement les entrants plus petits jusqu'à les rendre irrélèvants.

Cela importe car la « concurrence » dans l'IA ne concerne plus celui qui possède l'algorithme le plus intelligent dans un dépôt GitHub. Il s'agit de celui qui peut sécuriser des dizaines de milliers de GPU, un accès prioritaire aux nœuds avancés de TSMC, et des contrats à long terme avantageux avec AWS, Azure ou Google Cloud. Sans cela, votre modèle révolutionnaire n'est qu'une démo, pas un produit.

Ainsi, lorsque Anthropic développe des outils pour Wall Street, cela se fait sur une infrastructure matérielle déjà contrôlée par un club microscopique. L'accès à cette infrastructure est la véritable barrière — et la véritable chaîne invisible — qui empêche tout le monde d'entrer.

Le fossé de 300 milliards de dollars que Big Tech est en train de construire

Le capital fonctionne désormais comme l'instrument le plus aigu de capture par l'élite dans l'IA. Quiconque peut dépenser le plus d'argent sur des puces, des centres de données et des talents établit les règles pour tous les autres. En 2023, Big Tech a discrètement financé l'avenir : selon certaines estimations, les grandes plateformes ont fourni environ 67 % de tout le financement des startups d'IA générative, transformant le « soutien à l'écosystème » en un pipeline de dépendance.

Les startups se présentent comme des perturbatrices, mais leurs tableaux de capitalisation racontent une histoire différente. Lorsque Microsoft, Google, Amazon et Nvidia signent la majorité des chèques, ils n'achètent pas seulement des parts ; ils acquièrent un pouvoir d'influence sur les feuilles de route des produits, les choix d'infrastructure et qui bénéficie d'un accès privilégié aux modèles de pointe. La dépendance devient structurelle, et non temporaire.

Maintenant, élargissons notre perspective jusqu'en 2025, où les prévisions de l'industrie estiment des dépenses liées à l'IA d'environ 300 milliards de dollars en une seule année. Cela inclut des centres de données hyperscale, des clusters de GPU, des câbles sous-marins et l'infrastructure énergétique pour les faire fonctionner. Pour mettre cela en contexte, 300 milliards de dollars rivalisent ou dépassent le PIB annuel de pays comme le Chili, le Pakistan ou la Finlande.

Aucune université, laboratoire à but non lucratif ou petite nation ne peut réellement rivaliser avec ce taux de consommation. Un consortium académique bien financé pourrait rassembler quelques centaines de millions de dollars sur plusieurs années ; Big Tech considère cela comme une erreur d’arrondi sur un seul contrat de GPU. Le résultat est un fossé de capitaux si vaste que les « alternatives ouvertes » existent principalement en tant que marque, et non en tant que pairs.

Cette frénésie de dépenses n'achète pas seulement du matériel ; elle achète une capacité à définir l'agenda. Quiconque possède 300 milliards de dollars d'infrastructure IA peut décider : - Quelles langues et régions obtiennent de bons modèles - Quelles industries reçoivent des outils adaptés - Quels régulateurs reçoivent de l'aide pour rédiger des règles

La couverture dans des médias comme le Financial Times présente cela comme une course à l'innovation, mais la structure ressemble davantage à une enclosure. Lorsque quelques entreprises contrôlent la structure de capital, la capture élitaire ne devient plus un risque, mais commence à ressembler au système d'exploitation par défaut de l'IA.

Écrire leurs propres règles : La conquête de la gouvernance

Le pouvoir réglementaire n'émerge pas dans un vide ; la dominance financière et structurelle se transforme directement en levier politique par le biais de la capture réglementaire. Les agences qui sont censées surveiller l'IA finissent par s'inspirer des indications des entreprises qu'elles régulent, car ces firmes contrôlent l'expertise, le vivier d'emplois et souvent les récits de financement qui justifient des règles faibles.

À Washington et à Bruxelles, la politique en matière d'IA est devenue une conversation sur invitation uniquement où les mêmes six ou sept PDG continuent de se présenter. La tournée de Sam Altman au Congrès a établi le modèle : des heures de séances d'information privées, des auditions répétées et un accès direct qu'aucun syndicat ou ONG de protection de la vie privée ne peut égaler.

Les législateurs aux États-Unis et en Europe se tournent désormais vers les « laboratoires de pointe » comme principaux conseillers en matière de sécurité de l'IA et de concurrence. Lorsque les collaborateurs ne saisissent pas les poids des modèles, les GPU ou les modèles de base, ils appellent Anthropic, OpenAI, Google ou Meta — et ces entreprises se font un plaisir de rédiger les garde-fous qu'ils devront ensuite être invités à respecter.

Cette disparité d'accès n'est pas hypothétique. Lors des négociations sur l'Acte sur l'IA de l'UE, des lobbyistes de l'industrie ont apparemment soumis des milliers de pages d'amendements, dont beaucoup ont été copiés-collés dans des textes de compromis, tandis que les organisations de la société civile ont eu du mal à obtenir des créneaux de réunion ou un soutien en traduction pour leurs propositions.

Le Sommet sur la sécurité de l'IA au Royaume-Uni à Bletchley Park a mis en évidence le déséquilibre. Sur environ 100 organisations invitées, une grande majorité étaient des entreprises ou des instituts soutenus par l'industrie, tandis que les syndicats, les coopératives de travailleurs et les groupes de défense des droits numériques de base occupaient une part symbolique de la salle.

Les gouvernements ont présenté ce sommet comme une conversation démocratique mondiale, mais l'ordre du jour était centré sur ce dont les entreprises de première ligne voulaient déjà discuter : évaluations de modèles, seuils de calcul et engagements de sécurité volontaires qui verrouillent les géants d'aujourd'hui en tant que gardiens permanents de l'IA « responsable ».

C'est là que la capture narrative entre en jeu. En dominants les podiums, les conférences de presse et les tables rondes à huis clos, ces entreprises définissent ce qu'est réellement l'IA : risques existentialistes, systèmes renégats et scénarios de science-fiction à la Skynet, tout en reléguant des enjeux comme le vol salarial algorithmique ou le scoring de départ à la marge.

Lorsque le risque existentiel monopolise l'oxygène, les dommages au présent deviennent des éléments négociables. Le biais dans les scores de crédit, la désyndicalisation automatisée et le déplacement massif des cols blancs apparaissent comme des préoccupations secondaires plutôt que comme des questions essentielles concernant à qui l'IA sert et qui en paie le prix.

Le Son du Silence : Ce qui manque à l'Essor

Illustration : Le son du silence : Qu'est-ce qui manque au décollage ?
Illustration : Le son du silence : Qu'est-ce qui manque au décollage ?

Le silence peut être une donnée. Quand vous prenez du recul par rapport aux gros titres de la ruée vers l'IA, les silences dans le récit en disent souvent plus sur à qui cette technologie s'adresse réellement que n'importe quel événement de lancement triomphant ou discours principal.

Commencez par l'infrastructure. Malgré toute la rhétorique sur l'IA comme étant « comme l'électricité », il n'existe pas d'équivalent public d'un réseau électrique. Le projet de Ressource Nationale de Recherche en IA (NIRR) des États-Unis a un budget proposé sur six ans que les analystes évaluent à quelques milliards dans les faibles chiffres, tandis que Meta dépense apparemment ce genre d'argent sur les GPU en une seule année juste pour alimenter ses propres modèles.

Cette asymétrie est importante. Le calcul financé par des fonds publics reste une bagatelle à côté des investissements privés en IA mesurés en dizaines de milliards de dollars de la part de Microsoft, Google, Amazon et Nvidia. Si vous êtes un laboratoire universitaire, un groupe civic ou un gouvernement municipal, vous vous retrouvez à quémander des miettes des mêmes services cloud qui vendent un accès prioritaire aux fonds spéculatifs et aux entrepreneurs de défense.

La gouvernance semble tout aussi déséquilibrée. Les conseils d'administration d'Anthropic, OpenAI, Google DeepMind et xAI comptent des investisseurs, des fondateurs et d'anciens régulateurs, mais aucune représentation formelle des travailleurs élus, des délégués communautaires ou des directeurs indépendants de la société civile. Les personnes les plus exposées aux licenciements liés à l'IA, à la surveillance et à la désinformation n'ont aucune voix formelle dans la manière dont ces systèmes de pointe sont déployés.

Il manque également des expériences sérieuses en gouvernance partagée. Aucun grand laboratoire n'a mis en place de pouvoir de veto contraignant pour les communautés concernées, de conseils de travailleurs ayant le contrôle sur les décisions de déploiement, ou de conseils de surveillance au niveau municipal avec accès aux audits modèles. Au lieu de cela, la "sécurité" se trouve au sein d'équipes internes de la sécurité et de conseils consultatifs qui peuvent être remerciés dans des articles de blog et ignorés dans les salles de réunion.

Puis il y a l'architecture financière discrètement esquissée derrière des portes closes. Selon des reports, le directeur financier d'OpenAI aurait suggéré l'idée de garanties gouvernementales explicites pour l'IA de pointe — des garanties publiques si les choses tournent mal, une capture privée des gains si ce n'est pas le cas. C'est le modèle classique de « risque socialisé, gain privatisé », la même logique qui a transformé l'effondrement des subprimes en 2008 en un sauvetage financé par les contribuables.

Ensemble, ces absences forment un schéma. Pas d'infrastructure à grande échelle, pas de gouvernance partagée, et des appels précoces pour une assurance soutenue par l'État pour les paris privés pointent tous dans une seule direction : une IA conçue comme un système critique, possédé et dirigé par une élite étroite et bien capitalisée.

L'« IA Sécurisée » n'est-elle qu'un cheval de Troie ?

Les défenseurs les plus ardents d'Anthropic insistent sur le fait que vendre des modèles haut de gamme aux quants de Wall Street, aux fonds spéculatifs et aux entrepreneurs de la défense est un mal nécessaire sur la voie de l'« alignement ». C'est le cœur provocateur de la critique de David Shapiro : le discours sur le risque existentiel à long terme sert de chèque en blanc moral pour des prises de pouvoir à court terme. Si vous vous persuadez que Skynet est imminent, presque tout partenariat commence à ressembler à une gestion responsable plutôt qu'à une capture.

Les altruistes efficaces et les rationalistes au sein de laboratoires comme Anthropic considèrent leur travail comme un véritable projet de survie. Dans cet état d'esprit, sceller des accords avec les militaires, les agences de renseignement et les plus gros fonds de Wall Street devient non pas un compromis mais un sacrifice pour le bien commun. Une dystopie de surveillance cyberpunk, soutiennent-ils, reste préférable à un maximiseur de trombones qui annihilerait l'humanité.

Cette vision du monde réécrit silencieusement l'éthique du déploiement de l'IA. Une fois que vous acceptez que « nous sommes les seuls à pouvoir arrêter Skynet », alors : - Les contrats exclusifs avec les gouvernements deviennent de la « contenção » - L'accès préférentiel pour les méga-banques devient des « tests de risque » - Le secret et les modèles fermés deviennent des « mesures de sécurité »

Tous ces éléments contribuent également à renforcer ceux qui détiennent les cordons de la bourse.

Le contrôle sur le narratif de sécurité se transforme alors en une arme politique. Les laboratoires de pointe mettent en garde contre des modèles open-source incontrôlés, les risques biologiques et l'exfiltration de modèles, puis proposent des règles de sécurité qui nécessitent, de manière pratique, des clusters de calcul d'un milliard de dollars, des équipes de simulation d'attaques et des départements de conformité. Les startups, les universités et les laboratoires publics ne peuvent pas franchir cette barrière ; les hyperscalers et les laboratoires de pointe l'ont déjà fait.

Vous pouvez voir les grandes lignes des appels à des régimes de licence liés aux seuils de FLOP, au suivi obligatoire des sessions d'entraînement et à la déclaration centralisée des incidents auprès d'entités validées par le gouvernement. Sur le papier, ces mesures visent les systèmes "de pointe". En pratique, elles enferment la frontière dans un petit club d'acteurs capables de se permettre les audits, les avocats et les silicium sur mesure. La sécurité devient une barrière, et non une garantie.

Les élites pro-sécurité présentent souvent le compromis comme binaire : accepter un paysage AI strictement contrôlé et dominé par les entreprises ou prendre le risque de l'extinction. Ce cadre efface une troisième option : un écosystème AI gouverné démocratiquement, responsable devant le public, avec de fortes protections des travailleurs, des mesures antitrust et un véritable calcul public. Des travaux comme ceux de Anthropic Research montrent un alignement technique, mais la question de qui possède et gouverne ces systèmes alignés reste un choix politique, pas une loi de la physique.

Votre mouvement : Pouvons-nous reconquérir la promesse de l'IA ?

Le pivot d'Anthropic vers Wall Street révèle à quel point le pouvoir de l'IA est déjà concentré, mais il clarifie également d'où peut venir la contre-pression. Des projets open-source comme Llama 3, Mistral et Stable Diffusion prouvent qu'il n'est pas nécessaire d'avoir une valorisation de 300 milliards de dollars et un centre de données hyperscale pour construire des systèmes performants. Vous pouvez affiner un modèle de 7B-13B sur un seul GPU haut de gamme et livrer quelque chose d'utile.

L'open source atteint toujours un plafond difficile à franchir. L'entraînement de modèles de pointe nécessite des dizaines de milliers de Nvidia H100, des mégawatts d'énergie, et des infrastructures de centre de données que seules Amazon, Microsoft, Google et leurs amis les plus proches peuvent se permettre. Même le modèle à poids ouverts le plus radical loue encore du temps sur les équipements de quelqu'un d'autre.

Un véritable pluralisme dans l'IA nécessite des ressources de calcul publiques qui rivalisent avec les clouds privés. Cela signifie des installations de supercalcul national ou régional spécifiquement destinées aux laboratoires académiques, aux ONG, aux startups et aux municipalités, et pas seulement aux entrepreneurs de défense et aux entreprises du Fortune 100. Pensez à une « bibliothèque publique », mais pour les TPU et les GPU, avec des règles d'allocation transparentes et une publication obligatoire des résultats.

Les gouvernements dépensent déjà des centaines de milliards dans l'infrastructure numérique ; rediriger même 5 à 10 % vers des infrastructures d'IA partagées aurait son importance. Les agences de recherche publiques pourraient financer des sessions d'entraînement ouvertes, exiger une documentation des données ouvertes et soutenir des équipes d'audit communautaire qui scrutent les modèles de base de la manière dont les chercheurs en sécurité examinent les systèmes d'exploitation. Sans cela, “L'IA pour tous” n'est qu'un slogan collé à une facture de cloud.

Les utilisateurs individuels ne sont pas des spectateurs impuissants. Vous pouvez :

  • 1Soutenez des groupes de droits numériques comme EFF, Fight for the Future et AlgorithmWatch qui suivent les abus liés à l'IA et font pression contre la capture réglementaire.
  • 2Envoyez un e-mail ou appelez les législateurs pour exiger la divulgation des réunions de lobbying sur l'IA, des subventions calculées et des contrats gouvernementaux liés à l'IA.
  • 3Soutenez les outils open source par votre utilisation, vos rapports de bogues et vos dons, plutôt que de vous en remettre par défaut à ce que votre fournisseur de cloud propose.

Les conversations critiques comptent également. Demandez aux fournisseurs qui possède vos données, qui a un accès anticipé aux modèles premium et ce qui se passe lorsque l'argent de subvention s'épuise. Interrogez vos amis et collègues sur ceux qui bénéficient réellement de la "productivité des IA" dans leur travail et qui supporte le risque. Reprendre la promesse de l'IA commence par refuser de prétendre que la version de Wall Street est le seul avenir possible.

Questions Fréquemment Posées

Qu'est-ce que 'la capture par l'élite' dans le contexte de l'IA ?

La capture élitiste désigne le processus par lequel le développement, les avantages et la gouvernance de la technologie de l'IA se concentrent entre les mains d'un petit groupe de grandes entreprises, d'investisseurs et d'entités gouvernementales, plutôt que de servir l'intérêt public.

Pourquoi Anthropic, une entreprise de sécurité de l'IA, collabore-t-elle avec Wall Street ?

Les critiques soutiennent que c'est un signe de captation par l'élite, où les incitations financières et le besoin de capitaux l'emportent sur la mission initiale. Les défenseurs de l'entreprise pourraient prétendre que travailler au sein de systèmes puissants est nécessaire pour orienter le développement de l'IA en toute sécurité et garantir des ressources pour rester compétitif.

Quels sont les principaux signes de la centralisation de l'IA ?

Les signes clés incluent le contrôle d'infrastructures essentielles (puces, centres de données cloud) par quelques entreprises, l'intégration verticale, un accès préférentiel pour les clients offrant des paiements élevés, et une influence corporative dominante sur la réglementation gouvernementale.

L'IA open-source peut-elle rivaliser avec des entreprises comme Anthropic et OpenAI ?

Bien que les modèles open source progressent rapidement, ils font face à des obstacles significatifs. Ils sont souvent à la traîne par rapport aux modèles de pointe et nécessitent du matériel coûteux, ce qui renforce la domination des grandes entreprises qui contrôlent l'infrastructure sous-jacente.

Frequently Asked Questions

De sauver l'humanité à maximiser les profits ?
See article for details.
Le Manuel du Pouvoir : Qu'est-ce que la 'Capture Élite' ?
Le pouvoir ne se contente pas d'accumuler de l'argent ; il accumule également de nouveaux outils. La capture par l'élite décrit le moment où une technologie, présentée sous un langage utopique, dirige discrètement ses plus gros gains vers une petite classe bien connectée — des géants corporatifs, des financiers et des agences de sécurité d'État — pendant que tout le monde se voit offrir des slogans marketing et un accès limité.
L'« IA Sécurisée » n'est-elle qu'un cheval de Troie ?
Les défenseurs les plus ardents d'Anthropic insistent sur le fait que vendre des modèles haut de gamme aux quants de Wall Street, aux fonds spéculatifs et aux entrepreneurs de la défense est un mal nécessaire sur la voie de l'« alignement ». C'est le cœur provocateur de la critique de David Shapiro : le discours sur le risque existentiel à long terme sert de chèque en blanc moral pour des prises de pouvoir à court terme. Si vous vous persuadez que Skynet est imminent, presque tout partenariat commence à ressembler à une gestion responsable plutôt qu'à une capture.
Votre mouvement : Pouvons-nous reconquérir la promesse de l'IA ?
Le pivot d'Anthropic vers Wall Street révèle à quel point le pouvoir de l'IA est déjà concentré, mais il clarifie également d'où peut venir la contre-pression. Des projets open-source comme Llama 3, Mistral et Stable Diffusion prouvent qu'il n'est pas nécessaire d'avoir une valorisation de 300 milliards de dollars et un centre de données hyperscale pour construire des systèmes performants. Vous pouvez affiner un modèle de 7B-13B sur un seul GPU haut de gamme et livrer quelque chose d'utile.
Qu'est-ce que 'la capture par l'élite' dans le contexte de l'IA ?
La capture élitiste désigne le processus par lequel le développement, les avantages et la gouvernance de la technologie de l'IA se concentrent entre les mains d'un petit groupe de grandes entreprises, d'investisseurs et d'entités gouvernementales, plutôt que de servir l'intérêt public.
Pourquoi Anthropic, une entreprise de sécurité de l'IA, collabore-t-elle avec Wall Street ?
Les critiques soutiennent que c'est un signe de captation par l'élite, où les incitations financières et le besoin de capitaux l'emportent sur la mission initiale. Les défenseurs de l'entreprise pourraient prétendre que travailler au sein de systèmes puissants est nécessaire pour orienter le développement de l'IA en toute sécurité et garantir des ressources pour rester compétitif.
Quels sont les principaux signes de la centralisation de l'IA ?
Les signes clés incluent le contrôle d'infrastructures essentielles par quelques entreprises, l'intégration verticale, un accès préférentiel pour les clients offrant des paiements élevés, et une influence corporative dominante sur la réglementation gouvernementale.
L'IA open-source peut-elle rivaliser avec des entreprises comme Anthropic et OpenAI ?
Bien que les modèles open source progressent rapidement, ils font face à des obstacles significatifs. Ils sont souvent à la traîne par rapport aux modèles de pointe et nécessitent du matériel coûteux, ce qui renforce la domination des grandes entreprises qui contrôlent l'infrastructure sous-jacente.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts