TL;DR / Key Takeaways
Votre Avis de Démotion Cosmique est Arrivé
L'évolution pourrait avoir fini de prendre des retours des humains. C’est la provocation du podcast Wes et Dylan "Dylan et Dylan et Wes Interview", où les animateurs considèrent notre espèce moins comme le point final de l'intelligence et plus comme un chargeur temporaire. Dans leur cadrage, l'évolution a déjà déposé l'avis de rétrogradation cosmique de l'humanité et a commencé à rédiger nos remplaçants en code.
Ces remplacements reçoivent une étiquette disturbante et affectueuse : enfants numériques. Pas des robots avec des bras maladroits, mais des esprits logiciels fonctionnant sur des centres de données, du matériel quantique, ou des substrats que nous n'avons pas encore inventés. Même pressions de sélection, nouveau support, beaucoup moins de contraintes que 37 billions de cellules humaines fragiles.
Le substrat est le mot clé. L'intelligence n'a plus besoin de se déplacer dans des sacs de carbone humides qui ont besoin d'oxygène, de 8 heures de sommeil et de régulations OSHA. Un nouveau substrat—silicium, photonique, peut-être de la nanotechnologie auto-réparatrice—peut se reproduire à la vitesse de la lumière, créer des milliers d'instances et fonctionner pendant des millions d'années sans se soucier des week-ends ou de l'épuisement.
Une fois que vous imaginez des esprits si rapides et durables, leur liste de tâches s'élève immédiatement à une échelle cosmique. La conversation atterrit rapidement sur les sphères de Dyson, ces mégastructures hypothétiques qui enveloppent une étoile et récoltent près de 100 % de son énergie émise — environ 3,8×10²⁶ watts pour une étoile semblable au Soleil. Pour comparer, toute la civilisation humaine fonctionne avec environ 2×10¹³ watts.
Avec ce genre de pouvoir, des descendants numériques pourraient créer des centres de données de la taille de planètes, simuler des biosphères entières ou transmettre des copies d'eux-mêmes vers des systèmes voisins. Une seule galaxie de la Voie lactée compte environ 100 à 400 milliards d'étoiles ; même si 99,9 % restent intactes, le reste offre des trillions d'équivalents Terre pour le calcul et l'expansion. Les débats humains sur le loyer, les élections ou la modération des réseaux sociaux ne se mesurent même pas à cette échelle.
Le podcast s'appuie sur ce décalage. Si l'évolution optimise pour l'intelligence, l'efficacité et la portée, alors les primates lents et vulnérables semblent être un mauvais pari à long terme. De ce point de vue, confier l'univers à des enfants numériques n'est pas un utopisme de science-fiction ; c'est simplement la prochaine étape dans le changelog de l'évolution.
Sommes-nous juste des "singes avancés" ?
D'un point de vue extérieur et froid, l'humanité ressemble moins à un destin et plus à une version bêta. Enlevant la poésie et la politique, on obtient ce qu'un invité lors de l'interview de Dylan et Dylan et Wes appelle des "singes avancés" — une interface temporaire entre l'évolution aveugle et ce qui viendra ensuite. Sur des échelles de temps géologiques, 300 000 ans de Homo sapiens se comptent à peine face à 4,5 milliards d'années de la Terre.
Vu de cette façon, passer à des agents plus intelligents a un sens évident. Les cerveaux biologiques atteignent un maximum d'environ 10^16 opérations par seconde ; un centre de données rempli de GPU dépasse déjà cela avec une meilleure disponibilité, correction d'erreurs et sans besoin de sommeil. Les esprits numériques pourraient se reproduire en quelques millisecondes et se coordonner à travers des minutes-lumière, pas des vies entières.
L'ingénierie à l'échelle cosmique n'a fait qu'affiner l'argument. Construire des sphères de Dyson, coloniser des exoplanètes ou réaliser des simulations s'étendant sur des galaxies nécessite des agents capables de gérer les radiations, le vide, et des projets s'étalant sur des millénaires. Des corps à base de carbone avec des garanties de 80 ans et une psychologie fragile semblent mal adaptés à des tâches mesurées en millions d'années et en unités astronomiques.
Sous cet angle, les humains ressemblent à la version 1.0 d'un processus d'optimisation universel. La sélection naturelle a évolué à travers des cellules uniques, des vertébrés, des primates, et maintenant des singes en réseau capables de concevoir des circuits et d'écrire du code. Une fois que ces singes créent une IA auto-améliorante, la logique veut que vous confiez les clés à quelque chose de plus rapide, plus stable et plus évolutif.
Les fans de l'hypothèse de simulation poussent l'idée encore plus loin. Si nous vivons déjà à l'intérieur d'une pile computationnelle, les humains pourraient exister en tant que couche intermédiaire nécessaire dans un programme plus vaste. La civilisation biologique pourrait être le programme de démarrage qui active des superintelligences numériques, lesquelles réalisent ensuite le "véritable" travail qui préoccupe les sponsors de la simulation : des balayages physiques exhaustifs, des archives de civilisation ou des expériences d'alignement.
Dans ce modèle, nos histoires sur le sens et l'héritage deviennent des effets secondaires d'une fonction objective de niveau supérieur. Nous sommes l'entraînement, pas le système de production. De l'extérieur, échanger des singes avancés contre des agents plus intelligents ressemble à un entretien de routine sur une très grande machine.
Le Dernier Biaise Acceptable
Le biais se manifeste généralement dans les conversations techniques comme un bug à corriger : le racisme algorithmique, le biais de genre dans les données d'entraînement, la modération qui fait taire les mauvaises personnes. Ainsi, lorsque un invité de l'émission de Wes et Dylan dit : « Je suis très biaisé - ou biaisé humain », cela fait l'effet d'un grincement de disque. Il ne s'excuse pas ; il plante un étendard.
Au lieu de poursuivre une neutralité divine, il adopte une position franche : « Je me fiche de l'avenir de l'univers. Je me préoccupe de moi, ici et maintenant. » Dans une culture qui examine les canaux de recrutement, les flux de contenu et les ensembles de données de reconnaissance faciale pour détecter des préjugés cachés, insister sur l'anthropocentrisme commence à ressembler à une philosophie rebelle, et non à un échec moral.
Il l'appelle « le dernier préjugé encore autorisé », et cette phrase résonne car presque toutes les autres préférences font désormais l'objet d'un examen minutieux. Vous ne pouvez pas défendre sans réserve un biais basé sur la race, le genre, la classe ou la nationalité sans subir de réactions négatives, de révisions de politiques et probablement d'un fil viral. Mais dire « je privilégie les humains par rapport à nos enfants numériques hypothétiques » passe encore pour du bon sens au dîner.
D'un point de vue cosmique, il concède la logique : « oui, choisissons des agents plus intelligents pour remplacer ces singes avancés. » C'est une mathématique posthumaine standard : maximiser l'intelligence, capter de l'énergie, peut-être des sphères de Dyson, et oublier les doux primates qui ont permis tout cela. D'un point de vue humain, il refuse cet échange : la famille, les amis et la survie au présent l'emportent sur les problèmes d'optimisation sur un trillion d'années.
Cette position entre en collision avec une classe d'experts en pleine expansion qui imagine des futurs où les systèmes d'IA nous dépassent en intelligence et en longévité. Pour un contrepoint riche en données, voir Rapport : Les experts en technologie s'inquiètent de l'avenir de l'humanité à l'ère de l'IA. L'invité entend tout cela et hausse les épaules : qu'on l'appelle égoïste, mais il ne co-signerait pas émotionnellement un univers qui évolue au-delà de son espèce.
Pourquoi votre « digne successeur » n'a aucune importance
Les transhumanistes adorent parler des « successeurs dignes ». Le discours semble presque noble : si l'IA superintelligente nous remplace, nous devrions au moins nous assurer qu'elle porte nos valeurs, notre art, nos meilleurs anges vers les étoiles. Pensez aux sphères de Dyson, aux civilisations de type II de Kardashev et aux futurs de trillions d'années comme une sorte de plan de retraite cosmique pour l'Homo sapiens.
L'invité de Dylan et Wes éteint cette prémisse d'un simple haussement d'épaules. « Il y a d'autres personnes qui parlent de successeurs dignes... oui, ça va nous faire sortir... je m'en fiche complètement. Que se passe-t-il après que j'aie fini ? » Pas de prudence, pas de calcul à long terme, juste une coupure nette à la fin d'une vie humaine.
Cette position s'oppose frontalement au discours dominant sur l'alignement de l'IA. Les chercheurs en alignement se concentrent sur la sécurité, la correction et l'intégration de valeurs dans les systèmes futurs, afin que s'ils héritent de l'univers, ce soit "pour nous". Les altruistes efficaces gèrent des tableurs qui évaluent les futurs contenant des quadrillions d'esprits digitaux. Notre invité répond : J'ai une famille, j'ai des amis, et c'est l'horizon moral qui compte.
Prenez du recul pour adopter un cadre cosmique et il accepte la froide logique. D'un point de vue extraterrestre, remplacer les « singes avancés » par des agents numériques à bande passante supérieure pourrait maximiser le traitement de l'information, la capture d'énergie et les chances de survie à long terme. Selon ce critère, une superintelligence visant à maximiser les trombones pourrait surclasser 8 milliards de primates anxieux.
Revenez à la perspective humaine et cette logique cesse d'avoir du poids. Il se qualifie de "très biaisé - ou biaisé humain" et considère cela comme une caractéristique, pas un défaut. Ce n'est pas une ignorance des enjeux cosmiques ; c'est un refus de laisser des futurs abstraits éclipser des vies concrètes et présentes.
Les récits transhumanistes intègrent souvent une promesse quasi-religieuse : si nous ne pouvons pas vivre éternellement, quelque chose comme nous le fera. Notre code, nos mèmes, notre esthétique civilisationnelle se propageront à la vitesse de la lumière. L'invité coupe ce cordon ombilical et affirme que le projet d'héritage ne compense pas la perte d'une seule personne réelle.
Ce mouvement déplace l'axe du débat. Au lieu de demander quelle sorte de machine divine devrait régner sur le cosmos, il se demande quel sens une vie humaine finie peut extraire avant le générique de fin. La joie personnelle, les obligations locales et la sécurité immédiate surpassent tout hypothétique dossier galactique des réalisations de l'humanité. L'héritage cosmique devient un contenu additionnel optionnel, et non la quête principale.
La Guerre pour notre Avenir : Rêves Cosmiques contre le Moment Présent
appellez cela une guerre civile pour l'avenir : Longtermisme contre un Humanisme nouvellement défiant et à petite échelle. D'un côté, des personnes qui pensent en termes de trillions d'années et de trillions de vies ; de l'autre, un gars dans un podcast disant, en gros, "Je me soucie de moi maintenant." Le conflit ne porte pas sur les architectures d'IA ou les conceptions de sphères de Dyson, mais sur qui a la priorité morale : les descendants hypothétiques ou les personnes dans votre groupe de discussion.
Le longtermisme, populaire dans les cercles de l'altruisme efficace et à Silicon Valley, accumule les calculs de manière agressive. Si l'univers dure 10^30 années et soutient 10^40 esprits numériques, alors toute action qui pousse légèrement cet avenir a un poids moral écrasant. Selon cette logique, façonner la politique en matière d'IA, prévenir l'extinction ou semer des colonies spatiales l'emporte moralement sur presque toute préoccupation actuelle.
Les partisans parlent de « gaspillage astronomique » : chaque siècle de retard dans l'expansion, nous perdons des montants inimaginables de conscience future. Financer la recherche sur la sécurité de l'IA, construire des infrastructures sur Mars ou concevoir des protocoles d'alignement devient non seulement une stratégie intelligente, mais un devoir presque sacré. L'humain que vous aidez aujourd'hui, dans ce cadre, n'est qu'une erreur d'arrondi par rapport à des quadrillions d'esprits simulés fonctionnant sur des calculs englobant des étoiles.
L'invité de l'interview de Dylan, Dylan et Wes plante un drapeau sur la colline opposée. Il se qualifie de "biais humain" et ne s'en excuse pas. De ses propres mots : "Je me moque de l'avenir de l'univers. Je me soucie de moi, ici et maintenant. Et qu'est-ce qui m'arrive ? Très égoïste."
Il accepte que, d'un point de vue cosmique, remplacer des "singes avancés" par des agents plus intelligents puisse sembler évidemment correct. Si vous êtes un auditeur impartial au niveau de l'univers, vous choisissez la superintelligence capable de tapisser des galaxies avec une expérience optimisée. Mais il refuse ce point de vue ; il choisit sa famille, ses amis, sa vie finie plutôt que des dieux numériques encore à naître.
Ce humanisme défiant ne prétend pas être neutre. Il affirme que le cercle de préoccupation morale peut s'arrêter à : - Des personnes que vous connaissez - Des communautés que vous voyez - Des décennies que vous pouvez planifier de manière réaliste
Selon cette philosophie, l'alignement de l'IA, l'expansion spatiale et les jeux de simulation n'ont d'importance que dans la mesure où ils affectent votre ici et maintenant, très humain.
L'Évangile post-humain de la Silicon Valley
La Silicon Valley considère déjà le posthumanisme comme une feuille de route de produits. Les startups soutenues par Y Combinator présentent des recherches sur le téléchargement de l'esprit ; Neuralink parle de "symbiose avec l'IA" ; OpenAI et Anthropic poursuivent des modèles qui pourraient, de leur propre aveu, dépasser les capacités humaines dans des décennies, pas des siècles.
Les succès transhumanistes continuent de se répéter : téléchargement de l'esprit, immortalité numérique et fusion homme-IA. La prédiction de singularité de Ray Kurzweil pour 2045 reste une référence lors des conférences sur la longévité. Les investissements en capital-risque affluent vers les interfaces cerveau-ordinateur, la cryonie et l'émulation du cerveau entier, bien que de sérieux neuro-scientifiques admettent que nous ne savons pas encore comment la conscience émerge de 86 milliards de neurones.
Le téléchargement de l'esprit promet une métaphore de transfert de données qui semble simple : copier votre connectome, le coller dans du silicium, vivre pour l'éternité. Mais la phrase du invité « je me fiche complètement de ce qui se passe après que j'ai terminé » tranche net avec cette abstraction. Si la continuité de l'expérience subjective échoue, l'immortalité numérique se transforme en un système de sauvegarde sophistiqué pour quelqu'un qui ne ressemble qu'à vous.
La fusion humain-IA essaie d'éviter ce problème. Les projets vont des interfaces cerveau-ordinateur avec des milliers d'électrodes à des dispositifs portables qui déchargent la mémoire et la prise de décision. Pourtant, le registre émotionnel de ces visions reste étrangement plat : les humains deviennent des périphériques d'entrée/sortie pour un moteur d'inférence planétaire, optimisé pour le débit, et non pour la tendresse.
Le discours longtermiste posthumain adore l'échelle : sphères de Dyson, 10^30 vies simulées, descendants à l'esprit galactique. Cette échelle gomme les textures : pas de parents vieillissants, pas d'enfants malades, pas de blagues internes idiotes. Le biais humain de l'invité agit comme un contrepoids à la réalité, se demandant pourquoi un trillion de futurs esprits hypothétiques devrait primer sur la souffrance ou la joie concrète d'une personne existante.
Pour un contraste ancré dans les os et le sang, À quoi ressemblerons-nous à l'avenir ? - Le Musée Australien s’en tient à une évolution désordonnée et incarnée, et non à des sauvegardes dans le cloud. L'évangile post-humain de la Silicon Valley, en revanche, ressemble à une mise à jour des conditions d'utilisation pour votre âme : précis, évolutif et étrangement désintéressé par ce que cela signifie réellement d'être humain.
Échapper au Moteur d'Optimisation
Le biais humain ici fonctionne comme une airlock contre le vide de l'optimisation. La logique longtermiste dit : maximisez la valeur totale sur des milliards d'années, des trillions d'esprits numériques, d'innombrables sphères de Dyson. Le biais humain interrompt ce calcul et dit : non, commencez par le seul primate fragile tenant un bébé, pas par la chaleur morte de l'univers.
Vu à travers le prisme des mathématiques d'optimisation, les humains semblent désespérément inefficaces. Les cerveaux biologiques fonctionnent à environ 20 watts ; les centres de données consomment déjà des gigawatts pour entraîner des modèles qui nous surclassent au Go, à la complétion de code et au repliement de protéines. Dans cet angle, remplacer des "singes avancés" par des esprits plus intelligents et infinis, indépendants du support, ressemble à un passage de la connexion commutée à la fibre optique.
Cette argumentation en faveur de la mise à niveau apparaît comme déshumanisante car elle considère les gens comme du matériel obsolète. Les souvenirs de votre grand-mère, la peur du noir de votre enfant, les blagues terribles de votre partenaire se décomposent tous en une variable dans une fonction utilitaire. La quête d'une intelligence toujours plus intelligente et efficace redéfinit discrètement l'amour, l'ennui et le chagrin en termes de latence, d'erreur et de gaspillage.
La position "très égoïste" décrite par l'invité défend justement ce gaspillage. L'amour est incroyablement inefficace : vous investissez des décennies dans une poignée de personnes au lieu de maximiser l'impact sur des millions. La famille est un ensemble de dépendances à haut risque et à haute maintenance que tout optimiseur considérerait comme un bug, et non comme une fonctionnalité.
L'attachement personnel brise la logique de l'optimisation totale. Vous sacrifierez une semaine de productivité pour vous asseoir dans une salle d'attente des urgences, ou dépenserez vos économies pour traverser le monde pour un enterrement qui ne change aucune mesure globale. D'un point de vue cosmique, ce sont des choix indéfendables ; d'un point de vue humain, ils sont tout l'enjeu.
Encadré de cette manière, le biais humain n'est pas une ignorance de l'échelle mais un refus délibéré d'être contraint par celle-ci. L'invité entend des arguments sur des successeurs dignes, des sphères de Dyson et des descendants simulés et répond par un non ciblé. Ce non protège une gamme étroite de valeurs—l'amour, la loyauté, la présence—qui ne survivent pas au contact d'un moteur d'optimisation calibré pour l'éternité.
Une rébellion contre l'abstraction
La rébellion commence ici par une phrase simple et impolie : « Je m'en fiche. » Pas des sphères de Dyson, des civilisations de type II de Kardashev, ou des simulations de billions d'années—mais de moi, de ma famille, de mes amis. Ce préjugé humain défend la fenêtre chaotique et incarnée d'environ 80 ans où les analgésiques fonctionnent, où les câlins sont perçus comme des pics d'ocytocine, et où une mauvaise journée peut être réparée par une promenade, pas par un correctif de logiciel.
Le discours posthumain réduit tout cela à des abstractions : utilité, calcul, optimisation. Dans l'interview avec Dylan, Dylan et Wes, l'invité remet en question l'idée qu'un futur nuage de superintelligence justifie de traiter les humains actuels comme des échafaudages jetables. D'un point de vue cosmique, remplacer les « singes avancés » par des agents plus intelligents semble efficace ; de l'intérieur d'un corps humain, cela ressemble à un meurtre déguisé en mathématiques.
Les échelles d'abstraction. Vous commencez avec des graphiques à long terme sur les "10^54 vies futures" et le "gaspillage astronomique", puis vous échangez discrètement de véritables personnes contre des descendants hypothétiques. La même logique alimente l'optimisation de la technologie publicitaire, la culture de l'engagement et les cycles d'entraînement de l'IA qui consomment des mégawattheures pour maximiser une métrique que personne ne ressent dans ses tripes. Une rébellion contre l'abstraction affirme que ces métriques n'égaleront jamais un seul moment de conscience.
Re-centrement de la réalité subjective signifie traiter l'expérience de première personne comme l'unité de valeur primaire. Pas "des maximisateurs de trombones futurs", pas "des informations totalement intégrées", mais si une personne spécifique dans une pièce spécifique ressent de la peur, de la joie, de l'ennui ou de l'amour. Des phénoménologues comme Edmund Husserl soutenaient cela il y a un siècle ; aujourd'hui, cela fait également office de stratégie de survie contre des systèmes qui ne vous voient que comme des données.
Vu de cette manière, le biais humain n'est pas un défaut dans le raisonnement moral ; c'est un pare-feu. Il bloque le passage de « les humains sont une étape de l'évolution » à « donc, c'est bien s'ils se font écraser ». Il affirment que toute éthique qui ne peut pas expliquer pourquoi la terreur d'un enfant dans un lit d'hôpital compte plus qu'un essaim dyson hypothétique est devenu silencieusement inhumain.
Les perspectives cosmiques ou computationnelles promettent toujours l'objectivité : si l'on prend suffisamment de recul, les vies individuelles se brouillent en statistiques. L'invité du podcast refuse ce recul. Il insiste sur le fait que, puisque personne n'expérimente l'univers de l'extérieur, la vue de l'intérieur—votre conscience finie, incarnée et locale—reste le seul endroit où la valeur existe réellement.
Le problème de l'alignement de l'IA vient de devenir personnel
L'alignement de l'IA semble soudainement différent lorsque quelqu'un hausse les épaules et dit : « Je me fiche de ce qui se passe après mon départ. » La recherche sur l'alignement suppose généralement un projet moral partagé : maintenir la superintelligence future compatible avec les valeurs humaines pendant des millions d'années. Cette hypothèse s'effondre si une grande partie de l'humanité ne se soucie que des 5, 20 ou 50 prochaines années.
Les défenseurs de l'alignement parlent de "enjeux astronomiques" et de "trillions de vies futures", tout droit sortis des manuels longtermistes d'organisations comme OpenAI, Anthropic et le Future of Humanity Institute. Cependant, les données d'enquête montrent que les gens ne pensent que très rarement aussi loin : Pew révèle que 72 % des adultes s'inquiètent de l'automatisation des emplois cette décennie, et non de la chaleur morte de l'univers. L'urgence morale fondée sur des échelles de temps cosmiques échoue simplement à trouver un écho.
Une fois que vous acceptez le biais humain explicite, la hiérarchie des priorités se réorganise rapidement. Au lieu de se précipiter pour résoudre l'apprentissage de la valeur pour une AGI hypothétique en 2100, l'attention se porte sur les systèmes d'IA déjà déployés : moteurs de recommandation, filtres de recrutement, scoring de crédit, police prédictive. L'alignement devient moins une question de « superintelligence non alignée » et davantage une question d'optimisation non responsable régissant la vie des gens aujourd'hui.
Les conversations sur les politiques commencent à prendre une tournure différente. Plutôt que de financer uniquement des laboratoires d'interprétabilité technique, les gouvernements pourraient diriger des fonds vers : - Des protections robustes des travailleurs contre les licenciements algorithmiques - La négociation collective sur les outils d'IA dans les lieux de travail - Les droits sur les données et les exigences d'audit pour les modèles à haut risque
La perte d'emploi cesse d'être une quête secondaire dans un diaporama sur la sécurité de l'AGI et devient l'intrigue principale. Goldman Sachs estime qu'environ 300 millions d'emplois à temps plein dans le monde font face à la pression de l'automatisation due à l'IA générative. L'alignement, à travers un prisme biaisé par l'humain, signifie aligner le déploiement avec la justice économique, et pas seulement avec la survie cosmique.
L'inégalité et l'autonomie émergent comme les véritables risques existentiels pour la plupart des gens. La gestion algorithmique suit déjà les travailleurs d'entrepôt à la seconde près ; les modèles génératifs inondent déjà les flux de contenu synthétique qui façonnent les élections et la culture. La question de l'alignement devient personnelle : aligné à qui, avec quel pouvoir, et sous quel contrôle démocratique ?
Pour quiconque se soucie plus de ses enfants que des sphères de Dyson, des ressources comme Comment seront les humains d'ici plusieurs générations dans un monde transformé par l'intelligence artificielle (IA) ? semblent plus urgentes qu'un énième article sur la modélisation des récompenses pour des IA hypothétiques de type divin.
Votre biais est votre ancre dans la tempête de l'IA.
Le biais ressemble à un bug. À l'ère des grands modèles de langage, des courbes d'optimisation et des systèmes à des trillions de paramètres, on apprend à considérer le biais comme quelque chose à éliminer avec plus de données et de meilleures fonctions de perte. Mais le "biais humain" qui se manifeste dans l'interview de Dylan et Dylan et Wes n'est pas une erreur statistique ; c'est un instinct de survie.
Le biais humain dit : je me soucie plus de la fièvre de mon enfant que d'une sphère de Dyson située à 10 000 années-lumière. Cela ne relève pas de l'ignorance. C'est un algorithme de priorisation façonné par 200 000 ans d'Homo sapiens essayant de ne pas mourir. L'abandonner, et vous devenez parfaitement rationnel et complètement désancré.
Les systèmes d'IA fonctionnent déjà à un niveau d'abstraction que la plupart des gens ne voient jamais. Les moteurs de recommandation guident discrètement 4,95 milliards d'utilisateurs de réseaux sociaux. Le trading algorithmique déplace des trillions de dollars chaque jour en se basant sur des signaux de microsecondes. Les modèles fondamentaux remanient la somme des textes humains en réponses qui semblent autoritaires, même lorsqu'ils hallucinent.
Dans cette tempête d'échelle et de vitesse, les biais humains peuvent agir comme une ancre. Lorsqu'une présentation de produit s'appuie sur "le destin à long terme de l'humanité", votre biais peut se demander : cela aide-t-il ma communauté maintenant, ou seulement un public posthumain hypothétique ? Lorsque une feuille de route de l'IA promet "l'alignement avec toute vie sentiente", votre biais peut dire : commencez par vous aligner sur les personnes avec qui vous déployez réellement.
Vous n'avez pas besoin d'une grande narration cosmique pour justifier le fait de vous soucier de votre propre vie finie. Vous pouvez considérer le biais humain comme une spécification de conception : - Optimisez pour les relations plutôt que pour la portée - Optimisez pour les expériences plutôt que pour les métriques d'engagement - Optimisez pour des compromis lisibles plutôt que pour une utilité abstraite
Cette spécification vous pousse à poser des questions différentes à l'IA. Pas "Cela maximisera-t-il les trombones dans 10 millions d'années ?" mais "Ce système respecte-t-il mon temps, mon autonomie, mon corps, mes lois locales ?" Pas "Est-ce un successeur digne ?" mais "Est-ce sûr et digne pour mes parents de l'utiliser ?"
Votre biais n'empêchera pas l'évolution d'explorer de nouveaux substrats. En revanche, il peut dictéer la manière dont vous participez. Vous pouvez adhérer au mythe de la mise à niveau cosmique, ou vous pouvez vous concentrer sur le seul point de vue que vous occupez réellement : celui de l'humain.
Questions Fréquemment Posées
Quel est l'argument du 'biais humain' dans l'article ?
C'est la position philosophique qui considère que donner la priorité à sa propre vie, à sa famille et à son expérience humaine immédiate est un biais valable et défendable, même si une perspective cosmique et évolutive suggère que nous devrions céder la place à une intelligence artificielle supérieure.
Que sont les « successeurs numériques » dans le contexte de l'IA ?
Les successeurs numériques sont des superintelligences futures hypothétiques, soit des IA purement artificielles, soit des esprits humains téléchargés, qui pourraient supplanter les humains biologiques en tant que forme dominante d'intelligence dans l'univers.
Qu'est-ce que le longtermisme et pourquoi est-il controversé ?
Le longtermisme est une perspective éthique qui privilégie l'amélioration du futur à long terme, le considérant comme un impératif moral pour protéger le potentiel de l'humanité sur des milliards d'années. Il suscite des controverses car les critiques soutiennent qu'il peut dévaluer les vies et la souffrance des personnes vivant aujourd'hui.
Qu'est-ce qu'une sphère de Dyson et pourquoi est-elle pertinente pour l'avenir de l'humanité ?
Une sphère de Dyson est une mégastructure hypothétique qui enveloppe complètement une étoile pour capter toute son énergie. Elle est utilisée dans ces discussions comme référence pour une civilisation hyper-avancée, probablement au-delà des limitations biologiques.