En bref / Points clés
Le Far West de l'AGI est terminé
La quête de l'Intelligence Artificielle Générale (AGI) anime une course mondiale féroce, souvent chaotique, parmi les principaux laboratoires d'IA. Des milliards de dollars et d'innombrables heures sont investis dans le développement de systèmes capables de cognition de niveau humain, pourtant la ligne d'arrivée de cette entreprise monumentale reste indéfinie. Chaque acteur majeur déclare l'AGI comme son objectif ultime, mais aucun ne s'accorde sur ce qu'implique réellement son accomplissement, créant un scénario de "Far West" où le progrès est subjectif et souvent inquantifiable.
Les principaux laboratoires proposent des visions radicalement différentes de l'AGI, soulignant le manque de consensus de l'industrie. OpenAI la définit comme "un système hautement autonome qui surpasse les humains dans la plupart des tâches économiquement précieuses", mettant l'accent sur l'utilité économique.
En revanche, le cofondateur de Google DeepMind, Shane Legg, décrit une AGI comme "un agent artificiel capable au moins de faire le genre de choses cognitives que les gens peuvent typiquement faire." Francis Chollet, créateur du ARC benchmark, conçoit l'intelligence autour de l'efficacité d'acquisition des compétences – la rapidité avec laquelle un système apprend de nouveaux concepts.
Cette profonde ambiguïté définitionnelle rend presque impossible toute évaluation objective des progrès de l'AGI. Sans une compréhension partagée de l'objectif, l'industrie s'en remet à des évaluations subjectives, "basées sur des impressions", des capacités de l'IA. Ces évaluations sont souvent motivées par des scores de référence impressionnants mais étroits, qui souffrent fréquemment de contamination des données ou de mémorisation, obscurcissant la véritable intelligence généralisée.
Le problème devient flagrant : comment mesurer avec précision les progrès vers un objectif qui ne peut même pas être défini de manière cohérente ? Ce défi fondamental a tourmenté la communauté de l'IA, créant un environnement spéculatif où les véritables percées sont difficiles à distinguer des simples améliorations incrémentales. Le récent article de Google DeepMind confronte directement ce vide de mesure, proposant un changement radical dans la façon dont nous évaluons les systèmes intelligents.
Le nouveau règlement de Google pour l'intelligence
Discrètement, le 16 mars 2026, Google DeepMind a dévoilé un article majeur prêt à redéfinir la quête de l'Intelligence Artificielle Générale. Intitulé 'Mesurer les progrès vers l'AGI : Un cadre cognitif', ce document aborde directement le "Far West" actuel de l'AGI en proposant une approche structurée et scientifique de l'évaluation. Il remplace les lignes d'arrivée arbitraires des benchmarks existants par un règlement complet pour l'intelligence elle-même, fondé sur des décennies de science cognitive humaine.
La proposition centrale de DeepMind préconise un changement radical, s'éloignant des scores de benchmark uniques et "jouables" qui souvent dénaturent les véritables capacités d'une IA. Au lieu de cela, l'article postule la nécessité d'un profil cognitif complet, modélisé méticuleusement sur l'intelligence humaine. Ce cadre évalue les capacités d'un système d'IA à travers 10 facultés cognitives distinctes — y compris la perception, le raisonnement et la cognition sociale — comparant directement ses performances aux distributions humaines réelles. Cela assure une compréhension holistique du paysage intellectuel d'une IA, allant au-delà de la simple exécution de tâches pour évaluer une intelligence authentique.
De manière cruciale, le cadre établit une distinction fondamentale : il se concentre précisément sur *ce qu'un* système peut accomplir, et non sur *comment* il y parvient. Que une IA utilise des architectures transformer, des modèles de diffusion, ou des mécanismes entièrement nouveaux est sans importance pour son évaluation. L'accent du document reste uniquement sur les résultats observables et les capacités intellectuelles démontrables, dissociant l'évaluation de l'implémentation technologique sous-jacente. Cette approche de "boîte noire" assure une large applicabilité et pérennise l'évaluation à mesure que les technologies d'AI continuent d'évoluer.
Cette initiative représente une étape cruciale pour injecter la rigueur scientifique tant nécessaire dans la conversation sur l'AGI. En fournissant un langage commun et un protocole d'évaluation standardisé et multidimensionnel, Google DeepMind vise à unifier les efforts de recherche à travers le monde. Il cherche à établir un étalon universel, permettant aux laboratoires du monde entier de mesurer les progrès objectivement et collaborativement, transformant la course à l'AGI d'un sprint chaotique en une entreprise scientifique transparente et partagée. Ce cadre offre une base solide pour suivre les véritables avancées vers l'intelligence générale de niveau humain.
Déconstruire l'Esprit : Les 10 Facultés
Le nouveau cadre de Google DeepMind s'ancre dans une taxonomie cognitive précise, une classification structurée des capacités mentales. Ce n'est pas une liste arbitraire inventée pour l'AI ; au lieu de cela, elle s'appuie directement sur des décennies de recherche établie en sciences cognitives, psychologie et neurosciences. Le cadre se calque délibérément sur la manière dont l'intelligence humaine a été étudiée, fournissant une base solide et empiriquement fondée pour l'évaluation des systèmes artificiels. Ce choix fondamental fait passer la discussion sur l'AGI de l'abstraction philosophique à une comparaison mesurable et scientifique.
Au cœur de cette taxonomie se trouvent 10 facultés cognitives distinctes, identifiées comme les blocs de construction fondamentaux de l'intelligence observée chez les humains : - Perception : Extraire et traiter les informations sensorielles. - Génération : Produire des sorties utiles comme du texte, de la parole ou des actions. - Attention : Concentrer les ressources cognitives sur les informations pertinentes. - Apprentissage : Acquérir de nouvelles connaissances et s'adapter après le déploiement. - Mémoire : Stocker et récupérer des informations au fil du temps, et oublier les données obsolètes. - Raisonnement : Tirer des conclusions valides par diverses inférences logiques. - Métacognition : Connaissance et surveillance de ses propres processus cognitifs, y compris la conscience de l'incertitude. - Fonctions exécutives : Planifier, inhiber les impulsions et changer de stratégie pour atteindre des objectifs. - Résolution de problèmes : Appliquer plusieurs facultés pour trouver des solutions à des défis nouveaux. - Cognition sociale : Comprendre les signaux sociaux, inférer les pensées des autres et coopérer de manière appropriée.
Ces dix facultés forment collectivement un profil complet, conçu pour évaluer les systèmes d'AI par rapport à l'ensemble du spectre des capacités cognitives humaines. Plutôt qu'un score "AGI" unique et facilement manipulable, Google DeepMind propose d'évaluer les performances de l'AI à travers chacune de ces dimensions, en les comparant directement aux références humaines. Cette approche granulaire promet une évaluation beaucoup plus objective et informative des véritables progrès intellectuels d'une AI.
De manière significative, l'article met l'accent sur l'évaluation de *ce qu'un système peut accomplir, et non de *comment* il y parvient. Cette distinction cruciale garantit que le cadre reste agnostique à la technologie, applicable à toute architecture d'IA, des transformers aux conceptions novatrices, sans parti pris envers des méthodologies spécifiques. Pour une exploration plus approfondie des spécificités du cadre, consultez le Measuring Progress Towards AGI: A Cognitive Framework - Google Blog. Le hackathon Kaggle qui l'accompagne, doté d'une cagnotte de 200 000 $, souligne davantage l'engagement de Google DeepMind à élaborer collaborativement des évaluations robustes, en particulier pour des domaines complexes comme la Metacognition et la cognition sociale, où l'écart d'évaluation est actuellement le plus grand. Les sections futures approfondiront chacune de ces 10 facultés en détail, explorant les méthodes d'évaluation proposées par Google DeepMind et les profondes implications pour le développement de l'AGI.
Les Fondements de la Cognition (Partie 1)
L'article révolutionnaire de Google DeepMind, 'Measuring Progress Towards AGI: A Cognitive Framework', introduit une taxonomie cognitive rigoureuse à 10 facultés pour évaluer l'IA. Ce cadre détaillé établit les « fondements » essentiels de la cognition, en commençant par les cinq premières facultés fondamentales qui régissent la manière dont un système intelligent interagit avec son monde et le traite. Ces composants vont au-delà des repères simplistes pour définir des capacités nuancées.
La Perception constitue la faculté initiale, évaluant la capacité d'une IA à interpréter les données sensorielles, et pas seulement à les détecter. Cela inclut la compréhension d'une scène visuelle complexe, la reconnaissance d'objets, de relations et de contexte, ou l'interprétation précise des significations subtiles du langage humain et du texte écrit. Elle mesure la capacité du système à extraire un sens riche et exploitable à partir des données brutes.
Ensuite, la Génération évalue la capacité d'une IA à produire des résultats utiles, cohérents et souvent novateurs. Cela va de la création de textes articulés et contextuellement pertinents et de la synthèse de paroles au son naturel, à l'exécution d'actions informatiques précises et de mouvements moteurs dans des environnements physiques ou virtuels. Elle mesure l'habileté d'une IA à traduire une compréhension interne en résultats tangibles et externes.
La troisième faculté cruciale, l'Attention, examine la capacité d'une IA, similaire à celle de l'homme, à concentrer sélectivement ses ressources cognitives. Cela signifie se concentrer sur les informations pertinentes au sein d'un vaste ensemble de données tout en filtrant efficacement les distractions non pertinentes. Les modèles d'IA actuels traitent souvent tout simultanément ; une véritable attention signifie un changement de paradigme vers un traitement plus efficace et orienté vers un objectif.
L'Apprentissage et la Mémoire constituent les quatrième et cinquième piliers interconnectés. L'Apprentissage évalue la capacité d'une IA à l'apprentissage continu, acquérant de nouvelles connaissances et adaptant ses comportements en temps réel après le déploiement, à l'instar d'un humain maîtrisant un nouveau jeu de cartes ou s'adaptant à un nouvel emploi. La Mémoire complète cela, mesurant la capacité du système à stocker et récupérer des informations de manière robuste sur de longues périodes, et tout aussi important, à oublier intelligemment les données obsolètes ou non pertinentes, prévenant ainsi la surcharge cognitive.
Les Ordres Supérieurs de la Pensée (Partie 2)
Au-delà des fonctions sensorielles et mémorielles fondamentales, le cadre de Google DeepMind élève cinq facultés cognitives complexes, cruciales pour atteindre une intelligence de niveau humain. Le Raisonnement constitue un pilier essentiel, permettant aux systèmes de tirer des conclusions valides à travers diverses formes logiques. Cela inclut le raisonnement déductif, le raisonnement inductif, le raisonnement analogique et l'inférence mathématique, dépassant la mémorisation par cœur pour atteindre une véritable compréhension.
Peut-être la lacune la plus significative de l'IA actuelle, la Metacognition, évalue la conscience de soi d'une IA et sa compréhension de ses propres connaissances. Un système peut-il « savoir ce qu'il sait », exprimer son incertitude ou articuler ses limites face à de nouvelles requêtes ? Les modèles actuels sont notoirement connus pour « donner la mauvaise réponse avec confiance », manquant de cette capacité vitale à surveiller leurs propres processus cognitifs, bien que Claude ait commencé à montrer des signes naissants.
Ensuite, les Executive Functions régissent la capacité d'une IA à un contrôle de haut niveau et à une action stratégique. Ces capacités, souvent comparées au PDG du cerveau, englobent une planification sophistiquée, la capacité critique à inhiber les impulsions et à changer dynamiquement de stratégie en réponse à des conditions changeantes. Elles permettent à une IA de fixer un objectif et de le poursuivre avec diligence, en ajustant son approche et en maintenant sa concentration sur de longues périodes pour atteindre des objectifs complexes.
La résolution de problèmes synthétise ces diverses capacités cognitives pour relever des défis nouveaux et réels. Cette faculté exige qu'une IA intègre la perception, le raisonnement, la planification et l'apprentissage, en les appliquant de manière cohérente pour trouver des solutions efficaces dans des domaines inconnus. Elle représente la capacité d'un système à l'intelligence adaptative, allant au-delà des réponses préprogrammées pour aborder véritablement des situations nouvelles et complexes qui exigent des solutions créatives.
Enfin, la Social Cognition aborde la capacité d'une IA à naviguer dans les complexités de l'interaction et de la collaboration humaines. Cela implique de comprendre les signaux sociaux subtils, d'inférer avec précision les intentions et les pensées des autres, de coopérer efficacement, de négocier des résultats et de réagir de manière appropriée dans des situations sociales complexes. Elle est indispensable pour les systèmes opérant dans des environnements centrés sur l'humain, allant au-delà des tâches isolées pour s'engager dans une collaboration au sein de dynamiques sociales complexes.
Cette taxonomie complète, introduite dans l'article « Measuring Progress Towards AGI: A Cognitive Framework » le 16 mars 2026, se concentre sur *ce qu'un* système accomplit, et non sur *comment* il le fait. Le cadre de DeepMind ignore explicitement les architectures sous-jacentes comme les transformers ou les diffusion models, privilégiant le comportement intelligent observable. Il offre une lentille universelle pour mesurer les progrès vers l'AGI, indépendamment des approches technologiques spécifiques ou des mécanismes internes.
L'ultime confrontation humaine
Le cadre de Google DeepMind culmine dans un protocole d'évaluation rigoureux en trois étapes, conçu pour fournir une évaluation complète et impartiale de l'intelligence de l'IA. Cette approche systématique vise à dépasser les preuves anecdotiques et les benchmarks à métrique unique, établissant une nouvelle norme pour le suivi des progrès vers l'AGI.
Premièrement, la phase d'évaluation cognitive implique de soumettre l'IA à une vaste série de tâches, chacune méticuleusement conçue pour isoler et tester une faculté cognitive spécifique. Il est crucial que ces tâches restent privées et mises de côté, vérifiées indépendamment par une tierce partie. Cette mesure rigoureuse combat directement le problème omniprésent de la contamination des données, garantissant que l'IA n'a pas simplement mémorisé les réponses pendant l'entraînement, ce qui gonflerait faussement son intelligence perçue.
Ensuite, le cadre établit des bases de référence humaines robustes. Les chercheurs administrent exactement les mêmes tâches, dans des conditions identiques, à un large échantillon d'adultes humains démographiquement représentatif, tous possédant au moins un niveau d'éducation de lycée. Cette étape génère une véritable distribution des performances humaines, fournissant le contexte essentiel du monde réel par rapport auquel les capacités de l'IA peuvent être mesurées avec précision.
Enfin, le processus génère des profils cognitifs détaillés. Les développeurs tracent la performance de l'IA sur chacune des dix facultés directement par rapport à la distribution humaine collectée. Le graphique radar résultant offre une représentation visuelle immédiate et intuitive, soulignant précisément où un système d'IA excelle et où il est en deçà par rapport aux capacités humaines typiques. Pour en savoir plus sur les traits spécifiques, voir Google DeepMind Plans to Track AGI Progress With These 10 Traits of General Intelligence.
Ces profils peuvent illustrer des systèmes performant en dessous de la médiane humaine dans plusieurs domaines, ou ceux la dépassant sur l'ensemble des dix facultés. Même un système atteignant le 99e centile sur toute la ligne, égalant ou surpassant presque chaque humain de l'échantillon sur chaque tâche, représente une étape profonde, bien que l'article note avec prudence que cela ne prouverait pas définitivement l'AGI en raison des limitations inhérentes à tout échantillon fini de capacités humaines.
Ce que ce 'test de QI' manque encore
Le "cadre cognitif" de Google DeepMind offre une évaluation robuste, pourtant l'article lui-même reconnaît candidement des limitations critiques. Aucune évaluation unique ne peut capturer le spectre complet de l'intelligence, et ce "test de QI" proposé pour l'IA ne fait pas exception.
De manière cruciale, le cadre mesure exclusivement la capacité cognitive, et non la vitesse d'exécution. Une IA pourrait démontrer un raisonnement parfait, mais si elle prend des minutes pour traiter une décision de milliseconde, elle reste impraticable pour des applications du monde réel comme les véhicules autonomes, le trading haute fréquence ou la robotique chirurgicale, où une réponse rapide est primordiale.
Au-delà de l'intellect brut, le cadre néglige les propensions du système inhérentes à une IA. Il ne peut pas quantifier si un agent est intrinsèquement averse au risque, imprudent, conservateur ou agressif. De telles tendances sont primordiales pour un déploiement éthique et un alignement avec les valeurs humaines, en particulier dans des scénarios à enjeux élevés où le caractère opérationnel d'une IA compte autant que sa compétence.
Un autre défi significatif découle du problème du "modèle versus système". Une IA devrait-elle être évaluée en utilisant sa suite complète d'outils externes, à l'instar de l'autorisation d'une calculatrice lors d'un test de QI humain ? Google DeepMind propose d'évaluer le système complet, y compris l'accès aux outils, mais sur des tâches spécifiquement conçues pour que ces aides ne trivialisent pas le défi cognitif sous-jacent mesuré.
Cette approche nuancée vise à empêcher une IA de simplement décharger des tâches cognitives complexes vers des utilitaires externes sans démontrer une compréhension intrinsèque. L'objectif reste de mesurer l'*intelligence*, et non pas seulement une utilisation efficace des outils, garantissant que le cadre différencie la véritable prouesse cognitive des fonctions de recherche sophistiquées.
Ces lacunes reconnues soulignent que même un "test de QI" cognitif méticuleusement conçu pour les systèmes d'IA reste un travail en cours. Bien que définir *ce que* l'intelligence implique soit une étape monumentale, comprendre *comment* elle se manifeste dans des environnements dynamiques et chargés de valeurs nécessitera une évolution supplémentaire des méthodologies d'évaluation.
Une chasse à 200 000 $ aux maillons faibles de l'AGI
Le cadre de Google DeepMind s'étend au-delà des propositions théoriques. Pour opérationnaliser immédiatement son ambitieuse taxonomie cognitive, Google a lancé un Kaggle hackathon en même temps que la publication de l'article. Cette initiative a transformé l'exercice académique en une initiative concrète et communautaire.
Le hackathon offre une cagnotte substantielle de 200 000 $, incitant les chercheurs et développeurs du monde entier. Cet investissement significatif vise à obtenir par crowdsourcing la création de tâches d'évaluation réelles, répondant directement au besoin du cadre d'évaluations nouvelles et impartiales à travers ses dix facultés. Google comprend le défi monumental de construire ces tests à partir de zéro.
De manière cruciale, le hackathon cible cinq facultés cognitives spécifiques où les méthodes d'évaluation actuelles de l'IA sont les plus faibles ou inexistantes. Celles-ci incluent : - Apprentissage - Métacognition - Attention - Fonctions exécutives - Cognition sociale
Ces catégories représentent certains des aspects les plus complexes et les plus humains de l'intelligence, présentant un obstacle considérable pour une évaluation robuste et non manipulable. Les benchmarks existants sont souvent insuffisants dans ces domaines nuancés.
En engageant la communauté mondiale de l'IA, Google DeepMind cherche à développer rapidement les tests sophistiqués et ciblés essentiels à son protocole d'évaluation en trois étapes. Cette approche collaborative vise à combler les lacunes les plus importantes dans notre capacité collective à mesurer et à comprendre la véritable intelligence artificielle, transformant un article universitaire en une norme vivante et évolutive. Le hackathon témoigne d'un engagement envers la mise en œuvre pratique, et non pas seulement la conceptualisation.
Est-ce le Seul Test Décisif ?
Le document de Google DeepMind « Measuring Progress Towards AGI: A Cognitive Framework » établit une nouvelle référence en or pour l'évaluation complète de l'AGI, mais il existe au sein d'un écosystème plus large de benchmarks critiques. La communauté de recherche en IA utilise diverses évaluations, chacune conçue pour éclairer des facettes distinctes de l'intelligence artificielle. Notamment, ARC-AGI, ou l'Abstraction and Reasoning Corpus, développé par le chercheur en IA de Google François Chollet, offre une perspective radicalement contrastée.
L'ARC-AGI de Chollet présente un type de défi profondément différent. Contrairement à la taxonomie cognitive expansive de Google DeepMind, qui cartographie l'intelligence à travers 10 facultés distinctes, ARC-AGI se concentre étroitement sur l'intelligence fluide et la capacité à inférer des règles à partir d'exemples minimaux. Il comprend des puzzles visuels abstraits, exigeant d'un agent qu'il observe des paires entrée-sortie et applique ensuite la transformation apprise à une nouvelle entrée, jamais vue. L'exigence fondamentale est une véritable généralisation au-delà des données d'entraînement.
De manière critique, les modèles d'IA actuels à la pointe de la technologie, malgré leurs prouesses impressionnantes en génération de langage, synthèse d'images et jeux stratégiques complexes, obtiennent des scores proches de zéro sur ARC-AGI. Ces modèles, souvent entraînés sur de vastes ensembles de données, excellent dans la reconnaissance de formes au sein de distributions familières. Cependant, ils échouent constamment lorsqu'ils sont confrontés au raisonnement inductif fondamental et à la résolution de problèmes inédits exigés par les puzzles de Chollet, des tâches qu'un enfant humain pourrait saisir intuitivement.
Cette disparité frappante illustre de manière vivante la « frontière irrégulière » du progrès de l'IA. Les machines surpassent désormais régulièrement les performances humaines dans des domaines hautement spécialisés comme Go, chess, ou même la génération de code avancée. Pourtant, elles peinent simultanément avec ce qui semble être des tâches trivialement simples pour les humains, telles que la compréhension des relations causales de base ou l'adaptation à des structures de problèmes entièrement nouvelles et abstraites sans programmation explicite. Le cadre de Google DeepMind vise à cartographier ce paysage inégal de manière exhaustive, tandis qu'ARC-AGI expose une lacune persistante et critique dans les capacités cognitives fondamentales de l'IA. Les deux types de benchmarks sont indispensables pour véritablement comprendre et naviguer sur le chemin complexe vers l'AGI.
Adieu les Impressions, Bonjour la Science
Le nouveau cadre de Google DeepMind marque un changement profond, redéfinissant fondamentalement la quête de l'Intelligence Artificielle Générale. Ce n'est pas simplement un autre benchmark ; il établit un changement de paradigme pour l'ensemble du domaine, remplaçant les affirmations spéculatives par une méthodologie rigoureuse et scientifique.
Fini le temps des déclarations vagues et des démos triées sur le volet. Les chercheurs peuvent désormais dépasser les « vibes » subjectives et les preuves anecdotiques, en ancrant les progrès de l'AGI dans une norme quantifiable et vérifiable. Les 10 facultés cognitives proposées et le protocole d'évaluation en trois étapes offrent une lentille objective pour évaluer les capacités par rapport aux performances humaines réelles.
Cette taxonomie cognitive granulaire fournit un outil de diagnostic inestimable. Les développeurs peuvent désormais identifier les faiblesses spécifiques de leurs modèles, en déterminant précisément quelles facultés – qu'il s'agisse de la métacognition, des fonctions exécutives ou de la cognition sociale – nécessitent un développement supplémentaire. Cette carte cognitive transforme la recherche sur l'AGI d'un effort dispersé en un défi d'ingénierie ciblé et systématique.
Le hackathon Kaggle de 200 000 $ qui l'accompagne souligne davantage l'engagement de Google envers cette approche scientifique. En invitant la communauté de recherche mondiale à construire des évaluations pour ces facultés spécifiques, Google favorise activement une voie collaborative et axée sur les données vers l'AGI, plutôt qu'une compétition interne et opaque.
En fin de compte, ce cadre élève la conversation sur l'AGI. La question n'est plus seulement *si* nous pouvons construire des machines véritablement intelligentes, mais *comment* nous allons mesurer, vérifier et naviguer systématiquement notre parcours vers elles. Il inaugure une ère de vérification scientifique pour l'intelligence artificielle.
Foire aux questions
Qu'est-ce que le nouveau cadre AGI de Google ?
C'est une proposition de Google DeepMind pour mesurer les progrès vers l'AGI en testant les systèmes d'AI sur 10 facultés cognitives fondamentales, en comparant directement leurs performances aux références humaines plutôt qu'en utilisant un score unique.
Quelles sont les 10 facultés cognitives du cadre ?
Les 10 facultés sont la Perception, la Génération, l'Attention, l'Apprentissage, la Mémoire, le Raisonnement, la Métacognition, les Fonctions Exécutives, la Résolution de Problèmes et la Cognition Sociale.
En quoi cela diffère-t-il des benchmarks d'AI existants ?
Contrairement aux benchmarks qui testent des compétences spécifiques comme le codage ou les mathématiques, ce cadre fournit un profil cognitif holistique. Il vise à empêcher le « bachotage » en utilisant des tâches privées, vérifiées par des tiers.
Ce nouveau cadre signifie-t-il que l'AGI est proche ?
Non. Le cadre lui-même est un outil de mesure, pas une revendication d'accomplissement. Il est conçu pour fournir une feuille de route claire et scientifique pour suivre les progrès vers l'AGI, faisant passer la conversation de la spéculation à la preuve empirique.