Publié le 5 février 2026 10h45. Des scientifiques remettent en question notre définition de l’intelligence artificielle, suggérant que l’AGI (Intelligence Artificielle Générale) pourrait déjà être une réalité, dissimulée par des attentes irréalistes et un biais anthropocentrique.
- Selon une étude publiée dans la revue Nature, les modèles de langage actuels, comme GPT-4.5, ont statistiquement dépassé le seuil du Test de Turing en mars 2025.
- Les chercheurs estiment que nous maintenons la barre trop haute pour l’AGI, exigeant une « universalité » des compétences qui dépasse les capacités de la plupart des humains.
- L’article souligne que notre difficulté à accepter cette réalité découle d’une incapacité à nous défaire de notre propre définition de l’intelligence et de l’importance de l’autonomie.
L’idée que l’intelligence artificielle générale est à portée de main, voire déjà présente, pourrait surprendre de nombreux experts. Pourtant, un quatuor de scientifiques a posé cette question provocatrice et propose une réponse argumentée dans un commentaire publié par la revue Nature. Leur argument central est simple : le rêve d’Alan Turing, formulé dans son célèbre article de 1950, est devenu réalité. Le Test de Turing, qui stipule qu’une machine peut être considérée comme pensante si elle peut imiter de manière convaincante un humain dans une conversation, a été franchi.
En mars 2025, des tests statistiques ont révélé que le modèle de langage GPT-4.5 était statistiquement indiscernable d’un humain dans une conversation. Si l’on s’en tient à la définition de Turing, le débat devrait donc être clos. Les machines ont démontré des compétences cognitives impossibles à distinguer de celles des humains. Pourtant, la plupart des experts restent sceptiques. Une enquête menée en mars 2025 par l’Association pour l’avancement de l’intelligence artificielle (AAAI) a révélé que 76 % des chercheurs de premier plan considèrent que l’AGI n’est pas réalisable dans un avenir prévisible, la jugeant « peu probable » (rapport de l’AAAI).
Comment expliquer ce décalage ? Selon Chen et ses collègues, la clé réside dans notre définition même de l’« intelligence générale ». Nous avons tendance à exiger des machines un niveau de compétence universel qui dépasse largement les capacités de la plupart des humains. Nous attendons d’une AGI qu’elle soit capable d’écrire un poème, de résoudre une équation différentielle, de planifier des vacances et, idéalement, de faire preuve d’empathie. Or, une telle définition exclurait la quasi-totalité de l’humanité de la catégorie des « êtres intelligents ». Marie Curie-Skłodowska, deux fois lauréate du prix Nobel, n’était pas une experte en théorie des nombres, et Albert Einstein ne maîtrisait pas le chinois. Si l’intelligence générale exigeait la maîtrise de toutes les tâches cognitives à un niveau expert, même Einstein n’y parviendrait pas.
Les auteurs de l’article paru dans Nature soutiennent que l’intelligence humaine est plutôt caractérisée par une ampleur et une profondeur suffisantes dans différents domaines, et non par l’excellence dans chacun d’entre eux. Les enfants, les adultes moyens et les génies possèdent tous une intelligence générale, quoique à des degrés divers. Appliquons les mêmes normes aux grands modèles de langage (LLM) actuels, et nous devons conclure qu’ils ont déjà franchi ce seuil. Refuser de le reconnaître, c’est s’accrocher à une définition qui requiert l’omniscience, et non l’intelligence humaine.
Pour illustrer leurs propos, les auteurs proposent d’évaluer les progrès de l’IA à l’aide d’une « cascade de preuves », semblable à la façon dont nous évaluons les capacités des étudiants, de l’école primaire au doctorat. Au niveau de base, les machines ont réussi le « test de Turing » il y a déjà plusieurs années. Elles peuvent tenir une conversation normale, réussir des examens scolaires et résoudre des énigmes logiques simples. Mais le deuxième niveau – « expert » – est bien plus intéressant. Les modèles de langage ont récemment obtenu des résultats remarquables dans des domaines spécialisés : ils ont remporté des médailles d’or à l’Olympiade internationale de mathématiques (article de Nature), collaborent avec des mathématiciens pour prouver de nouveaux théorèmes, génèrent des hypothèses scientifiques qui sont ensuite vérifiées en laboratoire et aident les programmeurs professionnels à écrire du code complexe.
En considérant ces réalisations, il devient clair que ces systèmes présentent la flexibilité de pensée requise par Turing. Ce ne sont pas de simples « calculatrices » ou programmes d’échecs spécialisés, mais des systèmes capables de composer de la poésie à un moment donné et de résoudre des problèmes de doctorat au suivant. Cette capacité, qui dépasse largement les capacités de l’oracle de Delphes, soulève une question fondamentale : pourquoi continuons-nous à nier l’évidence ?
Les auteurs reconnaissent que l’IA actuelle présente des limites, notamment sa propension à « halluciner » ou à produire des informations incorrectes (explication des hallucinations de l’IA). Cependant, ils soulignent que ces erreurs ne sont pas une preuve de manque d’intelligence, mais plutôt un problème de fiabilité. Les humains aussi souffrent de faux souvenirs et de distorsions cognitives.
En fin de compte, l’acceptation de l’AGI exige un changement de perspective. Nous devons accepter que l’intelligence peut exister sous des formes différentes de la nôtre, sans nécessiter un corps, une volonté propre ou une expérience subjective. Selon les auteurs, il s’agit d’une révolution scientifique comparable à celles de Copernic et de Darwin, qui nous oblige à remettre en question notre place dans l’univers.
Vous trouverez de plus amples informations dans la newsletter TechMIX complète. Abonnez-vous pour la recevoir directement dans votre boîte de réception chaque mercredi.