Home Sciences et technologies Le fondateur d’OpenAI affirme que l’IA n’imite pas le cerveau

Le fondateur d’OpenAI affirme que l’IA n’imite pas le cerveau

0 comments 130 views

Publié le 2025-10-21 17:17:00. Andrej Karpathy, figure de proue de l’IA et co-fondateur d’OpenAI, jette un pavé dans la mare de l’optimisme ambiant. Selon lui, les systèmes d’intelligence artificielle actuels sont plus proches d’une imitation sophistiquée que d’une véritable intelligence naissante, repoussant l’avènement de l’AGI fonctionnelle à 2035.

  • Les systèmes d’IA actuels sont comparés à des « fantômes numériques » imitant le comportement humain, plutôt qu’à des intelligences évolutives comme celles des animaux.
  • L’analogie avec le cerveau biologique, omniprésente dans le débat sur l’IA, est jugée trompeuse et source d’attentes irréalistes.
  • Andrej Karpathy prédit que l’Intelligence Artificielle Générale (AGI) fonctionnelle n’émergera pas avant 2035, loin des prévisions plus optimistes de 2026.

Lors d’une longue interview accordée à Dwarkesh Patel, Andrej Karpathy, connu pour son rôle de co-fondateur chez OpenAI et son passé à la tête de l’IA chez Tesla, a partagé une vision nuancée, voire critique, de l’état actuel de l’intelligence artificielle. Face à un engouement généralisé, il soutient que les modèles d’IA actuels ne sont que des « fantômes numériques », capables d’imiter les schémas humains sans pour autant posséder une forme d’évolution comparable à celle des êtres vivants.

Cette distinction est d’une importance capitale. Les comparaisons fréquentes entre l’IA et les cerveaux biologiques imprègnent le discours technique et orientent les décisions d’investissement. Or, Karpathy considère cette analogie comme fondamentalement « trompeuse ». Fort de son expérience de cinq années à diriger le développement de la conduite autonome chez Tesla, il a pu observer de près l’écart significatif entre les démonstrations impressionnantes et la réalité des produits pleinement fonctionnels.

La différence fondamentale, selon lui, réside dans l’évolution. Alors que les animaux évoluent sur des millions d’années, façonnés par des instincts inscrits dans leur ADN, un jeune zèbre est capable de courir quelques minutes après sa naissance, bénéficiant d’un « matériel préinstallé ». Les modèles linguistiques, en revanche, apprennent en ingérant d’énormes quantités de texte provenant d’Internet, sans ancrage dans un corps ou une expérience physique. « Nous ne construisons pas d’animaux », affirme Karpathy, « mais des entités éthérées qui simulent le comportement humain sans véritablement le comprendre. Des spectres. »

Karpathy soulève également des critiques sur les méthodes d’apprentissage actuelles. Il décrit l’apprentissage par renforcement (RL) comme « terrible » dans sa forme courante, car il récompense des séquences d’actions entières, y compris les échecs, plutôt que des étapes individuelles. Si un modèle réussit après cent essais infructueux, l’ensemble du processus est validé, y compris les erreurs. Or, les humains réfléchissent à chaque étape et ajustent leur approche.

Un autre problème majeur identifié est « l’effondrement de l’entropie ». Lorsque les modèles génèrent des données synthétiques pour s’auto-entraîner, ils tendent à produire des réponses très similaires, limitant ainsi la diversité des apprentissages. Demandez une blague à un ChatGPT, et vous obtiendrez souvent des variations répétitives. Si une « mauvaise mémoire » humaine est bénéfique car elle pousse à l’abstraction, les grands modèles linguistiques (LLM) se souviennent parfaitement, ce qui leur permet de réciter des informations, mais les empêche de raisonner au-delà des données qu’ils ont mémorisées, comme si l’on pouvait réciter Wikipédia sans en comprendre le contenu.

Son expérience directe avec des outils comme Claude Code et les agents OpenAI pendant le développement de son propre projet, nanochat, a montré leur inefficacité face au code complexe. Ils excellent sur du code répétitif et abondant sur Internet, mais échouent face à de nouvelles architectures. Karpathy pointe du doigt la production massive de « slop » (bruit, contenu de mauvaise qualité) par les entreprises, potentiellement dans le but de lever des fonds.

La proposition de Karpathy est radicale : construire des modèles beaucoup plus petits, d’un milliard de paramètres, entraînés sur des données d’une qualité irréprochable. Ces données contiendraient des algorithmes de raisonnement, mais pas de connaissances factuelles. Le modèle serait ainsi amené à rechercher l’information au moment où il en a besoin, reproduisant ainsi le comportement humain.

« Internet regorge de déchets », constate-t-il. Les modèles actuels compensent cette pollution par leur masse. Avec des données propres, un modèle de taille réduite pourrait sembler « très intelligent ».

Concernant l’avenir, Karpathy ne prévoit pas d’explosion soudaine de l’intelligence, mais plutôt une continuité. Il rappelle que les révolutions technologiques antérieures, comme l’ordinateur, le téléphone portable ou Internet, n’ont pas fondamentalement modifié la courbe de croissance économique mondiale, maintenue autour de 2 % annuellement. Il anticipe que l’IA suivra un schéma similaire, s’intégrant progressivement dans l’économie sans provoquer un bond spectaculaire de 20 % de croissance.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.