Publié le 24 septembre 2025. Andrej Karpathy, figure marquante de l’IA, met en garde contre l’exagération autour des avancées actuelles, tout en restant optimiste quant à l’avenir. Cofondateur d’OpenAI et ancien directeur de l’IA chez Tesla, il appelle à plus de réalisme quant aux capacités des modèles et aux échéances de l’intelligence artificielle générale.
- La « décennie des agents » est lancée, mais les IA actuelles nécessitent encore beaucoup de développement.
- Karpathy dénonce une « surprédication » dans l’industrie, souvent motivée par des levées de fonds et une course à l’attention.
- Il critique l’apprentissage par renforcement, le jugeant inadapté à la complexité du raisonnement humain.
Andrej Karpathy, bien que n’étant plus activement impliqué chez OpenAI ou Tesla, demeure une voix influente et passionnée dans le domaine de l’intelligence artificielle. Sa contribution se manifeste par la diffusion de connaissances via ses vidéos pédagogiques et des outils open-source comme minGPT ou nanoGPT. Ces initiatives ont même permis des prouesses, telles que l’exécution d’un grand modèle linguistique sur un système Windows 98.
Lors d’une récente intervention remarquée sur le podcast de Dwarkesh Patel, Karpathy a partagé ses réflexions pragmatiques sur l’état actuel et futur de l’IA. Il est convaincu que la période actuelle est celle des « agents », des systèmes capables d’agir de manière autonome. Il évoque même le terme de « vibe coding » pour décrire la programmation de l’IA, soulignant son usage quotidien d’outils comme Claude et Codex.
Cependant, l’expert tempère cet enthousiasme : « Ces premiers agents sont impressionnants, mais il reste beaucoup de travail à faire. C’est la décennie des agents, mais pas encore l’année des agents », met-il en garde. Cette nuance intervient dans un contexte où l’industrie est, selon lui, marquée par une « surprédication », avec des prévisions souvent trop optimistes concernant la rapidité des avancées, notamment l’arrivée imminente de l’intelligence artificielle générale (AGI).
« Les modèles ne sont pas encore là. J’ai l’impression que l’industrie fait un pas trop grand et essaie de prétendre que c’est incroyable, alors que ce n’est pas le cas. Il y a trop de bruit, trop de ‘slop’. Ils ne supposent pas la réalité, et peut-être le font-ils pour attirer des investissements ou quelque chose comme ça, je ne sais pas. Mais nous sommes dans une phase intermédiaire. »
Andrej Karpathy
Karpathy tient à préciser qu’il n’est pas pessimiste, mais plutôt réaliste. Il observe une déconnexion entre la réalité technique et le discours ambiant, souvent amplifié par les réseaux sociaux et les structures d’incitation financière. « Honnêtement, une grande partie de cela n’est que de la collecte de fonds. Ce ne sont que des structures d’incitation. Une grande partie de cela n’est que de l’attention, transformer l’attention en argent sur Internet. »
Un point de critique particulièrement marqué concerne l’apprentissage par renforcement. Cette méthode, qui consiste à entraîner une IA par essais et erreurs en lui attribuant des récompenses ou des punitions, a été déterminante dans des succès comme AlphaGo. Karpathy la juge cependant fondamentalement erronée. Il la compare à un « sucer la supervision avec une paille », car elle réduit l’apprentissage à un score final, ignorant la richesse des étapes intermédiaires.
« Terrible », tel est le qualificatif qu’il emploie. Selon lui, les humains n’apprennent pas par une succession de tentatives aveugles où chaque étape a une valeur égale. L’avenir, suggère-t-il, réside dans une « supervision des processus », un retour d’information continu, bien que la complexité de l’automatisation de ce système sans introduire de biais ou d’erreurs demeure un défi.