Publié le 2025-10-09 20:47:00. L’essor fulgurant de l’intelligence artificielle soulève des questions profondes sur notre humanité. Une table ronde à Harvard, réunissant informaticiens et spécialistes de la littérature, a exploré comment la technologie numérique redéfinit notre âme.
- L’IA générative, comme ChatGPT, pourrait réduire l’activité cérébrale et l’appropriation de notre travail créatif.
- Une nouvelle initiative de Harvard vise à replacer la pensée humaniste au cœur des débats contemporains.
- Des pistes émergent pour concevoir une technologie favorisant le respect, la connexion et le sens commun plutôt que la domination.
« Sommes-nous en train de devenir des techniciens ? » Cette question, posée par Ian Marcus Corbin, directeur du Projet de culture publique à Harvard, a lancé un débat animé. L’objectif de ce projet, lancé le 1er octobre dernier, est de « placer la pensée humaniste et humaniste au centre des grandes conversations de notre époque », a précisé ce dernier, également philosophe à la Harvard Medical School.
Nataliya Kos’myna, chercheuse au MIT Media Lab, a rappelé que l’humanité excelle dans la création d’outils. « Ces outils sont efficaces pour prolonger notre vie, mais ne rendent pas toujours notre vie la plus heureuse, la plus épanouissante », a-t-elle constaté, citant des exemples allant de la machine à écrire à Internet. L’IA générative, et ChatGPT en particulier, pourrait bien s’ajouter à cette liste, selon elle.
Pour illustrer son propos, elle a partagé les résultats d’une étude menée auprès de 54 étudiants de la région de Boston. Les participants devaient rédiger un essai sur des sujets tels que « Y a-t-il un vrai bonheur ? ». Trois groupes ont été formés : l’un avec accès à ChatGPT, un autre à Internet et Google, et le dernier limité à ses propres ressources intellectuelles. Les résultats ont été notables : le groupe utilisant ChatGPT a montré « beaucoup moins d’activité cérébrale » et ses essais étaient étonnamment similaires, se concentrant principalement sur les choix de carrière comme critère du bonheur. En comparaison, le groupe ayant accès à Internet a davantage abordé la notion de don, tandis que le troisième groupe s’est penché plus profondément sur la question du bonheur.
Une question simple a révélé l’écart : était-il possible de citer une ligne de son propre essai, une minute après l’avoir rendu ? « Quatre-vingt-trois pour cent du groupe ChatGPT n’ont rien pu citer », contre seulement 11 % pour les deux autres groupes. Les utilisateurs de ChatGPT ne se sentaient pas « vraiment propriétaires » de leur travail, le mémorisant mal et ne s’y identifiant pas. « Votre cerveau a besoin de lutter », a souligné Kos’myna. « Il ne s’épanouit pas » quand une tâche est trop aisée. L’apprentissage et l’engagement nécessitent un juste niveau de difficulté pour acquérir des connaissances.
Face à ces constats, E. Glen Weyl, responsable de la recherche chez Microsoft Research Special Projects, a offert une perspective plus optimiste. « Le simple fait de voir les problèmes nous prive de notre pouvoir », a-t-il avancé, encourageant les scientifiques à « repenser les systèmes ». Il a critiqué la focalisation actuelle sur le modèle économique des technologies, souvent limité à la vente de publicité. « Je ne suis pas sûr que ce soit la seule façon de structurer cela », a-t-il affirmé.
« Derrière ce que nous pourrions appeler l’intelligence scientifique se cache une intelligence spirituelle plus profonde : pourquoi les choses sont importantes. »
Brandon Vaidyanathan, professeur de sociologie à l’Université catholique d’Amérique
S’appuyant sur des idées telles que celles développées par Steven Pinker, Weyl a évoqué le concept de communauté et la manière dont les médias sociaux pourraient être repensés. L’idée serait de créer des flux d’informations reflétant les contributions des membres d’une même communauté, favorisant ainsi un sentiment d’expérience partagée, similaire à l’ambiance d’un concert. Il a pris l’exemple des publicités du Super Bowl, qui visent à « créer du sens » et à véhiculer des valeurs communes plutôt qu’à vendre des produits isolés. « Créer une compréhension commune de quelque chose nous amène à nous attendre à ce que les autres partagent la même compréhension de cette chose », a-t-il expliqué.
Reconfigurer la technologie dans cette direction « nécessite de prendre nos valeurs suffisamment au sérieux pour les laisser façonner » les médias sociaux, a-t-il reconnu, y voyant une voie prometteuse.
Moira Weigel, professeure adjointe de littérature comparée à Harvard et chercheuse au Berkman Klein Center for Internet and Society, a repris le fil de la discussion en rappelant que nombre de ces interrogations animent les penseurs humains depuis le 19e siècle. Elle a centré ses propos sur cinq questions fondamentales, qui constituent le cœur de son cours « Littérature et/ou IA : Humanité, technologie et créativité » : « Quel est le but du travail ? », « Que signifie avoir ou trouver sa voix ? », « Nos technologies étendent-elles notre libre arbitre – ou échappent-elles à notre contrôle et nous contrôlent-elles ? », « Pouvons-nous entretenir des relations avec des choses que nous ou d’autres êtres humains avons créées ? » et « Que signifie dire qu’une activité est simplement technique, un artisanat ou une compétence, et quand est-ce une poésie ou de l’art ? »
Concernant l’impact des grands modèles linguistiques (LLM) dans l’éducation, elle a déclaré : « Je pense et j’espère que les LLM créent une occasion intéressante pour repenser ce qui est instrumental. Ils brouillent notre perception de ce que l’éducation est essentielle ». Selon elle, les LLM « nous permettent de nous demander à quel point nous sommes différents des machines – et de revendiquer l’espace nécessaire pour poser ces questions ».
Brandon Vaidyanathan, professeur de sociologie à l’Université catholique d’Amérique, a également identifié un potentiel dans l’essor de l’IA. Il a débuté son intervention en soulignant la distinction entre science et technologie, citant le philosophe Martin Heidegger et son concept de « cadrage » qui réduit la technologie à une vision de « produit ». Vaidyanathan a observé que les scientifiques, de par leur expérience, adoptent souvent une perspective différente. « Derrière ce que nous pourrions appeler l’intelligence scientifique se cache une intelligence spirituelle plus profonde : pourquoi les choses sont importantes », a-t-il affirmé.
Plutôt que la « domination, l’extraction et la fragmentation » souvent attribuées à la technologie et à l’IA, les scientifiques tendent vers « les trois principes de l’intelligence spirituelle : le respect, la réceptivité et la reconnexion ». Plus de 80 % d’entre eux « ressentent un profond sentiment de respect pour ce qu’ils étudient », a-t-il précisé, citant l’exemple d’un chercheur étudiant une bactérie avec une « révérence » comparable à celle inspirée par un temple.
« La technologie et la science peuvent nous ouvrir à ce genre d’expériences spirituelles », a conclu Vaidyanathan. « Pouvons-nous imaginer le développement d’une technologie qui pourrait cultiver un sentiment de respect plutôt que de domination ? » Pour y parvenir, il a suggéré la nécessité d’une « déconnexion régulière ».