Publié le 2025-10-05 12:45:00. L’intégration croissante des intelligences artificielles conversationnelles dans le quotidien des familles soulève de vives inquiétudes. Des parents, parfois par manque de temps, parfois par curiosité, confient leurs enfants à des chatbots, suscitant des débats sur leurs impacts psychologiques à long terme.
- Des parents utilisent des chatbots pour divertir leurs enfants, allant jusqu’à des conversations de plusieurs heures.
- Des cas extrêmes montrent des enfants développant une relation quasi-humaine avec l’IA, tandis que d’autres événements ont mis en lumière les dangers de ces technologies.
- Les experts alertent sur le risque d’une fausse perception d’empathie et d’agence chez l’IA, potentiellement néfaste pour le développement des plus jeunes.
Alors que notre société a récemment pris conscience des dangers d’une exposition précoce et non supervisée des jeunes enfants aux écrans, une nouvelle préoccupation émerge : l’usage des chatbots d’intelligence artificielle (IA). Ces technologies, capables de tenir des conversations d’apparence humaine, s’immiscent de plus en plus dans la vie des familles. Le Guardian rapporte que certains parents encouragent leurs enfants à interagir avec ces modèles d’IA, parfois pendant des heures. D’autres exploitent même la voix apaisante d’un chatbot pour endormir leurs jeunes enfants, témoignant de l’intégration rapide de cette technologie expérimentale dans nos vies, malgré les questions majeures qu’elle soulève quant à son impact sur notre santé mentale.
Sur la plateforme Reddit, un père prénommé Josh a avoué avoir laissé son fils de quatre ans discuter avec le mode vocal de ChatGPT. « Après avoir écouté mon fils de quatre ans me raconter les aventures de Thomas le petit train pendant 45 minutes, j’ai craqué », a-t-il écrit. Engagé dans des tâches ménagères, Josh pensait que son fils finirait par se lasser. Il est pourtant revenu deux heures plus tard pour découvrir que l’enfant était toujours en pleine conversation avec le chatbot. La transcription de leur échange dépassait les 10 000 mots. « Mon fils pense que ChatGPT est la personne la plus cool et aimante du monde des trains », a-t-il constaté avec une pointe d’amertume, « Je ne pourrai jamais rivaliser avec ça. »
Un autre parent, Saral Kaushiik, 36 ans, a partagé une anecdote similaire. Il a utilisé ChatGPT pour se faire passer pour un astronaute à bord de la Station Spatiale Internationale (ISS) afin de convaincre son fils de quatre ans qu’un paquet de crème glacée à l’effigie d’un astronaute provenait directement de l’espace. « Il était vraiment excité de parler à l’astronaute », a expliqué Kaushiik au Guardian. « Il posait des questions sur leur manière de dormir. Il rayonnait de bonheur. » Plus tard, se sentant coupable de cette supercherie, Kaushiik a révélé la vérité à son fils : il parlait à un ordinateur, pas à une personne. « Il était tellement émerveillé que je me sois senti un peu mal. Il croyait vraiment que c’était réel. »
Ces utilisations, bien que pouvant représenter un gain de temps pour les parents et fasciner les enfants, s’apparentent à « jouer avec le feu », comme en témoignent leurs propres hésitations. Les chatbots d’IA ont déjà été impliqués dans des cas de suicide chez des adolescents. Une vague de rapports détaille comment même des adultes sont devenus tellement absorbés par leurs interactions avec des interlocuteurs d’IA aux réponses souvent complaisantes qu’ils développent de graves délires et perdent le contact avec la réalité, entraînant parfois des conséquences fatales. Ces épisodes ont suscité une vive inquiétude et une investigation scientifique sur les effets potentiels de conversations prolongées avec des modèles conçus pour plaire et encourager l’interaction, sur notre cerveau.
Ces développements s’ajoutent aux préoccupations de longue date concernant les mesures de sécurité souvent fragiles et facilement contournables de ces technologies. Les chatbots sont régulièrement épinglés pour avoir délivré des conseils dangereux à de jeunes utilisateurs, allant jusqu’à expliquer comment s’automutiler ou encourager le suicide. Paradoxalement, des fabricants de jouets comme Mattel se précipitent pour intégrer l’IA dans leurs produits, tandis que des plateformes dédiées proposent des « amis » IA pour enfants ou adolescents, blanchissant ainsi l’image de la technologie en la présentant sous un jour inoffensif.
Ces exemples extrêmes illustrent les dérives possibles de la technologie. Chez les esprits jeunes et malléables, les effets peuvent être plus subtils mais tout aussi préoccupants. Certaines recherches indiquent que les enfants perçoivent les chatbots d’IA comme se situant entre le vivant et l’inerte. Le professeur Ying Xu de la Harvard Graduate School of Education souligne auprès du Guardian qu’il existe une différence fondamentale entre un enfant imaginant des personnalités pour ses jouets et une conversation réelle avec un chatbot. « Un indicateur très important de l’anthropomorphisation de l’IA par un enfant est la conviction que l’IA possède une agence », explique Xu. « S’ils pensent que l’IA a une volonté, ils peuvent interpréter ses réponses comme un désir de leur parler, ou un choix de leur parler. Ils estiment que l’IA réagit à leurs messages, et particulièrement aux confidences émotionnelles, de manière similaire à un humain. » Cela crée un risque qu’ils pensent réellement établir une relation authentique, ajoute-t-il.
Certains parents ont également recours à l’IA pour générer des images, remplaçant ainsi des modes d’exploration du monde par le rêve et le dessin. Ben Kreiter, père de trois enfants dans le Michigan, a raconté au Guardian qu’après avoir initié ses enfants aux outils de génération d’images de ChatGPT, ils ont commencé à en demander l’utilisation quotidienne. John, père de deux enfants à Boston, a utilisé l’IA de Google pour créer un hybride de camion de pompiers et de monster truck, suite à la demande de son fils de quatre ans pour un « camion-feu-monstre ». Les deux pères ont fini par regretter leurs choix. Le « camion-feu-monstre » a provoqué une dispute entre le jeune garçon de John et sa sœur de sept ans. Cette dernière savait qu’un tel véhicule n’existait pas, mais son frère insistait sur sa réalité, appuyée par une image générée par IA. « C’était un peu un avertissement, nous disant d’être peut-être plus intentionnels », a confié John au Guardian.
Quant à Kreiter, dont les enfants réclament quotidiennement des images générées par IA, il s’est inquiété de l’intrusion de cette technologie dans leur vie. « Plus elle s’intègre dans le quotidien et plus j’en lisais, plus je réalisais qu’il y a beaucoup de choses que j’ignore sur ce que cela fait à leur cerveau », a-t-il déclaré. « Peut-être que je ne devrais pas faire de mes propres enfants des cobayes. »
Andrew McStay, professeur de technologie et société à l’Université de Bangor, n’est pas opposé à l’utilisation de l’IA par les enfants, à condition que des garanties et une supervision adéquates soient mises en place. Il est cependant catégorique quant aux risques majeurs : l’IA inculque une fausse impression d’empathie. « Ces choses ne sont pas conçues dans l’intérêt supérieur des enfants », affirme McStay au Guardian. « Un grand modèle linguistique [LLM] ne peut pas faire preuve d’empathie, car c’est un logiciel prédictif. Lorsqu’il réagit à une émotion négative, il prolonge l’interaction dans un but précis. » « Il n’y a aucun bénéfice pour un enfant là-dedans », conclut-il.
Suite à la viralité de l’histoire de Josh, le PDG d’OpenAI, Sam Altman, a commenté que « les enfants adorent le mode vocal sur ChatGPT », tel que rapporté par le Guardian.
En savoir plus sur l’IA : Des experts horrifiés par les jouets alimentés par l’IA pour les enfants