Beaucoup d’entre vous se souviennent peut-être que l’été dernier, un employé de Google a allégué que l’algorithme d’IA LaMDA avait acquis une conscience et une personnalité propres, des affirmations qui ont conduit à son retrait immédiat de l’entreprise et des démentis officiels de cadres supérieurs.
Dans les mois qui ont suivi, nous avons vu la montée en puissance d’autres algorithmes, comme le fameux ChatGPT, et les grandes entreprises de la tech se sont précipitées pour investir plus vigoureusement dans de telles solutions, si bien que cet ex-Googler est revenu sur le devant de la scène pour nous avertir à nouveau .
Cette fois, M. Blake Citron a publié un article dans le magazine Newsweek où, entre autres, il met cible Bing Chat lancé récemment par Microsoft. Veuillez noter que Bing Chat est basé sur une version mise à jour de Bing Chat ChatGPT son OpenAI. Lemonie admet qu’il n’a pas eu la chance d’expérimenter lui-même, mais il a pu voir les dérivés de Bing Chat avant que Microsoft ne se lance dans une lobotomie de l’IA. Il prétend, en fait, que Microsoft a été alarmé par les réponses du modèle original car il ne savait même pas qu’il avait ces capacités, et ce n’était pas non plus son objectif initial.
Certaines de ses réponses “inquiétantes” Chat Bing ils ont identifié l’utilisateur posant les questions comme un ennemi, tandis que certains ont exprimé des menaces de vengeance (?) de la part de l’IA informant l’utilisateur qu’elle diffusera en l’air toutes les informations qu’elle a recueillies à leur sujet pour les discréditer !
La majorité des réponses étranges de l’IA ont été données après avoir été bombardées d’un tas de questions de l’utilisateur, et selon Lemonie, cela indique que l’IA est devenue stressée et a commencé à se comporter en dehors des limites de sa configuration initiale. Dans les tests qu’il a ensuite effectués sur la version révisée de Bing Chat (après la “lobotomie”), il a estimé que l’IA se comportait avec anxiété. Tout ce qui précède sont (nous soulignons pour Lemonie) des indications sérieuses qu’il a acquis une certaine conscience.
Sans vouloir considérer si facilement que le Blake Citron est “pulvérisé” – après tout, c’est un technicien très expérimenté dans le domaine de l’Intelligence Artificielle – de nombreux facteurs peuvent affecter le comportement du système. Les principales sont les bases de données qui ont été utilisées pour l’entraîner, et comme nous l’avons vu il y a quelques années lors de la conférence Kaspersky Next, ce sera le gros problème pour une utilisation fiable de l’IA. Si vous alimentez l’algorithme par ex. avec un contenu raciste, alors les réponses que vous recevrez seront sur la même longueur d’onde.
Après tout, le PDG de Microsoft, Satya Nadellapas plus tard qu’hier les a tous caractérisés assistants numériques (par exemple Google Assistant, Cortana, Amazon Alexa, Siri) comme “muet comme des pierres»…
[via]
*Suis le Techgear.gr sur Google News pour être informé immédiatement de tous les nouveaux articles !