Professeur du MIT au Congrès : « Nous sommes à un point d’inflexion » avec l’IA | Nouvelles du MIT

Le gouvernement ne devrait pas “abdiquer” ses responsabilités et laisser la voie future de l’intelligence artificielle uniquement aux grandes technologies, a déclaré mercredi Aleksander Mądry, professeur d’informatique Cadence Design Systems au MIT et directeur du MIT Center for Deployable Machine Learning, devant un panel du Congrès. .

Au lieu de cela, a déclaré Mądry, le gouvernement devrait poser des questions sur l’objectif et l’explicabilité des algorithmes utilisés par les entreprises, en tant que précurseur de la réglementation, qu’il a décrite comme “un outil important” pour garantir que l’IA est conforme aux objectifs de la société. Si le gouvernement ne commence pas à poser des questions, alors “je suis extrêmement inquiet” pour l’avenir de l’IA, a déclaré Mądry en réponse à une question du représentant Gerald Connolly.

Mądry, un expert de premier plan en matière d’explicabilité et d’IA, témoignait lors d’une audience intitulée “Advances in AI: Are We Ready for a Tech Revolution?” devant le sous-comité de la Chambre sur la cybersécurité, les technologies de l’information et l’innovation gouvernementale, un panel du comité de la Chambre sur la réforme et la surveillance du gouvernement. Les autres témoins à l’audience étaient l’ancien PDG de Google Eric Schmidt, le vice-président d’IBM Scott Crowder et le directeur de recherche principal du Centre pour l’IA et la politique numérique Merve Hickok.

Dans son allocution d’ouverture, la représentante de la présidente du sous-comité, Nancy Mace, a cité le livre “The Age of AI: And Our Human Future” de Schmidt, Henry Kissinger et Dan Huttenlocher, le doyen du MIT Schwarzman College of Computing. Elle a également attiré l’attention sur un éditorial du 3 mars dans Le le journal Wall Street par les trois auteurs qui ont résumé le livre tout en discutant de ChatGPT. Mace a déclaré que ses remarques liminaires officielles avaient été entièrement écrites par ChatGPT.

Dans ses remarques préparées, Mądry a soulevé trois points primordiaux. Premièrement, il a noté que l’IA “n’est plus une question de science-fiction” ou confinée aux laboratoires de recherche. Il est dans le monde, où il peut apporter d’énormes avantages, mais présente également des risques.

Deuxièmement, il a déclaré que l’IA nous expose à “des interactions qui vont à l’encontre de notre intuition”. Il a dit que parce que des outils d’IA comme ChatGPT imitent la communication humaine, les gens sont trop susceptibles de croire sans aucun doute ce que produisent de si grands modèles de langage. Dans le pire des cas, a averti Mądry, les compétences analytiques humaines s’atrophieront. Il a également déclaré que ce serait une erreur de réglementer l’IA comme si elle était humaine – par exemple, en demandant à l’IA d’expliquer son raisonnement et en supposant que les réponses qui en résultent sont crédibles.

Enfin, il a déclaré que trop peu d’attention avait été accordée aux problèmes qui résulteraient de la nature de la “chaîne d’approvisionnement” de l’IA – la façon dont les systèmes d’IA sont construits les uns sur les autres. À la base se trouvent des systèmes généraux comme ChatGPT, qui ne peuvent être développés que par quelques entreprises car ils sont si coûteux et complexes à construire. Au-dessus de ces systèmes, de nombreux systèmes d’IA sont conçus pour gérer une tâche particulière, comme déterminer qui une entreprise doit embaucher.

Mądry a déclaré que cette superposition soulevait plusieurs préoccupations « pertinentes pour la politique ». Premièrement, l’ensemble du système d’IA est soumis à toutes les vulnérabilités ou biais du grand système à sa base, et dépend du travail de quelques grandes entreprises. Deuxièmement, l’interaction des systèmes d’IA n’est pas bien comprise d’un point de vue technique, ce qui rend les résultats de l’IA encore plus difficiles à prévoir ou à expliquer, et rend les outils difficiles à « auditer ». Enfin, la combinaison d’outils d’IA rend difficile de savoir qui tenir responsable lorsqu’un problème survient – qui devrait être légalement responsable et qui devrait répondre au problème.

Dans les documents écrits soumis au sous-comité, Mądry a conclu : “La technologie de l’IA n’est pas particulièrement bien adaptée au déploiement dans des chaînes d’approvisionnement complexes”, même si c’est exactement ainsi qu’elle est déployée.

Mądry a terminé son témoignage en appelant le Congrès à enquêter sur les problèmes d’IA et à être prêt à agir. “Nous sommes à un point d’inflexion en ce qui concerne ce que l’IA future apportera. Saisir cette opportunité signifie discuter du rôle de l’IA, de ce que nous voulons exactement qu’elle fasse pour nous et de la manière de s’assurer qu’elle profite à tous. Ce sera une conversation difficile, mais nous devons l’avoir, et l’avoir maintenant », a-t-il déclaré au sous-comité.

Le témoignage de tous les témoins de l’audience et une vidéo de l’audience, qui a duré environ deux heures, est disponible en ligne.

Leave a Reply

Your email address will not be published. Required fields are marked *

Most Popular

Get The Latest Updates

Subscribe To Our Weekly Newsletter

No spam, notifications only about new products, updates.

Tag

Lire

Articles Similaires