Home Économie Êtes-vous gêné de parler de la distillation aux autres ? Musk critique Anthropic pour vol massif de données d’entraînement – IT Home

Êtes-vous gêné de parler de la distillation aux autres ? Musk critique Anthropic pour vol massif de données d’entraînement – IT Home

0 comments 37 views

Publié le 24 février 2026 à 01:29:00. La société américaine d’intelligence artificielle Anthropic accuse trois entreprises chinoises d’avoir mis en œuvre une vaste opération de « distillation » pour copier les capacités de son chatbot Claude, une révélation qui intervient alors que Washington débat de nouvelles restrictions à l’exportation de technologies liées à l’IA.

  • Anthropic accuse DeepSeek, Moonshot AI et MiniMax d’avoir créé plus de 24 000 faux comptes pour extraire des informations de Claude.
  • L’entreprise affirme que ces sociétés chinoises ont généré plus de 16 millions d’interactions avec Claude dans le but de former et d’optimiser leurs propres modèles d’IA.
  • Des critiques soulignent qu’Anthropic elle-même a été accusée d’utiliser des données protégées par le droit d’auteur pour entraîner ses modèles, suscitant des accusations d’hypocrisie.

Anthropic a déclaré lundi que les entreprises chinoises DeepSeek, Moonshot AI et MiniMax ont orchestré des campagnes coordonnées pour extraire illégalement les capacités de son modèle de langage Claude. Selon l’entreprise, ces sociétés ont mis en place plus de 24 000 faux comptes, générant ainsi plus de 16 millions d’échanges avec Claude. L’objectif était de collecter des données permettant de former et d’améliorer leurs propres modèles d’intelligence artificielle, une technique connue sous le nom de « distillation ».

La « distillation », qui consiste à entraîner un modèle plus petit en utilisant les sorties d’un modèle plus puissant, est une méthode d’apprentissage légitime. Cependant, Anthropic soutient que dans ce cas, elle a été utilisée de manière illicite pour acquérir des capacités avancées sans les investissements nécessaires en recherche et développement. L’entreprise a identifié des schémas de trafic synchronisés, des méthodes de paiement partagées et une coordination temporelle suggérant une action concertée.

Cette accusation intervient alors que les États-Unis envisagent de renforcer les contrôles à l’exportation de puces informatiques avancées vers la Chine, dans le but de freiner le développement de l’IA chinoise. Anthropic a appelé à des mesures plus strictes pour empêcher l’accès à sa technologie et à des contrôles plus rigoureux sur l’exportation de composants clés.

Cependant, les accusations d’Anthropic ont été accueillies avec scepticisme et des critiques. L’entreprise a été elle-même accusée d’avoir utilisé des données internet massives, y compris des livres protégés par le droit d’auteur, pour entraîner Claude sans autorisation. Gergely Orosz, un programmeur, a souligné sur les réseaux sociaux : « Désolé, mais Anthropic ne peut pas profiter des deux côtés. N’oubliez pas comment Claude a été formé : en utilisant des livres protégés par le droit d’auteur et en ne payant pas le propriétaire du droit d’auteur jusqu’à ce qu’il soit poursuivi en justice. »

Elon Musk, fondateur de xAI, a également critiqué Anthropic, déclarant : « Comment osent-ils (la Chine) voler ce qu’Anthropic a volé aux programmeurs humains ? », accusant l’entreprise d’utiliser des données provenant de projets de développeurs de logiciels sans autorisation. Il a ajouté : « Anthropic est coupable de vol à grande échelle de données d’entraînement et a payé des milliards de dollars en compensation pour ce vol. Ce n’est qu’un fait. »

Malgré la controverse, Anthropic prévoit de renforcer ses mesures de sécurité pour empêcher l’accès non autorisé à sa technologie et plaide pour une action coordonnée entre les acteurs de l’industrie, les décideurs politiques et la communauté mondiale de l’IA pour faire face à cette menace croissante.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.