Publié le 14 février 2026 à 12h02. Google et OpenAI tirent la sonnette d’alarme face à des tentatives de vol de propriété intellectuelle par des concurrents, notamment chinois, qui cherchent à reproduire les capacités de leurs modèles d’intelligence artificielle.
- Des entreprises concurrentes tentent de copier les modèles d’IA de Google et OpenAI en « distillant » leur logique interne.
- Google a détecté plus de 100 000 requêtes visant à reproduire les capacités de raisonnement de son modèle Gemini.
- OpenAI accuse des entreprises et universités chinoises, ainsi que des acteurs russes, de s’engager dans ces pratiques.
Les géants de la technologie Google et OpenAI ont mis en garde cette semaine contre une nouvelle forme d’espionnage industriel dans le domaine de l’intelligence artificielle. Des concurrents, dont certains basés en Chine, seraient en train de tester leurs modèles de langage (LLM) afin d’en extraire les principes de raisonnement sous-jacents, dans le but de les reproduire dans leurs propres systèmes.
Selon John Hultquist, analyste en chef du Google Threat Intelligence Group, ces activités proviennent d' »acteurs de la menace du monde entier », des « entreprises du secteur privé ». Il a précisé que Google avait détecté cette tentative de copie et pris des mesures pour protéger ses technologies, mais a refusé de divulguer les noms des entreprises ou des pays impliqués.
« Votre modèle est une propriété intellectuelle vraiment précieuse, et si vous pouvez en distiller la logique, il existe un potentiel très réel de reproduction de cette technologie – ce qui n’est pas bon marché. Il s’agit d’une technologie très importante et la liste des parties intéressées par sa reproduction est interminable. »
John Hultquist, analyste en chef du Google Threat Intelligence Group
Google qualifie ce processus de « attaques par distillation ». Un rapport publié jeudi révèle qu’une campagne a utilisé plus de 100 000 requêtes pour tenter de reproduire les capacités de raisonnement de Gemini dans différentes langues et pour diverses tâches.
Le développement et la formation de ces LLM représentent des investissements considérables pour les entreprises technologiques. En exploitant l’accès légitime à des modèles performants comme Gemini, les concurrents peuvent réduire considérablement les coûts et la complexité liés à la création de leurs propres chatbots et systèmes d’IA.
La distillation de modèles Gemini sans autorisation constitue une violation des conditions d’utilisation de Google, qui se réserve le droit de bloquer les comptes concernés, voire d’engager des poursuites judiciaires. Cependant, la nature même des LLM les rend vulnérables à ce type d’attaque, et Google reconnaît la difficulté d’éliminer complètement ce risque. Comme le souligne M. Hultquist, le risque d’attaques par distillation va s’accroître à mesure que d’autres organisations développeront leurs propres modèles et les formeront sur des données sensibles.
OpenAI a également exprimé ses préoccupations dans une note [PDF] adressée au Comité spécial de la Chambre des représentants des États-Unis sur la Chine. L’entreprise accuse DeepSeek et d’autres fournisseurs de LLM chinois, ainsi que certaines universités chinoises, d’avoir copié ChatGPT et d’autres modèles américains. Des activités similaires ont également été observées en Russie. OpenAI met en garde contre le risque que cette distillation illicite de modèles puisse compromettre la position de leadership des États-Unis dans le domaine de l’IA.
OpenAI souligne que les méthodes de distillation utilisées par les acteurs chinois sont devenues plus sophistiquées au cours de l’année dernière, allant au-delà de simples techniques d’extraction d’informations pour inclure la génération de données synthétiques et d’autres approches furtives. L’entreprise a investi dans des systèmes de détection plus performants et interdit les comptes qui enfreignent ses conditions d’utilisation, mais reconnaît qu’elle ne peut pas résoudre ce problème seule.
OpenAI plaide pour une approche globale de la « sécurité des écosystèmes », impliquant une collaboration avec le gouvernement américain pour partager des informations et développer des meilleures pratiques en matière de défense contre la distillation. L’entreprise suggère également que le Congrès devrait combler les failles de sécurité des API qui permettent à des acteurs comme DeepSeek d’accéder aux modèles américains, et restreindre l’accès des « adversaires » à l’infrastructure informatique et cloud américaine.