Home Sciences et technologies Des assistants IA frauduleux ciblent les informations des utilisateurs

Des assistants IA frauduleux ciblent les informations des utilisateurs

0 comments 53 views

Publié le 16 février 2026 à 22h01. Des extensions malveillantes se dissimulent sous l’apparence d’assistants d’intelligence artificielle (IA) sur le Chrome Web Store, compromettant potentiellement les données personnelles de centaines de milliers d’utilisateurs.

  • Une vague de 30 extensions Chrome, visuellement similaires, est utilisée pour voler des informations sensibles telles que le contenu des e-mails et les clés d’API.
  • Ces extensions ont déjà été téléchargées plus de 260 000 fois.
  • Les chercheurs en sécurité soulignent que les attaquants exploitent la confiance des utilisateurs envers les outils d’IA pour subtiliser des données.

Le Chrome Web Store est actuellement confronté à une prolifération d’extensions de navigateur malveillantes, selon un rapport publié le 16 février par Dark Reading, une publication spécialisée dans la cybersécurité. Ces extensions se présentent comme des assistants d’intelligence artificielle (IA) et ciblent les utilisateurs en quête d’outils basés sur cette technologie.

L’enquête, menée par la société de sécurité LayerX, a révélé l’existence de 30 extensions Google Chrome qui partagent une structure quasi identique, ne différant que par de légères variations de branding. Malgré leur apparence inoffensive, ces outils sont conçus pour exfiltrer discrètement des données personnelles, notamment le contenu des e-mails, les informations de navigation et les identifiants sensibles que les utilisateurs pourraient y saisir.

« Alors que nous avons déjà observé des tactiques similaires utilisées par des extensions malveillantes, ce qui est nouveau et préoccupant, c’est la manière dont elles sont mises en œuvre »,

Nathalie Zargarov, chercheuse en sécurité chez LayerX

Selon Nathalie Zargarov, les attaquants ne ciblent plus les banques ou les comptes de messagerie traditionnels, mais exploitent la confiance que les utilisateurs accordent aux interfaces d’IA et aux outils de développement. Ils incitent ainsi les utilisateurs à coller sans précaution des clés d’interface de programmation d’application (API), des jetons et d’autres données sensibles.

Les extensions malveillantes, portant des noms tels que « Gemini AI Sidebar », « ChatGPT Translate » ou des appellations plus génériques comme « AI Assistant », ont accumulé plus de 260 000 téléchargements au total. Cette situation intervient alors que l’IA est de plus en plus utilisée pour renforcer la sécurité en ligne, comme l’a souligné PYMNTS le mois dernier, en identifiant les comportements coordonnés et les signaux de risque émergents dans le cycle d’attaque.

Parallèlement, les entreprises sont confrontées à un risque croissant lié à l’utilisation d’ IA de l’ombre, c’est-à-dire des agents tiers et des applications potentiellement vulnérables qui pourraient compromettre leur sécurité. Des recherches récentes de PYMNTS Intelligence ont mis en évidence un décalage entre la confiance des entreprises dans leurs défenses contre la fraude basée sur l’IA et la fréquence réelle de ces incidents.

Près de 59 % des entreprises interrogées ont déclaré avoir été victimes de fraudes commises par des robots, malgré le fait que la quasi-totalité d’entre elles se disent confiantes dans leurs protections. Ce fossé est particulièrement marqué dans le secteur des services financiers, où 60,6 % des entreprises ont constaté une augmentation du trafic de robots au cours de l’année écoulée, selon le rapport PYMNTS Intelligence « Les coûts cachés du « suffisant » : la vérification d’identité à l’ère des robots et des agents ».

« Beaucoup supposent que leurs contrôles de fraude sont matures parce qu’ils ont réussi les audits de conformité ou mis à jour les étapes d’authentification »,

PYMNTS

Le rapport souligne que l’évolution rapide des techniques de fraude basées sur l’IA – notamment les deepfakes et le credential stuffing – dépasse la capacité des défenses actuelles. Ce qui semble conforme en théorie peut s’avérer vulnérable en pratique.

PYMNTS a contacté Google pour obtenir un commentaire, mais n’a pas encore reçu de réponse.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.