Home Sciences et technologies Le boom de la fraude Deepfake pourrait alimenter un rallye des ETF de cybersécurité

Le boom de la fraude Deepfake pourrait alimenter un rallye des ETF de cybersécurité

0 comments 41 views

Publié le 23 février 2026 à 22h05. La montée en puissance des fraudes sophistiquées basées sur l’intelligence artificielle (IA) pourrait redéfinir les stratégies d’investissement, notamment en faveur des valeurs liées à la cybersécurité, tandis que les pertes financières pour les consommateurs atteignent des niveaux alarmants.

Les escroqueries utilisant l’IA se multiplient à un rythme inquiétant à travers le monde. Selon un rapport de la Global Anti-Scam Alliance (GASA), en partenariat avec le service de prévention de la fraude Cifs et la banque Tietoevry, les consommateurs britanniques auraient perdu environ 9,4 milliards de livres sterling (environ 11,1 milliards d’euros) entre novembre 2024 et novembre 2025.

La technologie des « deepfakes » – permettant de cloner des voix ou de fabriquer des contenus vidéo trompeurs – offre aux fraudeurs des capacités inédites. Ils peuvent ainsi usurper l’identité de dirigeants d’entreprises, créer de faux témoignages ou générer en quelques minutes des argumentaires d’investissement personnalisés, remettant en question la confiance numérique.

Les ETF de cybersécurité attirent de nouveau l’attention des investisseurs

Pour les investisseurs, cette recrudescence des attaques par usurpation d’identité pourrait stimuler la demande de solutions de vérification d’identité, d’analyse comportementale et d’infrastructures de sécurité « Zero Trust » – des domaines bien représentés dans les fonds de cybersécurité.

Le First Trust NASDAQ Cybersecurity ETF (NASDAQ : CIBR), l’ETF de cybersécurité Amplify (NYSE : HACK) et l’ETF de cybersécurité Global X (NASDAQ : BUG) suivent les performances des entreprises spécialisées dans la sécurité du cloud, la défense des réseaux et la détection des fraudes basées sur l’IA. Si les entreprises sont contraintes de repenser en profondeur leurs systèmes de vérification plutôt que de simplement ajouter des couches de protection supplémentaires, les dépenses en matière de sécurité pourraient devenir moins discrétionnaires et plus structurelles.

Monica Eaton, fondatrice et PDG de Chargebacks911, estime que ce changement est déjà en cours :

« Les escroqueries deepfake ne sont plus marginales, elles deviennent un canal de fraude industrialisé. Lorsque les criminels peuvent cloner la voix d’un PDG, fabriquer l’approbation d’un médecin ou générer des milliers d’argumentaires d’investissement personnalisés en quelques minutes, les contrôles traditionnels de la fraude ne peuvent plus suivre le rythme. »

Monica Eaton, fondatrice et PDG de Chargebacks911

L’automatisation de la perte de confiance

Mme Eaton décrit cette tendance comme « l’automatisation de l’abus de confiance », soulignant que l’IA a réduit le coût de la tromperie à un niveau proche de zéro, tandis que les dommages financiers et à la réputation continuent de s’accumuler.

« Ce que nous constatons, c’est l’automatisation des abus de confiance. L’IA réduit le coût de la tromperie à un niveau proche de zéro, tandis que les dommages financiers et à la réputation des consommateurs, des commerçants et des institutions financières continuent de se chiffrer en milliards. »

Monica Eaton, fondatrice et PDG de Chargebacks911

L’écosystème des paiements est particulièrement vulnérable. Les plateformes spécialisées dans les paiements fluides sont désormais confrontées à la nécessité de rééquilibrer leurs priorités en faveur de la vérification et de la résilience.

Selon Mme Eaton, l’industrie a passé des années à optimiser la commodité et le taux de conversion. « Il est désormais urgent de rétablir un équilibre en privilégiant la vérification et la résilience. L’authentification statique, les alertes ponctuelles et les processus de rétrofacturation réactifs ne suffiront pas à contrer l’usurpation d’identité à grande échelle basée sur l’IA. »

Elle ajoute que les entreprises ont besoin de contrôles d’identité à plusieurs niveaux et d’analyses comportementales en temps réel, travaillant de concert, pour lutter efficacement contre la fraude par deepfake. Cela nécessite, selon elle, de repenser « l’ensemble du cadre de confiance » du commerce numérique.

Alors que l’IA stimule à la fois l’innovation et la fraude, les marchés pourraient de plus en plus considérer la cybersécurité non pas comme un secteur cyclique, mais comme une infrastructure essentielle.

Image : Shutterstock

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.