Home Accueil Les startups européennes prennent au sérieux les deepfakes alors que les pertes liées à la fraude à l’IA dépassent 1,3 milliard d’euros – BeBeez International

Les startups européennes prennent au sérieux les deepfakes alors que les pertes liées à la fraude à l’IA dépassent 1,3 milliard d’euros – BeBeez International

0 comments 112 views

Publié le 24 octobre 2025. La facilité et le faible coût de création de contenus synthétiques mettent à rude épreuve la capacité du public à distinguer le vrai du faux, entraînant une augmentation des fraudes orchestrées par l’IA. Face à ce défi, des startups européennes développent des solutions innovantes pour contrer ces menaces.

  • Les pertes financières dues aux deepfakes dépassent désormais 1,3 milliard d’euros, dont 860 millions d’euros rien qu’en 2025.
  • La production de vidéos deepfake est passée de plusieurs centaines, voire milliers d’euros, à quelques euros seulement, facilitant l’industrialisation de la fraude.
  • L’Europe voit émerger une nouvelle génération de startups dédiées à la détection et à la prévention des fraudes basées sur l’IA, soutenues par des levées de fonds significatives.

Le coût de production de médias synthétiques convaincants s’est spectaculairement effondré. Il y a encore quelques années, créer une vidéo deepfake d’une minute pouvait coûter entre 257 et 17 000 euros, en fonction de la qualité. Désormais, avec des outils d’IA générative accessibles comme Veo 3 et Sora 2, cette même minute peut être générée pour quelques euros seulement. Cette démocratisation de la technologie a logiquement entraîné une explosion des fraudes sophistiquées.

Selon une étude de la société de cybersécurité néerlandaise Surfshark, les pertes signalées liées aux deepfakes ont dépassé les 1,3 milliard d’euros, dont 860 millions d’euros ont été dérobés en 2025, soit une augmentation de 500 millions d’euros par rapport à l’année précédente. « Nous sommes confrontés à une tromperie alimentée par l’IA qui peut imiter des utilisateurs légitimes avec une précision effrayante. Les sociétés de sécurité existantes sont devenues obsolètes car elles supposent que les menaces se comporteront différemment des utilisateurs légitimes », commente Olivier Calme, PDG de la startup britannique Innerworks.

L’effondrement des coûts de production a ouvert la voie à de nouvelles formes d’escroqueries, plus faciles à déployer et à grande échelle. Parmi elles, l’arnaque aux « animaux perdus » prend de l’ampleur. Des fraudeurs créent des images d’animaux de compagnie supposément retrouvés, incitant les propriétaires inquiets à payer de petites « frais de récupération » – souvent autour de 43 euros – dans l’espoir de revoir leur animal. « Alors que le coût de fabrication d’images et de vidéos réalistes approche de zéro, les escrocs industrialisent la tromperie », constate Miguel Fornés, responsable de la sécurité de l’information chez Surfshark. « L’arnaque aux animaux perdus en est un exemple clair : elle exploite l’émotion pour de petites sommes, rendant les victimes moins méfiantes et beaucoup moins susceptibles d’engager des poursuites judiciaires. Pour les criminels, c’est un modèle idéal pour une fraude à grande échelle. »

Ces escroqueries à petite échelle ne représentent cependant qu’une partie du problème. Miguel Fornés souligne que la menace la plus sérieuse provient des programmes d’investissement frauduleux activés par les deepfakes et de l’usurpation d’identité. Des cas ont déjà été rapportés où des deepfakes ont été utilisés lors de processus de recrutement pour contourner les vérifications d’antécédents, allant jusqu’à l’embauche involontaire d’un pirate informatique nord-coréen par une entreprise de cybersécurité, qui avait réussi à falsifier son entretien vidéo et ses informations d’identification.

Une vague européenne de startups se mobilise

Face à cette montée des tromperies basées sur l’IA, l’Europe connaît une vague d’innovation et d’investissement dans le domaine de la cybersécurité. Plusieurs startups ont récemment levé des fonds pour développer des solutions de détection et de prévention des fraudes liées aux deepfakes.

  • Acoru (Madrid, Espagne) a levé 10 millions d’euros (série A) pour aider les banques à prédire et prévenir la fraude et le blanchiment d’argent grâce à l’IA, avant même que les transactions n’aient lieu.
  • IdentifAI (Cesena, Italie) a obtenu 5 millions d’euros pour étendre sa plateforme de détection de deepfakes, capable d’analyser images, vidéos et voix pour authentifier le contenu généré par l’IA.
  • Trustfull (Milan, Italie) a levé 6 millions d’euros pour renforcer sa gamme de prévention de la fraude, ciblant les « escroqueries deepfake et campagnes de phishing à grande échelle ».
  • Innerworks (Londres, Royaume-Uni) a levé 3,7 millions d’euros pour sa plateforme basée sur l’IA, visant à mettre fin à la fraude liée à l’identité synthétique et aux deepfakes.
  • Keyless (Londres, Royaume-Uni) a bouclé un tour de table de 1,9 million d’euros pour sa technologie biométrique, conçue pour contrer les attaques par injection et l’usurpation d’identité par deepfake.

Ces initiatives reflètent un effort continental concerté. L’Italie se distingue particulièrement avec deux entreprises actives dans ce domaine, suggérant l’émergence d’un pôle national dédié à l’innovation biométrique et à la détection des deepfakes.

Un cadre réglementaire européen renforcé en 2025

L’impact économique croissant des fraudes orchestrées par l’IA coïncide avec de nouvelles mesures réglementaires au niveau de l’Union européenne visant à renforcer la responsabilité et la transparence dans le domaine de l’intelligence artificielle et des services numériques.

En février 2025, le Règlement sur l’intelligence artificielle (IA Act) de l’UE a commencé à appliquer ses dispositions clés. Il impose un étiquetage clair des contenus générés par l’IA et une transparence accrue lors des interactions entre individus et systèmes d’IA. Ces règles visent directement l’utilisation abusive d’outils génératifs à des fins de manipulation ou de fraude, y compris les deepfakes et le clonage vocal. Les systèmes d’IA qui trompent ou exploitent des utilisateurs vulnérables peuvent désormais être qualifiés de « risque inacceptable », les rendant illégaux sur le marché de l’UE.

Parallèlement, dans le cadre de la Digital Services Act (DSA), les grandes plateformes en ligne sont désormais tenues d’évaluer et d’atténuer les risques systémiques découlant de contenus manipulateurs ou frauduleux, un cadre qui s’applique également aux médias deepfake utilisés dans les escroqueries par phishing et usurpation d’identité.

Le secteur financier n’est pas en reste. En juillet 2025, l’Autorité bancaire européenne (ABE) a publié un avis soulignant comment l’IA est exploitée à des fins de blanchiment d’argent et de fraude, notamment par le biais de fausses identités et de faux documents. L’ABE a exhorté les institutions financières à adapter leurs systèmes de lutte contre le blanchiment d’argent (AML) pour tenir compte des risques liés à l’IA, une démarche qui fait écho aux missions de startups telles qu’Acoru et Trustfull.

Ces évolutions réglementaires marquent un tournant pour 2025, année où l’Europe resserre son cadre juridique autour de l’utilisation abusive de l’IA, créant ainsi une incitation forte pour les startups dédiées à la lutte contre la fraude et la tromperie synthétique.

Comment se protéger ?

« L’IA a changé la face de la fraude et du blanchiment d’argent. On ne peut tout simplement pas s’attendre à ce qu’une technologie construite en 2010 puisse lutter contre la fraude en 2025 », affirme Pablo de la Riva Ferrezuelo, co-fondateur et PDG d’Acoru. Ce constat reflète un consensus parmi les fondateurs de startups européennes en cybersécurité : une nouvelle génération de technologies, conçues pour l’ère des médias synthétiques et de la tromperie alimentée par l’IA, est plus que jamais nécessaire.

Cette perspective est partagée par l’ensemble du secteur. Fondateurs et investisseurs décrivent 2025 comme une année charnière, où la convergence de la réglementation, de la sensibilisation et du soutien financier alimente une course aux armements entre les escrocs et les défenseurs. Alors que les fraudeurs exploitent l’IA générative pour manipuler voix, identités et vidéos, la nouvelle génération de startups européennes déploie à son tour l’IA pour exposer, vérifier et bloquer les activités malveillantes avant qu’elles n’atteignent leurs victimes.

Au niveau individuel, les experts du secteur rappellent l’importance de la vigilance et de l’éducation comme première ligne de défense :

  • Utiliser des outils de cybersécurité et de vérification d’identité robustes et former régulièrement le personnel.
  • Vérifier les demandes inattendues – notamment celles impliquant de l’argent ou des données sensibles – via des canaux fiables avant d’y donner suite.
  • Examiner les médias à la recherche d’incohérences subtiles : un son trop clair, de légères erreurs de synchronisation labiale ou des mouvements de mains non naturels.
  • Se méfier des tactiques d’urgence ou des accroches émotionnelles, couramment utilisées dans les escroqueries.
  • Mettre en œuvre des contrôles d’authentification multifactorielle et exiger des confirmations hors bande pour les paiements ou les modifications de compte.
  • Équiper les équipes particulièrement exposées (finance, ressources humaines, service client) de protocoles de vérification en personne.
  • Considérer les contacts provenant de nouveaux domaines ou de numéros virtuels comme des signaux d’alerte potentiels.

L’étude de Surfshark a compilé des données provenant de la « AI Incident Database » et de « Hugging Face AI » pour créer un ensemble de données sur les incidents liés aux deepfakes de 2017 à septembre 2025. Seuls les cas impliquant des contenus vidéo, image ou audio falsifiés rapportés dans les médias ont été retenus. Les incidents liés à la fraude ayant entraîné une perte financière clairement quantifiée ont ensuite été classés en 12 sous-catégories spécifiques.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.