
Image generated with DALL·E through ChatGPT
Opinion : Les arnaques Deepfake exploitent l’amour et la confiance comme jamais auparavant
Les escroqueries pilotées par l’IA sont en augmentation, les cybercriminels utilisant la technologie de deepfake pour créer des vidéos et des images convaincantes qui manipulent les victimes. D’une Française qui pensait aider Brad Pitt à une victime convaincue par un deepfake de haute qualité, les frontières entre la réalité et la tromperie se brouillent. À mesure que les outils d’IA évoluent, les risques le font également.
Beaucoup d’entre nous l’ont vu aux actualités en janvier : une Française a perdu plus de 850 000 $ aux arnaqueurs parce qu’elle croyait donner l’argent à Brad Pitt – l’homme avec qui elle pensait être en relation depuis plus d’un an.
Les escrocs ont utilisé une intelligence artificielle générative avancée pour créer des « selfies » et fabriquer des preuves, convaincant leur victime, Anne – une designer de 53 ans en pleine procédure de divorce – de l’histoire tragique d’un faux Pitt aux besoins médicaux urgents. Ils prétendaient que ses fonds étaient gelés en raison de son divorce d’avec Angelina Jolie.
Anne a pris la décision courageuse – et risquée – de partager publiquement son histoire, faisant face à des millions de moqueries, d’insultes et d’attaques virtuelles. « Comme une idiote, j’ai payé… Chaque fois que je doutais de lui, il réussissait à dissiper mes doutes », a-t-elle déclaré dans une émission Youtube française, comme le rapporte la BBC. « Je me suis juste fait avoir, je l’admets, et c’est pour ça que je me suis manifestée, parce que je ne suis pas la seule. »
Elle ne l’est pas. Quelques mois plus tard, la police espagnole a arrêté 5 personnes qui ont arnaqué deux autres femmes en se faisant passer pour Pitt également. Il y a quelques jours, un homme chinois a également été trompé, pensant que sa petite amie en ligne avait besoin d’argent pour des interventions médicales et pour financer son entreprise.
Les victimes ont reçu des vidéos et des photographies personnalisées – des images qui n’étaient disponibles nulle part ailleurs en ligne – les convainquant davantage des mensonges élaborés de leurs trompeurs.
Un récent rapport de Entrust suggère que les tentatives de Deepfake se produisent toutes les 5 minutes. De nouveaux cas de personnes escroquées par l’IA générative émergent chaque jour – une tendance inquiétante, surtout si l’on considère les milliers, voire les millions, de personnes enfouies dans la dette et la honte qui n’osent pas le signaler aux autorités, et encore moins le rendre public.
La montée des escroqueries DeepFake
De nombreuses études et rapports ont tiré la sonnette d’alarme sur l’augmentation des fraudes et des cyberattaques alimentées par l’IA. Des données récentes provenant de TrustPair’s 2025 Fraud Trends and Insights ont montré une augmentation de 118% d’année en année des fraudes propulsées par l’IA, comme l’a rapporté CFO.
Coucou, Hiya, une entreprise américaine spécialisée dans les solutions de sécurité vocale et de performance, a récemment partagé les résultats d’une enquête, révélant que 31% des clients dans six pays ont reçu des appels deepfake en 2024, et 45% d’entre eux ont été victimes d’escroqueries—34% de ce groupe ont perdu de l’argent et 32% ont vu leurs informations personnelles volées. En moyenne, les victimes perdent plus de 500 dollars chacune à cause des escroqueries téléphoniques.
Il y a quelques jours, The Guardian a révélé qu’un réseau organisé en Géorgie—en Europe de l’Est—a utilisé de fausses publicités sur Facebook et Google pour escroquer plus de 6 000 personnes à travers l’Europe, le Canada et le Royaume-Uni, réalisant 35 millions de dollars grâce à leurs opérations.
Environ 85 escrocs géorgiens bien payés ont utilisé des figures publiques telles que le journaliste anglais Martin Lewis, l’écrivain et aventurier Ben Fogle, et Elon Musk pour leurs fraudes. Les escrocs ont promu de faux investissements en cryptomonnaie et d’autres systèmes d’investissement, incitant les victimes à transférer de l’argent via des banques numériques comme Revolut—qui a récemment obtenu une licence bancaire au Royaume-Uni.
IA avancée, escroqueries plus sophistiquées
Les cybercriminels utilisent depuis quelques années l’IA générative, en s’appuyant sur des outils comme ChatGPT pour rédiger et traduire des emails captivants et générer du contenu textuel persuasif. Désormais, avec l’évolution des outils d’IA, l’utilisation d’images et de vidéos générées par IA a augmenté.
Il y a quelques semaines, ByteDance a introduit son dernier outil vidéo AI, OmniHuman-1, capable de générer l’un des deepfakes les plus réalistes sur le marché. Pendant ce temps, de plus en plus d’entreprises d’IA développent des technologies similaires. Il semble n’être qu’une question de temps avant que ces outils ne soient également utilisés pour des arnaques.
Bien que ces technologies puissent être utilisées « de bonne foi » et même pour contrer la montée des arnaques – comme ‘Granny’ Daisy, l’IA d’O2, conçue pour engager les fraudeurs dans des appels en temps réel et les distraire des vraies victimes – les conséquences de leur utilisation malveillante semblent incommensurables.
Chez Wizcase, nous avons récemment signalé une augmentation de 614% des « Attaques Autoscams », soulignant comment les pirates utilisent les technologies de deepfake pour rendre le contenu falsifié « plus réaliste », et comment des entreprises de médias sociaux telles que Meta ont dû intervenir dans des escroqueries de boucherie porcine, car de nombreux acteurs malveillants utilisent ces plateformes. Dans l’étude, Meta a noté que de nombreuses escroqueries ont commencé sur des applications de rencontres, prouvant combien l’amour romantique est parmi les appâts les plus courants — maintenant et historiquement.
L’amour: un appât puissant
Les cybercriminels ne sont pas seulement doués pour comprendre et utiliser l’intelligence artificielle avancée — ils ont aussi une profonde compréhension de l’intelligence humaine. Les acteurs de menace savent comment identifier des vulnérabilités, établir la confiance et faire leurs requêtes au moment le plus opportun.
L’étude Aimez-vous ? Caractéristiques psychologiques des victimes d’arnaques sentimentales, publiée en 2018 par la docteure Monica T. Whitty, explique comment des groupes criminels internationaux ont perpétré des arnaques sentimentales depuis de nombreuses années – même avant l’Internet – et comment les femmes d’âge moyen, bien éduquées, sont susceptibles de tomber dans ce type d’arnaque – tout comme Anne.
Que pouvons-nous attendre maintenant, huit ans après cette étude, avec une technologie digne d’un roman de science-fiction ? Probablement que nous sommes tous plus vulnérables que nous ne le pensons.
« Les victimes de ce type d’escroquerie sont souvent des personnes en quête de sens, qui sont émotionnellement vulnérables », a écrit Annie Lecompte, professeure associée à l’Université du Québec à Montréal (UQAM), dans un article récent publié dans The Conversation. « Bien que cette pratique soit moquée et incomprise, la fraude amoureuse repose sur des mécanismes psychologiques complexes qui exploitent la confiance, les émotions et la vulnérabilité des victimes. »
Un cœur brisé, un portefeuille vide
Liu — le nom de famille de l’homme chinois qui a récemment perdu 200 000 yuans, soit environ 28 000 dollars, dans une escroquerie alimentée par l’IA — croyait vraiment que sa petite amie IA était réelle, car il voyait des photos et même des vidéos personnalisées. Il construisait un attachement émotionnel de plus en plus fort… à ses escrocs.
Bien qu’il n’ait pas fourni plus de détails sur le contexte dans les rapports, une autre victime, Nikki MacLeod, une femme de 77 ans, l’a fait. Elle pensait aussi être dans une véritable relation avec une petite amie IA et lui a envoyé £17,000—environ $22,000—par virements bancaires, PayPal et cartes-cadeaux.
« Je ne suis pas une personne stupide mais elle a réussi à me convaincre qu’elle était une vraie personne et que nous allions passer notre vie ensemble, » a déclaré MacLeod à la BBC.
MacLeod se sentait seule et triste lorsqu’elle a rencontré Alla Morgan dans un chat de groupe. Au bout d’un moment, MacLeod a demandé une vidéo en direct, mais Morgan a dit que ce n’était pas possible car elle travaillait sur une plateforme pétrolière. Lorsque MacLeod a commencé à avoir des soupçons, Morgan a commencé à envoyer des vidéos très réalistes. « Elle m’a envoyé une vidéo pour dire ‘Salut Nikki, je ne suis pas une arnaqueuse, je suis sur ma plateforme pétrolière’, et j’ai été totalement convaincue par cela », a expliqué MacLeod. Le contenu est disponible sur le site web de la BBC, et il est facile de comprendre pourquoi MacLeod a cru que c’était réel – c’est un deepfake de haute qualité.
La BBC a demandé à une experte en cybersécurité et en interaction homme-machine à l’Université Abertay, le Dr Lynsay Shepherd, d’analyser les photos et les vidéos reçues par MacLeod. « Au premier coup d’œil, cela semble légitime, si vous ne savez pas quoi chercher, mais si vous regardez les yeux – les mouvements des yeux ne sont pas tout à fait corrects », a déclaré le Dr Shepherd.
« Les documents semblaient authentiques, les vidéos semblaient authentiques, la banque semblait authentique », a déclaré MacLeod. « Avec l’introduction de l’intelligence artificielle, chaque chose peut être fausse. »
Laisser un commentaire
Annulez