Les pertes dans le secteur des cryptomonnaies dues aux escroqueries impliquant des deepfakes devraient atteindre plus de 25 milliards de dollars en 2024, soit plus du double des pertes de l'année dernière, selon une étude de Bitget Research.
Dans un rapport publié le 27 juin, l'exchange crypto fait état d'une augmentation de 245 % du nombre de deepfakes dans le monde en 2024, en s'appuyant sur des données de recherche antérieures de Sumsub.
Bitget a noté que la Chine, l'Allemagne, l'Ukraine, les États-Unis, le Vietnam et le Royaume-Uni étaient les pays avec le plus grand nombre de deepfakes détectés au premier trimestre 2024. L'exchange a par ailleurs indiqué que le secteur des cryptomonnaies a enregistré une augmentation de 217 % des deepfakes par rapport au premier trimestre 2023.
Bitget a déclaré que l’augmentation des deepfakes avait conduit à 6,3 milliards de dollars de pertes dans le secteur des cryptomonnaies au premier trimestre. L’entreprise prévoit que ces pertes atteindront 10 milliards de dollars par trimestre d’ici 2025.
« Les deepfakes se propagent dans le secteur des cryptomonnaies de manière significative, et il y a peu de choses que nous pouvons faire pour les arrêter sans une éducation et une sensibilisation adéquates », a déclaré Gracy Chen, PDG de Bitget, à Cointelegraph dans un communiqué.
Curieusement, les fraudeurs utilisant les deepfakes n'ont pas beaucoup modifié leurs tactiques au fil des ans.
La majorité des pertes en cryptomonnaies dues aux deepfakes se produisent sous la forme de projets frauduleux, d'attaques par phishing et de schémas de Ponzi, où la technologie des deepfakes est utilisée pour gagner la confiance des investisseurs en cryptomonnaies.
Au cours des deux dernières années, cette méthode a représenté plus de la moitié de toutes les pertes liées aux deepfakes dans le secteur des cryptomonnaies.
« En se faisant passer pour des figures influentes, ces schémas créent une illusion de crédibilité et de capitalisation importante du projet, obtenant ainsi d'importants investissements de la part des victimes sans une diligence raisonnable appropriée », a expliqué Bitget Research.
Le président exécutif de MicroStrategy, Michael Saylor, a été un choix populaire pour les fraudeurs. En janvier, il a déclaré que son équipe supprimait quotidiennement environ 80 fausses vidéos de lui générées par l'intelligence artificielle (IA), généralement pour promouvoir une sorte d'escroquerie liée au bitcoin (BTC).
Bitget a observé que les deepfakes sont utilisés pour une variété d’activités malveillantes dans le secteur des cryptomonnaies, en plus des escroqueries bien connues. Ces pratiques incluent l'extorsion numérique, la fraude par usurpation d'identité et la manipulation du marché. Par exemple, des deepfakes peuvent être utilisés pour créer de fausses déclarations par des figures influentes afin de manipuler le prix d’un token. Cependant, ces cas représentent une part beaucoup plus faible que les escroqueries en crypto.
Les deepfakes pourraient représenter 70 % des crimes en cryptomonnaies d'ici 2026
Sans mesures efficaces, la proportion de deepfakes utilisés dans les crimes en cryptomonnaies pourrait atteindre 70 % d'ici 2026, prédit Bitget.
« Les criminels utilisent de plus en plus de fausses photos, vidéos et audio pour exercer une influence plus forte sur leurs victimes », a déclaré Ryan Lee, analyste en chef de Bitget Research, à Cointelegraph.
« Par exemple, une vidéo usurpant l'identité d'un proche de la victime pourrait être déterminante pour les fraudeurs, tandis qu'une fausse vidéo d'un influenceur pourrait renforcer la confiance des investisseurs dans un projet d'escroquerie en tant qu'outil auxiliaire. »
Lee estime que l'une des préoccupations immédiates concernant la technologie des deepfakes est l'utilisation d'imposteurs vocaux assistés par IA, qui permettent aux escrocs d'appeler les utilisateurs en prétendant être leurs proches pour leur demander de l'argent.
À lire également : Une arnaque crypto élaborée utilisant un deepfake d'Elon Musk dévoilée à Hong Kong
Une autre préoccupation pourrait être l'utilisation des deepfakes pour contourner les mesures de KYC (Know Your Customer) afin d'accéder de manière non autorisée aux fonds d'un utilisateur.
« Actuellement, les exchanges crypto doivent prêter attention aux fonctionnalités de ‘Proof of Life’ de leurs systèmes KYC », a ajouté Lee.
« Cette fonctionnalité confirme essentiellement que l'utilisateur est une personne réelle et non une image statique ou une vidéo, par des actions en temps réel telles que cligner des yeux, bouger ou répondre à des demandes secondaires de ‘Proof of Life’. »
« Nous avertissons tous nos utilisateurs lors de l'inscription que nous utilisons des solutions avancées basées sur l'IA pour identifier rapidement et prévenir les cas d'utilisation de deepfakes », a-t-il conclu.