Live Chat

Crypto News

Cryptocurrency News 5 days ago
ENTRESRUARPTDEFRZHHIIT

Les escroqueries aux deep fake devraient causer des pertes de 25 milliards de dollars en cryptomonnaies d’ici 2024, prédit Bitget

Algoine News
Summary:
Les systèmes de deep fake devraient causer plus de 25 milliards de dollars de pertes cryptographiques d’ici 2024, selon Bitget Research. Ce chiffre représente une augmentation majeure par rapport aux années précédentes, en raison d’une escalade mondiale de 245 % des deepfakes. Au 1er trimestre 2024, la majorité des deep fakes ont été détectés en Chine, en Allemagne, en Ukraine, aux États-Unis, au Vietnam et au Royaume-Uni. Les fraudeurs utilisent généralement la technologie deep fake dans des attaques de phishing, de faux projets et des systèmes de Ponzi pour gagner la confiance des investisseurs en crypto-monnaies. Bitget prévoit que sans mesures efficaces, les deep fakes pourraient représenter 70 % de tous les crimes liés aux crypto-monnaies d’ici 2026.
Les stratagèmes et les escroqueries dans le secteur de la cryptographie devraient entraîner des pertes supérieures à 25 milliards de dollars d’ici 2024, soit une augmentation significative par rapport à l’année précédente, comme le prévoit une étude de Bitget. Les chiffres d’un rapport publié le 27 juin révèlent une augmentation mondiale de 245 % des deepfakes en 2024, sur la base de données antérieures de Sumsub. Les cas les plus importants de deep fakes au T1 2024 ont été détectés en Chine, en Allemagne, en Ukraine, aux États-Unis, au Vietnam et au Royaume-Uni, l’industrie des crypto-monnaies enregistrant un gain comparatif de 217 % par rapport au T1 2023. Selon Bitget, les deep fakes ont entraîné 6,3 milliards de dollars de pertes en cryptos au cours du premier trimestre et prévoient que les pertes atteindront 10 milliards de dollars par trimestre d’ici 2025. « Un afflux de deepfakes dans le secteur des crypto-monnaies est une épreuve inévitable, et il n’y a pas grand-chose à faire pour les prévenir sans une éducation et une sensibilisation suffisantes », a déclaré Gracy Chen, PDG de Bitget, à Cointelegraph. Il est intéressant de noter que les tactiques utilisées par les fraudeurs deepfake n’ont pas changé de manière significative au fil du temps. La plupart des pertes survenant dans les cryptos en raison des deep fakes proviennent d’attaques de phishing, de faux projets et de systèmes de Ponzi impliquant la technologie deep fake comme canal pour inspirer confiance aux investisseurs en crypto. Depuis plus de deux ans, cette méthode représente plus de la moitié des pertes liées aux deepfakes. « En imitant des personnalités influentes, ces stratagèmes génèrent une illusion de crédibilité et un soutien financier considérable pour les projets, attirant ainsi des investissements importants de victimes sans méfiance qui ne font pas preuve de diligence raisonnable », a rapporté Bitget Research. Les deep fakes trouvent une application étendue dans une foule d’autres escroqueries, notamment la cyber-extorsion, la manipulation du marché et l’usurpation d’identité. Bitget prévoit que d’ici 2026, ces fraudes technologiques pourraient représenter 70 % de tous les crimes liés aux cryptomonnaies si aucune mesure de contrôle efficace n’est mise en place. Ryan Lee, analyste en chef chez Bitget Research, a déclaré à Cointelegraph que les criminels utilisent progressivement de fausses images, vidéos et audios pour créer un impact plus important sur leurs victimes. Une vidéo d’une personne prétendant être une connaissance proche de la victime pourrait être un tournant pour les fraudeurs, tandis qu’une vidéo fabriquée d’un influenceur pourrait renforcer la confiance des investisseurs dans un projet d’escroquerie. Lee souligne que l’une des principales sources d’inquiétude concernant la technologie deep fake est l’imposteur vocal assisté par l’IA, qui permet aux escrocs de simuler des appels de personnes connues de leurs victimes et de demander de l’argent. Une autre menace potentielle pourrait être les deep fakes qui contournent les mesures de connaissance du client (KYC) pour obtenir un accès non autorisé aux fonds d’un individu. Lee prévient qu’à l’heure actuelle, « les exchanges doivent porter une attention particulière à leurs fonctionnalités de « preuve de vie » des systèmes KYC ». Une telle fonctionnalité confirme l’authenticité d’un utilisateur en suivant en temps réel des actions telles que le déplacement ou le clignement des yeux ou par le biais de demandes secondaires de « preuve de vie ». « Nous utilisons des outils d’IA de pointe pour identifier et prévenir rapidement tout cas d’utilisation de deepfake, et nous avertissons tous nos utilisateurs lors de l’enregistrement de cela », a-t-il ajouté.

Published At

6/27/2024 11:00:00 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch