Las estafas de deep fake causarán pérdidas de USD 25 mil millones en criptomonedas para 2024, predice Bitget
Summary:
Se prevé que los esquemas de deep fake causen más de USD 25 mil millones en pérdidas de criptomonedas para 2024, según Bitget Research. Esta cifra representa un aumento importante con respecto a años anteriores impulsado por una escalada global del 245% en los deep fakes. En el primer trimestre de 2024, la mayoría de los deep fakes se detectaron en China, Alemania, Ucrania, Estados Unidos, Vietnam y el Reino Unido. Los estafadores suelen utilizar la tecnología deep fake en ataques de phishing, proyectos falsos y esquemas Ponzi para ganarse la confianza de los criptoinversores. Bitget prevé que, sin medidas efectivas, los deep fakes podrían representar el 70% de todos los delitos relacionados con las criptomonedas para 2026.
Se espera que los esquemas de deep fake y las estafas en el sector de las criptomonedas causen pérdidas superiores a los USD 25 mil millones para 2024, un aumento significativo en comparación con el año anterior, según lo predicho por una investigación de Bitget. Las cifras de un informe publicado el 27 de junio revelan un aumento global del 245% en los deep fakes en 2024, según datos anteriores de Sumsub. Los casos más significativos de deep fakes en el primer trimestre de 2024 se detectaron en China, Alemania, Ucrania, Estados Unidos, Vietnam y el Reino Unido, y la industria de las criptomonedas registró una ganancia comparativa del 217% con respecto al primer trimestre de 2023. Según Bitget, los deep fakes han provocado pérdidas de USD 6.3 mil millones en criptomonedas durante el primer trimestre y proyectan que las pérdidas aumentarán a USD 10 mil millones por trimestre para 2025.
"La afluencia de deepfakes en el negocio de las criptomonedas es una prueba inevitable, y es poco lo que se puede hacer para prevenirlos sin suficiente educación y concienciación", declaró el CEO de Bitget, Gracy Chen, a Cointelegraph. Curiosamente, las tácticas utilizadas por los estafadores de deepfake no han cambiado significativamente con el tiempo. La mayoría de las pérdidas que se producen en las criptomonedas debido a los deep fakes se deben a ataques de phishing, proyectos falsos y esquemas Ponzi que involucran tecnología deep fake como conducto para infundir confianza entre los criptoinversores. Durante más de dos años, este método ha representado más de la mitad de todas las pérdidas relacionadas con los deepfakes.
"A través de la imitación de personalidades influyentes, estos esquemas generan una ilusión de credibilidad y un considerable respaldo financiero del proyecto, lo que atrae grandes inversiones de víctimas desprevenidas que no realizan la debida diligencia", informó Bitget Research. Los deep fakes encuentran una amplia aplicación en una serie de otras estafas, como la extorsión cibernética, la manipulación del mercado y el fraude de identidad. Bitget proyectó que para 2026, estos fraudes tecnológicos podrían representar el 70% de todos los delitos relacionados con las criptomonedas si no se implementan medidas de control efectivas.
Ryan Lee, analista jefe de Bitget Research, dijo a Cointelegraph que los delincuentes están utilizando progresivamente imágenes, vídeos y audios falsos para crear un mayor impacto en sus víctimas. Un video de una persona que se hace pasar por un conocido cercano de la víctima podría ser un punto de inflexión para los estafadores, mientras que un video fabricado de un influencer podría aumentar la confianza de los inversores en un proyecto de estafa.
Lee señala que una de las principales causas de preocupación por la tecnología deep fake son los impostores de voz respaldados por IA, que permiten a los estafadores simular llamadas de personas conocidas por sus víctimas y solicitar dinero. Otra amenaza potencial podrían ser los deep fakes que eluden las medidas de Conozca a su cliente (KYC) para obtener acceso no autorizado a los fondos de una persona.
Lee advierte que, en la actualidad, "los exchanges deben prestar mucha atención a sus características de 'Prueba de vida' de los sistemas KYC". Dicha función confirma la autenticidad de un usuario mediante el seguimiento en tiempo real, de acciones como moverse o parpadear o a través de solicitudes secundarias de 'Prueba de vida'. "Utilizamos herramientas de IA de vanguardia para identificar y prevenir rápidamente cualquier caso de uso de deepfakes, y advertimos a todos nuestros usuarios al registrarlo", agregó.
Published At
6/27/2024 11:00:00 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.