La actividad de fraude de criptomonedas con inteligencia artificial aumentó un 500% durante el último año, según un informe reciente de TRM Labs.
El informe añadió que la inteligencia artificial aumenta considerablemente la escala y la velocidad de los ataques a criptomonedas. Esto indica el rápido uso de la IA generativa en fraudes como el phishing, el robo dedenty el blanqueo de capitales.
Antes del lanzamiento de los modelos de IA, las grandes estafas de criptomonedas dependían de la mano de obra humana, como centros de llamadas y operadores capacitados. Pero ahora, la IA ha eliminado muchas de estas limitaciones.
El informe explicó que la IA ayuda a los hackers a automatizar, personalizar y expandir los delitos relacionados con criptomonedas. Añadió que los actores de amenazas utilizan la IA generativa para redactar y diseñar rápidamente correos electrónicos de phishing y sitios web falsos de inversión, e incluso para crear chatbots realistas.
Los modelos lingüísticos extensos (LLM) ayudan a los estafadores a crear mensajes personalizados con mayor probabilidad de interacción. Además, las herramientas de traducción con IA ayudan a los estafadores a localizar las estafas en diferentes idiomas y regiones.
El informe añadió que el audio y el video deepfake aceleran la suplantación de identidad. Los delincuentes utilizan esta tecnología para imitar a ejecutivos, parejas o figuras públicas con un realismo cada vez mayor
La IA ayuda a los estafadores a generar confianza con sus víctimas. Crea historias convincentes y gestiona cientos de conversaciones de las víctimas simultáneamente. La IA, en esencia, aceleró y simplificó las estafas .
TRM también explicó que las herramientas de aprendizaje automático pueden probar nombres de usuario y contraseñas robadas de forma masiva. Pueden analizar frases semilla y claves privadas y robar fondos en segundos. Además, el aprendizaje automático puededentvulnerabilidades entracinteligentes y ayudar a los hackers a atacar rápidamente protocolos completos de blockchain.
“La inteligencia artificial no sólo aumenta el volumen del alcance; acelera todo el ciclo de vida del fraude”, afirma el informe.
El mes pasado, una ballena cripto perdió 1459 BTC y 2,05 millones de LTC tras ser víctima de una estafa de ingeniería social. Los estafadores engañaron a la víctima para que aprobara transacciones fraudulentas, accedieron a su billetera física y saquearon la friolera de 282 millones de dólares.
En 2024, un empleado de una empresa de ingeniería británica fue víctima de una estafa deepfake y transfirió alrededor de 26 millones de dólares a cuentas bancarias de Hong Kong.
Hace dos días, agentes federales estadounidenses en Carolina del Norte incautaron más de 61 millones de dólares en USDT de Tether. Los investigadores descubrieron que el dinero incautado provenía de billeteras de criptomonedas vinculadas al lavado de fondos robados de esquemas de matanza de cerdos.
El año pasado, las transacciones ilícitas de criptomonedas alcanzaron un volumen récord de 158 000 millones de dólares. Esto representa un aumento de aproximadamente el 145 % con respecto al año anterior. Alrededor de 30 000 millones de dólares de las pérdidas totales se debieron a estafas, según TRM Labs.
El aumento del fraude criptográfico con IA no es sorprendente. Vectra AI afirmó que las estafas con IA aumentaron un 1210 %. La empresa espera alcanzar los 40 000 millones de dólares para el próximo año.
Chainalysis se hizo eco del hallazgo de TRM Labs en una publicación reciente en X. La firma de análisis de blockchain declaró : "Las estafas habilitadas con IA generaron 4,5 veces más ingresos por operación y generaron 9 veces más transacciones diarias que las estafas sin IA".
La firma reiteró que combatir las estafas de criptomonedas impulsadas por IA requiere que los defensores adopten herramientas similares, afirmando que "si los actores maliciosos están usando IA, los defensores también deberían hacerlo"
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .