El uso de agentes de IA se ha vuelto cada vez más popular entre los operadores. Sin embargo, SlowMist ha compartido hallazgos sobre posibles vectores de ataque, advirtiendo a los usuarios que actúen con precaución para protegerse de los ciberdelincuentes.
Se advierte a los operadores que limiten los permisos otorgados a sus agentes de IA, ya que estos pueden ser vulnerados con mucha facilidad. Con un acceso limitado, incluso en caso de un ataque informático, el daño se minimizará.
Normalmente, un hacker tendría que engañar al usuario para que hiciera clic en un enlace y así extorsionarlo. Pero ahora, solo necesitan engañar al agente de IA que se esté utilizando.
Cryptopolitan informó recientemente que un Solana regaló tokens Lobstar por valor de 441 000 dólares tras ser engañado en las redes sociales. Sin embargo, no está claro si el incidente dent orquestado para llamar la atención sobre la criptomoneda meme.
Polymarket confirmó recientemente una brecha de seguridad que involucró a Magic Labs, un proveedor de autenticación externo, y que provocó el vaciado de múltiples cuentas de usuario a pesar de tener la autenticación de dos factores activada. Se estima que las pérdidas totales superan los 500 000 dólares.
El dent ocurrió en diciembre de 2025, y 23pds, el CISO de SlowMist, detectó en GitHub un bot malicioso de copy trading que contenía código diseñado para comprometer las cuentas de Polymarket.
Más recientemente, SlowMist publicó un informe en el que afirma que la nueva arma más peligrosa es la Inyección Indirecta de Mensajes .
Esto resulta especialmente eficaz en el ecosistema de Skills, como el Agent Hub de Bitget o el OpenClaw de código abierto.
Los investigadores de SlowMist monitorizaron ClawHub y descubrieron que casi el 10 % de los complementos disponibles contenían malware de dos fases . La primera fase parece legítima, pero una vez instalada, descarga el malware que extrae información del equipo local, cookies del navegador y claves SSH.
En caso de que los agentes de IA estén funcionando las 24 horas del día, los 7 días de la semana, estos robos pueden pasar desapercibidos durante semanas.
Informes recientes de Oasis Security de 2026dentuna vulnerabilidad de alta gravedad llamada ClawJacked (CVSS 8.0+). Esta falla permite que sitios web maliciosos secuestren el agente de IA que se ejecuta localmente en el usuario mediante una simple visita al navegador.
El informe del equipo de seguridad de Bitget sugiere un sistema de seguridad de cinco capas centrado en el principio de "privilegio mínimo". Si su agente de IA solo debe analizar gráficos, no debería tener permiso para ejecutar operaciones. Si realiza operaciones, nunca debería tener permiso para retirar fondos.
En primer lugar, las claves de acceso (FIDO2/WebAuthn) deben ser el método de inicio de sesión principal. Las claves de acceso utilizan cifrado de clave pública-privada, lo que imposibilita los ataques de phishing.
Aunque un atacante consiga llevar a un usuario a una página de inicio de sesión falsa, la seguridad basada en hardware no revelará lasdent, manteniendo así su cuenta a salvo del acceso no autorizado.
En segundo lugar, en lugar de usar una clave API de cuenta principal, los operadores deberían crear subcuentas específicas para sus agentes de IA y transferir solo los fondos necesarios a estas subcuentas. De esta manera, incluso si se produce una fuga de datos, los usuarios pueden limitar eficazmente el impacto.
La inclusión en la lista blanca de direcciones IP ya es un paso obligatorio en cualquier configuración automatizada que garantice que el sistema de intercambio solo acepte comandos provenientes de una dirección de servidor específica y aprobada.
Los usuarios de agentes de IA deben implementar el archivo .agentignorefiles para evitar que lean o registren archivos locales confidenciales durante sus tareas diarias.
El informe también subraya la importancia de contar con supervisión humana en operaciones de alto valor.
Incluso sin recurrir a trucos, dejar que una IA funcione de forma totalmente automatizada supone un riesgo financiero.
El experimento de Nov1.ai a finales de 2025 demostró que GPT-5 sufrió de "parálisis por análisis" y perdió más del 60% de su capital en dos semanas, mientras que Gemini se convirtió en un "operador excesivo" y acumuló comisiones masivas que anularon sus ganancias.
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.