Anthropic ha lanzado una vista previa de investigación limitada de Claude Code Security, una nueva herramienta que escanea el software en busca de vulnerabilidades y recomienda soluciones, lo que marca un paso significativo en el uso de inteligencia artificial para la ciberdefensa y envía ondas de choque a través de la industria de la ciberseguridad.
La herramienta, integrada en la plataforma Claude Code de Anthropic, ya está disponible para clientes Enterprise y Teams, con acceso acelerado gratuito para los encargados del mantenimiento de proyectos de código abierto. Esto se produce cuando la empresa de inteligencia artificial con sede en San Francisco afirma que espera que la IA escanee una parte significativa del código mundial en un futuro próximo.
Las herramientas de seguridad existentes sólo funcionan con patrones de problemas comunes, como contraseñas expuestas o cifrado desactualizado.
Claude Code Security va más allá de la coincidencia de patrones. Funciona a través de una base de código completa, como lo haría un investigador humano, siguiendo la ruta que siguen los datos en un sistema y detectando problemas que los escáneres estándar pasan por alto.
Los resultados pasan por varias rondas de verificación antes de que un desarrollador los vea, lo que reduce los callejones sin salida. Cada problema también se clasifica según su gravedad, para que los equipos sepan por dónde empezar.
Funciona con Claude Opus 4.6, el modelo más reciente de Anthropic , que el equipo Frontier Red de la compañía ha estado probando a fondo. Estas pruebas revelaron más de 500 vulnerabilidades presentes en bases de código abierto activas ; algunas de ellas llevaban décadas sin que nadie las detectara, incluso tras años de análisis por parte de expertos.
Anthropic afirma que está notificando a los responsables de dichos proyectos. La compañía también ha estado ejecutando Claude en su propio código interno y afirma que los resultados han sidotron.
La noticia sacudió a los inversores en ciberseguridad. Las acciones de CrowdStrike cayeron un 6,8 % el viernes y las de Okta un 9,2 %, mientras los mercados comenzaban a cuestionar si las herramientas de IA podrían mermar el negocio de las empresas de seguridad consolidadas.
Cloudflare perdió un 6,7%, SailPoint un 9,1% y Palo Alto Networks un 1,5%. Zscaler bajó un 5,47%. El ETF Global X Cybersecurity, que sigue a empresas de seguridad de todo el mundo, cerró la jornada con pérdidas cercanas al 5%.
No todos consideraron la reacción como justificada. Los analistas de Barclays la calificaron de "incongruente", afirmando que una herramienta diseñada para la seguridad del código no está a la altura de lo que hacen empresas como CrowdStrike o Palo Alto Networks.
Pero la brecha entre lo que asustó a los mercados y lo que los analistas descartan coincide incómodamente con un hecho duro: la IA de Anthropic descubrió más de 500 vulnerabilidades en bases de código activas que habían estado allí durante años, en algunos casos décadas, sin que ningún experto humano las detectara.
Cualquiera que sean los límites competitivos que establezcan los analistas, la herramienta hizo algo que la industria de la seguridad no había logrado hacer por sí sola.
El momento del lanzamiento conlleva su propia ironía incómoda. Claude Opus 4.6, el mismo modelo que ahora se posiciona como un defensor de la seguridad, fue culpado apenas unos días antes de una pérdida de $1.78 millones en el DeFi Moonwell.
El listón para causar daños graves con código escrito por IA ha bajado tanto que ya no requiere un atacante. Los expertos en seguridad llevan meses advirtiendo sobre este cambio.
Anthropic reconoció la misma tendencia en su propio comunicado, advirtiendo que “los grupos con menos experiencia y recursos ahora pueden potencialmente realizar ataques a gran escala de esta naturaleza”
“Los atacantes usarán IA para encontrar vulnerabilidades explotables más rápido que nunca”, afirmó . “Pero los defensores que actúen con rapidez pueden encontrar esas mismas vulnerabilidades, corregirlas y reducir el riesgo de un ataque”.
Su investigación interna, publicada en diciembre de 2025, fue más allá y demostró que una versión anterior del modelo, Claude Opus 4.5, podía identificar dent explotar de forma independiente vulnerabilidades de contratos inteligentes dent un trac de hasta 4,6 millones de dólares en un entorno controlado, con una mínima participación humana.
La empresa era consciente de que sus modelos podían ser contraproducentes. Claude Code Security es su respuesta a ese problema. Adoptar la misma capacidad y ponerla a disposición de los defensores antes de que los atacantes lleguen primero.
El rival de Anthropic, OpenAI, presentó su propia herramienta de seguridad automatizada, llamada Aardvark, en octubre del año pasado, lo que indica que la seguridad impulsada por IA se está convirtiendo en un campo de batalla competitivo.
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.