Anthropic afirma que tres empresas chinas de inteligencia artificial crearon más de 24.000 cuentas falsas para extraer datos de su sistema Claude. La compañía afirma que el objetivo era optimizar rápidamente sus propios modelos.
Las empresas mencionadas fueron DeepSeek , Moonshot AI y MiniMax. Anthropic afirmó que estas cuentas enviaron más de 16 millones de indicaciones a Claude para recopilar respuestas y patrones que pudieran reutilizarse para el entrenamiento.
Anthropic compartió los detalles en una entrada de blog el lunes. La compañía explicó que la actividad era una forma de destilación. Este proceso utiliza los resultados de un modelo para entrenar a otro. Dario Amodei dirige Anthropic.
Anthropic supuestamente afirmó que DeepSeek ejecutó alrededor de 150.000 interacciones con Claude. Moonshot AI registró más de 3,4 millones de indicaciones. MiniMax superó los 13 millones de indicaciones. Anthropic afirmó que la escala muestra una clara intención detracvalor rápidamente.
A principios de este mes, OpenAI envió un memorando a los legisladores de la Cámara de Representantes acusando a DeepSeek de usar la misma táctica de destilación para copiar sus sistemas. Sam Altman dirige OpenAI . Tras nombrar a OpenAI por primera vez, la compañía informó a los legisladores que DeepSeek intentó imitar sus productos mediante grandes volúmenes de solicitudes.
Anthropic afirmó que la destilación en sí misma tiene usos válidos. Las empresas la utilizan para construir versiones más pequeñas de sus propios modelos. Anthropic también afirmó que el mismo método puede crear sistemas rivales en mucho menos tiempo y a un costo mucho menor.
Los datos sintéticos ahora desempeñan un papel fundamental en el entrenamiento de grandes modelos de cimentación. Los desarrolladores los utilizan porque los datos reales de alta calidad son limitados. Muchos laboratorios también están desarrollando sistemas de agentes que pueden actuar por los usuarios. En un informe técnico de julio, Moonshot afirmó haber utilizado datos sintéticos para entrenar su modelo Kimi K2.
Anthropic afirmó que la actividad plantea problemas de seguridad nacional. La compañía afirmó que los laboratorios extranjeros que destilan modelos estadounidenses pueden incorporar esas capacidades a sistemas militares, de inteligencia y de vigilancia.
Anthropic también lanzó una nueva herramienta para Claude el viernes en una vista previa de investigación limitada. La herramienta escanea el código del software en busca de vulnerabilidades y sugiere soluciones. Anthropic planea realizar una sesión informativa empresarial el martes con más anuncios de productos.
Los mercados reaccionaron con rapidez. Las acciones de ciberseguridad cayeron por segundo día consecutivo el lunes, ante la preocupación de los inversores de que las nuevas herramientas de IA pudieran sustituir a los antiguos servicios de seguridad.
CrowdStrike cayó aproximadamente un 9 %. Zscaler también cayó un 9 %. Netskope cayó casi un 10 %. SailPoint bajó un 6 %. Okta, SentinelOne y Fortinet perdieron más del 4 % cada una. Palo Alto Networks bajó un 2 %.
Cloudflare cayó un 7 % tras las recientes ganancias relacionadas con el interés en Moltbot. El ETF iShares Cybersecurity and Tech cayó casi un 4 %. El ETF Global X Cybersecurity alcanzó su nivel más bajo desde noviembre de 2023.
La presión se extiende más allá de las acciones de valores. Las herramientas de IA que crean aplicaciones y sitios web a partir de instrucciones sencillas han sacudido a las empresas de software este año.
Salesforce ha perdido aproximadamente un tercio de su valor. ServiceNow ha caído más del 34 %. Microsoft ha caído aproximadamente un 20 %.
Bank of America afirmó que la herramienta Anthropic amenaza principalmente a plataformas de escaneo de código como GitLab y JFrog. GitLab cayó un 8 % el viernes. JFrog cayó un 25 % el mismo día.
Reclama tu asiento gratuito en una comunidad exclusiva de comercio de criptomonedas , limitada a 1000 miembros.