A Anthropic afirma que três empresas chinesas de IA criaram mais de 24.000 contas falsas para extrair dados de seu sistema Claude. A empresa diz que o objetivo era aprimorar seus próprios modelos rapidamente.
As empresas mencionadas foram DeepSeek , Moonshot AI e MiniMax. A Anthropic afirmou que essas contas enviaram mais de 16 milhões de solicitações para Claude, a fim de coletar respostas e padrões que pudessem ser reutilizados para treinamento.
A Anthropic compartilhou os detalhes em uma postagem no blog na segunda-feira. A empresa afirmou que a atividade era uma forma de destilação. Esse processo utiliza os resultados de um modelo para treinar outro. Dario Amodei lidera a Anthropic.
A Anthropic alegou que a DeepSeek realizou cerca de 150.000 interações com Claude. A Moonshot AI registrou mais de 3,4 milhões de solicitações. A MiniMax alcançou mais de 13 milhões de solicitações. A Anthropic afirmou que a escala demonstra uma clara intenção detracvalor rapidamente.
No início deste mês, a OpenAI enviou um memorando a parlamentares da Câmara dos Representantes acusando a DeepSeek de usar a mesma tática de destilação para copiar seus sistemas. Sam Altman dirige a OpenAI . Após mencionar a OpenAI inicialmente, a empresa informou aos parlamentares que a DeepSeek tentou imitar seus produtos por meio de grandes volumes de solicitações.
Anthropic afirmou que a destilação em si tem aplicações válidas. As empresas a utilizam para construir versões menores de seus próprios modelos. Anthropic também disse que o mesmo método pode criar sistemas concorrentes em uma fração do tempo e a um custo muito menor.
Os dados sintéticos desempenham agora um papel importante no treinamento de grandes modelos fundamentais. Os desenvolvedores os utilizam porque os dados reais de alta qualidade são limitados. Muitos laboratórios também estão construindo sistemas com agentes que podem realizar ações em nome dos usuários. Em um relatório técnico de julho, a Moonshot afirmou ter utilizado dados sintéticos para treinar seu modelo Kimi K2.
A Anthropic afirmou que a atividade levanta preocupações de segurança nacional. A empresa declarou que laboratórios estrangeiros que reproduzem modelos americanos podem inserir essas capacidades em sistemas militares, de inteligência e de vigilância.
A Anthropic também lançou na sexta-feira uma nova ferramenta para o Claude, em uma prévia limitada para pesquisa. A ferramenta analisa o código do software em busca de vulnerabilidades e sugere correções. A Anthropic planeja realizar uma apresentação para empresas na terça-feira, com mais anúncios de produtos.
Os mercados reagiram rapidamente. As ações de empresas de cibersegurança caíram pelo segundo dia consecutivo na segunda-feira, com os investidores preocupados com a possibilidade de novas ferramentas de IA substituírem os serviços de segurança mais antigos.
As ações da CrowdStrike caíram cerca de 9%. As da Zscaler também recuaram cerca de 9%. As da Netskope caíram quase 10%. As da SailPoint recuaram 6%. As da Okta, SentinelOne e Fortinet perderam mais de 4% cada. As da Palo Alto Networks caíram 2%.
As ações da Cloudflare caíram 7% após ganhos recentes ligados ao interesse na Moltbot. O ETF iShares Cybersecurity and Tech caiu quase 4%. O ETF Global X Cybersecurity atingiu seu nível mais baixo desde novembro de 2023.
A pressão vai além das ações de empresas de segurança. Ferramentas de IA que criam aplicativos e sites a partir de comandos simples abalaram as empresas de software este ano.
A Salesforce perdeu cerca de um terço do seu valor. A ServiceNow caiu mais de 34%. A Microsoft teve uma queda de aproximadamente 20%.
O Bank of America afirmou que a ferramenta Anthropic representa uma ameaça principalmente para plataformas de análise de código como GitLab e JFrog. As ações do GitLab caíram 8% na sexta-feira, enquanto as do JFrog despencaram 25% no mesmo dia.
Garanta sua vaga gratuita em uma comunidade exclusiva de negociação de criptomoedas - limitada a 1.000 membros.