A Microsoft busca medidas judiciais para proteger seu investimento de US$ 5 bilhões na Anthropologie
- Ouro sobe com aumento da demanda por refúgio devido à guerra no Irã
- Ouro avança, mas continua em trajetória de queda semanal
- O ouro cai, uma vez que a força do dólar americano impulsionada pela inflação supera os riscos geopolíticos
- Aumento de 700% nos saques de criptomoedas no Irã revela o verdadeiro papel do Bitcoinem tempos de guerra – e não se trata de ouro digital
- O Senado votará a indicação de Trump para o Fed pró-Bitcoin , enquanto o BTC atinge a maior cotação em quatro semanas
- Operadores de petróleo consideram oferta mais restrita nos mercados de energia

A Microsoft está pedindo a um tribunal dos EUA que bloqueie a decisão do Pentágono de classificar temporariamente a empresa de inteligência artificial Anthropic como um risco para sua cadeia de suprimentos. A gigante da tecnologia afirma que tal medida poderia interromper o acesso das forças armadas a sistemas avançados de IA e colocar em risco bilhões de dólares investidos em empresas privadas.
A Microsoft afirmou recentemente que investirá até US$ 5 bilhões na Anthropic, e a empresa alega precisar de uma ordem judicial para evitar que contratos trac tecnologias já em uso pelo governo sofram danos imediatos.
Embora o Departamento de Defesa dos Estados Unidos afirme que precisa defender seus sistemas e operações, empresas que desenvolvem ferramentas de IA alertam que restrições abruptas podem prejudicar parcerias e colocar em risco a liderança americana em tecnologia.
A Microsoft entrou com um pedido no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, buscando uma liminar que impeça o Pentágono de aplicar sua proibição à tecnologia da Anthropic em todos ostracde defesa existentes.
Nesse documento, a Microsoft afirmou que tal ordem daria tempo para implementar uma implantação mais tranquila e evitar interrupções no uso contínuo de ferramentas de inteligência artificial pelas forças armadas. Sem a liminar, a Microsoft alertou que qualquer empresa que opere em nome do Pentágono poderia ser forçada a fazer uma transição rápida de produtos e termostracque atualmente dependem dos modelos de IA da Anthropic.
Essa mudança, segundo a empresa, pode ter ramificações para as operações do Departamento de Defesa. "Isso pode potencialmente prejudicar os militares americanos em um momento crucial", afirmou a Microsoft no documento. A Microsoft apresentou o pedido como um parecer de amicus curiae, portanto, não está diretamente envolvida.
No entanto, segundo a empresa, a decisão do tribunal teria um potencial "impacto material" nos seus negócios e no setor como um todo. O custo do financiamento também influencia a participação da empresa.
Em novembro, a Microsoft planeja investir até US$ 5 bilhões na Anthropic, uma das empresas de inteligência artificial de crescimento mais rápido dos Estados Unidos. A Microsoft já é uma grande investidora na OpenAI , uma desenvolvedora concorrente.
O Pentágono classifica a Anthropic como um risco para a cadeia de suprimentos
A controvérsia eclodiu na semana passada, quando o Pentágono proibiu formalmente a tecnologia da Anthropic de participar trac de defesa e classificou a empresa como um risco para a cadeia de suprimentos.
Tradicionalmente, esse rótulo tem sido associado a empresas ligadas a adversários estrangeiros. Taistracque trabalham com o Departamento de Defesa sob essa ordem devem certificar que os modelos de IA da Anthropic não são usados em sistemas ou serviços vinculados ao trabalho do Pentágono.
A Anthropic processou imediatamente o departamento por sua decisão, alegando que a designação era sem precedentes dent ilegal, e acusando o governo federal de crimes. A empresa afirmou que a decisão poderia prejudicar significativamente seus negócios e ameaçar contratos trac valor de centenas de milhões.
O debate gira em torno dos modelos de IA da Anthropic, chamados Claude. A empresa vinha negociando com o Pentágono sobre como a tecnologia seria usada, mas as negociações fracassaram. A Anthropic queria garantias de que seus sistemas não seriam usados para desenvolver armas totalmente autônomas ou para vigilância doméstica em massa.
À medida que a situação se desenrola nos EUA, a Anthropic planeja abrir um novo escritório em Sydney nas próximas semanas, expandindo sua presença na Austrália e Nova Zelândia. De acordo com o Índice Econômico da empresa, os dois países ocupam o quarto e o oitavo lugar globalmente em uso per capita do Claude.ai. O escritório de Sydney se tornará o quarto centro da Anthropic na região da Ásia-Pacífico.
Trabalhadores da área de tecnologia e pesquisadores de IA apoiam a Anthropic
A controvérsia também atraiu apoio para a Anthropic de toda a comunidade de inteligência artificial. Mais de 30 funcionários da OpenAI e do Google DeepMind divulgaram uma declaração apoiando o processo da Anthropic. Entre os signatários estava o cientista-chefe do DeepMind, Jeff Dean.
Na petição judicial, os pesquisadores argumentaram que a designação feita pelo governo foi um uso arbitrário do poder que poderia prejudicar o setor de IA em geral.
Eles observaram que, se o Pentágono estivesse insatisfeito com seutraccom a Anthropic, poderia simplesmente ter rescindido o contrato e escolhido outro fornecedor, em vez de rotular a empresa como uma ameaça à cadeia de suprimentos.
Os funcionários também alertaram que a medida poderia prejudicar a competitividade dos EUA em inteligência artificial, ao desencorajar a discussão aberta sobre os riscos e limitações da tecnologia.
Pouco depois do Pentágono anunciar a designação, o Departamento de Defesa assinou um acordo com a OpenAI, um desenvolvimento que, segundo relatos, gerou protestos de alguns funcionários da OpenAI.
Leia mais
Isenção de responsabilidade: este artigo representa apenas a opinião do autor e não pode ser usado como consultoria de investimento. O conteúdo do artigo é apenas para referência. Os leitores não devem tomar este artigo como base para investimento. Antes de tomar qualquer decisão de investimento, procure orientação profissional independente para garantir que você entenda os riscos.
Os Contratos por Diferença (CFDs) são produtos alavancados que podem resultar na perda de todo o seu capital. Esses produtos não são adequados para todos os clientes; por favor, invista com rigor. Consulte este arquivo para obter mais informações.



