Microsoft solicita a un tribunal estadounidense que bloquee la decisión del Pentágono de clasificar temporalmente a la empresa de inteligencia artificial Anthropic como un riesgo para la cadena de suministro. El gigante tecnológico afirma que dicha medida podría interrumpir el acceso del ejército a sistemas avanzados de IA y poner en riesgo miles de millones de dólares invertidos en empresas privadas.
Microsoft dijo recientemente que invertiría hasta 5 mil millones de dólares en Anthropic, y la compañía afirma que necesita una orden judicial para evitar que los trac y la tecnología que ya utiliza el gobierno sufran daños inmediatos.
Aunque el Departamento de Defensa de Estados Unidos dijo que necesita defender sus sistemas y operaciones, las empresas que desarrollan herramientas de IA advierten que restricciones abruptas podrían socavar las asociaciones y poner en peligro el liderazgo de Estados Unidos en tecnología.
Microsoft ha presentado una moción en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, solicitando una orden de restricción provisional que impida al Pentágono aplicar su prohibición a la tecnología de Anthropic en todostracde defensa existentes.
En dicha presentación, Microsoft afirmó que dicha orden proporcionaría tiempo para implementar una implementación más fluida y evitaría interrupciones en el uso continuo de herramientas de inteligencia artificial por parte de las fuerzas armadas. Sin la orden de restricción, Microsoft advirtió que cualquier empresa que opere en nombre del Pentágono podría verse obligada a realizar una rápida transición de productos y términostracque ahora dependen de los modelos de IA de Anthropic.
Este cambio, según la compañía, podría tener consecuencias para las operaciones del Departamento de Defensa. «Esto podría perturbar a los combatientes estadounidenses en un momento crucial», declaró Microsoft en la presentación. Microsoft presentó la solicitud como amicus curiae, por lo que no está directamente involucrada.
Sin embargo, la decisión del tribunal podría tener un impacto significativo en su negocio y en el sector en general, según la empresa. El coste de su financiación también influye en su participación.
Microsoft planea invertir hasta 5 mil millones de dólares en Anthropic, una de las empresas de inteligencia artificial de más rápido crecimiento en Estados Unidos, en noviembre. Microsoft es un importante inversor en OpenAI , un desarrollador rival.
La controversia estalló la semana pasada cuando el Pentágono excluyó formalmente la tecnología de Anthropic de trac de defensa y designó a la empresa como un riesgo para la cadena de suministro.
Esta etiqueta se ha asociado tradicionalmente con empresas vinculadas a adversarios extranjeros. Dichostracque trabajan con el Departamento de Defensa bajo la orden deben certificar que los modelos de IA de Anthropic no se utilizan en sistemas o servicios vinculados al trabajo del Pentágono.
Anthropic demandó rápidamente al departamento por su decisión, alegando que la designación era inédita dent ilegal, y acusando al gobierno federal. La empresa afirmó que el fallo podría perjudicar significativamente su negocio y poner en riesgo contratos trac valor de cientos de millones.
El debate se centra en los modelos de IA de Anthropic, llamados Claude. La compañía había estado negociando con el Pentágono sobre cómo se utilizaría la tecnología, pero las conversaciones fracasaron. Anthropic quería garantías de que sus sistemas no se utilizarían para desarrollar armas totalmente autónomas ni para la vigilancia masiva a nivel nacional.
A medida que la situación se desarrolla en EE. UU., Anthropic planea abrir una nueva oficina en Sídney en las próximas semanas para expandir su presencia en Australia y Nueva Zelanda. Según el Índice Económico de la compañía, ambos países ocupan el cuarto y octavo lugar a nivel mundial en uso per cápita de Claude.ai. La oficina de Sídney se convertirá en el cuarto centro de Anthropic en la región Asia-Pacífico.
La controversia también ha generado apoyo para Anthropic en toda la comunidad de inteligencia artificial. Más de 30 empleados de OpenAI y Google DeepMind presentaron una declaración apoyando la demanda de Anthropic. Entre los firmantes se encontraba el científico jefe de DeepMind, Jeff Dean.
En la presentación judicial, los investigadores argumentaron que la designación del gobierno era un uso arbitrario del poder que podría dañar a la industria de la IA en general.
Señalaron que si el Pentágono no estaba satisfecho con sutraccon Anthropic, podría simplemente haber rescindido el acuerdo y elegido otro proveedor en lugar de etiquetar a la empresa como una amenaza para la cadena de suministro.
Los empleados también advirtieron que la medida podría socavar la competitividad estadounidense en inteligencia artificial al desalentar la discusión abierta sobre los riesgos y límites de la tecnología.
Poco después de que el Pentágono anunciara la designación, el Departamento de Defensa firmó un acuerdo con OpenAI, un desarrollo por el cual algunos empleados de OpenAI supuestamente protestaron.
Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete !