Un juez federal de San Francisco acaba de decir lo que mucha gente ya pensaba: que el gobierno estadounidense persiguió a Anthropic simplemente por mezquindad, porque la empresa alzó la voz contra las atrocidades cometidas por su supuesto Departamento de Guerra.
El caso llegó esta semana a un tribunal de California, ya que Anthropic está intentando evitar una prohibición total de sus modelos de IA dentro de los sistemas gubernamentales.
La jueza Rita Lin lo expresó claramente en el tribunal: «Parece un intento deripple a Anthropic». Añadió que acciones como esta «por supuesto constituirían una violación de la Primera Enmienda»
Rita también señaló que, tras la declaración pública de Anthropic sobre su disputa con el Pentágono, el gobierno tuvo unatronreacción. En sus palabras, «parece que hubo una reacción bastante contundente». Añadió que la respuesta no parecía estar relacionada con una necesidad real de seguridad nacional. Declaró ante el tribunal que «no parece estar realmente adaptada a una preocupación declarada de seguridad nacional»
Rita afirmó entonces que el gobierno podría haberse extralimitado al intentar castigar a Anthropic . Aún no ha emitido un dictamen definitivo, pero su tono dejó claras sus preocupaciones.
«Todos, incluida Anthropic, coinciden en que el Departamento de Guerra es libre de dejar de usar a Claude y buscar un proveedor de IA más permisivo», dijo Rita. «No creo que ese sea el tema de este caso. La cuestión aquí es muy diferente: si el gobierno violó la ley»
La demanda se presentó a principios de este mes. Anthropic solicita al tribunal que elimine su etiqueta de riesgo para la cadena de suministro. Dicha etiqueta fue la causante de la prohibición y del bloqueo del uso gubernamental de sus modelos. La disputa ahora se libra entre la empresa y la administración Trump. El desacuerdo radica en cómo deben utilizarse las herramientas de IA en el ámbito militar.
Michael Mongan, representante de Anthropic, declaró ante el tribunal que este tipo de acción nunca se había aplicado contra una empresa estadounidense. Afirmó: «Esto es algo que nunca se había hecho con respecto a una empresa estadounidense». Añadió que la autoridad que se está utilizando es limitada y no se ajusta a esta situación.
Antes de todo esto, Anthropic trabajaba en estrecha colaboración con el gobierno. Tenía acuerdos con varias agencias federales.
La compañía firmó untracde 200 millones de dólares con el Pentágono en julio. Además, fue el primer laboratorio de IA en operar sus sistemas dentro de redes clasificadas.
Las cosas cambiaron en septiembre. Se iniciaron conversaciones para integrar a Claude en la plataforma GenAI.mil del Departamento de Defensa. Fue entonces cuando todo se ralentizó. El Pentágono exigía acceso completo a la tecnología para cualquier uso legal. Anthropic no estuvo de acuerdo.
Un abogado del gobierno, Hamilton, habló sobre eso en el tribunal. Dijo que Anthropic no solo se negaba a cumplir los términos deltrac. Dijo:
“La actitud antrópica no se limita a la terquedad ni a la negativa a aceptar los términostrac. Se trata, más bien, de plantear inquietudes al Departamento de Defensa sobre cómo este utiliza su tecnología en misiones militares.”
Al mismo tiempo, Anthropic sigue avanzando con su tecnología. Ahora, Claude puede tomar el control del ordenador del usuario y completar tareas. Una persona puede enviar una solicitud desde su teléfono y el sistema la gestionará. Puede abrir aplicaciones, usar un navegador y rellenar hojas de cálculo.
En una demostración, un usuario llega tarde. Le pide a Claude que exporte una presentación a formato PDF y la adjunte a una invitación a una reunión. Claude realiza la tarea automáticamente.
Esta actualización posiciona a Anthropic en la carrera por desarrollar agentes de IA que funcionen sin intervención constante. Esta carrera cobró impulso tras de OpenClaw este año. OpenClaw conecta modelos de OpenAI y Anthropic. Los usuarios pueden enviar tareas a través de aplicaciones como WhatsApp o Telegram. Se ejecuta en el dispositivo del usuario y puede acceder a archivos locales.
Hay un punto medio entre dejar el dinero en el banco y arriesgarse en criptomonedas. Empieza con este video gratuito sobre finanzas descentralizadas .