Se ha descubierto que Claude, el producto estrella de Anthropic, estuvo involucrado en la incursión militar estadounidense en Venezuela para capturar a sudent y su esposa, según informes.
A pesar de las políticas antiviolencia de Anthropic, la colaboración de la compañía con Palantir permite el uso de Claude en operaciones militares. Algunos creen que la IA se utilizó para tareas no violentas.
Una serie de nuevos informes ha revelado que el ejército estadounidense utilizó el modelo de inteligencia artificial de Anthropic, Claude, durante la operación de alto riesgo para capturar aldent venezolano Nicolás Maduro.
La misión, conocida como "Operación Resolve", tuvo lugar a principios de enero de 2026 y resultó en la detención de Maduro y su esposa, Cilia Flores, en pleno centro de Caracas. Según The Wall Street Journal y Fox News, Claude se integró a la misión gracias a la colaboración de Anthropic con la firma de análisis de datos Palantir Technologies .
El Departamento de Guerra de Estados Unidos, dirigido por el secretario Pete Hegseth, ha utilizado cada vez más modelos de inteligencia artificial comerciales para modernizar sus operaciones de combate .
Los detalles sobre las tareas específicas que realizó Claude son clasificados, pero se sabe que la IA se utiliza para resumir cantidades masivas de datos de inteligencia, analizar imágenes satelitales y posiblemente proporcionar apoyo para la toma de decisiones en movimientos de tropas complejos.
El asalto ocurrió en la madrugada del 3 de enero de 2026, cuando las Fuerzas de Operaciones Especiales de EE. UU., incluyendo comandos de la Fuerza Delta, lograron penetrar el palacio fortificado de Maduro. Eldent Donald Trump describió posteriormente que Maduro fue "atropellado" antes de que pudiera llegar a una habitación segura reforzada con acero.
Las defensas aéreas venezolanas fueron suprimidas y varias instalaciones militares fueron bombardeadas durante la misión. Maduro fue trasladado a un buque de guerra estadounidense y luego a la ciudad de Nueva York, donde actualmente enfrenta cargos federales de narcoterrorismo e importación de cocaína.
Claude está diseñado con un enfoque constitucional en la seguridad, así que ¿cómo se utilizó en una operación militar letal? Las directrices de uso público de Anthropic prohíben que Claude se utilice con fines violentos, de desarrollo de armas o de vigilancia.
Anthropic ha declarado que supervisa el uso de sus herramientas y garantiza que cumplan con sus políticas. Sin embargo, la colaboración con Palantir permite a las fuerzas armadas utilizar Claude en entornos clasificados.
Fuentes familiarizadas con el asunto sugieren que la IA podría haberse utilizado para tareas de apoyo no letales, como la traducción de comunicaciones o el procesamiento logístico. Sin embargo, el Departamento de Guerra está presionando a las empresas de IA para que eliminen muchas de sus restricciones habituales para uso militar.
Los informes indican que la administración Trump está considerando cancelar untracde 200 millones de dólares con Anthropic debido a que la compañía ha expresado su preocupación por el uso de su inteligencia artificial para drones autónomos o vigilancia. El secretario Pete Hegseth ha declarado que «el futuro de la guerra estadounidense se define como inteligencia artificial» y ha dejado claro que el Pentágono no trabajará con empresas que limiten las capacidades militares.
Obtén un 8% CASH al gastar criptomonedas con la tarjeta Visa COCA. Solicita tu tarjeta GRATIS.