Una escuela fue bombardeada en la ciudad de Minab, al sur de Irán, el primer día de los ataques estadounidenses e israelíes contra el país. Más de 175 personas murieron, entre ellas escolares. Ni Washington ni Tel Aviv han confirmado lo sucedido. Nadie se ha atribuido la responsabilidad. Una pregunta se repite constantemente: ¿Acaso un sistema de inteligencia artificial atacó objetivo equivocado ?
En las primeras 24 horas, las fuerzas estadounidenses atacaron alrededor de 1000 objetivos, aproximadamente 42 por hora. Un informe de CSET sobre el 18.º Cuerpo Aerotransportado reveló que, con Maven , 20 personas podían realizar tareas que antes requerían un equipo de 2000 personas en el Centro de Operaciones Aéreas Combinadas en Irak. A finales de 2024, Estados Unidos había integrado un modelo de lenguaje avanzado, el mismo tipo de software que se utiliza en los chatbots de IA para consumidores, en Maven . Esta fue una de las primeras guerras en utilizar dicha tecnología para la selección de objetivos.
El ejército estadounidense afirma que sigue investigando el ataque a Minab. No ha especificado qué papel, si es que tuvo alguno, desempeñó en el lanzamiento del misil contra ese edificio.
El New York Times informó desde el principio que el sistema podría haber estado funcionando con datos antiguos dent Louisa Loveluck escribió en X que el ataque podría haberse basado en información de hace una década y que cualquiera que consultara imágenes satelitales recientes en línea habría visto una escuela con un campo deportivo en uno de los sitios marcados para el ataque.
El científico informático Anh Totti Nguyen ha investigado dónde fallan los sistemas de visión artificial. En su artículo, titulado "Los modelos de lenguaje visual son ciegos: No logran traducir características visuales detalladas en palabras", descubrió que estos sistemas suelen fallar cuando dos estructuras se encuentran muy cerca y el software tiene que determinar cuál es cuál.
Imágenes satelitales del New York Times muestran la escuela primaria Shajarah Tayyebeh ubicada justo al lado de un complejo de la Guardia Revolucionaria Islámica en Minab, la misma situación que la investigación de Nguyen había señalado .
Emilia Probasco, exoficial de la Armada e investigadora principal del Centro para la Seguridad y las Tecnologías Emergentes, afirmó en el podcast que la responsabilidad recae en el comandante que dio la orden. Así funcionan las fuerzas armadas . Añadió que el problema de la caja negra, es decir, no poder ver cómo un sistema de IA llegó a su respuesta, es «un área de investigación en curso, no un problema resuelto».
Antes de la guerra, Anthropic, la empresa cuya tecnología se encuentra dentro de Maven, tuvo una trac contractual con el Departamento de Defensa sobre dos cuestiones: decisiones de vida o muerte y si el uso de la IA para conectar puntos de datos dispersos la convierte en una herramienta de vigilancia masiva.
Probasco afirmó que ambas preocupaciones son válidas, pero señaló "lo incómodo que resulta que una empresa privada establezca límites sobre cómo un ejército lleva a cabo sus operaciones ".
Holland Michel afirmó que la conversación se desvía constantemente hacia el peor escenario posible : una máquina que selecciona objetivos y dispara sin intervención humana . Ese riesgo es real, dijo, pero no es lo que está sucediendo ahora .
“El más difícil e inmediato ”, dijo, “consiste en hacer que los sistemas de IA sean más transparentes y garantizar que los humanos que dependen de sus resultados tomen decisiones realmente informadas, en lugar de simplemente acatar lo que la máquina sugiera”.
BBC Verify trac con inteligencia artificial e imágenes satelitales manipuladas sobre el conflicto que acumularon cientos de millones de visualizaciones.
Timothy Graham, investigador de medios digitales en la Universidad Tecnológica de Queensland, afirmó: «La magnitud es realmente alarmante y esta guerra ha hecho que sea imposible ignorarla . Añadió: «Lo que antes requería producción de vídeo profesional ahora se puede hacer en minutos con herramientas de IA. La barrera para crear imágenes sintéticas de conflictos convincentes prácticamente ha desaparecido ».
X anunció que excluiría a los creadores de su programa de pagos si publicaban vídeos de guerra generados por IA sin etiquetar. Mahsa Alimardani, investigadora del Instituto de Internet de Oxford especializada en Irán, lo calificó como «una señal importante de que se han dado cuenta de que esto es un gran problema ». Meta y TikTok no respondieron cuando se les preguntó si planeaban hacer lo mismo .
Tu banco está usando tu dinero. Tú te quedas con las migajas. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.