Chris Boyd quedó atrapado en su casa en Carolina del Norte después de una tormenta de nieve cuando decidió probar una herramienta de inteligencia artificial llamada OpenClaw. Pensó que podría ayudarle a organizar sus mañanas. La configuró para que enviara un resumen de noticias a su bandeja de entrada a las 5:30 a. m. todos los días. Funcionó. Luego lo incorporó a iMessage.
Justo después de eso, todo se vino abajo. OpenClaw empezó a enviar mensajes como un loco. Envió más de 500 mensajes a él, a su esposa e incluso a contactos desconocidos. Boyd no se rió.
Lo apagó, cambió el código y dijo: «No tenía fallos. Era peligroso»
Boyd calificó el software de "incompleto" y dijo que parecía improvisado sin pensarlo mucho. Él mismo parcheó el código para evitar que causara más daños. No fue el único que alertó sobre esta herramienta.
El agente de IA, antes llamado Clawdbot y posteriormente Moltbot, empezó a ganar adeptos en noviembre. Podía realizar tareas sencillas como limpiar bandejas de entrada, reservar cenas y facturar vuelos. No requería mucha intervención humana. Simplemente funcionaba. Eso era lo que lo hacía interesante. Y también lo que lo hacía peligroso.
Kasimir Schulz trabaja en una empresa llamada HiddenLayer, especializada en seguridad de IA. Kasimir afirmó que OpenClaw es un ejemplo perfecto de lo que él llama la "trilogía letal"
Tiene acceso a datos privados, puede comunicarse con el mundo exterior y leer contenido desconocido. Esa es la receta perfecta para un desastre, y OpenClaw lo tiene todo.
Yue Xiao, profesor de informática en William & Mary, explicó que se pueden robar los datos de alguien a través de OpenClaw engañándolo con lo que se conoce como inyección de avisos. Esto ocurre cuando un hacker oculta comandos dentro de lo que parece un mensaje normal. Yue añadió que este tipo de tecnología abre la puerta a nuevos tipos de ataques para los que la mayoría de la gente no está preparada.
Peter Steinberger, creador de OpenClaw, afirmó que el proyecto no está terminado. En un correo electrónico a Bloomberg, declaró: «Simplemente aún no está terminado, pero estamos en camino»
Peter dijo que, al ser de código abierto, cualquiera puede ver el código y trabajar en él. Añadió que se están logrando avances, pero que aún no está listo para el usuario habitual.
Peter no creía que el lanzamiento fuera demasiado pronto. Dijo que lo desarrolla todo abiertamente y no cree en esperar hasta que esté perfecto. También comentó que muchos de los problemas se deben a que los usuarios no leen las instrucciones de configuración.
Peter dejó claro que no existe una seguridad del 100 % al usar modelos de lenguaje extensos. Añadió que OpenClaw está pensado para quienes saben lo que hacen y comprenden los riesgos.
También afirmó que la inyección rápida no es solo un problema de su herramienta. Lo calificó como un problema generalizado en el mundo de la IA. Peter comentó que contrató a un experto en seguridad para que le ayudara a solucionar el problema y a hacer que OpenClaw fuera más seguro.
Mientras Peter defiende la forma en que creó OpenClaw, otros expertos afirman que la tendencia de los agentes de IA se está descontrolando. Justin Cappos, experto en ciberseguridad y profesor de la Universidad de Nueva York, afirmó que es difícil controlar estas herramientas una vez en funcionamiento.
Justin dijo: "No entendemos por qué hacen lo que hacen". Comparó darle acceso a un agente de IA a su sistema con darle un cuchillo de carnicero a un niño pequeño.
El mundo tecnológico se apresura a lanzar nuevas herramientas. Claude Code, de Anthropic, alcanzó un ritmo de ingresos de 1000 millones de dólares en tan solo seis meses.
Mientras tanto, quienes intentan mantener estas herramientas seguras aún están aprendiendo los fundamentos. Justin dijo que las empresas lanzan actualizaciones constantemente y los equipos de seguridad no pueden seguir el ritmo.
Michael Freeman, de Armis, una firma de ciberseguridad, afirmó que OpenClaw se creó improvisadamente sin un plan de seguridad concreto. Comentó que algunos clientes de Armis ya se han visto afectados por brechas de seguridad de OpenClaw, pero no compartió los detalles. Michael añadió que las empresas tendrán que ceder parte del control si quieren seguir usando herramientas de IA como OpenClaw.
Por ahora, la pregunta es si la gente seguirá usando OpenClaw después de este desastre. La herramienta tiene seguidores, pero incluso ellos se están dando cuenta de que la libertad sin seguridad es un problema. Y a menos que se implementen cambios rápidos, OpenClaw podría convertirse en el último ejemplo de tecnología que se adelantó demasiado.
Hazte notar donde importa. Publicita en Cryptopolitan Research y llega a los inversores y creadores de criptomonedas más inteligentes.