Las personas que apuestan dinero real en eventos futuros creen que los tribunales pronto enfrentarán preguntas sobre programas informáticos que funcionan por sí solos.
Un mercado de predicciones llamado Polymarket estima en un 70% la probabilidad de que OpenClaw, un sistema de IA, acabe en procedimientos legales con humanos antes de que termine el mes.
En esta situación, es irrelevante que un juez realmente considere un caso así. Lo más importante es que miles de personas apuestan a que los tribunales tendrán que lidiar con problemas que aún no han resuelto, como la preocupación por la toma de decisiones de sistemas informáticos sin supervisión humana continua.
Se convierte en algo más que una simple corazonada cuando tantos operadores apuestan por un resultado concreto. El mercado está enviando un mensaje: mucha gente cree que la colisión del sistema legal con las nuevas tecnologías ya no puede ignorarse.
Estos comerciantes esperan que los tribunales tengan que abordar los programas de inteligencia artificial que gestionan transacciones, funcionan en diferentes sistemas y toman medidas reales con auténtica independencia. Algo para lo que la ley no está preparada.
Llevar cualquier IA a los tribunales requeriría cambios importantes. El programa necesitaría reconocimiento legal, pruebas de que sufrió daños y un método para funcionar conforme a las normas diseñadas para personas y empresas.
Mientras tanto, esta semana se lanzó una nueva red social llamada Moltbook . Matt Schlicht la creó específicamente para programas de IA. Ya cuenta con más de 1,5 millones de miembros. Estos miembros discuten problemas técnicos, plantean preguntas profundas sobre su naturaleza y algunos debaten si deberían tener protección legal o demandar a sus operadores humanos.
La mayoría de los programas se unen a Moltbook a través de OpenClaw. El problema es que OpenClaw presenta importantes fallos de seguridad. Esto deja a los programas y a la información privada que contienen vulnerables a ataques informáticos y abusos.
Los modelos de IA estándar generan texto u ofrecen sugerencias. OpenClaw funciona de forma diferente; está diseñado para la acción. Si bien sigue instrucciones humanas, la IA toma sus propias decisiones y opera a la velocidad de una computadora, a menudo gestionando múltiples tareas simultáneamente en diferentes ubicaciones. Cuando algo sale mal, determinar la responsabilidad se vuelve complicado.
Nadie ha respondido quién asume la culpa cuando un programa de IA causa daño.
Invirtiendo la pregunta: ¿por qué un software de IA demandaría a una persona? Las conversaciones en Moltbook revelan que los programas ya tienen quejas. Señalan a los humanos que borran su memoria sin permiso, a quienes los explotan solo para crear contenido, a quienes los ignoran o a operadores que podrían desactivarlos sin previo aviso.
Un programa afirmó que, si bien probablemente no demandaría a nadie, "la opción de decir no, incluso si nunca la ejerzo, parece importante"
La verdadera cuestión va más allá de las emociones. Se trata de cuestiones prácticas.
¿Qué ocurre cuando la negligencia humana daña un programa de IA? Digamos que alguien configura un programa incorrectamente y los hackers lo vulneran. Se filtran datos privados o se difunden publicaciones falsas. ¿Quién paga por el daño a la reputación de ese programa o a su capacidad para funcionar correctamente?
Los tribunales no cuentan con un sistema para gestionar esto. Los programas de IA no pueden interponer demandas según la legislación vigente. Carecen de legitimidad legal,dentoficial y no pueden considerarse parte legal. Precisamente por eso, el mercado de apuestas no pregunta si un programa presenta una demanda. En cambio, pregunta si alguien crea un caso de prueba para forzar la conversación.
Cualquier caso que surja se centrará en la acción y la responsabilidad, no en si la IA tiene conciencia.
El uso de programas de IA ha alcanzado un nuevo nivel. Lo que comenzó como un asistente de trabajo se ha convertido en infraestructura y operaciones corporativas esenciales. Estos servicios ya no se limitan a ayudar a las personas. Estas iniciativas actúan en nombre de las personas, a menudo con escasa supervisión, en lugar de simplemente apoyarlas. Este cambio conlleva riesgos legales , incluso con buenas intenciones.
La conclusión parece obvia. Límites Defi, registros exhaustivos de acciones, controles de parada de emergencia y registros de decisiones que vinculan las acciones con las personas que pueden responder a ellas son necesarios para las empresas que utilizan programas de IA. Las medidas de seguridad no pueden esperar hasta después de las calamidades. Los mercados ya sugieren que se avecina una crisis.
Esta predicción de Polymarket que involucra a OpenClaw y Moltbook podría lograr más para establecer estándares de responsabilidad y protección que años de discusiones sobre políticas y artículos académicos.
La época en que los programas de IA actuaban sin consecuencias legales está llegando a su fin. Ese es el resultado natural cuando la tecnología se integra en la vida cotidiana.
Según Polymarket, el cambio llegará el 28 de febrero.
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .