El Departamento de Eficiencia del Gobierno de Elon Musk (DOGE) ha implementado silenciosamente una versión adaptada de su chatbot de Grok Ai en las agencias federales, aumentando las alarmas sobre posibles violaciones de privacidad y conflictos de intereses.
Reuters citó a tres fuentes dentro de Doge diciendo que el equipo ha estado utilizando Grok para examinar y analizar datos del gobierno confidencial, generando informes e ideas a velocidades más allá de los métodos tradicionales.
Según los tres expertos, los ingenieros de Dege instalaron parámetros personalizados en la cima de Grok, un chatbot que Musk's Xai lanzó a fines de 2023, para acelerar la revisión de datos y automatizar la redacción de informes.
"Le alimentan conjuntos de datos del gobierno, hacen preguntas complejas y obtienen resúmenes instantáneos".
Una información privilegiada.
Otro interno agregó que el personal de DOGE había alentado a los empleados del Departamento de Seguridad Nacional a usar Grok para análisis internos a pesar de la herramienta que carece de aprobación formal de la agencia.
Lo que no está claro es exactamente lo que la información clasificada o personalmentedentse ha cargado en Grok o qué tan fuerte se ha entrenado en los registros federales. Si se incluyera material sensible, la práctica podría entrar en conflicto con los estatutos de privacidad federales y las reglas de conflicto de intereses.
Cinco expertos en ética y tecnología advierten que dicho acceso podría dar a las compañías de Musk sobre ideas desproporcionadas sobre los datos no públicos quetracpúblicos e incluso ayudar a refinar a Grok para obtener ganancias privadas.
En teoría, cualquier modelo de IA capacitado en conjuntos de datos del gobiernodentdebe navegar estrictos salvaguardas legales. Los protocolos de intercambio de datos generalmente implican múltiples firmas y supervisión para evitar la divulgación no autorizada.
Al esquivar esos cheques, Dogs corre el riesgo de exponer los datos personales de millones de estadounidenses y entregarle a Xai un tesoro de información del mundo real que no está disponible para los competidores.
Dege insiste en que su misión es eliminar los desechos, el fraude y el abuso. Un portavoz del DHS le dijo a Reuters que Dege nunca presionó al personal para que adoptara ninguna herramienta específica.
"Estamos enfocados en la eficiencia", dijo el portavoz. Pero dos fuentes contrarrestan que, en las últimas semanas, los representantes de DOGE han empujado las divisiones del DHS a pilotear a Grok para tareas que van desde el análisis de casos de inmigración hasta el pronóstico del presupuesto, incluso después de que DHS bloqueó bruscamente todas las plataformas de IA comerciales sobre los temores de liquidación de datos.
Según la política actual del DHS, los empleados pueden usar chatbots comerciales solo para trabajos no clasificados y nodent, mientras que un DHS AI a medida maneja registros sensibles. Pero cuando ChatGPT y otros fueron discapacitados en mayo, los avances de Doge ocurrieron en una zona gris legal: el bot de DHS interno permaneció en vivo, pero Grok nunca estuvo formalmente a bordo.
Más allá del DHS, el alcance de Doge se extiende hacia las redes del Departamento de Defensa, donde se informa que una docena de analistas fueron informados de que una herramienta de IA de terceros estaba monitoreando su actividad. Aunque los portavoces del Departamento de Defensa han negado que DoGe guiara cualquier implementación de IA, los correos electrónicos departamentales y los intercambios de mensajes de texto obtenidos por Reuters sugieren lo contrario.
Los críticos ven estos movimientos como ilustrativos de la estrategia más amplia de Musk para aprovechar la IA para centralizar el control sobre la burocracia y luego monetizar el flujo de datos resultante.
"Hay una apariencia clara de autocontrol".
Richard Painter, profesor de ética del gobierno.
Si Musk ordenó directamente el despliegue de Grok, podría estar violando estatutos penales que impeden a los funcionarios influir en las decisiones que benefician a sus intereses privados.
En el corazón del debate se encuentra el doble papel de Grok como chatbot público en X y un motor de análisis experimental dentro de los firewalls gubernamentales. El sitio web de XAI incluso sugiere que las interacciones del usuario pueden ser monitoreadas "con fines comerciales específicos", lo que sugiere que cada consulta federal podría volver a alimentar el bucle de aprendizaje de Grok.
Dos empleados de Doge , Kyle Schutt y Edward Coristine, este último conocido en línea como "Big Balls", han encabezado gran parte de la iniciativa AI. Mientras se negaron a hacer comentarios, sus esfuerzos se ajustan a un patrón; Durante el año pasado, Dege ha despedido a miles de funcionarios de su carrera, confiscó el control de bases de datos seguras y defendió la IA como la herramienta definitiva para la revisión burocrática.
Los defensores de la privacidad advierten que la integración de la IA no vettada en entornos de seguridad nacional de alto riesgo es una receta para fugas de datos, robodentel robo y la explotación adversaria extranjera.
"Esto es una amenaza de privacidad tan grave como usted", dice Albert Fox Cahn sobre el Proyecto de Supervisión de Tecnología de Vigilancia.
También se temen que con poca transparencia y pocas barandillas, el experimento de IA de Doge pueda remodelar la gobernanza de los datos federales, ya sea que el público lo haga o no.
Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores