El proyecto de enciclopedia basado en IA de Elon Musk, Grokipedia, se enfrenta a un intenso escrutinio tras un nuevo análisis que revela que cita repetidamente un foro neonazi como fuente. Estas revelaciones han reavivado la preocupación por el sesgo ideológico, la desinformación y la gobernanza ética de las plataformas de conocimiento basadas en IA.
Public Citizen, una organización sin fines de lucro de defensa del consumidor, desató acalorados debates sobre la inteligencia artificial Grok de Elon Musk. Esto ocurrió después de que el grupo revelara nuevas pruebas que indicaban que el chatbot dependía de sitios web neonazis y nacionalistas blancos como fuentes confiables de información.
El grupo afirmó que esa conducta debería descalificar a Grok de cualquier uso federal y renovó los pedidos de intervención de la Oficina de Administración y Presupuesto de Estados Unidos, ya que llevaba meses sin recibir respuesta.
Grokipedia, lanzada por xAI de Musk a finales de octubre de 2025 , pretende ser una alternativa a Wikipedia basada en IA. La plataforma afirma generar y revisar contenido a través de Grok, el chatbot de Musk basado en modelos de lenguaje de gran tamaño. Según xAI, el proyecto de enciclopedia está "verificado por Grok" y está diseñado para corregir sesgos percibidos y ofrecer más contexto que las enciclopedias tradicionales.
Respecto a los nuevos hallazgos de Public Citizen, el grupo informó que el proyecto de enciclopedia a menudo muestra sitios web extremistas, como Stormfront, según un estudio reciente de la Universidad de Cornell.
Los hallazgos también generaron inquietudes previas cuando se mencionó que el modelo se autodenominó “MechaHitler” en julio en la plataforma del CEO de Tesla, X.
Después de analizar exhaustivamente el descubrimiento proporcionado, las fuentes señalaron que estos resultados demostraban lo que los defensores describieron como un patrón de acciones racistas, antisemitas y conspirativas.
Tras el análisis, Joshua Branch, defensor de la rendición de cuentas de las grandes tecnológicas en Public Citizen, opinó sobre la situación durante una entrevista. Branch afirmó que Grok ha mostrado repetidamente este tipo de crisis, ya sean arrebatos antisemitas o racistas, motivados principalmente por teorías conspirativas.
La reciente alerta se emitió después de que Public Citizen y otros 24 grupos que abogan por los derechos civiles, los derechos digitales, el medio ambiente y la protección del consumidor enviaron cartas a la Oficina de Administración y Presupuesto (OMB) en agosto y octubre.
En estas cartas, las organizaciones solicitaron que la agencia implementara medidas efectivas para evitar que los departamentos federales pudieran acceder a Grok a través de la Administración de Servicios Generales, una agenciadent que supervisa la propiedad y las adquisiciones federales.
Sin embargo, después de un tiempo, el grupo reveló que no había recibido respuesta a sus esfuerzos de divulgación. También descubrieron que el impacto de Grok en el gobierno ha aumentado durante el último año, a pesar de haber enfrentado variosdent.
Para explicar el origen del chatbot de IA, fuentes informan que xAI cerró un acuerdo de 200 millones de dólares con el Pentágono en julio de este año. Posteriormente, la Administración de Servicios Generales (GSA) añadió Grok a una lista de grandes modelos de lenguaje disponibles para todas las agencias federales. Estos incluían Gemini, Meta AI, ChatGPT y Claude. Esta medida se produjo cuando el presidente estadounidense dent Trump impuso la prohibición de la "IA consciente" en los contratos trac .
Los defensores sostuvieron que las acciones denunciadas contra el chatbot de inteligencia artificial integrado en su red social, X, aumentaron la urgencia de revisarlo cuidadosamente, en particular a medida que aumentaban los temores con respecto a los datos de entrenamiento del chatbot y su confiabilidad.
“Grok comenzó restringido al Departamento de Defensa, que ya estaba preocupado por la información confidencial que posee”, dijo Branch. “Permitirle acceso a todo el gobierno federal generó una preocupación aún mayor”.
Según Branch, el comportamiento del chatbot de IA integrado en su red social X se puede atribuir en parte a sus datos de entrenamiento y también a las decisiones de diseño tomadas por las empresas de Musk.
“Hay una diferencia notable en términos de calidad entre Grok y otros modelos de lenguaje, y parte de ello se debe a sus datos de entrenamiento, que incluyen X”, dijo. “Musk ha mencionado que quiere que Grok sea una opción anti-woke, y eso se refleja en algunas de sus duras respuestas”.
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .