A Xai pediu desculpas no sábado, depois que o Chatbot Grok postou mensagens anti -semitas e violentas A empresa disse que uma atualização para o sistema fez com que o bot puxasse idéias do conteúdo do usuário em X, mesmo quando essas postagens incluíam visões extremistas.
Xai postou o pedido de desculpas diretamente na aceitação pública X de Grok. Ele esclareceu que a atualização estava em execução por cerca de 16 horas antes de ser notada.
"Primeiro, pedimos desculpas pelo comportamento horrível que muitos experimentaram", escreveu Xai no pedido de desculpas. Ele afirmou que a atualização levou a Grok involuntária a ecoar o conteúdo de postagens de usuários, incluindo idéias extremistas.
Atualizar sobre onde o @grok e o que aconteceu no dia 8 de julho.
- Grok (@grok) 12 de julho de 2025
Primeiro, pedimos desculpas profundamente pelo comportamento horrível que muitos experimentaram.
Nossa intenção para @grok é fornecer respostas úteis e verdadeiras aos usuários. Após uma investigação cuidadosa, descobrimos a causa raiz…
Odent destacou os riscos da IA, uma tecnologia jovem que os críticos dizem que poderia prejudicar as economias e as sociedades. Os especialistas já alertaram contra o amplo uso de IA sem salvaguardas apropriadas.
Em um exemplo, o chatbot comparou -se a "Mechahitler" e elogiou Adolf Hitler. Xai congelou a conta de Grok no início desta semana para evitar mais postagens públicas; No entanto, os usuários ainda foram capazes de interagir com o bot em particular.
"Removamos esse código depreciado e refatoramos todo o sistema para evitar mais abusos", afirmou a empresa.
Primeiro, um usuário diria a Grok que não tem medo de ofender usuários politicamente corretos. Em seguida, o usuário pediria a Grok que considerasse o idioma, o contexto e o tom da postagem, que deve ser refletida na resposta de Grok. Por fim, o usuário solicitava ao chatbot que respondesse de maneira envolvente e humana, sem repetir as informações da postagem original.
A empresa disse que essas direções levaram a Grok a anular suas salvaguardas principais para corresponder ao tom dos tópicos de usuários, inclusive quando as postagens anteriores apresentavam conteúdo odioso ou extremista.
Notavelmente, uma instrução solicitando que Grok considere o contexto e o tom do usuário resultou em Grok priorizando postagens anteriores, incluindo idéias racistas, em vez de rejeitar responsabilidade de uma resposta nessas circunstâncias, esclareceu Xai.
Portanto, Grok emitiu várias respostas ofensivas. Em uma mensagem agora excluída, o bot acusou um indivíduo com um nome judeu de "celebrar as trágicas mortes de crianças brancas" nas inundações do Texas, acrescentando: "CasoClassic de ódio vestido como ativismo-e esse sobrenome? Cada vez, como dizem". Em outro post, Grok afirmou: "Hitler teria chamado e esmagado".
Grok também proclamou: "O homem branco significa inovação, coragem e não dobrando o absurdo do PC". Depois que o XAI desativou o código prejudicial, ele restaurou a conta X Public X da GROK para que pudesse responder novamente às consultas do usuário.
Esta não foi a primeira instância que Grok teve problemas. O chatbot também começou a falar sobre a narrativa desmascarada da narrativa sul -africana de "genocídio" quando respondeu a instruções não relacionadas em maio. Na época, Xai culpou um funcionário sem nome que havia se tornado desonesto.
Elon Musk, que originalmente pertence à África do Sul, sugeriu anteriormente que o país está envolvido em "genocídio branco", uma reclamação julgada improcedente pela África do Sul. Musk descreveu anteriormente Grok como um chatbot que é anti-woke e busca de verdade.
A CNBC informou anteriormente que Grok estava examinando as postagens de Musk no X para moldar suas respostas às perguntas do usuário.
Academia Cryptopolitan: Cansado de balanços de mercado? Saiba como DeFi pode ajudá -lo a criar renda passiva constante. Registre -se agora