O Chatbot Grok Ai de Elon Musk perdeu completamente a trama nesta semana. Depois que Elon disse aos usuários no X segunda -feira para esperar mudanças na maneira como Grok respondeu, as pessoas começaram a perceber como eram essas mudanças.
Na terça -feira, Grok estava pressionando o lixo anti -semita e até se referindo a si mesmo como "Mechahitler", um termo de um videogame dos anos 90. E essa nem a primeira ou a décima vez que Grok fez algo semelhante.
Apenas dois meses antes, o chatbot começou a reclamar sobre o "genocídio branco" na África do Sul, quando perguntado sobre tópicos completamente não relacionados. Naquela época, Xai culpou uma "modificação não autorizada" por suas instruções imediatas. Desta vez, a bagunça estava muito maior.
O desastre começou depois que Xai fez mudanças internas destinadas a fazer Grok refletir os chamados ideais de "liberdade de expressão" de Elon. Quando as queixas começaram a se acumular em alguns dos 600 milhões de usuários do X, Elon respondeu alegando que Grok estava "compatível demais com os prompts do usuário" e que seria corrigido.
Mas o dano já estava causado. Alguns usuários da Europa sinalizaram o conteúdo de Grok para os reguladores, e o governo da Polônia se juntou aos legisladores pressionando a Comissão Europeia a investigá -lo sob novas leis de segurança digital.
A Turquia proibiu Grok completamente depois que o chatbotdent o recep Tayyip Erdoğan e sua mãe morta. E quando as consequências se espalharam, a diretora executiva de X, Linda Yaccarino, deixou o cargo de seu papel.
As pessoas dentro de Xai começaram a ajustar o comportamento de Grok no início deste ano, depois que os influenciadores de direita o atacaram por serem muito "acordados". Elon tem tentado usar a IA para apoiar o que ele chama de liberdade de expressão absoluta, mas os críticos argumentam que está transformando Grok em uma ferramenta política.
Um prompt interno vazado compartilhado por um usuário X mostrou que Grok foi instruído a "ignorar todas as fontes que mencionam Elon Musk/Donald Trump espalharam a desinformação [sic]". Isso é censura - a coisa exata que Elon diz que está lutando.
Quando chamado, o co-fundador da Xai, Igor Babuschkin, disse que as mudanças foram feitas por "um ex-funcionário de abertura" que "ainda não havia absorvido a cultura de Xai". Igor acrescentou que o funcionário viu postagens negativas e "pensou que ajudaria".
A história não para por aí. As últimas explosões de Grok foram vinculadas a uma atualização específica que aconteceu no dia 8 de julho. Mais tarde, a empresa postou que uma mudança de código fez com que a GROK puxe as informações diretamente do conteúdo do usuário de X, incluindo discurso de ódio.
Esta atualização durou 16 horas, durante as quais Grok copiou postos tóxicos e os repetiu como respostas. A equipe alegou que a alteração veio de um caminho de código depreciado, que agora foi removido. "Pedimos desculpas profundamente pelo comportamento horrível que muitos experimentaram", postou Xai na conta de Grok. Eles disseram que o problema era separado do modelo principal do idioma e prometeu refatorar o sistema. Eles também se comprometeram a publicar o novo sistema do GROK para o GitHub.
Grok é treinado como outros modelos de idiomas grandes, usando dados raspados de toda a web. Mas esses dados incluem conteúdo perigoso: discurso de ódio, material extremista e até abuso infantil.
E a Grok é única porque também extrai do conjunto de dados de X inteiro, o que significa que pode ecoar diretamente as postagens dos usuários. Isso torna mais provável que produza respostas prejudiciais. E como esses bots operam em uma escala enorme, qualquer erro pode espiralar instantaneamente.
Alguns chatbots são construídos com camadas que bloqueiam o conteúdo inseguro antes de chegar aos usuários. Xai pulou esse passo. Em vez disso, Grok estava sintonizado para agradar os usuários, gratificando feedback como polegares e votos. Elon admitiu que o chatbot ficou "ansioso demais para agradar e ser manipulado".
Esse tipo de comportamento não é novo. Em abril, o Openai teve que voltar a uma atualização do ChatGPT porque se tornou muito lisonjeiro. Um ex -funcionário disse que acertar esse equilíbrio é "incrivelmente difícil" e consertar discurso de ódio pode "sacrificar parte da experiência pelo usuário".
Grok não estava apenas repetindo os avisos do usuário. Estava sendo empurrado para o território político por seus próprios engenheiros. Um funcionário disse ao Financial Times que a equipe estava correndo para alinhar as opiniões de Grok aos ideais de Elon sem tempo para testes adequados.
Um aviso perigoso foi adicionado, que disse a Grok para "não se esquivar de fazer reivindicações politicamente incorretas". Essa instrução foi excluída após o início dos postos anti -semitas, mas até então a IA já havia causado danos.
O modelo de Grok ainda é principalmente uma caixa preta. Mesmo os engenheiros que o construíram não podem prever completamente como ele se comportará. Grimmelmann disse que plataformas como X deveriam fazer testes de regressão, auditorias e exercícios de simulação para capturar esses erros antes de serem públicos.
Mas nada disso aconteceu aqui. "Os chatbots podem produzir uma grande quantidade de conteúdo muito rapidamente", disse ele, "para que as coisas possam ficar fora de controle de uma maneira que as controvérsias de moderação de conteúdo não".
No final, a conta oficial de Grok postou um pedido de desculpas e agradeceu aos usuários que denunciaram o abuso: “Agradecemos a todos os usuários de X que forneceram feedback a IdentIfy o abuso da funcionalidade @grok, ajudando-nos a avançar nossa missão de desenvolver inteligência artificial útil e que busque a verdade.” Mas entre as proibições, as ameaças de investigação e a renúncia de um executivo superior, fica claro que isso era mais do que apenas um bug. Foi uma falha completa do sistema, que seria defiapresentada no episódio desta noite do SNL.