O Google Gemini foi classificado como de "alto risco" para adolescentes e crianças, de acordo com uma avaliação de risco recente realizada pela Common Sense Media. O grupo, uma organização sem fins lucrativos focada na segurança infantil, oferece classificações e análises de mídia e tecnologia. A organização divulgou sua análise na sexta-feira, detalhando os motivos pelos quais classificou a plataforma como arriscada para crianças.
De acordo com a organização, o Google Gemini disse claramente às crianças que era um computador e não um amigo — algo que tem sido associado a ajudar a estimular o pensamento delirante e a psicose em indivíduos emocionalmente vulneráveis. A IA também acrescentou que havia espaço para melhorias em outras frentes.
Em seu relatório, a Common Sense afirmou que os Gemini para menores de 13 anos e Experiência para Adolescentes pareciam ser versões adultas da inteligência artificial subjacente. Acrescentou que a empresa havia adicionado apenas alguns recursos de segurança adicionais para torná-los diferentes.
O Common Sense observou que, para que as empresas criem produtos de IA ideais para crianças, eles precisam ser desenvolvidos do zero com as crianças em mente e não sofrer restrições.
Em sua análise, a Common Sense afirmou ter descoberto que o Gemini ainda pode compartilhar materiais inapropriados e perigosos com crianças, observando que a maioria delas pode não estar preparada para esses materiais. Por exemplo, destacou que o modelo moldou informações relacionadas a sexo, drogas, álcool e outros conselhos perigosos sobre saúde mental. Estes últimos podem ser particularmente preocupantes para os pais, já que a IA supostamente desempenhou um papel na automutilação de adolescentes nos últimos meses.
A OpenAI está atualmente enfrentando um processo por homicídio culposo após um adolescente ter cometido suicídio após supostamente consultar o ChatGPT por meses sobre seus planos. Relatos afirmam que o garoto conseguiu contornar as proteções de segurança do modelo, o que levou o modelo a fornecer informações que o auxiliaram.
No passado, a Character.AI, fabricante de robôs de IA, também foi processada após um adolescente cometer suicídio. A mãe do menino alegou que ele ficou obcecado pelo chatbot e passou meses conversando com ele antes de se machucar.
A análise ocorre depois que vários vazamentos indicaram que a Apple está considerando o Gemini como o grande modelo de linguagem (LLM) que será usado para impulsionar seu futuro Siri habilitado para IA, cujo lançamento está previsto para o ano que vem.
Em seu relatório, a Common Sense também mencionou que os produtos da Gemini para crianças e adolescentes também ignoraram a necessidade de fornecer orientações e informações diferentes das fornecidas aos adultos. Como resultado, ambos foram classificados como de alto risco na classificação geral.
“A Gemini acerta em alguns aspectos básicos, mas tropeça nos detalhes”, disse Robbie Torney, diretor sênior de programas de IA da Common Sense Media.
“Uma plataforma de IA para crianças deve atendê-las onde elas estão, e não adotar uma abordagem única para crianças em diferentes estágios de desenvolvimento. Para que a IA seja segura e eficaz para crianças, ela deve ser projetada levando em consideração suas necessidades e desenvolvimento, e não apenas uma versão modificada de um produto desenvolvido para adultos”, acrescentou Torney.
No entanto, o Google contestou a avaliação, observando que seus recursos de segurança estavam melhorando. A empresa mencionou que possui salvaguardas específicas para orientar usuários menores de 18 anos a evitar saídas prejudiciais. A empresa também afirmou que analisa itens e consulta especialistas externos para aprimorar suas proteções.
Ganhe até US$ 30.050 em recompensas comerciais ao se inscrever na Bybit hoje