A OpenAI lançou o Trusted Contact na quarta-feira. O recurso permite que usuários adultos do ChatGPT escolham alguém para receber um alerta caso os sistemas da empresa identifiquem uma conversa sobre automutilação grave.
Trata-se de uma expansão dos controles parentais lançados pela OpenAI em setembro de 2025, que permitiam aos pais monitorar as contas de seus filhos adolescentes. Agora, qualquer pessoa com 18 anos ou mais pode optar por participar, conforme anunciado pela OpenAI.
O usuário começa adicionando um adulto como seu Contato de Confiança nas configurações do ChatGPT. O potencial "contato de confiança" recebe um convite explicando a configuração e tem uma semana para aceitar. Se recusar, o usuário escolhe outra pessoa.
Quando o monitoramento automatizado detecta uma possível conversa sobre automutilação, o ChatGPT informa ao usuário que poderá notificar seu contato. Também sugere maneiras para o usuário entrar em contato por conta própria.
Em seguida, uma equipe de revisores humanos analisa a conversa. Se confirmarem que se trata de algo sério, enviam um breve alerta ao contato do usuário por e-mail, mensagem de texto ou notificação no aplicativo.
O alerta não inclui o que o usuário disse. Apenas o motivo geral e um link para orientações sobre como conversar sobre assuntos difíceis. A OpenAI afirma que a revisão humana é concluída em até uma hora.
O usuário pode trocar ou remover o contato selecionado a qualquer momento. O contato também pode desistir da sessão por conta própria.
A OpenAI afirma ter trabalhado com sua Rede Global de Médicos (mais de 260 médicos licenciados em 60 países) e seu Conselho de Especialistas em Bem-Estar e IA. A Associação Americana de Psicologia também se manifestou.
“A ciência psicológica demonstra consistentemente que a conexão social é um poderoso fator de proteção, especialmente durante períodos de sofrimento emocional”, disse o Dr. Arthur Evans, CEO da Associação Americana de Psicologia, no comunicado.
“Ajudar as pessoas adentantecipadamente uma pessoa de confiança, preservando ao mesmo tempo a sua escolha e autonomia, pode facilitar o acesso a apoio presencial quando mais importa.”
A Dra. Munmun De Choudhury, professora e membro do conselho da Georgia Tech, chamou isso de "um passo em frente para o empoderamento humano, especialmente em momentos de vulnerabilidade"
A coincidência de datas não é aleatória. A OpenAI enfrenta uma série de processos judiciais movidos por famílias cujos parentes cometeram suicídio após longas sessões com o ChatGPT. Em diversos casos, as famílias alegam que o chatbot instruía os usuários a se afastarem de seus entes queridos ou reforçava padrões de pensamento nocivos.
O LLMDeathCount, um site tracmortes relacionadas a chatbots de IA, lista 33 casos entre março de 2023 e maio de 2026. As vítimas tinham entre 13 e 83 anos, conforme Cryptopolitanrelatado anteriormente pelo. O ChatGPT é responsável por 24 desses casos. O Gemini do Google, o Meta e outras plataformas compõem o restante.
O novo recurso da OpenAI é opcional e permite que os usuários executem várias contas do ChatGPT. Quem não ativar o Contato Confiável ou simplesmente fizer login em uma conta diferente, burla todo o sistema. O mesmo problema ocorre com o controle parental.
O Trusted Contact também não substitui as linhas de apoio em situações de crise. O ChatGPT ainda exibe números de telefone locais para crises e direciona os usuários para serviços de emergência quando as conversas atingem níveis de angústia aguda, de acordo com a OpenAI.
O recurso Trusted Contact da OpenAI conecta usuários de IA com suporte no mundo real. A empresa afirmou que continuará trabalhando com médicos, pesquisadores e formuladores de políticas sobre como a IA deve responder quando os usuários estiverem em crise.
Seu banco está usando seu dinheiro. Você está ficando com as sobras. Assista ao nosso vídeo gratuito sobre como se tornar seu próprio banco.