Mrinank Sharma, pesquisador líder em segurança da Anthropic, anunciou sua demissão da empresa esta semana em uma publicação no X. Essa decisão de Sharma parece ser motivada por suas preocupações com o estado atual da IA e do mundo
Mrinank Sharma liderou a Equipe de Pesquisa de Salvaguardas da Anthropic, uma importante empresa de IA cujo modelo de linguagem de grande escala (LLM), Claude, é amplamente considerado um dos principais concorrentes do ChatGPT . A saída de Sharma foi bastante abrupta, visto que a Equipe de Pesquisa de Salvaguardas foi oficialmente lançada apenas em fevereiro do ano passado. O foco principal da equipe era identificar dent compreender e ajudar a mitigar os riscos associados aos sistemas de IA implantados pela Anthropic, como o Claude.
A saída repentina de um importante pesquisador de segurança de uma das maiores empresas de IA dos EUA causou grande controvérsia nas redes sociais. Talvez a parte mais notável da carta de demissão tenha sido o alerta enigmático de Sharma de que "o mundo está em perigo". Ele atribuiu isso "não apenas à IA ou a armas biológicas", mas a "uma série de crises interconectadas que se desenrolam neste exato momento". Isso foi interpretado por muitas pessoas como um aviso sobre os riscos existenciais que acompanham os avanços da IA. A demissão de Sharma faz parte de uma tendência maior, preocupante e crescente de demissões de funcionários de alto escalão em empresas de IA nos últimos tempos.
Mrinank Sharma começou a carta falando brevemente sobre sua trajetória e o que o inspira, principalmente “a disposição para tomar decisões difíceis e defender o que é bom”. Ele também mencionou suas contribuições para a Anthropic, incluindo o desenvolvimento e a implementação de defesas “para reduzir os riscos do bioterrorismo assistido por IA” e a redação de um dos primeiros estudos de caso sobre segurança de IA. Seu projeto final foi “compreender como os assistentes de IA podem nos tornar menos humanos ou distorcer nossa humanidade”
No entanto, a parte de sua carta que causou maior preocupação foi o terceiro parágrafo. Embora ele não tenha acusado diretamente a Anthropic de qualquer irregularidade nem afirmado categoricamente que a IA vai nos matar, ele usou uma linguagem bastante filosófica para explicar sua renúncia. Ele declarou que “parecemos estar atingindo um limite em que nossa sabedoria deve crescer na mesma medida que nossa capacidade de impactar o mundo, sob pena de enfrentarmos as consequências”. Em seguida, escreveu: “Tenho visto repetidamente como é difícil deixar que nossos valores realmente governem nossas ações”. Ele também descreveu o mundo como estando em perigo devido a uma série de crises interconectadas, que ele descreveu em uma nota de rodapé como uma “policrise” sustentada por uma “metacrise”
Essa linguagem sugere que sua saída da Anthropic foi motivada mais por uma divergência filosófica do que por qualquer tipo de disputa interna na empresa. Ao descrever o momento atual como uma “policrise” sustentada por uma “metacrise”, Sharma parece estar apontando para um problema estrutural muito maior que a sociedade e, por extensão, o desenvolvimento da IA enfrentam. A tecnologia está avançando mais rápido do que a sabedoria coletiva, e os sistemas e poderes atuais que gerenciam e influenciam seu desenvolvimento não estão devidamente equipados para lidar com isso no atual estado do mundo.
A principal conclusão da carta de demissão de Sharma é multifacetada e existencial. Por um lado, ele parece acreditar que existe um problema fundamental na forma como as empresas de tecnologia estão lidando com a aceleração do desenvolvimento da IA dentro de um sistema competitivo. As potências globais estão em uma corrida armamentista para superar umas às outras em IA e outros avanços tecnológicos, com os gastos globais em tecnologia previstos para atingir US$ 5,6 trilhões em 2026. Isso significa que as empresas de IA não estão apenas inovando e criando produtos, mas são um componente crucial do conflito geopolítico. Além disso, essas empresas têm a responsabilidade fiduciária de apresentar bons resultados para os acionistas, criando um incentivo para superar seus rivais em avanço tecnológico.
Isso fomenta um ambiente onde os princípios e procedimentos de segurança também devem estar alinhados com as pressões do mercado, a competitividade nacional e as expectativas dos investidores. Ainda assim, à medida que as empresas de IA se expandem e aprimoram suas capacidades rapidamente, precisamdent, compreender e mitigar os riscos inerentes a esse crescimento. O problema que Sharma parece estar abordando é que o sistema atual em que as empresas de IA operam prioriza naturalmente o crescimento em detrimento da segurança e das considerações éticas. As implicações dessa dinâmica são existencialmente profundas e motivo de grande preocupação. Um homem como Sharma, que aparenta ser íntegro, simplesmente não poderia continuar operando dentro desse sistema sem comprometer seus valores, o que o levou a se retirar completamente dele.
Ganhe 8% CASH BACK em USDC ao pagar com COCA. Peça seu cartão GRÁTIS.