O chefe de inteligência artificial da Microsoft está se opondo aos esforços para criar máquinas aparentemente conscientes, afirmando que apenas seres vivos podem realmente experimentar a consciência.
Mustafa Suleyman disse à CNBC durante uma entrevista na Conferência AfroTech em Houston esta semana que os pesquisadores deveriam abandonar os trabalhos que visam construir sistemas de IA que pareçam conscientes. Ele classificou essa abordagem como completamente equivocada.
“Não acho que esse seja um trabalho que as pessoas devam fazer”, disse Suleyman na conferência onde proferiu o discurso de abertura. “Se você fizer a pergunta errada, acabará com a resposta errada. Acho que essa é a pergunta totalmente errada.”
Como figura de destaque na área de inteligência artificial da Microsoft, Suleyman tornou-se um crítico proeminente dos esforços para desenvolver serviços de IA que possam levar as pessoas a acreditar que a tecnologia pode sofrer ou sentir emoções. No ano passado, ele escreveu "The Coming Wave" (A Próxima Onda), um livro que examina os perigos representados pela IA e outras tecnologias emergentes semelhantes. Em agosto, ele publicou um ensaio defendendo que a IA seja construída para ajudar as pessoas, em vez de imitá-las.
Essa conversa se desenrola em meio a uma corrida competitiva entre empresas de tecnologia para criar assistentes virtuais com inteligência artificial, incluindo as ofertas da Meta e da xAI de Elon Musk. A questão se torna cada vez mais complexa à medida que o setor de IA generativa, liderado pela OpenAI de Sam Altman, busca a inteligência artificial geral, sistemas capazes de desempenho cognitivo em nível humano.
Altman afirmou em agosto que inteligência artificial geral já não é um termo particularmente útil. Ele disse que os modelos estão simplesmente melhorando rapidamente e que as pessoas dependerão deles para um número cada vez maior de tarefas.
Para Suleyman, separar as crescentes capacidades da IA de qualquer possibilidade de sentimentos humanos é algo de extrema importância.
“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não sente tristeza quando experimenta 'dor'”, explicou . “É uma distinção muito, muito importante. Na verdade, ela está apenas criando a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente está experimentando. Tecnicamente, sabemos disso porque podemos ver o que o modelo está fazendo.”
Ele apontou para o naturalismo biológico, uma teoria do filósofo John Searle que afirma que a consciência requer os processos biológicos de um cérebro vivo.
“O motivo pelo qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor”, disse Suleyman. “Esses modelos não levam isso em consideração. É apenas uma simulação.”
Suleyman reconheceu que o estudo da consciência ainda é uma ciência em desenvolvimento. Ele não defendeu que se impedisse outros de pesquisar o tema, reconhecendo que diferentes organizações têm objetivos diferentes. No entanto, ele enfatizou suatronoposição ao conceito.
“Eles não têm consciência”, disse ele. “Portanto, seria absurdo realizar pesquisas que investiguem essa questão, porque eles não têm consciência e não podem ter.”
Suleyman está viajando para falar publicamente sobre os riscos envolvidos na busca pela consciência da IA. Antes de Houston, ele participou da Cúpula do Conselho Internacional Paley no Vale do Silício na semana passada.
Lá, ele anunciou que a Microsoft não criará chatbots para conteúdo sexual, ao contrário de seus concorrentes. Conforme relatado pelo Cryptopolitan , Altman revelou em outubro que o ChatGPT agora permite que usuários adultos tenham conversas de cunho sexual, enquanto o xAI oferece um assistente virtual com temática de anime.
“Basicamente, você pode comprar esses serviços de outras empresas, então estamos decidindo em quais lugares não iremos”, disse Suleyman novamente na AfroTech.
Em seu discurso na AfroTech, Suleyman afirmou que escolheu a Microsoft em parte devido à sua história, estabilidade e amplo alcance tecnológico. Ele foi recrutado pessoalmente pelo CEO Satya Nadella.
“Outro ponto importante é que a Microsoft precisava ser autossuficiente em IA”, disse ele. Nadella iniciou uma missão há 18 meses para garantir que a empresa pudesse treinar seus próprios modelos completamente internamente, usando seus próprios dados.
Ganhe US$ 50 grátis para negociar criptomoedas ao se inscrever no Bybit agora