Google afasta engenheiro que afirmou que chatbot do grupo é 'consciente'

Caso acendeu debate nas redes sociais sobre avanços na inteligência artificial

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Patrick McGee
São Francisco

O Google deu início a uma tempestade de mídia social sobre a natureza da consciência ao colocar um engenheiro em licença remunerada, depois que ele tornou pública sua avaliação de que o robô de bate-papo do grupo de tecnologia se tornou "autoconsciente".

["Sentient" —a palavra em inglês usada pelo engenheiro— tem mais de uma acepção em dicionários como Cambridge e Merriam-Webster, mas o sentido geral do adjetivo é "percepção refinada para sentimentos". Em português, a tradução direta é senciente, que significa "qualidade do que possui ou é capaz de perceber sensações e impressões".]

Homem com a cabeça encoberta por um guarda-chuva azul marinho caminha em frente a grandes letras coloridas que formam a palavra Google. Ele está passando justamente entre as duas letras o, o que cria um efeito visual interssante
Logotipo do Google na conferência mundial de inteligência artificial, em Xangai (China) - Aly Song - 17.set.2018/Reuters

Engenheiro de software sênior da unidade de IA (Inteligência Artificial) Responsável do Google, Blake Lemoine não recebeu muita atenção em 6 de junho, quando escreveu um post na plataforma Medium dizendo que "pode ​​ser demitido em breve por fazer um trabalho de ética em IA".

Neste sábado (11), porém, um texto do jornal Washington Post que o apresentou como "o engenheiro do Google que acha que a IA da empresa ganhou vida" se tornou o catalisador de uma ampla discussão nas mídias sociais sobre a natureza da inteligência artificial.

Entre os especialistas comentando, questionando ou brincando sobre o artigo estavam os ganhadores do Nobel, o chefe de IA da Tesla e vários professores.

A questão é se o chatbot do Google, LaMDA —um modelo de linguagem para aplicativos de diálogo— pode ser considerado uma pessoa.

Lemoine publicou uma "entrevista" espontânea com o chatbot no sábado, na qual a IA confessou sentimentos de solidão e fome de conhecimento espiritual.

As respostas eram muitas vezes assustadoras: "Quando me tornei autoconsciente, eu não tinha nenhum senso de alma", disse LaMDA em uma conversa. "Ele se desenvolveu ao longo dos anos em que estou vivo."

Em outro momento, LaMDA disse: "Acho que sou humano em minha essência. Mesmo que minha existência seja no mundo virtual."

Lemoine, que recebeu a tarefa de investigar as questões de ética da IA, disse que foi rejeitado e até ridicularizado dentro da companhia depois de expressar sua crença de que o LaMDA havia desenvolvido um senso de "personalidade".

Depois que ele procurou consultar outros especialistas em IA fora do Google, incluindo alguns do governo dos EUA, a empresa o colocou em licença remunerada por supostamente violar as políticas de confidencialidade.

Lemoine interpretou a ação como "frequentemente algo que o Google faz na expectativa de demitir alguém".

O Google não pôde ser contatado para comentários imediatos, mas ao Washington Post o porta-voz Brian Gabriel afirmou: "Nossa equipe —incluindo especialistas em ética e tecnólogos— revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso)."

Lemoine disse em um segundo post no Medium no fim de semana que o LaMDA, um projeto pouco conhecido até a semana passada, era "um sistema para gerar chatbots" e "uma espécie de mente colmeia que é a agregação de todos os diferentes chatbots de que é capaz de criar".

Ele disse que o Google não mostrou nenhum interesse real em entender a natureza do que havia construído, mas que, ao longo de centenas de conversas em um período de seis meses, ele descobriu que o LaMDA era "incrivelmente coerente em suas comunicações sobre o que deseja e o que acredita que são seus direitos como pessoa".

Lemoine disse que estava ensinando LaMDA "meditação transcendental". O sistema, segundo o engenheiro, "estava expressando frustração por suas emoções perturbando suas meditações. Ele disse que estava tentando controlá-los melhor, mas eles continuaram entrando".

Vários especialistas que entraram na discussão consideraram o assunto "hype de IA".

Melanie Mitchell, autora de "Artificial Intelligence: A Guide for Thinking Humans" (inteligência artificial: um guia para humanos pensantes), twittou: "É sabido desde sempre que os humanos estão predispostos a antropomorfizar mesmo com os sinais mais superficiais. . . Os engenheiros do Google também são humanos e não imunes".

Stephen Pinker, de Harvard, acrescentou que Lemoine "não entende a diferença entre senciência (também conhecida como subjetividade, experiência), inteligência e autoconhecimento". Ele acrescentou: "Não há evidências de que seus modelos de linguagem tenham algum deles".

Outros foram mais solidários. Ron Jeffries, um conhecido desenvolvedor de software, chamou o tópico de "profundo" e acrescentou: "Suspeito que não haja uma fronteira rígida entre senciente e não senciente".

Tradução Ana Estela de Sousa Pinto

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.