Descrição de chapéu The New York Times internet

Pioneiro da inteligência artificial deixa o Google para alertar sobre perigo da tecnologia

Geoffrey Hinton aderiu ao coro de críticos à corrida agressiva das empresas pelas IAs generativas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cade Metz
The New York Times

Geoffrey Hinton foi um pioneiro da inteligência artificial. Em 2012, ele e dois de seus alunos de pós-graduação na Universidade de Toronto (Canadá) criaram uma tecnologia que se tornou a base intelectual dos sistemas de IA que as maiores empresas do setor de tecnologia acreditam ser a chave do seu futuro.

Nesta segunda-feira (1), entretanto, ele aderiu oficialmente ao crescente coro de críticos que dizem que essas empresas estão correndo para o perigo com sua campanha agressiva para criar produtos baseados em IA generativa, a tecnologia que alimenta chatbots populares como o ChatGPT.

Hinton disse que deixou seu cargo no Google, onde trabalhou durante mais de uma década e se tornou uma das vozes mais respeitadas do setor, para poder falar livremente sobre os riscos da IA. Uma parte dele agora se arrepende do trabalho de sua vida, disse.

Geoffrey Hinton, pioneiro da inteligência artificial, palestra em evento no Canadá - Mark Blinch - 4.dez.2017/Reuters

"Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria", disse Hinton durante uma longa entrevista na semana passada na sala de jantar de sua casa em Toronto, a uma curta caminhada de onde ele e seus alunos fizeram sua descoberta.

A jornada de Hinton de pioneiro da IA a arauto da derrota marca um momento notável para a indústria tecnológica, talvez em seu ponto de inflexão mais importante em décadas. Os líderes do setor acreditam que os novos sistemas de IA podem ser tão importantes quanto a introdução do navegador da Web no início dos anos 1990, e poderão levar a avanços em áreas que vão da pesquisa de medicamentos à educação.

Mas o medo de que estejam liberando algo perigoso na natureza atormenta muitos membros importantes da indústria. A IA generativa já pode ser uma ferramenta de desinformação. Em breve, poderá ser um risco para os empregos. Em algum momento, dizem os mais preocupados com a tecnologia, poderá ser um risco para a humanidade.

"É difícil ver como se pode impedir que maus atores a usem para coisas ruins", disse Hinton.

Depois que a startup OpenAI, de San Francisco, lançou uma nova versão do ChatGPT, em março, mais de mil líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma moratória de seis meses no desenvolvimento de novos sistemas, porque as tecnologias de IA representam "riscos profundos para a sociedade e a humanidade".

Vários dias depois, 19 atuais e ex-líderes da Associação para o Avanço da Inteligência Artificial, uma sociedade acadêmica de 40 anos, divulgaram sua própria carta alertando sobre os riscos da IA. Esse grupo inclui Eric Horvitz, diretor científico da Microsoft, que implantou a tecnologia da OpenAI em uma ampla gama de produtos, incluindo seu mecanismo de busca Bing.

Hinton, muitas vezes chamado de "o padrinho da IA", não assinou nenhuma dessas cartas e disse que não queria criticar publicamente o Google ou outras empresas até que deixasse o emprego. Ele notificou a empresa no mês passado sobre sua demissão e, na quinta-feira (27), conversou por telefone com Sundar Pichai, CEO da Alphabet, controladora do Google. Ele se recusou a comentar publicamente os detalhes da conversa.

O cientista-chefe do Google, Jeff Dean, disse em comunicado: "Continuamos comprometidos com uma abordagem responsável da IA. Estamos continuamente aprendendo a entender os riscos emergentes, ao mesmo tempo em que inovamos com ousadia".

Hinton, um britânico de 75 anos, é um acadêmico cuja carreira foi impulsionada por suas convicções pessoais sobre o desenvolvimento e uso da IA. Em 1972, como estudante de pós-graduação na Universidade de Edimburgo (Escócia), ele abraçou uma ideia chamada rede neural –um sistema matemático que aprende habilidades analisando dados. Na época, poucos pesquisadores acreditaram na ideia. Mas tornou-se o trabalho de sua vida.

Na década de 1980, Hinton era professor de ciência da computação na Universidade Carnegie Mellon (EUA), mas mudou-se para o Canadá, dizendo que relutava em receber financiamento do Pentágono. Na época, a maior parte da pesquisa de IA nos Estados Unidos era financiada pelo Departamento de Defesa. Hinton se opõe profundamente ao uso da IA em guerras –o que ele chama de "soldados-robôs".

Em 2012, Hinton e dois de seus alunos em Toronto, Ilya Sutskever e Alex Krishevsky, construíram uma rede neural capaz de analisar milhares de fotos e aprender a identificar objetos comuns, como flores, cachorros e carros.

O Google gastou US$ 44 milhões para adquirir uma empresa fundada por Hinton e seus dois alunos. E seu sistema levou à criação de tecnologias cada vez mais poderosas, incluindo novos chatbots como ChatGPT e o Bard do Google. Sutskever tornou-se cientista-chefe da OpenAI. Em 2018, Hinton e dois outros antigos colaboradores receberam o Prêmio Turing, frequentemente chamado de "Nobel da computação", por seu trabalho em redes neurais.

Na mesma época, Google, OpenAI e outras empresas começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital. Hinton achava que era uma maneira poderosa de as máquinas entenderem e gerarem linguagem, mas era inferior à maneira como os humanos lidavam com a linguagem.

Então, no ano passado, quando o Google e a OpenAI construíram sistemas usando quantidades muito maiores de dados, sua opinião mudou. Ele ainda acreditava que os sistemas eram inferiores ao cérebro humano em alguns aspectos, mas que estavam eclipsando a inteligência humana em outros. "Talvez o que está acontecendo nesses sistemas", disse, "seja na verdade muito melhor do que o que acontece no cérebro."

Conforme as empresas aperfeiçoam seus sistemas de IA, eles se tornam cada vez mais perigosos, acredita Hinton. "Veja como era cinco anos atrás e como está agora", disse ele sobre a tecnologia de IA. "Pegue a diferença e propague-a à frente. É assustador."

Até o ano passado, disse, o Google agia como um "administrador adequado" da tecnologia, tomando cuidado para não lançar algo que pudesse causar danos. Mas agora que a Microsoft ampliou seu mecanismo de busca Bing com um chatbot –desafiando o negócio principal do Google–, o Google está correndo para implantar o mesmo tipo de tecnologia. Os gigantes da tecnologia estão presos numa competição que pode ser impossível de parar, disse Hinton.

Sua preocupação imediata é que a internet seja inundada por fotos, vídeos e textos falsos, e a pessoa comum "não seja mais capaz de saber o que é verdade".

Ele também se preocupa que, com o tempo, as tecnologias de IA revirem o mercado de trabalho. Hoje, chatbots como o ChatGPT tendem a complementar o trabalho de seres humanos, mas poderão substituir paralegais, assistentes pessoais, tradutores e outros que lidam com tarefas rotineiras. "Eles tiram o trabalho pesado", disse ele. "Podem tirar mais que isso."

No futuro, Hinton teme que novas versões da tecnologia representem uma ameaça para a humanidade, porque muitas vezes aprendem comportamentos inesperados com a grande quantidade de dados que analisam. Isso se torna um problema, disse ele, pois indivíduos e empresas permitem que os sistemas de IA não apenas gerem seu próprio código de computador, como também executem esse código por conta própria. E ele teme o dia em que armas verdadeiramente autônomas –como aqueles robôs assassinos– se tornem realidade.

"A ideia de que essas coisas possam realmente ficar mais inteligentes do que as pessoas, algumas pessoas acreditaram nisso", disse ele. "Mas a maioria achou que estava muito longe. E eu achei que estava muito longe. Pensei que estivesse a 30, 50 anos ou até mais longe. Obviamente, não penso mais assim."

Muitos outros especialistas, incluindo vários alunos e colegas dele, dizem que essa ameaça é hipotética. Mas Hinton acredita que a corrida entre o Google e a Microsoft e outros vai se transformar numa corrida global que não vai parar sem algum tipo de regulamentação global.

Mas isso pode ser impossível, disse ele. Ao contrário das armas nucleares, explicou, não há como saber se empresas ou países estão trabalhando na tecnologia em segredo. A melhor esperança é que os principais cientistas do mundo colaborem em formas de controlar a tecnologia. "Não acho que eles devam desenvolvê-la mais até que tenham entendido se podem controlá-la", afirmou.

Hinton contou que, quando as pessoas perguntavam como ele podia trabalhar numa tecnologia potencialmente perigosa, ele citava Robert Oppenheimer, que liderou o esforço dos EUA para construir a bomba atômica: "Quando você vê algo que é tecnicamente interessante, você vai em frente e o faz".

Ele não diz mais isso.

Tradução de Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.