Ezra Klein

Colunista do New York Times, fundou o site Vox, do qual foi diretor de Redação e repórter especial

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Ezra Klein
Descrição de chapéu The New York Times tecnologia

Humanidade precisa se adaptar à inteligência artificial ou decidir desacelerá-la

Dada a velocidade acelerada das mudanças, reagir lentamente não é uma opção

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

The New York Times

Em 2018, o CEO do Google, Sundar Pichai, que não é um dos executivos de tecnologia mais conhecidos por dar declarações bombásticas, disse: "A inteligência artificial (IA) é provavelmente a coisa mais importante sobre a qual a humanidade já trabalhou. Eu a encaro como algo mais profundo que a eletricidade ou o fogo."

Procure considerar seriamente, por alguns minutos, a possibilidade de ele ter razão. Não existe viés humano mais profundo que a expectativa de que amanhã será como hoje. É uma ferramenta heurística poderosa, porque quase sempre correta. É muito provável que amanhã será como hoje. O ano que vem provavelmente será como este ano. Mas pense em como serão as coisas dentro de dez ou 20 anos. Na história humana, normalmente tem sido possível fazer isso. Acho que agora não é.

Imagem mostra vários robôs azuis conversando
Ilustração feita pelo site de inteligência artificial (AI) DALL-E - DALL-E

Inteligência artificial é um termo impreciso, e digo isso de modo impreciso. Me refiro não à alma da inteligência, mas à textura de um mundo povoado por programas semelhantes ao ChatGPT, que nos parecem inteligentes e que moldam ou regem boa parte de nossas vidas. Tais sistemas já estão presentes, em grande medida. Mas o que vem por aí vai fazer com que eles pareçam meros brinquedos. O que é mais difícil reconhecer na IA é a curva de aprimoramento.

"O campo intelectual parece superestimar tremendamente quanto tempo levará para que os sistemas de IA saltem do ‘grande impacto sobre o mundo’ para ‘transformar o mundo a ponto de deixá-lo irreconhecível’", escreveu em 2022 Paul Christiano, então membro chave do laboratório OpenAI. Christiano deixou a empresa no ano passado para fundar a organização Alignment Research Center. "É mais provável que sejam anos do que décadas, e há uma chance real de que sejam meses."

Talvez os desenvolvedores de IA se deparem com um obstáculo intransponível que não previam. Mas, e se isso não acontecer?

Penso no início da pandemia de Covid. Quando estava claro de que haveria lockdowns pela frente, houve semanas que o mundo estava mergulhando numa crise, mas a normalidade continuava. Se você aconselhasse sua família a fazer estoques de papel higiênico, seria visto como um doido. Havia a dificuldade de viver no tempo exponencial, nessa tarefa impossível de acelerar a adoção de políticas públicas e promover transformações sociais para equiparar-se à velocidade da replicação viral.

Desconfio que alguns dos danos políticos e sociais que ainda trazemos da pandemia refletem essa aceleração impossível. A reflexão humana segue um ritmo natural. Muita coisa desaba quando o luxo do tempo nos é negado.

Mas é nesse tipo de momento que estamos agora, acredito. Não temos o luxo de reagir tão lentamente, pelo menos não se a tecnologia avançar de forma acelerada.

Desde que vim morar na área da baía de São Francisco, em 2018, tenho regularmente procurado passar tempo com pessoas que trabalham com IA. Não sei se conseguirei transmitir a você até que ponto essa cultura é esquisita. E não digo isso para fazer pouco-caso dela –e, sim, para descrevê-la. É uma comunidade que vive com um senso alterado do tempo e das consequências. Seus membros estão criando um poder que não compreendem, com uma rapidez em que eles próprios muitas vezes não acreditam.

Uma pesquisa de 2022 perguntou a especialistas em IA: "Qual é, na sua estimativa, a probabilidade de os seres humanos não conseguirem impedir que sistemas de IA avançados do futuro provoquem a extinção humana ou uma expropriação permanente e grave da espécie humana, semelhante à sua extinção?" A resposta mediana foi de 10%.

Acho isso difícil de conceber, apesar de ter falado com muitos especialistas para os quais a probabilidade é ainda maior. Para que você trabalharia sobre uma tecnologia que você imagina ter 10% de chances de exterminar a humanidade?

Quando pensamos em IA, normalmente pensamos em histórias de ficção científica. Passei a acreditar que as metáforas mais apropriadas se escondem em romances de fantasia e textos sobre ocultismo. Como escreveu meu colega Ross Douthat, este é um ato de convocação. Os codificadores que rogam esses feitiços não fazem ideia do que vai passar pelo portal e chegar até nós. O mais estranho, quando converso com eles, é que eles falam disso livremente. Não são pessoas ingênuas que creem que apenas anjos vão ouvir seu chamado. Eles acreditam que demônios podem ser invocados. Mas estão convocando assim mesmo.

Costumo lhes fazer a mesma pergunta: se você pensa que há possibilidades tão grandes de calamidade, por que fazer isso, para começo de conversa? Diferentes pessoas têm coisas diferentes a dizer, mas, depois de algumas cutucadas, vejo que elas frequentemente respondem com alguma coisa que soa como o ponto de vista da IA. Muitos –não todos, mas o suficiente para eu me sentir confortável em fazer esta caracterização— sentem que têm a responsabilidade de acolher essa nova forma de inteligência no mundo.

Poderão esses sistemas abrir as portas para uma nova era de progresso científico? Em 2021, um sistema construído pela DeepMind conseguiu prever a estrutura 3D de dezenas de milhares de proteínas, um avanço tão notável que os editores do periódico especializado Science o saudaram como a maior descoberta científica do ano.

Será que a IA vai povoar nosso mundo com companheiros e personalidades não humanos que se tornarão nossos amigos, nossos inimigos, nossos assistentes, nossos gurus e, possivelmente, até mesmo nossos amantes? Como reportou a revista New York, "dois meses depois de baixar o Replika, Denise Valenciano, 30 anos, de San Diego, deixou seu namorado e agora está ‘aposentada dos relacionamentos humanos e feliz com isso’".

Poderá a IA privar milhões de pessoas de seus empregos? A automação já o fez repetidas vezes. Será que poderá ajudar terroristas e Estados inimigos a desenvolver armas letais e ciberataques incapacitantes? Esses sistemas já oferecem orientações sobre a construção de armas biológicas, se você perguntar com astúcia. Será que poderão acabar controlando processos sociais críticos ou questões de infraestrutura pública de maneiras que não entendemos e que podem não nos agradar? A IA já está sendo usada para policiamento preventivo e sentenciamento judicial.

Mas não creio que essas listas de possibilidades óbvias ajudem muito a nos preparar. Podemos traçar planos para eventualidades que conseguimos prever (mas é revelador o fato de que não temos feito isso na maioria dos casos). O que está por vir será mais estranho.

Emprego o termo aqui de maneira específica. Em seu livro "High Weirdness", Erik Davis, o historiador da contracultura californiana, descreve coisas estranhas como "anômalas –elas se desviam das normas da expectativa informada e desafiam as explicações aceitas, às vezes de modo radical". Assim é o mundo que estamos construindo.

Se tivéssemos eternidades de tempo para nos adaptar, talvez pudéssemos fazê-lo de forma limpa. Mas não temos. As grandes empresas de tecnologia estão numa corrida pela hegemonia da IA. Os EUA e a China estão numa corrida pela hegemonia da IA. Está jorrando dinheiro para empresas com expertise em IA. Sugerir que avancemos mais devagar ou mesmo que paremos por completo já parece infantilidade. Se uma empresa for mais devagar, outra vai acelerar seus esforços. Se um país apertar o botão de pausa, os outros avançarão com mais determinação. O fatalismo conduz à inevitabilidade, e a inevitabilidade vira a justificativa da aceleração.

Katja Grace, pesquisadora sobre segurança de IA, resumiu essa ilógica perfeitamente. Desacelerar "envolveria coordenar muitas pessoas. Talvez sejamos suficientemente arrogantes para pensar que podemos construir um deus-máquina que pode assumir o controle do mundo e recriá-lo como paraíso, mas não somos delirantes."

Uma de duas coisas precisa acontecer. A humanidade precisa acelerar sua adaptação a essas tecnologias, ou precisa ser tomada uma decisão coletiva, e que possa ser implementada, de desacelerar o desenvolvimento delas. Mesmo fazer as duas coisas pode não ser o bastante.

O que não podemos fazer é tirar esses sistemas da cabeça, pensando que a sensação de normalidade quer dizer normalidade de fato. Admito que cogitar tais possibilidades parece um pouco estranho. Para mim também parece. É mais cômodo ser cético. Mas uma coisa que Davis escreve me parece verdade: "No tribunal da mente, o ceticismo é um ótimo grão-vizir, mas um péssimo rei".

Tradução de Clara Allain 

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.