Saltar para o conteúdo principal

Publicidade

Publicidade

 
 
11/12/2012 - 15h00

Os robôs vão virar uma ameaça existencial à humanidade?

Publicidade

JOHN NAUGHTON
DO "OBSERVER"

Antigamente, o termo "existencialista" remetia a mal-ajambrados intelectuais franceses bolinando moças impressionáveis em cafés parisienses, enquanto desfiavam absurdos sobre a superioridade da experiência individual. Mas aquela era uma época diferente da atual, quando o termo passou a ter uma interpretação menos solipsista. Como em "ameaça existencial", ou seja, ameaças à existência da nossa espécie, em decorrência do nosso domínio sobre a tecnologia.

Convivemos com uma ameaça dessas --a de aniquilação nuclear-- desde meados da década de 1940, e, embora a perspectiva desse pesadelo específico tenha tido certo recuo, ele não foi eliminado. Durante a era do pós-guerra, no entanto, uma combinação de desenvolvimento econômico com um incrível progresso em algumas áreas da ciência e tecnologia não só abriu notáveis oportunidades para a sociedade como também lançou os fundamentos para um novo conjunto de ameaças existenciais.

Kevin P. Casey/The New York Times
Eric Horvitz, da Microsoft, com seu robô assistente no escritório da empresa, em Redmond (EUA)
Eric Horvitz, da Microsoft, com seu robô assistente no escritório da empresa, em Redmond (EUA)

O aquecimento global (ou a "vingança de Gaia", como diz James Lovelock) é uma das ameaças discutidas com maior frequência. Afinal de contas, o planeta não precisa realmente de nós, e o aquecimento global pode dar-lhe uma forma de demonstrar isso. Mas agora uma dupla de importantes acadêmicos e um rico empresário do setor de softwares argumentam que há outras ameaças a respeito das quais deveríamos nos preocupar --e pensar.

Os acadêmicos são Martin Rees, astrônomo real e ex-presidente da Real Sociedade, e Huw Price, titular da cátedra Bertrand Russell de filosofia em Cambridge. O "geek" é Jaan Tallinn, cofundador do Skype, empresa de telefonia via internet que hoje pertence à Microsoft.

Juntos, eles montaram o Projeto Cambridge para o Risco Existencial. Seu objetivo é tentar avaliar os perigos que podem surgir por causa do progresso da inteligência artificial (IA), dos acontecimentos envolvendo biotecnologia e vida artificial, da nanotecnologia e de possíveis efeitos extremos da mudança climática antropogênica.

A maior parte dessas coisas está acima da minha alçada, mas me interesso pela IA. A linha de pensamento que leva à conclusão de que ela poderia, um dia, constituir uma ameaça existencial pode ser grosseiramente resumida assim: os computadores estão se tornando mais poderosos em um ritmo quase exponencial, então um dia chegaremos ao ponto em que eles conseguirão uma inteligência artificial de nível humano.

Como disse I.J. Good, ex-colega de Alan Turing e o primeiro escritor a contemplar as implicações dessa possibilidade, essas máquinas "podem projetar máquinas ainda melhores; haveria então inquestionavelmente uma 'explosão de inteligência', e a inteligência do homem ficaria bem para trás. Assim, a primeira máquina ultrainteligente é a última invenção que o homem jamais precisará fazer". A única questão remanescente, então, seria se essas máquinas inteligentes estariam interessadas em manter os humanos como animais de estimação.

SINGULARIDADE

O estudo de Good, "Speculations Concerning the First Ultraintelligent Machine" ["especulações a respeito da primeira máquina ultrainteligente"], foi publicado em 1965, e desencadeou um febril debate nos círculos da ficção científica, da neurociência pop e da computação, que prossegue desde então. O termo "a singularidade" foi cunhado em 1993 por Vernor Vinge, autor de ficção científica, para descrever o momento em que os humanos deixarão de ser as coisas mais inteligentes do planeta, e foi popularizado pelo inventor e futurista Ray Kurzweil em seu livro "The Singularity Is Near" ["a singularidade está próxima"].

Durante grande parte desse tempo, prestei pouca atenção ao debate. O campo da IA já passou por vários ciclos de especulação exagerada, seguidos por decepções empíricas, e embora tenha havido grandes avanços na robótica, nada remotamente ameaçador para a cognição humana parecia estar no horizonte. Na verdade, a Lei de Moore --a que diz que o poder de computação duplica a cada dois anos-- continua válida, mas a mera velocidade de processamento não seria a mesma coisa que inteligência. E havia algumas coisas que os humanos fazem bem, e com as quais as máquinas tinham dificuldades.

Pelo menos era o que eu pensava. Aí o Google lançou o seu projeto de um veículo autônomo (vulgo "carro que se dirige sozinho"). Ao equipar um Toyota Prius completamente comum com US$ 250 mil em sensores e equipamentos de computação, a empresa criou um veículo capaz de navegar com segurança até nas mais congestionadas condições de tráfego. Até agora, esses carros acumulam algo como 800 mil km sem acidentes, o que significa que os carros robóticos são na verdade mais seguros do que os guiados por humanos.

Para mim, a implicação do carro do Google não é necessariamente a de que a "singularidade" de Kurzweil está próxima, e sim que nossas suposições sobre o potencial dos computadores --e, portanto, da inteligência artificial-- precisam urgentemente de uma revisão. Precisamos pensar seriamente nesse troço, seguindo as linhas demonstradas pelo filósofo David Chalmers num estudo incrível, ou por Erik Brynjolfsson e Andrew McAfee em seu livro "Race Against the Machine" ["corrida contra a máquina"].

E precisamos que as instituições acadêmicas se preparem para a tarefa. Por isso a iniciativa dos "messieurs" Rees, Price e Tallinn é tão bem-vinda. E por isso filósofos franceses nem precisam se apresentar.

Tradução de RODRIGO LEITE.

 

Publicidade

Publicidade

Publicidade


Voltar ao topo da página