Blake Lemoine, o engenheiro da Google que acreditou que um robô da empresa se tornara consciente, viajou na maionese. Nós claramente ainda não temos tecnologia para fabricar máquinas autoconscientes.
O robô com o qual Lemoine interagiu para chegar à sua precipitada conclusão é uma inteligência artificial que mergulha em trilhões de páginas de conversas humanas e, a partir dessa formidável amostra, tenta produzir diálogos convincentes. É imitação e não pensamento reflexivo. Basta para passar no teste de Turing, que ficou meio obsoleto, mas não para ser classificado como um objeto de consideração moral.
Lemoine, porém, levanta uma questão interessantíssima. Um dia veremos inteligências artificiais com consciência? O livro de Anil Seth, do qual falei há pouco, traz passagens luminosas sobre essa pergunta, mantendo-se, porém, agnóstico sobre a resposta. Para a maior parte dos filósofos da mente, que abraçam o funcionalismo, consciência é processamento de informação, pouco importando em qual meio ele se dá.
Tanto faz se são células vivas ou circuitos integrados. Mais ou mesmo na mesma linha, mas mais ingênuos, vão os entusiastas da singularidade, para os quais basta transpor um certo limiar de inteligência para chegar à consciência.
Seth lembra que as coisas podem ser mais complicadas. Tudo depende, é claro, do modelo de consciência que abraçamos. Um bastante popular entre neurocientistas é o da consciência como um sistema de automonitoramento. A necessidade de nos mantermos vivos e em homeostase nos fez desenvolver sentimentos, emoções e acessá-los continuamente para saber como estamos e nos anteciparmos aos desafios que o mundo nos impõe. Por esse modelo, é difícil, ainda que não impossível, separar a consciência de uma materialidade visceral da vida.
A moral da história, para a ciência cognitiva e para a vida, é que inteligência não é sinônimo de consciência.
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.