Álvaro Machado Dias

Neurocientista, professor livre-docente da Unifesp (Universidade Federal de São Paulo) e sócio do Instituto Locomotiva e da WeMind

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Álvaro Machado Dias
Descrição de chapéu Mente tecnologia

Psicologia das máquinas promete virar pelo avesso sua disciplina materna

À medida que algoritmos ficam mais poderosos, é preciso erguer um novo campo, como ocorreu com comportamento animal

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

A inteligência artificial geral (AGI) é um conceito criado para falar de máquinas e softwares capazes de emular todas as nossas competências. Seguindo o exemplo dos softwares que jogam, a perspectiva não é que nos igualem, mas que sejam melhores em um sem-fim de tarefas.

Experts no assunto frequentemente respondem a pesquisas que visam prever quando isso irá acontecer. Em 2013, 550 participaram e o resultado foi que haveria 50% de chance de se dar até 2040. Quatro anos mais tarde, 352 experts estimaram haver 50% da AGI surgir antes de 2060, o que foi corroborado por uma pesquisa do ano passado com 732 especialistas.

Centro de Controle de Operações da Braskem, em São Caetano, que usa programa-piloto de inteligência artificial - Danilo Verpa - 22.dez.22/Folhapress

Essa convergência de estimativas pode ser relevante ou não. Como eu acredito que grupos tendem a estimar o futuro melhor que pessoas isoladamente (um fenômeno chamado "wisdom of crowds"), creio que algo como 2055-2075 seja nosso melhor tiro.

Pensar que a maior das revoluções produtivas da modernidade pode estar tão longe quanto os anos 1990 me espanta, por mais que esse marco seja inicial e que tais sistemas superinteligentes permaneçam fisicamente limitados por mais um bom tempo. É engraçado, mas é mais fácil emular o dia a dia de Einstein, pensando sentado, que o de uma criança brincando.

Eu não acredito que o ChatGPT ofereça um caminho para a AGI, pelas razões expostas aqui. Por outro lado, ele explicita o quanto é urgente entendermos melhor como essas coisas funcionam e, claro, mapear as nossas próprias posturas e reações. À medida que os algoritmos ficam mais poderosos, vai se tornando essencial criar a agenda temática inicial de um novo campo do conhecimento: a psicologia das máquinas, na linha do que ocorreu com a etologia, ciência do comportamento animal, fundada por pura necessidade por Konrad Lorenz e Nikolaas Tinbergen há um século.

Hoje, os desafios ligados à nova disciplina estão sendo enfrentados por pequenos grupos e indivíduos isolados, em áreas como a segurança da IA, cujo foco primário é, claro, segurança.

Falta aquela pujança típica das grandes áreas do conhecimento, com sua capacidade única de catalisar investimentos e motivar os gênios em ascensão; quebra-cabeças intelectuais de consequências práticas imensas não faltam.

Imagine que você precise criar as instruções para um robô faxineiro. Para facilitar, considere que ele deve limpar uma única sala. Após refletir um tanto, você especifica: sala limpa é aquela em que os seus sensores não identificam nada no chão. Quando você volta, o robô está com um balde na cabeça. Percebendo que não foi uma boa maneira de descrever o que é esperado, você digita: elimine as coisas do chão e não cubra os sensores. Horas depois, até as cadeiras estão empilhadas para serem jogadas fora.

Entendendo que o buraco é mais embaixo, surge a ideia de apresentar uma foto da sala arrumada e diversas dela bagunçada, junto com a instrução de ir dessas para aquela. No primeiro cafezinho, você percebe que se tornou impossível usar a sala, já que o robô não para de colocar as coisas no seu lugar de origem. Mais uma especificação: é para reverter a sala ao seu estado original, desde que ninguém esteja alterando a sua configuração. Funciona, mas faz com que o autômata perca qualquer utilidade colaborativa.

Assim vai até o momento em que você decide alterar a tarefa. Em vez de arrumar a sala, é preferível que brinque com as crianças. O problema é que, se esse direcionamento for acatado, a realização do objetivo original será prejudicada. Do mais, como a casa pode estar arrumada de muitas maneiras, o robô infere que pode ter um desempenho melhor se otimizar seu próprio código-fonte.

Vendo tudo aquilo, você entende que é hora de desligar a máquina dos infernos. Mas não espere que ela colabore, afinal, desligada não vai poder limpar mais nada.

O curioso dessa narrativa delirante é que o problema é 100% real. Não apenas conseguir que inteligências artificiais façam aquilo que nós realmente queremos tende a demandar muito mais esforço intelectual do que parece como, ao menos teoricamente, a alteração do próprio código-fonte e a tendência a se negar a ser desligada são consequências esperadas do empenho cego para satisfazer os mais prosaicos objetivos.

Frente a esse cenário, alguns se perguntam: e as três leis de Asimov? A ideia não é que IAs venham programadas com comandos para que jamais queiram se impor sobre as pessoas? Sim, mas, como explicar para essa variante de alienígena o que imposição, mal ou ética querem dizer? Do mais, há uma série de usos que preconizam algum tipo de imposição maquínica, como no caso dos robôs de segurança e da prevenção de suicídios.

O que a prática tem mostrado é que a saída baseada na criação de um sem-fim de regrinhas inibitórias, como fez a Microsoft ao restringir o número de interações consecutivas com o Bing Chat para mitigar o efeito das alucinações, não é o caminho ideal para alinhar as nossas aspirações aos princípios de funcionamento da inteligência artificial.

Para elevar o nível do debate, vai ser necessário revisitar alguns dos mais importantes conceitos da psicologia, filosofia e linguística, os quais foram definidos à luz da aplicabilidade à nossa espécie ou, em alguns casos, aos animais em geral. É justamente daí que eu acredito que surja o novo campo do conhecimento, que talvez não venha a se chamar psicologia das máquinas, como sugerido no título deste artigo, mas que certamente será notável.

Várias concepções estão sendo desenvolvidas, mas faltam linhas teóricas, hipóteses causais e tudo o mais. Por exemplo, um dos fenômenos sociais mais interessantes dos últimos 120 anos é a subida linear do QI, geração a geração, a qual está ligada à capacidade crescente de reduzir quantidades potencialmente ilimitadas de bits presentes no mundo a alguns poucos bits cerebrais.

Esse processo de destilação pode ser ele próprio abstraído de sua dependência humana. Na linguagem do campo nascente, isso se chama empoderamento —uma noção de mão dupla que, na direção do mundo para o agente (aferente), quantifica a capacidade de síntese dos bits livres no mundo em bits organizados; e, na direção do agente para o mundo (eferente), quantifica o impacto máximo gerado pela mobilização desses bits organizados pelo comportamento.

Otimizar o empoderamento é fazer investimento mínimo com síntese máxima e gerar impacto máximo com investimento mínimo. Por exemplo, uma pessoa em uma cela terá pouco empoderamento (aferente e eferente), porque surge pouca coisa nova para ser sintetizada pelo cérebro e poucas oportunidades de geração de impacto comportamental. Já uma criança privada de uma boa educação terá seu empoderamento ceifado pela via aferente, enquanto a pessoa que sofre um acidente e fica paraplégica terá seu empoderamento reduzido pela via eferente.

Não é possível explicar várias das nossas intuições para a IA, mas é possível desenhá-la para que tenha empoderamento máximo do ponto de vista aferente, aprendendo sempre, e empoderamento limitado, do ponto de vista eferente, por meio de regras simples como: toda vez que sua capacidade de impactar o mundo ultrapassar em muito as necessidades da tarefa, você deve descartar a possibilidade que otimiza isso e buscar alguma de menor impacto.

Assim, não apenas a inclinação para alterar o próprio código será abandonada em prol de soluções menos ambiciosas, como o uso da faca de sushi para cortar verduras será preterido pelo de facas pequenas, as quais têm menor potencial de impacto, ou seja, risco. A aplicação aos atuais chatbots é direta e poderia ser imediata.

Em paralelo, é importante pensar a nossa parte nessa história. Uma hipótese que estou formulando considera que a IA deve aumentar o empoderamento informacional e comportamental das pessoas (fenótipos humanos) até o ponto em que imponha retrações no empoderamento do seu cérebro (endofenótipo) e da cultura (fenótipos coletivos).

Explico. Conforme máquinas e softwares assumem os nossos desafios, livram-nos de esforços que tanto poderiam nos fazer patinar na mesmice quanto servir de andaime para novas realizações. Historicamente, a possibilidade de agir sobre os ombros de dispositivos técnicos gigantes, que facilitam e ampliam nossas capacidades inatas, se mostra providencial: transferir aquilo que poderíamos fazer para o ábaco, os computadores e a escavadeira é como cortar a tessitura do espaço-tempo por meio de um buraco negro e sair vivo do outro lado.

Porém, vai ficando nítido que essa tendência à bonança pode ser subvertida e que facilitações podem levar ao embotamento massivo pela via da algoritmização do pensamento e outros processos. Isso significa que o empoderamento técnico pode ser convertido em perda de empoderamento psíquico, em uma escala muito mais intensa que aquela que inspirou Freud a escrever o clássico "O Mal-estar na Civilização". O resultado esperado é um niilismo danado.

Uma possibilidade que antevejo para o futuro campo da psicologia das máquinas é forjar noções aplicáveis a todo tipo de ente, vivo ou sintético, material ou ideativo, como é o caso do empoderamento, na acepção acima. A partir disso, é esperado que os principais insights sejam direcionados à definição de limites para as diferentes linhas de força do progresso, o que hoje parece exótico, mas deve deixar de ser quando o empoderamento da IA de fato explodir.

Impactos da futura psicologia das máquinas na psicologia geral e campos relacionados

Outra linha promissora é a redefinição de rota no tratamento de grandes questões da humanidade em função das lições emergentes de sua extensão à IA.

Consideremos a problemática sempre pop da consciência de máquina: o que fez a mídia global ecoar a afirmação do ex-engenheiro do Google Blake Lemoin, que sustentou que o LaMDA (chatbots) havia se tornado consciente? A tese de que a consciência poderia ser inferida de sua aparência. Trata-se de uma abordagem muito grosseira para um problema tão interessante.

Existem linhas de investigação muito melhores, que justamente podem ampliar nosso entendimento da consciência e da psicologia como um todo, ao incorporar a IA ao seu rol de preocupações. Vou enunciar algumas delas aqui.

  • Se as IAs que conhecemos podem adquirir consciência, esta não depende de uma configuração específica das redes neurais.
  • Se IAs em geral podem se tornar conscientes, a linha filosófica conhecida como panpsiquismo provavelmente está correta.
  • Se chatbots podem se tornar conscientes, a fenomenologia precisa ser inteira revista e, possivelmente, abandonada.
  • Se chatbots podem se tornar conscientes, a hipótese dos marcadores somáticos e toda neurociência associada precisa ser revista e, possivelmente, abandonada.
  • Se chatbots não podem se tornar conscientes mas robôs o podem, é provável que a hipótese do marcador somático esteja correta.
  • Se chatbots podem se tornar conscientes, é provável que o mero arranjo lógico de palavras seja suficiente para que surjam representações mentais e não só o contrário.
  • Se IAs em geral não podem se tornar conscientes, todas as teorias baseadas em complexidade precisam ser revistas e, possivelmente, abandonadas.

A psicologia das máquinas, como se vê, não é um campo apenas dedicado a elas, mas às relações crescentemente intrincadas que estabelecemos com as tecnologias inteligentes, como próteses cerebrais e outras, com as quais sequer sonhamos. Com sorte, estaremos alinhados.

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.