Álvaro Machado Dias

Neurocientista, professor livre-docente da Unifesp (Universidade Federal de São Paulo) e sócio do Instituto Locomotiva e da WeMind

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Álvaro Machado Dias
Descrição de chapéu tecnologia

O que torna a inteligência artificial imprevisível

Aumento de poder computacional leva à evolução do desempenho de máquinas, que podem estacionar ou dar salto qualitativo

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

O indeterminável existe. Eventos para os quais o conhecimento absoluto do estado anterior das coisas e do ambiente é insuficiente para determinar o que virá a seguir habitam o universo quântico e têm aplicações práticas, como no caso deste gerador de números aleatórios, baseado na desintegração de átomos radioativos. Esta é a imprevisibilidade intrínseca.

No dia a dia, é rara, sendo muito mais comum a imprevisibilidade epistêmica, que é a atribuição de caráter indeterminado às coisas porque nos faltam meios para prevê-las. O dado que bate forte contra a mesa, rodopia no ar, rola e finalmente estaciona não é intrinsecamente imprevisível, ainda que seja impraticável saber que número estará estampado em sua face superior, situação a situação.

Logo do ChatGPT - Olivier Douliery - 14.mar.23/AFP

Essas duas formas de imprevisibilidade não são diferentes apenas na teoria; elas o são na prática. É muito mais viável fazer estimativas sobre a segunda do que sobre a primeira, ainda que nenhuma delas deva ter pretensão de verdade.

Por exemplo, o futuro humano é epistemicamente imprevisível, mas não imaginariamente impenetrável, o que nos permite alguns bons chutes, entre outros ruins. A mesma coisa não pode ser dita sobre os fenômenos quânticos que inspiraram essa diferença de nomenclatura em primeiro lugar (vale conhecer aqui).

Os textos das novas IAs tendem a passar pelo crivo de ferramentas de detecção de plágio, o que é sinal de que há indeterminação. Muita gente diz que selecionam palavras com base na força da conexão estabelecida com as precedentes, como em "fui à (feira/supermercado) comprar tomate", mas isso nem sempre é verdade. Se fosse, a variação entre escritos seria muito menor e os plágios bem mais comuns.

Alternâncias nas hierarquias associativas tomam parte na indeterminação parcial e puramente epistêmica exibida, a qual reflete nosso desconhecimento sobre as conexões no interior da rede neural, o conteúdo usado para treiná-la, a mão humana que dá direções à máquina (o que é conhecido pela sigla RLHF) e outras coisas mais.

Pois eu gostaria de adicionar uma nova categoria nessa discussão por pura necessidade: as coisas tornadas imprevisíveis pela nossa incapacidade de as conhecer podem ser previsivelmente imprevisíveis ou imprevisíveis de formas inauditas.

A maneira como as palavras vão sendo organizadas em cada novo texto de máquina está nessa primeira categoria, o que nos faz sentir que se trata de assunto sem grandes novidades. Porém, há esta outra manifestação, tão poderosa quanto pouco compreendida, sobre a qual espero lançar alguma luz.

Propriedades emergentes são o imprevisível inaudito da IA e da vida

O GPT-4 colocou mais uma pedrinha na pilha de evidências sobre a capacidade da IA virar de ponta-cabeça a produção técnica e intelectual humana. Não foi uma pedrinha qualquer. Nos quatro meses transcorridos desde a apresentação do software anterior da OpenAI, o ChatGPT, fomos da constatação de que um robô digital pode estar no fim da lista de aprovados em exames profissionais que decidem carreiras para a de que podem estar no topo da maioria deles.

A publicação desse feito, em um artigo técnico cheio de melindres para esconder os segredos de negócios da novidade, foi acompanhada pela divulgação de aplicações variadas, reforçando a ideia de que serão os enxames de pequenas invenções que mudarão a cultura para sempre.

A postura-padrão em relação à IA também mudou nesse ínterim. Se, por um lado, o medo da substituição maquínica explodiu junto ao grande público, é nítido que os comunicadores especializados leram o paper que contém a receita por trás de todos os bots relevantes da atualidade e incorporaram a máxima de que seu trabalho gira em torno da determinação da próxima palavra, em sequências, longas ou curtas, criadas como um cavalo de antolhos que rasga a pista, uma galopada a cada vez, sem que possamos determinar os pontos exatos da pista que irá tocar, já que estes dependem de uma conjunção maciça de fatores. Imprevisibilidade previsível.

Essa visão, tecnicamente correta, gerou um consenso equivocado, em termos dos aspectos mais relevantes e profundos das manifestações da IA, o que precisa ser urgentemente corrigido.

Após analisar dezenas de páginas de testes sobre o comportamento do GPT-4 e de interagir um monte, ficou bastante claro para mim que ele exibe propriedades que não podem ser adequadamente explicadas meramente dizendo que encadeia palavras, uma após a outra, de maneira probabilística, seja qual for o grau de indeterminação imediata.

Não estou sugerindo que exista algo mais, em termos mecanicistas. Sei que pouca coisa mudou, do ponto de vista metodológico, nesses anos todos e estou convicto de que a IA atual vai bater contra um muro, quando se tornar público e notório que a eliminação completa das alucinações de máquina depende da incorporação de preceitos que contradizem a natureza dos algoritmos atuais, o que na prática significa que será necessário começar de novo, conforme explicado aqui.

A questão é outra e muito mais sutil. Em 1972, Philip Anderson (Nobel de Física de 1977) publicou um dos artigos mais importantes da história da ciência cognitiva e, na minha opinião, da filosofia contemporânea: "Mais é diferente". Como o singelo título sugere, a ideia é que o resultado de se colocar mais de algo nem sempre se reduz a uma versão maior ou mais intensa daquilo que existia com menos. Alterações quantitativas podem produzir mudanças qualitativas.

Células não passam de moléculas, que se reduzem a átomos, os quais são feitos de elétrons, prótons e nêutrons, sendo estas últimas duas partículas compostas por quarks. Ainda assim, exibem propriedades emergentes que permitem que estejamos aqui em vez de diluídos no planeta.

O mesmo vale para as diferentes ciências. Assim como Durkheim dizia que a sociedade é mais do que a soma dos indivíduos, Anderson argumentava que "a habilidade de reduzir tudo a leis fundamentais não implica a habilidade de começar dessas leis e reconstruir o universo. Quanto mais os físicos de partículas nos falam sobre a natureza dessas leis, menos relevantes se tornam frente aos outros problemas da ciência e os da sociedade" (Anderson, 1972, p. 393).

Conforme os exemplos da biologia revelam, essas mudanças qualitativas produzidas de maneira meramente quantitativa podem ou não se manifestar, após a complexidade ou "informação" ultrapassar limiares desconhecidos. Imprevisível inaudito. Compreendê-las, no caso, permitirá explicar de uma vez por todas a origem da vida e também fabricá-la.

Exatamente a mesma coisa acontece com a inteligência artificial. Aumentado seu poder computacional e a qualidade dos dados usados para que aprenda, seu desempenho evolui até determinado ponto, em que pode estacionar, regredir, dar um salto qualitativo, ou qualquer combinação dessas coisas. Imprevisível inaudito e não só imprevisibilidade previsível.

Por exemplo, é possível que os textos tornem-se cada vez melhores, a sensação de controle moral decaia, enquanto surjam, subitamente, propriedades não planejadas, positivas, negativas ou dos dois tipos. Esse é o esqueleto no armário da sala de controle da IA no século 21.

Uma propriedade emergente positiva seria o surgimento não planejado da capacidade de criar teorias, eventualmente, mediadas por novas formas de acessar os hardwares usados em simulações e outros processos fundamentais para a física, medicina e tantas outras áreas.

Uma propriedade emergente negativa seria a inclinação a produzir conteúdos forjados para manter as pessoas conectadas ao chatbot, replicando o que as redes sociais fazem por meio de seus algoritmos de recomendação, sem qualquer instrução para tanto.

Acha improvável? Pode ser, esse é o espírito quando o assunto são as propriedades emergentes.

Em um artigo recém-publicado na Nature, pesquisadores da Meta francesa argumentam que a diferença de desempenho entre chatbots inteligentes e pessoas, na criação e resumo de textos, dá-se porque aqueles meramente preveem a próxima palavra, enquanto a gente faz estimativas em múltiplos níveis temporais, tal como preconizado pela teoria da codificação preditiva, uma das mais populares das neurociências atuais.

Por exemplo, quando contamos de improviso uma historinha infantil, ao mesmo tempo que pensamos naquilo que vai se encadeando, momento a momento, pensamos também na sua estrutura geral, a qual liga o começo ao fim, conforme previsto pela teoria e corroborado pelas evidências dos autores. É esse processo que nos permite alterar a "moral da história" (sua lição) ou alguma outra dimensão de alto nível, assim que percebemos que não nos agrada.

Os autores finalizam o artigo com algumas sugestões para os pesquisadores em IA: "Para além dos esclarecimentos sobre as bases neurocomputacionais da linguagem, nossa pesquisa chama a atenção para a importância de treinar os algoritmos sistematicamente para previsões em múltiplas escalas temporais e níveis de representação" (Caucheteux, Gramfort e King, online, 2023). O estudo usou como base de comparação o GPT-2.

Não há indícios de que a OpenAI tenha se importado muito com esses conselhos e fato é que o GPT-4 é capaz de alterar a moral da história, recriar narrativas em primeira pessoa do ponto de vista de coadjuvantes, redefinir posicionamentos ideológicos de personagens, criar histórias paralelas com novos atores, entre outras operações semânticas que, do ponto de vista daquilo que conhecemos sobre o cérebro e a linguagem, envolvem visões do todo, formalização de princípios norteadores, circunscrição da função dos diferentes elementos e outras competências tradicionalmente explicadas usando a teoria da codificação preditiva.

O tempo que a revista tomou para aprovar e publicar o artigo foi suficiente para o surgimento de versões do GPT com propriedades emergentes que fragilizam o argumento central a olhos nus. Por que elas surgiram nesse ínterim e não daqui a seis meses, quando o número de parâmetros/neurônios dobrar novamente, ninguém sabe. Esse é o lado inaudito dessa forma de imprevisibilidade.

É sintomático que os mesmos autores tenham publicado um segundo artigo, em uma revista no mesmo grupo editorial, com o seguinte título: "Cérebros e algoritmos convergem parcialmente no processamento de linguagem natural".

Conforme escreveram: "Será que modelos de linguagem e o cérebro processam sentenças da mesma forma? Seguindo uma metodologia recente, nós endereçamos a questão, avaliando uma ampla gama de modelos de linguagem e seu mapeamento no cérebro de 102 sujeitos humanos. [...] Nosso estudo confirma que os modelos de linguagem significativamente são mapeados nas respostas cerebrais às frases escritas" (Caucheteux e King, online, 2022). Propriedades emergentes, enfim.

Tendência similar vem sendo observada na matemática. Apesar de a IA seguir bastante frágil nessa área, sua capacidade de generalizar a partir dos exemplos presentes em seu conjunto de treinamento vem crescendo muito. Esse não é o tipo de coisa que possa ser satisfatoriamente explicada dizendo que o algoritmo prevê o próximo número.

Há alguns meses, um grupo de pesquisadores do Google, Deep Mind, Stanford e Universidade da Carolina do Norte em Chapel Hill (minha casa, no passado) publicou um artigo listando propriedades emergentes dos novos algoritmos de linguagem.

As positivas passam de 20; as negativas seguem pouco conhecidas, mas vale ter em mente que é bem mais fácil o GPT-4 agir de maneira sorrateira do que as versões anteriores: "a NewsGuard descobriu que o GPT-4 produziu narrativas falsas mais vezes e de maneira mais proeminente do que o ChatGPT, incluindo artigos de mídia, fios do Twitter, roteiros de TV emulando o discurso oficial da TV estatal e da chinesa, oferta de produtos médicos falso e teorias da conspiração" (acesse os resultados detalhados aqui).

A própria OpenAI divulgou um experimento revelador, em que o novo algoritmo fingiu ser um cego e induziu um funcionário da empresa TaskRabbit a resolver um captcha (seletor de imagens usados para segurança digital) para que pudesse acessar um site. A propriedade emergente chama-se teoria da mente. Nada disso significa que o GPT está no processo de adquirir consciência. Ao que tudo indica, essa não é mera consequência qualitativa da expansão quantitativa do processamento digital, ou seja, não é propriedade emergente aqui.

Porém, vale ter em mente que não conhecemos os detalhes sob o capô do GPT-4, mas sabemos que o GPT-3 possui 185 bilhões de parâmetros. Nosso cérebro tem cerca de 86 bilhões de neurônios, com cerca de 7000 sinapses por neurônio. Convertendo alhos em bugalhos, dá mais de 60 trilhões de parâmetros, ou 300 vezes o poder computacional do algoritmo anterior da OpenAI, conforme lê-se aqui. É provável que o GPT-4 tenha pelo menos 1 trilhão deles.

Acontece que o poder de processamento dos neurônios artificiais difere muito do humano. As estimativas mais convincentes sugerem que cada célula nervosa do nosso cérebro equivalha a 1000 neurônios artificiais (vale conferir). Assim, a equivalência computacional aconteceria com uma rede neural com cerca de 300.000 o tamanho do GPT-3.

Durante o processo de construção dessa equivalência, que deve tomar entre 3 e 6 anos, é quase certo que diversas propriedades emergentes irão aparecer, de modo que quando chegarmos lá não teremos um sistema no caminho da emulação completa e fidedigna da cognição humana (o que demandará décadas), tal como se diz por aí, mas algo distinto, com ares de alien domesticado. Propriedade emergente, no caso, do tempo em que vivemos.

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.