Descrição de chapéu
Tiago Torrent

Ferramentas como ChatGPT só existem porque humanos veem sentido a partir de qualquer coisa

Não nos cabe nem atribuir à IA uma capacidade que ela não tem nem eximir-se da responsabilidade pelos danos oriundos de seu uso

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tiago Torrent

Doutor em Linguística pela Universidade Federal do Rio de Janeiro. Professor do Programa de Pós-Graduação em Linguística da Universidade Federal de Juiz de Fora e Coordenador do Laboratório FrameNet Brasil. Bolsista de Produtividade do CNPq.

Fato: ferramentas de inteligência artificial (IA) gerativa estão revolucionando o mundo. Dentre elas, o ChatGPT é a mais popular. Entender o que ele tem de especial passa por dois vieses: o da computação e o da linguística.

Do ponto de vista computacional, a inovação do ChatGPT é como ele combina o modelo de língua que constrói durante o treinamento com uma versão da "Aprendizagem de Reforço por Feedback Humano".

Essa técnica usa avaliações humanas para auxiliar a IA no processo de cálculo da perda entre aquilo que foi e aquilo que deveria ter sido gerado por ela como resposta mais provável a um determinado comando. Cada vez que selecionamos hidrantes em um captcha, ou avaliamos uma tradução automática, estamos ajudando a IA a se recalibrar para diminuir a perda.

Interface do ChatGPT, IA generativa da OpenAI - Florence Lo/Reuters

O ChatGPT escalonou –e muito– essa ideia. Em vez de confiar só na avaliação dos usuários, essa ferramenta usou uma quantidade absurda –e mal remunerada– de avaliações humanas acerca da fluência do texto produzido. Assim, o modelo de IA por trás do ChatGPT foi recalibrado a partir de uma infinidade de feedbacks humanos. Qual o impacto disso? Aqui entra o viés linguístico.

Essa IA, que foi treinada e recalibrada para gerar sequências de texto que pareçam fluentes, é usada por humanos cuja cognição evoluiu para construir sentido a partir de qualquer pista. Qualquer pista mesmo: nós vemos rostos sorridentes em tomadas dinamarquesas e alienígenas nas rochas da superfície de Marte.

Construir sentido a partir de pistas linguísticas é a base da comunicação humana. Toda língua é composta de símbolos que unem uma forma –por exemplo, trem– a um ou mais significados – meio de transporte ferroviário ou, se você for mineiro, virtualmente qualquer coisa.

Quando conversamos com alguém, nós nos engajamos em um processo de reconstrução do sentido pretendido por esse alguém.

Para usar as palavras de Gilles Fauconnier, linguista cognitivista, "a língua não porta significado, mas o guia", o que significa dizer que as formas linguísticas, por si só, não são garantidoras da interpretação.

É necessário que quem ouve ou lê uma sequência de palavras seja capaz de dar sentido àquele conjunto de pistas, a partir de conhecimento de mundo compartilhado.

Há, ainda, o Princípio da Cooperação, proposto por Paul Grice –filósofo da linguagem responsável por importantes contribuições para o estudo do significado.

Segundo Grice, quando nos engajamos em uma conversa, nós pressupomos que nosso interlocutor é cooperativo. Em outras palavras, pressupomos que ele está nos dando toda a informação necessária, que essa informação é verdadeira, relevante e que está sendo apresentada da forma mais adequada possível.

É na combinação desses dois aspectos que reside o grande impacto do ChatGPT: quando lemos a sequência de palavras gerada por essa IA, nossa cognição "treinada" para construir significado a partir de qualquer pista e para aderir ao princípio da cooperação vai achar uma maneira de essa sequência fazer sentido. Esse é o principal risco que IAs desse tipo trazem.

A fluência das sequências geradas por essas IAs desencadeia um processo de antropomorfização comunicativa que foi batizado de Efeito Eliza, em homenagem ao primeiro chatbot.

Esse efeito consiste em, a partir da projeção da nossa capacidade cognitiva para a IA, atribuir a ela uma capacidade que não tem: nesse caso, a de produzir sequências linguísticas sabendo o que significam.

É como se nós julgássemos que o ChatGPT sabe o que diz. Entretanto, o sentido de uma sequência gerada por uma IA desse tipo só existe porque nós, humanos, o construímos quando lemos o texto.

Ao respeitar o Princípio da Cooperação, nós podemos ignorar erros factuais no texto gerado, já que iremos pressupor que o que estamos lendo é verdadeiro. Podemos propor correlações falsas entre informações.

Afinal, se elas foram apresentadas juntas é porque a conexão entre elas deve ser relevante. Desnecessário dizer que esses são os ingredientes básicos de qualquer peça de desinformação.

Diante desses riscos –e do fato de que eles estão ancorados em traços fundadores da cognição humana–, é importante enquadrarmos as IAs gerativas não como inteligências robóticas saídas de um filme de ficção científica, mas como aquilo que elas são: ferramentas criadas e usadas por pessoas.

Logo, em uma realidade em que quem constrói sentido é a cognição humana, não cabe nem atribuir à IA uma capacidade que ela não tem, nem eximir-se da responsabilidade pelos danos oriundos de seu uso.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.