Descrição de chapéu

ChatGPT: o que anima e o que assusta na nova inteligência artificial

Nova inteligência artificial pode revolucionar atividades, mas também preocupa

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Imagem mostra fila de robôs. Um deles está fora da fila, no lado direito da tela, e diz:

Ilustração feita pelo site de inteligência artificial (AI) DALL-E DALL-E

Luca Belli

Professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Nina da Hora

Pesquisadora especialista em IA e cibersegurança no CTS-FGV

Nas últimas semanas, a emergência do ChatGPT, novo chatbot desenvolvido pela OpenAI, chamou a atenção internacional. Essa nova ferramenta de inteligência artificial (IA) pode revolucionar um leque extremamente amplo de atividades humanas, mas não deixou de despertar também um considerável número de preocupações entre especialistas de tecnologia.

É altamente provável que reguladores sejam os próximos a se interessar por esta tecnologia.
O ChatGPT é uma das últimas aplicações do modelo algorítmico Generative Pretrained Transformer 3 (GPT-3). Este modelo de processamento de linguagem natural de última geração foi apresentado pela primeira vez em 2020, levantando diversos questionamentos éticos em relação ao seu uso.

O ChatGPT é capaz de entender a linguagem humana natural e gerar uma resposta semelhante ao fruto do intelecto humano após receber um pedido. A ferramenta ganhou destaque por três razões principais.

Imagem mostra robôs com cabeça branca, em estilo cubista
Ilustração feita pelo site de inteligência artificial (AI) DALL-E - DALL-E

Primeiramente, pelo nível extremamente refinado de suas respostas. A sua simulação quase fiel de textos escritos por humanos e suas respostas precisas e coerentes na enorme maioria de perguntas, mesmo as mais complexas, é impressionante.

Tal evolução se torna extremamente útil para facilitar uma miríade de tarefas e, consequentemente, extremamente lucrativa para quem conseguir alcançar este nível de sofisticação. Neste sentido, a segunda –mas talvez deveríamos considerá-la a primeira– razão pela qual o ChatGPT chamou a atenção dos especialistas foram os incessantes rumores sobre o vultoso investimento de US$ 10 bilhões que a OpenAI, liderada por Elon Musk e Sam Altman, estaria negociando com a Microsoft, depois de já ter recebido um investimento de US$ 1 bilhão da Microsoft em 2019.

Segundo Sam Altman, CEO da OpenAI, o ChatGPT já teria atingido a marca de 1 milhão de usuários, mesmo tendo sido lançado há menos de um mês. Por enquanto, o sistema de IA está sendo disponibilizado "gratuitamente", alistando usuários numa gigantesca operação de propaganda e teste da tecnologia.

Em terceiro lugar, e em perspectiva mais geral, o ChatGPT destaca a chegada de uma nova fase de automação na qual a IA não desempenha somente uma tarefa limitada, mas pode interagir de maneira muito mais refinada com o usuário, assistindo de maneira muito mais elaborada, desde a redação de um artigo, até a correção de código de software, no espaço de alguns segundos.

Imagem mostra robôs com cabeça preta, olhando para telas
Ilustração feita pelo site de inteligência artificial (AI) DALL-E - DALL-E

Por exemplo, o chamado "debug de código" é o primeiro exemplo oferecido no seu site oficial sobre como o ChatGPT pode contribuir para examinar e melhorar código, a partir de um "diálogo" com o programador.
Essa capacidade de gerar respostas para qualquer tipo de pergunta é extremamente promissora, mas também assustadora. Quando um usuário pede a elaboração de malware –ou seja, software malicioso tipicamente usado para ataques hacker–, o ChatGPT entrega rapidamente um ótimo rascunho de código que permitiria –ou pelo menos facilitaria enormemente– ataques particularmente perniciosos, mesmo se o perpetrador fosse um novato.

Por enquanto, ninguém parece ainda ter pedido ao ChatGPT para elaborar uma série de notícias falsas para causar danos a personalidades ou instituições públicas, mas o sistema performou muito bem na redação de emails de phishing a ser enviados para golpes online. Pode-se imaginar que o mesmo tipo de performance de alto nível possa ser alcançado com a elaboração de fake news.

Talvez uma das aplicações de maior sucesso do chat poderia ser a pesquisa acadêmica, que nos obriga a repensar radicalmente como as competências intelectuais dos indivíduos são avaliadas. Que sentido pode fazer avaliar um estudante com um trabalho de conclusão de curso ou um ensaio se tais trabalhos podem ser elaborados em poucos segundos pelo ChatGPT?

A ICML (International Conference on Machine Learning), uma das mais prestigiadas conferências de IA do mundo, já proibiu o uso de ferramentas como o ChatGPT para escrever ou corrigir artigos científicos. Essa decisão deu ensejo a um debate ético na academia e entre os profissionais de machine learning.

Algumas das questões éticas levantadas pela conferência foram a dificuldade em distinguir textos escritos pelo chat de textos de autoria humana e que seu uso permite a reformulação de textos disponíveis na internet, sem creditar os autores originais.

O plágio é considerado um problema grave nas instituições de ensino, mas sistemas como o ChatGPT tornam a prática extremamente mais fácil e, ao mesmo tempo, difícil de se detectar. Embora a proibição estabelecida pela ICML seja totalmente compreensível, sua implementação parece extremamente difícil. Ainda não está claro como o comitê organizador da ICML –ou qualquer outra pessoa– poderia determinar se um texto foi elaborado com o auxílio dessas ferramentas.

As aplicações do ChatGPT podem ser extremamente valiosas e poupar milhões de horas de trabalho em redação de emails, notas, planos, projetos, software etc. Porém, ao lado de usos amigáveis e de boa-fé vêm muitos outros potenciais (ab)usos muito menos nobres.

A finalidade pela qual qualquer tecnologia é usada depende de seu usuário. Mas o desenvolvedor não pode ser totalmente isento de responsabilidade e deve ter um dever de cuidado quando a tecnologia pode facilmente ser utilizada para finalidades nocivas.

O ChatGPT levanta questões muito relevantes de cibersegurança, de proteção de dados, de pedagogia e de ética. Nos obriga a repensar nossa relação com IA a fim de começar a considerar a necessidade de evoluir com ela, nos tornando mais inteligentes e preparados graças a ela. A outra opção, mais preguiçosa, e muito mais perniciosa: nos tornar dependentes ao invés de protagonistas da IA.

A chegada de um tipo de IA mais complexo e desafiador nos obriga a analisar todos os efeitos, sejam positivos ou negativos, de tais avanços, a nos preparar de maneira séria e entender como regular de forma eficiente.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.