Descrição de chapéu
Luca Belli

O ChatGPT foi bloqueado ou não pela Itália?

Na inauguração do interesse de reguladores pela ferramenta, nenhum jornal relatou a notícia corretamente

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Luca Belli

Professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Walter B. Gaspar

Pesquisador do CTS-FGV (Centro de Tecnologia e Sociedade da FGV Direito Rio)

A Autoridade Italiana de Proteção de Dados (Garante) inaugura o interesse de reguladores pelo ChatGPT. Incrivelmente, nenhum jornal relatou a notícia corretamente, tomando a versão divulgada pela OpenAI, de que a ferramenta fora bloqueada pelo país, como a versão oficial.

Um olhar cuidadoso sobre o que foi decidido pelo Garante revela que não houve uma ordem de bloqueio do ChatGPT, tendo a decisão sido tomada unilateralmente pela OpenAI.

O regulador italiano pediu que a OpenAI interrompesse o tratamento de dados de residentes na Itália e deu tempo para que a empresa demonstrasse que a coleta de dados durante o treinamento de seus modelos de IA e durante o uso da ferramenta está em conformidade com o Regulamento Europeu sobre Proteção de Dados.

Tela mostra ChatGPT
Itália baniu uso do ChatGPT nesta semana - AFP

Esse primeiro caso nos diz muito sobre quais serão alguns dos problemas principais levantados pela Inteligência Artificial (IA) generativa e o que podemos esperar das empresas que estão à frente do seu desenvolvimento.

Na empolgação geral pela chegada do ChatGPT, acabou-se negligenciando que os modelos que o apoiam, chamados large language models (LLMs), foram desenvolvidos à margem das leis de proteção de dados existentes em vários países, inclusive no Brasil.

Esses LLMs são treinados a partir de dados coletados na internet, incluindo dados pessoais, como se fossem um recurso livremente disponível para qualquer uso. Neste sentido, o Garante destaca vários pontos importantes que deveriam ser lidos muito cuidadosamente.

Primeiramente, não houve nenhuma transparência sobre o uso de dados sobre o qual se baseia o ChatGPT. Quando dados pessoais estão envolvidos, é obrigatório informar de maneira transparente quais dados são processados e por que, qual é a base jurídica para o tratamento etc. A OpenAI não esclareceu suficientemente estes elementos básicos.

O Garante observa justamente que o tratamento de dados pessoais não é uma atividade livre. É possível somente se houver uma base legal. Não seria razoável presumir que alguém tenha exprimido consentimento para o uso de seus dados para treinar o ChatGPT, visto que é um uso novo e, até pouco tempo atrás, inimaginável. Não existe nenhuma lei prevendo a obrigatoriedade de tal tratamento, nem a OpenAI tem acordo contratual ou um interesse legítimo que o justifique.

Ademais, o tratamento é altamente impreciso, apesar de parecer convincente. Ao perguntar ao ChatGPT quem é Luca Belli, a resposta é uma mescla de verdades e falsidades muito parecidas com a verdade –as chamadas "alucinações" do sistema de IA. Ou seja, a qualidade de dados é negligenciada, apesar de apresentar as respostas de forma persuasiva.

O motivo é simples. O ChatGPT, como qualquer IA baseada em modelos linguísticos, age como um papagaio estatístico, identificando qual palavra deveria seguir as precedentes, mas não cuida de averiguar se tal resultado é verdadeiro.

Considerando que a decisão do Garante se baseia em fundamentos normativos comuns a todas as leis de proteção de dados, é natural prever que esta seja somente a primeira de uma série de decisões parecidas.
A decisão unilateral da OpenAI de bloquear o acesso a seu serviço reforça a aparência de ilegalidade do serviço. Caso tivesse sido desenvolvido com padrões mínimos de governança de dados, teria sido muito simples oferecer as informações pedidas pelo Garante.

Além disso, a escolha de bloquear o serviço tem o efeito de suscitar a indignação dos usuários italianos, que culparão "o governo" por ter ordenado o bloqueio do ChatGPT –ainda que o governo italiano nunca tenha ordenado o dito bloqueio.

O ChatGPT, como a maioria da IA generativas, tem um enorme potencial e pode trazer enormes benefícios, mas não pode ser desenvolvido e distribuído no total menosprezo à lei. Enquanto os parlamentos estudam a elaboração de marcos regulatórios sobre IA, deve-se aplicar a lei em vigor.

O único consenso que existe entre os especialistas é de que as novas IAs não precisam ser desenvolvidas da maneira mais rápida possível, mas da maneira mais ética e sustentável possível.

A estratégia da OpenAI lembra muito o lema originário de Mark Zuckerberg, fundador do Facebook: "move fast and break things" [movimente-se rápido e quebre coisas]. Foi necessário quebrar processos democráticos de vários países para entender que esta abordagem é tudo, menos ética ou sustentável.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.