Descrição de chapéu
Bruno Bioni, Virgilio Almeida e Laura Schertel Mendes

Inteligência artificial é ameaça a integridade de eleições

Áudios falsos, mais até do que vídeos, podem ser fator disruptivo nas campanhas de desinformação

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Bruno Bioni

Doutor em direito pela USP, diretor-fundador do Data Privacy Brasil e integrante da comissão de juristas sobre inteligência do Senado Federal

Virgilio Almeida

Professor associado ao Berkman Klein Center da Universidade de Harvard e ex-secretário de Política de Informática do Ministério de Ciência, Tecnologia e Inovação

Laura Schertel Mendes

Professora da Universidade de Brasília (UNB) e do Instituto Brasileiro de Desenvolvimento, Ensino e Pesquisa (IDP). Foi relatora a Comissão de Juristas sobre Inteligência do Senado Federal

[RESUMO] O texto aborda o impacto que a inteligência artificial generativa poderá provocar ao facilitar campanhas de desinformação durante eleições. A disseminação de áudios falsos, gerados por IA, alerta para nova configuração de práticas criminosas. Segundo os autores, estruturas regulatórias adequadas são essenciais para minimizar riscos aos processos democráticos.

Dois tipos diferentes de inteligência artificial estão moldando fortemente nossas experiências pessoais, sociais e culturais. Existe a inteligência artificial algorítmica que alimenta os motores de vários aplicativos e em particular as funções de recomendação nas plataformas sociais com o objetivo de manter as pessoas nelas engajadas.

E recentemente surgiu o "admirável mundo novo" da inteligência artificial generativa, atraindo atenção do público, suscitando receios de que possam potencializar mais desinformação, discriminação e ameaças à segurança, como ataques cibernéticos.

Logotipo do aplicativo ChatGPT desenvolvido pela organização de pesquisa em inteligência artificial dos EUA, OpenAI, em uma tela de laptop e as letras AI em uma tela de smartphone - Kirill Kudyavtsev - 23.nov.23/AFP

Mas é também uma tecnologia que promete impulsionar a indústria e a inovação, contribuindo para criar serviços, acelerar o desenvolvimento de novos medicamentos e aumentar a produtividade da economia. No entanto, os riscos desse avanço da IA não estão claros. A desinformação online é uma ameaça óbvia a curto prazo.

Com a chegada da IA generativa há uma mudança de ordem quantitativa e qualitativa nas engrenagens de campanhas de desinformação. Se antes a produção de um vídeo ou de um diálogo falso demandava uma infraestrutura humana e computacional minimamente qualificada, agora o conteúdo pode ser gerado com poucos cliques por uma pessoa sem qualquer expertise em softwares de imagem e áudio.

Ademais, o resultado tende a ser melhor, ainda mais se operado por alguém com algum tipo de expertise para dar os comandos —prompts— ao sistema de IA. Tudo indica um barateamento na linha de produção de conteúdos falsos, seguindo, provavelmente, de maior intoxicação de desinformação.

Em particular no que diz respeito à voz, cujos conteúdos gerados por IA têm apresentado uma qualidade mais elevada do que vídeos. O avanço de deepfakes de voz, baseados em IA, tende a ser um fator disruptivo nas disputas eleitorais, em especial no Brasil, devido as seguintes razões.

O Brasil é um país onde as plataformas de mensagens são usadas por uma imensa parcela da população. O WhatsApp tem mais de 142 milhões de contas no país. Segundo o CEO da empresa, Will Cathcart, o Brasil é o país que mais envia áudios por meio do WhatsApp. Essas duas características tornam os deepfakes de voz uma poderosa ferramenta na guerra da informação durante as polarizadas disputas eleitorais.

Pesquisadores alertam que a dificuldade de detectar de áudio criado por IA é maior do que vídeos falsos, pois existem menos informações contextuais para identificar áudio falsos. Ainda não estão delineadas publicamente as estratégias das grandes plataformas de redes sociais e mensageria para identificar e bloquear a circulação de áudios falsos.

Os casos de uso de deepfake de voz já ocorreram em 2023 em vários países. Áudio falsos, gerados pela combinação de IA generativa e deepfakes de voz circularam durante as disputas políticas em eleições no Reino Unido, Índia, Nigéria, Sudão, Etiópia e Eslováquia.

Agora, em 2024, muitos eleitores americanos receberam uma suposta ligação de Biden para não votar nas primárias do partido democrata. Eram áudios falsos com a voz de Biden, disparados por robôs em call centers. Por exemplo, nas eleições na Eslováquia, em setembro passado, a gravação de um áudio com vozes falsas no qual o líder de um dos partidos políticos do país discutia como manipular o pleito eleitoral circulou no Facebook dois dias antes das votações.

Cada vez mais, o tom, mas, sobretudo, a sequência e variação nos diálogos têm evoluído de forma muito significativa. O reencaminhamento e, por conseguinte, a vitalização deste tipo de conteúdo, com uma roupagem mais eficaz de veracidade em comparação ao vídeo, é uma combinação explosiva. É importante estabelecer alguns pontos de compreensão desse cenário de desinformação.

Não é o avanço tecnológico a razão fundamental da desinformação, mas sim, como apontou Nobert Wiener, é o uso indevido e malicioso das novas tecnologias e a incapacidade das grandes corporações e Estados de governarem o uso da inteligência artificial.

É fundamental adotar uma estrutura regulatória, que estabeleça o compartilhamento de responsabilidade entre os atores do ecossistema digital. Para tanto, é necessário uma regulação que estabeleça parâmetros e garantias para a minimização dos riscos da inteligência artificial.

Em se tratando de eleições é necessário ações rápidas para impedir ataques que coloquem em risco o processo eleitoral. Após o episódio de janeiro último, quando chamadas automáticas geradas por IA imitando a voz do presidente Joe Biden foram feitas para desencorajar as pessoas de votarem na primária do estado de New Hampshire, a Comissão Federal de Comunicações dos EUA proibiu chamadas automáticas que contenham vozes geradas por inteligência artificial. A decisão da Comissão Federal envia uma mensagem clara de que a exploração da tecnologia para enganar pessoas e induzir eleitores não será tolerada.

Tratando-se especificamente das eleições no caso brasileiro, a experiência prévia do Tribunal Superior Eleitoral parece ser um bom caminho, que pode ser desenvolvido e aperfeiçoado para lidar com os novos desafios da inteligência artificial. Desde 2019, o Tribunal conta com um Programa Permanente de Enfrentamento de Desinformação, que, em 2022, contabilizou mais 150 organizações parceiras credenciadas.

Ao costurar acordos de cooperação não só com as grandes plataformas, mas, também, entidades da sociedade civil, o Tribunal montou uma estratégia de governança em rede. Essa sinfonia contra a desinformação é ainda mais necessária diante dos novos desafios impostos pela IA generativa.

Qual a nova partitura para nova afinação desta orquestra? Esta é uma questão que ainda está em aberto, mas essa rede precisa e deve ser nutrida para reduzir a assimetria de informação —e dos decibéis— do que desafia a integridade do processo eleitoral.

O processo dialógico que tem sido realizado pelo Tribunal por meio de audiências e consultas públicas é fundamental para o desenvolvimento de soluções inovadoras em face dos novos e desafiadores riscos. Mas há pressa para que o rápido avanço das tecnologias de IA não cause danos no processo eleitoral de 2024.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.