Descrição de chapéu tecnologia

Fotos de crianças brasileiras são usadas sem consentimento para alimentar IA, diz Human Rights Watch

Análise indica que até imagens postadas em redes restritas foram encontradas na plataforma

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

O relatório divulgado pela ONG Human Rights Watch, nesta segunda-feira (10), aponta que fotos de crianças e adolescentes brasileiros são usadas para criar ferramentas de inteligência artificial sem o conhecimento ou consentimento deles.

A análise concluiu que o LAION-5B, um conjunto de dados usado para treinar ferramentas populares de IA e construído a partir da raspagem de informações de grande parte da internet, possui links para fotos identificáveis de crianças.

Escultura grega com sinal de "fake" em cima dos seios.
Nudes feitos com IA geram novos riscos para as mulheres - CoCoArt_Ua/Adobe Stock

Além das imagens, a plataforma também disponibiliza os nomes de algumas crianças nas legendas ou na URL onde a imagem está armazenada. A investigação também concluiu que, em muitos casos, as identidades são rastreáveis, com informações sobre quando e onde a criança estava no momento que a foto foi tirada.

Entre os exemplos, a organização diz que uma das fotos modificadas mostra uma menina de dois anos com a irmã recém-nascida. A legenda da imagem detalha o nome das crianças, a localização do hospital e a data em que a bebê nasceu.

Ao todo, foram encontradas 170 fotos de crianças de dez estados brasileiros: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo. Porém, a organização afirma que esse número seja uma pequena amostra do problema, uma vez que o LAION-5B possui 5,85 bilhões de imagens e legendas e a Human Rights Watch analisou 0,0001% do total.

As imagens mostram bebês recém-nascidos, crianças pequenas soprando velas, dançando em casa, estudantes em meio a apresentação de dança e adolescentes celebrando o Carnaval. Há imagens de diferentes datas e fotos de até dez anos antes da criação do LAION-5B.

A pesquisa foi conduzida por Hye Jung Han, pesquisadora de direitos da criança e tecnologia da ONG. Ela afirma que decidiu investigar as plataformas de IA após descobrir que mais de 80 jovens em diferentes estados do Brasil foram alvo de assédio sexual após terem fotos modificadas na deepfake por colegas de escola.

A partir das buscas, Han notou que as imagens usadas pelas ferramentas não são de bancos de imagens ou ligadas a celebridades famosas. A pesquisadora afirma que as imagens encontradas nas ferramentas foram publicadas em sites de escolas, blogs pessoais e canais do YouTube.

"Ficou muito claro que nem as crianças nem os pais tinham ideia que suas fotos estavam sendo usadas fora de contexto", diz Han, que afirma ter entrado em contato com a empresa após descobrir a presença das imagens de menores de 18 anos. A plataforma, conta a pesquisadora, deletou as imagens, porém não especificou como vai atuar para evitar que outras fotografias com o mesmo propósito voltem a ser baixadas.

A análise demonstra que este tipo de uso das imagens promove dois problemas: as consequências individuais —já que, segundo a ONG, os modelos de IA, inclusive aqueles treinados no LAION-5B, são notórios por vazar informações privadas e podem reproduzir cópias idênticas do material no qual foram treinados; e a criação de clones convincentes de qualquer criança com base em uma ou mais fotos, uma vez que a plataforma é treinada para modificar esse tipo de imagem.

Há o perigo, alerta a Human Rights Watch, de que ferramentas treinadas consigam gerar imagens explícitas de crianças a partir de fotos inofensivas, além de manipulação de vídeos para que elas digam ou façam coisas que, na vida real, nunca disseram ou fizeram.

"Atualmente, sob a lei brasileira, a privacidade de dados das crianças não tem proteção. É preciso ter algum tipo de legislação que realmente proteja as imagens de serem usadas", diz a pesquisadora.

A ONG relembra que o Conanda (Conselho Nacional dos Direitos da Criança e do Adolescente), em abril deste ano, publicou resolução que orienta que o conselho e o Ministério dos Direitos Humanos e Cidadania desenvolvam uma política nacional para proteger os direitos das crianças e dos adolescentes no ambiente digital. "Eles deveriam cumprir a resolução", diz a organização.

A Humans Rights Watch afirma que a nova política deveria proibir a raspagem de dados pessoais de crianças para sistemas de IA e também a replicação digital não consensual ou a manipulação de imagens de menores de 18 anos. A ONG ainda destaca que o governo deveria fornecer mecanismos às crianças que sofrerem danos para buscar justiça e reparação significativa.

A pesquisadora resume que nenhuma famíla, criança ou adolescente deveria ser responsável pela proteção no ambiente digital. "O governo deveria garantir que todos protejam as crianças online", diz ela. "Eu deveria poder postar uma imagem sem medo de que alguém horrível venha e uses essas fotos de forma errada. A culpa não é minha."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.