Siga a folha

Editada por Maria Brant, jornalista, mestre em direitos humanos pela LSE e doutora em relações internacionais pela USP, e por Renata Boulos, coordenadora-executiva da rede ABCD (Ação Brasileira de Combate às Desigualdades), a coluna examina as várias desigualdades que afetam o Brasil e as políticas que as fazem persistir

Descrição de chapéu
Anielle Franco

É preciso zelar pela igualdade na inteligência artificial

Tecnologia reproduz racismo e desigualdades e deve ser objeto de políticas específicas

Assinantes podem enviar 7 artigos por dia com acesso livre

ASSINE ou FAÇA LOGIN

Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:

Oferta Exclusiva

6 meses por R$ 1,90/mês

SOMENTE ESSA SEMANA

ASSINE A FOLHA

Cancele quando quiser

Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.

Anielle Franco

Ministra da Igualdade Racial

O tema da inteligência artificial (IA) e ela mesma enquanto tecnologia tem nos atravessado cada vez mais enquanto sociedade, por isso tenho chamado a atenção para a importância de ampliarmos o debate público sobre a temática.

Há muitas camadas nos procedimentos algorítmicos que são implantados em sistemas e máquinas com o objetivo de resolver problemas, qualificar a tomada de decisões, dar suporte à medicina e aos vários campos do conhecimento. Esse mundo de possibilidades, contudo, também traz desafios éticos e exige atenção máxima ante seu potencial de manter ou promover desigualdades.

Mas precisamos enfrentar com coragem essa complexidade que o mundo contemporâneo nos apresenta. Especialmente porque convive e se cruza com questões antigas, que ainda fazem parte da nossa realidade e cujo enfrentamento é central para este governo: a pobreza, a insegurança alimentar, o racismo e as muitas formas de desigualdade.

A "invisibilidade" dos procedimentos de IA é sua barreira inicial, pois é muito difícil nos defendermos do que não vemos com nitidez. Outra barreira é, como diz o professor Ernane José Xavier, uma concepção ingênua da IA que a torna perigosa: a ideia da artificialidade.

Como doutoranda em linguística aplicada, sei que o contexto de uso das palavras faz toda a diferença, e o perigo neste caso acontece quando a palavra artificial nos aproxima dos filmes de ficção científica, de algo distante. Na verdade, a tecnologia baseada em inteligência artificial pode estar na farmácia, nos aeroportos, na entrada do trabalho, na segurança pública, nas pesquisas na internet.

A IA, assim como as tecnologias de modo geral, não promovem desigualdades por si só. É a sua construção e os procedimentos adotados que podem carregar informações racistas, misóginas e estereótipos dos mais variados tipos. Isso acontece por muitos motivos, um deles é que as entradas e saídas dos dados frequentemente não registram em suas bases a diversidade da sociedade nem enxergam as pessoas com igualdade. É como se refletissem na sua linha de códigos o que acontece na vida real, em que pessoas negras, mulheres, indígenas e pessoas vulnerabilizadas enfrentam preconceitos e tratamentos desiguais em entrevistas de emprego, consulta médica, lojas, etc.

Pedido "Pedro Teixeira", à esquerda, gera imagens de homens brancos. À direita, o pedido "Pedro Teixeira segurando um fuzil AR-15" gera a imagem de pessoas negras armadas --duas delas são crianças - Folhapress

Um ponto importante é que o mercado de produção de dispositivos de inteligência artificial é muito parecido com o da política institucional e dos espaços de decisão e liderança. Uma pesquisa do Google for Startups, de 2023, identificou que o cenário das startups tem menos mulheres, pessoas negras, LBGTIA+, pessoas com deficiência.

Não há dúvidas de que isso afeta a perspectiva com que são construídos os sistemas. Pessoas com diferentes identidades e experiências trazem novas questões de pesquisa, constroem outras abordagens metodológicas e analíticas para a solução de problemas. A diversidade é fundamental para o desenvolvimento e aprimoramento da ciência e das tecnologias.

O Ministério da Igualdade Racial, junto com a Secretaria Especial de Comunicação da Presidência (Secom), está elaborando o primeiro Plano de Comunicação Antirracista. Nesta linha, também foi realizado o webnário "Racismo na Internet: evidências para formulação de políticas digitais", que resultou nas seguintes reflexões:

(1) é necessário desenvolver políticas e regulamentações que garantam a transparência e a responsabilidade dos sistemas de IA, a fim de evitar a discriminação e o preconceito.

(2) a judicialização dos casos de racismo na internet é complexa, especialmente para pessoas que enfrentam vitimização ao fazerem denúncias;

(3) o racismo na internet é uma forma de violência que afeta a autoestima e a saúde mental das pessoas negras e diversas; é importante incentivar a produção de conteúdo que retrate a diversidade e a riqueza da cultura afro-brasileira.

Esse é um debate para quem pensa e desenvolve políticas públicas, para a comunidade acadêmica e para toda a sociedade, pois todos temos o desafio de fomentar o desenvolvimento de sistemas de inteligência artificial que não reforcem preconceitos e estimulem desigualdades, e sim que nos levem adiante, enxergando e respeitando a diversidade social, o meio ambiente e os direitos humanos.

Receba notícias da Folha

Cadastre-se e escolha quais newsletters gostaria de receber

Ativar newsletters

Relacionadas