Patrícia Campos Mello

Repórter especial da Folha, foi correspondente nos EUA. É vencedora do prêmio internacional de jornalismo Rei da Espanha.

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Patrícia Campos Mello

Abrindo a caixa-preta das redes sociais

Órgão inglês pede regulamentação no microdirecionamento de anúncios e conteúdos

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Por que um solteiro não vê anúncios sobre lua de mel no Google, um corintiano provavelmente não recebe recomendações de vídeos do Palmeiras no YouTube e um partidário de Jair Bolsonaro não é bombardeado com posts enaltecendo a esquerda no Facebook? Por causa do microdirecionamento online.

O microdirecionamento usa dados pessoais de usuários de plataformas de internet como Facebook, Twitter, Instagram, Google, YouTube e TikTok para decidir quais posts, vídeos ou anúncios essas pessoas verão, ou quais serão os resultados de busca que vão aparecer primeiro para cada pessoa.

As plataformas coletam e analisam uma quantidade monstruosa de dados sobre as pessoas. Elas agrupam as pessoas com características demográficas semelhantes, interesses, localização, personalidade etc. A coleta de dados é tão abrangente e detalhada que se pode chegar a grupos pequenos, muito específicos, de “público alvo”.

Monitorando as pessoas enquanto elas estão online, analisando como elas reagem a conteúdos e comparando a pessoas com características similares, os algoritmos conseguem prever como as pessoas vão reagir quando virem diferentes tipos de conteúdo —como explica o Centro de Ética em Dados e Inovação.

As plataformas usam algoritmos para determinar que conteúdo será mostrado ao usuário, baseado em outros conteúdos com que essa pessoa interagiu, ou outras pessoas com características similares interagiram.
 
Isso tudo ajuda os anúncios online a serem muito mais eficientes, porque eles atingem exatamente o público que têm maior probabilidade de reagir a essa propaganda, ou post, ou recomendação de vídeo no YouTube ou Netflix.
 
Parece maravilhoso, certo? De fato, o microdirecionamento é muito conveniente.

No entanto, a comodidade esconde muitos riscos ignorados pela maioria da população.

O Centro para a Ética de Dados e Inovação, órgão criado pelo governo britânico em 2018 para assessorar na regulação do uso de inteligência artificial no país, acaba de divulgar um relatório alertando para a necessidade de regulamentar como as redes sociais microdirecionam vídeos, anúncios e posts para usuários.

Muitas pessoas nem sequer imaginam que os posts que estão vendo, os anúncios que recebem, estão baseados nos dados pessoais que as plataformas obtiveram.

Elas podem imaginar que uma determinada mensagem apareceu para elas aleatoriamente, ou que o resultado de uma busca é algo cartesiano, baseado apenas em informações universais.

E, principalmente, ninguém sabe qual é o conteúdo que não está vendo, o conteúdo que o algoritmo “escolhe” não mostrar para a pessoa, baseado nos dados desse usuário.

Um exemplo citado pelo Centro para a Ética é o da discriminação embutida nos algoritmos. Pesquisas mostram que mulheres jovens veem um número muito menor de anúncios de empregos nas áreas de tecnologia, engenharia e matemática, e que homens indianos e paquistaneses têm uma probabilidade muito maior de ver propagandas sobre oportunidades de se tornar taxista.

A American Civil Liberties Union (Aclu) processou o Facebook por discriminação, porque a plataforma permitia a anunciantes excluir pessoas baseado em raça, etnia, local de domicílio em anúncios de emprego, crédito ou imobiliários.

A plataforma fez um acordo e mudou suas políticas, para impedir que anunciantes possam usar esses critérios para determinar o público-alvo de seus anúncios.

Um outro perigo, alerta o relatório, é a habilidade das plataformas de alterar a percepção da realidade. São algoritmos que decidirão quais notícias e acontecimentos as pessoas irão ver, e isso influencia o que as pessoas acharão que é normal, importante ou verdadeiro.

“Se um vídeo de teoria da conspiração é visto por apenas dez pessoas, ele provavelmente não representará um risco significativo. Mas se o mesmo serviço de upload disseminar o vídeo para milhões de pessoas (especialmente aquelas previstas pelo algoritmo como as que mais irão se envolver com o conteúdo) e se a plataforma sistematicamente recomenda outros vídeos similares, promovendo as mesmas teorias da conspiração, aí os riscos serão muito maiores”, afirma o relatório. 

O outro problema é que é possível “enganar” os algoritmos e manipular os resultados. Com o uso de redes de contas falsas, automáticas ou contratadas (bots, trolls), pode-se inflar artificialmente o número de visualizações, curtidas e outros parâmetros que são usados pelos algoritmos na hora de determinar que conteúdo ganhará destaque e será mostrado para cada usuário.

Com isso, políticos ou empresas manipulam e conseguem fazer com que certos conteúdos ganhem mais destaque. Alguém se lembra quando a hashtag Bolsonaro chegou aos trending topics (assuntos mais comentados) do Twitter em países longínquos?
 
Tudo isso representa uma ameaça à democracia, ainda que o termo tenha sido banalizado recentemente.

“Essa abordagem permite a governos e empresas amplificar o endosso a suas atividades e criar a aparência de apoio genuíno. Além disso, eles conseguem silenciar seus oponentes, sem parecer que estão ativamente censurando. E, por fim, conseguem enfraquecer a oposição, ao estimular a divisão.”
 
Em 2019, o Computational Propaganda Project da Universidade de Oxford achou indícios de campanhas organizadas de manipulação de redes sociais em 70 países, muitas vezes por parte de governos.
 
Com base em todos esses riscos, o relatório do Centre faz diversas recomendações.

As plataformas deveriam manter arquivos públicos com os anúncios e conteúdos patrocinados de “alto risco”, sobre política, empregos, crédito, e anúncios imobiliários.

Durante as eleições, o Facebook mantinha uma biblioteca de anúncios políticos. No entanto, normalmente restringia-se a conteúdo estritamente eleitoral, não incluía temas políticos ou temáticos.

Temas e grupos temáticos muitas vezes são disfarce para campanhas políticas (e não requerem o aviso de que foram pagos por tal candidato ou tal pessoa).

O Facebook se recusou a restringir o microdirecionamento de anúncios políticos e a retirar aqueles que contenham afirmações comprovadamente falsasao contrário do Twitter, que os baniu.

O relatório pede também que seja aberta a caixa-preta das plataformas —as empresas compartilham poucas informações com pesquisadores e reguladores, sempre alegando que são “segredos industriais”, não podem abrir seus algoritmos etc.

Com isso, é muito difícil estabelecer, com dados, em que medida esses anúncios e posts patrocinados realmente influenciam o voto das pessoas, por exemplo.

O texto pede que as plataformas concedam acesso a especialistas independentes, com garantia de segurança das informações.
 
Outra recomendação é uma colaboração formal para combater “comportamento não autêntico coordenado” —os famigerados bots, trolls e contas falsas.
 
O governo britânico tem seis meses para responder às recomendações do relatório.

LINK PRESENTE: Gostou desta coluna? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.