
É advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil. Escreve às segundas.
Precisamos falar dos algoritmos
Na semana passada grandes jornais do mundo anunciaram que vão publicar notícias diretamente no Facebook. Isso confirma que a rede social mais popular do planeta está se convertendo também em "infraestrutura" para a disseminação de conteúdos. A situação lembra o que acontecia com a TV a cabo nos EUA em meados dos anos 1970: a princípio, as empresas tinham de convencer as emissoras a aceitar serem incluídas na programação.
Pouco depois a maré mudou. Várias companhias começaram a produzir conteúdo especialmente para o cabo, que passou então a cobrar para carregar os conteúdos. Um exemplo disso é a campanha "I want my MTV" (eu quero a minha MTV), do início dos anos 1980. O objetivo era convencer as TVs por assinatura a transmitir o sinal da emissora musical, que ainda engatinhava.
Curiosamente, dias antes do anúncio do pacto entre os jornais e o Facebook, o site havia publicado um estudo sobre o funcionamento do algoritmo que controla o que cada usuário vê em seu feed de notícias. O nome do documento é "Exposição a Notícias e Opiniões Ideologicamente Diversas no Facebook".
O estudo tem várias limitações metodológicas, mas a conclusão é interessante. Ele apresenta evidências de que as fórmulas do site nos mostram mais notícias que refletem aquilo que pensamos e reduz nossa exposição ao que discordamos.
Se alguém é a favor da redução da maioridade penal, vai ver mais opiniões similares à sua do que contrárias. É um erro crasso achar que o que vemos na "timeline" do Facebook representa a opinião pública.
Essa filtragem traz problemas. Quem se expõe apenas ao que pensa fica ainda mais convencido das próprias ideias. E se torna avesso a posições contrárias.
A questão é se esse viés seria culpa do algoritmo em si ou dos próprios usuários, que, por meio dos seus "likes", ensinariam a rede social a privilegiar alguns conteúdos. Acadêmicos importantes, como a pesquisadora Zeynep Tufekci apelidaram o estudo de "it's not our fault" (não é nossa culpa), dizendo que a rede social estaria usando o documento para afirmar que a culpa do viés seria mais dos usuários.
O fato é que hoje 30% das pessoas nos EUA leem notícias apenas pelo Facebook. Com isso, faz sentido pensar sobre a importância de uma diversidade editorial. Algoritmos vieram para ficar. Mas não podem se tornar "filtro" para tudo. Quanto mais pluralidade de editorias, humanas e digitais, melhor para a esfera pública.
No caso de um jornal, pode-se discordar de sua linha editorial, mas ao menos ela é um dado objetivo e em geral visível. No caso de algoritmos, a linha editorial é invisível. Só que ela existe. Algoritmos não são neutros, como mostra o estudo recém-publicado. Sempre que você não gostar daquilo que leu no jornal, saiba que isso é bom para você.
*
JÁ ERA
algoritmos só como modelos teóricos
JÁ É
algoritmos tomando decisões automatizadas de investimentos financeiros
JÁ VEM
algoritmos tomando decisões militares
Livraria da Folha
- Coleção "Cinema Policial" reúne quatro filmes de grandes diretores
- Sociólogo discute transformações do século 21 em "A Era do Imprevisto"
- Livro de escritora russa compila contos de fada assustadores; leia trecho
- Box de DVD reúne dupla de clássicos de Andrei Tarkóvski
- Como atingir alta performance por meio da autorresponsabilidade