Radicalização pelas redes é desafio para gigantes tec

Facebook admite problema e troca monitoramento via algoritmos por pessoas que vigiam contas

SILAS MARTÍ
Austin (Texas)

O combate ao terrorismo nunca dependeu tanto da vigilância atenta das redes sociais e das “fake news” que circulam por elas, mas táticas usadas até agora têm o impacto de um elefante numa loja de cristais –chamam demais a atenção e causam mais problemas do que resolvem.

Em Austin, a capital do Texas que foi alvo de ataques com bombas nas últimas semanas, um especialista em tecnologia que já trabalhou para o governo americano em ações antiterrorismo fez essa comparação numa conversa sobre como o “big tech” deve dialogar mais com a polícia e com serviços de inteligência.

Mark Zuckerberg, CEO do Facebook, fala em evento em São Francisco, na Califórnia
Mark Zuckerberg, CEO do Facebook, fala em evento em São Francisco, na Califórnia - Josh Edelson/AFP

Mike Hermus, falando no South by Southwest, o megafestival de cinema, música e tecnologia que agita essa cidade a cada mês de março, reclamou que o diálogo até agora tem sido uma espécie de telefone sem fio e que a situação só melhorou depois do escândalo da interferência russa na política do país.

O episódio, na opinião dele, fez o governo fechar o cerco contra o Vale do Silício, cobrando atitudes mais firmes para evitar a proliferação de mentiras e o perigo maior ainda de que terroristas entrem nessas plataformas para radicalizar novos extremistas.

“Nossas fronteiras são mais seguras do que pensam, então o problema não é que terroristas venham para cá”, afirmou Hermus. “Tem a ver com aqueles que se radicalizam porque consomem a propaganda de facções terroristas em território americano. O desafio é ficar sempre atento a essa autorradicalização.”
Os últimos atentados em Nova York, por exemplo, têm esse dado em comum. Tanto Sayfullo Saipov, que atropelou e matou oito pessoas numa ciclovia de Manhattan, quanto Akayed Ullah, que detonou uma bomba no metrô, aderiram ao terrorismo já vivendo nos Estados Unidos.

É um processo de conversão facilitado e acelerado pelas redes sociais, usadas para circular a propaganda de grupos como Estado Islâmico e outras redes extremistas.

Brian Fishman, o chefe da área antiterrorismo do Facebook, reconheceu que a rede social agora no centro do escândalo do vazamento de dados de seus usuários virou um canal para a radicalização no país e disse que por isso o monitoramento antes feito só com algoritmos agora envolve a análise de pessoas que vigiam contas suspeitas.

“Nenhum terrorista pode usar nossa plataforma. Mesmo que ele esteja no Facebook postando fotos de gatinhos e cachorros, ele não pode estar lá”, disse Fishman. “Temos mais de 180 pessoas na empresa hoje trabalhando para ver quem está usando a rede para fins terroristas e então apagamos as contas.”
Mas o problema, ele diz, é que cada vez que uma conta é removida outra surge no lugar, sobrecarregando o time.

Essa vigilância exacerbada ainda gera outro problema num país com tamanha proteção à liberdade de expressão. 

Os analistas do Facebook, por exemplo, precisam determinar cada vez mais se o discurso é mesmo propaganda terrorista ou se é opinião sobre o noticiário.
 

Megan Reiss, especialista do think tank R Street Institute, em Washington, também lembrou esse ponto, dizendo que outros países que já lidaram com tentativas de eliminar discursos extremistas das redes sociais foram mais radicais e censuraram sites inteiros, algo que não acontece nos Estados Unidos.
“Podemos aprender com países que já passaram por essa situação, mas a diferença é que nunca vamos impor as mesmas restrições à internet”, disse Reiss. “Ainda não há um equilíbrio entre o que as empresas querem entregar e o que o governo quer ver.” 

Enquanto empresas como  Facebook, Google e Twitter engrossam seus times de análise de conteúdo suspeito, a indústria também se esforça para desenvolver áreas de inteligência artificial em suas plataformas para combater discursos de ódio e “fake news” de modo  mais eficaz.

‘FAKE NEWS’

Num momento em que o “big tech” está sendo cada vez mais cobrado por agir como empresas de comunicação, assumindo responsabilidade pelo que publicam em suas plataformas, o primeiro passo dessas estratégias de inteligência artificial é tentar erradicar as notícias falsas.

“Tentamos criar algoritmos para identificar as ‘fake news’, mas o problema é que existe sarcasmo, ironia e opinião”, diz Armineh Nourbaksh, uma pesquisadora da Thomson Reuters. “Então é cada vez mais difícil para uma máquina entender o que é verdade e o que é mentira.”
 

Nourbaksh contou como desenvolveu uma ferramenta capaz de checar dados de mensagens no Twitter em tempo real para determinar se algo que está sendo alvo de muitos comentários na rede é mesmo uma notícia, mas diz que o mecanismo ainda esbarra na inabilidade de máquinas interpretarem textos.
Outro desafio é enquadrar essa análise do discurso na lei americana. O problema para Amie Stepanovich, do grupo de cibersegurança Access Now, é que mentir não é considerado um crime.

“Não existe uma lei capaz de definir o que é ‘fake news’, isso sempre vai esbarrar na liberdade de expressão”, ela diz. “Quando nos perguntamos se a inteligência artificial pode identificar ‘fake news’, a resposta é não. A questão que enfrentamos agora é se mentir é contra a lei ou não.”

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.