YouTube volta a usar moderador humano no combate à desinformação

Robôs utilizados no 'lockdown' exageraram na censura e removeram vídeos que não infringiam regras

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Alex Barker Hannah Murphy
Londres e San Francisco | Financial Times

O YouTube, do Google, voltou a usar mais moderadores humanos para examinar o conteúdo nocivo depois que as máquinas utilizadas durante “lockdown” se revelaram censores excessivamente zelosos da plataforma de vídeo.

Quando cerca de 10 mil membros da equipe de filtragem de conteúdo do YouTube foram “colocados offline” pela pandemia, o aplicativo deu maior autonomia a seus sistemas automáticos para impedir que os usuários vissem discurso de ódio, violência ou outras formas de conteúdo nocivo ou desinformação.

Mas Neal Mohan, diretor de produtos do YouTube, disse ao Financial Times que um dos resultados da menor supervisão humana foi um salto no número de vídeos removidos, incluindo uma proporção significativa que não havia infringido regras.

Quase 11 milhões foram retirados no segundo trimestre entre abril e junho, o dobro da taxa normal.

“Mesmo 11 milhões é uma fração muito, muito pequena, de todos os vídeos no YouTube... mas foi um número maior do que no passado”, disse ele.

“Uma das decisões que tomamos [no início da pandemia], em relação a máquinas que não podiam ser tão precisas quanto seres humanos, foi que preferíamos garantir que nossos usuários estivessem protegidos, mesmo que isso causasse a remoção de um número ligeiramente maior de vídeos.”

Uma proporção significativamente maior de remoções decididas por máquinas foi anulada em recurso.

Cerca de 160 mil vídeos foram restabelecidos, metade do número total de recursos, em comparação com menos de 25% nos trimestres anteriores.

O reconhecimento lança uma luz sobre a relação crucial entre os moderadores humanos e os sistemas de inteligência artificial, que examinam o material encaminhado para a maior plataforma de vídeos gerados por usuários na internet.

Em meio a protestos antirracismo generalizados e uma campanha eleitoral polarizada nos Estados Unidos, grupos nas redes sociais sofrem pressão crescente para policiar melhor suas plataformas de conteúdo tóxico.

Em particular, YouTube, Facebook e Twitter têm atualizado suas políticas e tecnologia para conter a crescente onda de desinformação relacionada às eleições e evitar que grupos de ódio alimentem tensões raciais e incitem à violência.

Não fazer isso incorre no risco de os anunciantes levarem seus negócios para outros lugares; um boicote publicitário contra o Facebook em julho foi expandido por algumas marcas para incluir o YouTube.

Como parte dos esforços para lidar com a desinformação, o YouTube lançará nesta semana um recurso de checagem de fatos no Reino Unido e na Alemanha, expandindo um sistema automático usado primeiramente na Índia e nos Estados Unidos.

Os artigos de checagem de fatos serão acionados automaticamente por pesquisas específicas sobre notícias de última hora ou temas delicados que os serviços de checagem de fatos ou editores estabelecidos decidiram abordar.

Mohan disse que, embora as máquinas do YouTube sejam capazes de oferecer tais funções e remover rapidamente casos claros de conteúdo nocivo, há limites para suas habilidades. Embora os algoritmos sejam capazes de identificar vídeos potencialmente prejudiciais, eles geralmente não são tão bons para decidir o que deve ser removido.

“É aí que entram nossos avaliadores humanos treinados”, disse, acrescentando que eles pegam vídeos selecionados por máquinas e então “tomam decisões que tendem a ter mais nuances, especialmente em áreas como discurso de ódio, desinformação médica ou assédio.”

A velocidade com que as máquinas podem atuar contra o conteúdo prejudicial é inestimável, disse Mohan.

“Mais de 50% desses 11 milhões de vídeos foram removidos sem uma única visualização por um usuário real do YouTube, e mais de 80% foram removidos com menos de dez visualizações. Esse é o poder das máquinas.”

Claire Wardle, cofundadora do First Draft, grupo sem fins lucrativos que lida com desinformação nas redes sociais, disse que os sistemas de inteligência artificial fizeram progressos no combate a conteúdo gráfico prejudicial, como violência ou pornografia.

“Mas estamos muito longe de usar inteligência artificial para entender um discurso problemático [como] um vídeo de conspiração incoerente que dura três horas”, disse.

“Às vezes é um aceno de cabeça, uma piscadela e um apito de cachorro. [As máquinas] simplesmente não podem fazer isso. Não estamos nem perto de elas terem capacidade para lidar com isso. Até os humanos têm dificuldade.”

Tradução de Luiz Roberto Mendes Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.