YouTube vai remover vídeo que defenda nazismo ou discrimine minorias

Pressionada, plataforma cria regras para tentar conter discurso de ódio; youtubers podem ser suspensos

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

O YouTube anunciou que a partir desta quarta (5) passará a remover vídeos que contenham material considerados racistas, que defendam o nazismo ou que sejam discriminatórios contra minorias e grupos sociais.

Conteúdo que negue eventos históricos em que houve violência, como o Holocausto e o ataque à escola primária Sandy Hook nos EUA, também serão retirados, disse a plataforma, que pertence ao Google.

Usuários em frente ao logo do YouTube durante feira na Alemanha
Usuários em frente ao logo do YouTube durante feira na Alemanha - Dado Ruvic - 28.mar18/Reuters

Youtubers que violarem essas regras também serão suspensos pela plataforma e ficarão proibidos de fazer anúncios ou de ganhar dinheiro com seus vídeos. A empresa vinha sendo criticada por tratar de maneira diferente os perfis com grande quantidade de usuários, mesmo quando eles promoviam conteúdo discriminatório.

O anúncio acontece em meio ao aumento da pressão contra empresas de tecnologia para que elas tomem medidas a evitar a disseminação de discurso de ódio em seus sites. As reclamações aumentaram desde março, quando um atirador transmitiu ao vivo no Facebook um ataque contra duas mesquitas na Nova Zelândia que deixou 51 mortos.

Grupos e usuários que praticam discurso considerado de ódio, porém, costumam afirmar que essas medidas violam a liberdade de expressão. É o caso, por exemplo, da organização racista americana Ku Klux Klan e de Alex Jones, dono do site de teoria da conspiração Infowars, que já tiveram seus perfis bloqueados em outras plataformas.

Nos últimos 12 meses, o Facebook e o Twitter já tinham tomado medidas semelhantes, e o próprio YouTube tinha alterado sua política para tentar restringir esse tipo de conteúdo, embora até esta quarta relutasse em remover esses vídeos.

“Nós revisamos nossa política periodicamente para garantir que traçamos nosso limite no lugar certo. Só em 2018 nós mudamos nossa política mais de 30 vezes. Uma das questões mais complexas e em evolução é como devemos lidar com o discurso de ódio”, disse a empresa ao justificar por que até o momento não tinha tomado medidas mais duras contra esse tipo de conteúdo.

“Hoje, estamos dando um novo passo na nossa política contra discurso de ódio e proibindo especificamente vídeos que alegam que um grupo é superior com o objetivo de justificar a discriminação, a segregação ou a exclusão baseada em questões de idade, gênero, raça, casta, religião, orientação sexual ou situação militar”, diz o comunicado da empresa, divulgado em seu site. 

“Isto inclui, por exemplo, vídeos que promovam ou glorifiquem a ideologia nazista, que é intrinsecamente discriminatória”, afirma o texto. “Finalmente vamos remover conteúdo que negue eventos violentos que sejam bem documentados, como o Holocausto”.

Também passa a ser proibida a discriminação contra imigrantes e contra pessoas que foram vítimas de eventos violentos e seus familiares.

O YouTube divulgou uma lista de frases para exemplificar o que será proibido. Ela inclui declarações como “todos os judeus são ladrões”, “negros são uma doença”, “homossexualidade é só uma forma de doença mental que precisa ser curada” e “gays têm uma agenda para comandar o mundo e se livrar de nós”.

Inicialmente, caso um vídeo viole algum desses critérios ele será imediatamente removido, mas o canal não será afetado. Em vez disso, entrará em uma espécie de programa de observação.

Caso o canal cometa outras três violações em um período de 90 dias, será apagado —o que significa que todos os seus vídeos serão removidos também, mesmo os que não tenham violado as regras.

Dependendo do grau da violação, porém, a eliminação do canal pode ser imediata.

Segundo a própria empresa, entre janeiro e março de 2019 (o último trimestre com dados disponíveis), foram retirados mais de 2,8 milhões de canais do YouTube. Mas a ampla maioria (97,5%) foi apagado por violar as regras de nudez ou de pedofilia ou por realizar propaganda sem autorização (spam). A empresa não especifica quantos exatamente foram removidos por divulgar discurso de ódio.

Além da remoção de conteúdo, o YouTube também anunciou que vai ampliar para outros países sua iniciativa para diminuir a disseminação de fake news e do que ele classifica como conteúdo limítrofe —isso é, que está próximo de violar as regras, mas não chega a fazê-lo.

São enquadrados nesses casos, por exemplo, vídeos que afirmam que a terra é plana ou que negam a eficácia de vacinas. Estes vídeos não são removidos, mas desde o início de 2019, o YouTube passou a limitar sua disseminação nos Estados Unidos, impedindo que eles apareçam nas listas de recomendações para os usuários.

Além disso, quem assiste a esse tipo de vídeo logo depois recebe a recomendação para ver canais que a plataforma classifica como confiáveis, como o de empresas jornalísticas.

Segundo o YouTube, essa iniciativa fez diminuir em 50% a disseminação desse tipo de conteúdo nos EUA e agora ela será ampliada para outros países, inclusive para o Brasil. 

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.