Astros do YouTube continuam ganhando dinheiro mesmo depois de violar regras

Google nega que privilegia grandes canais, e que mantém as regras para todos usuários

The Washington Post

Os astros do YouTube atraem milhões de espectadores e geram bilhões de dólares em receita publicitária para o gigante da mídia, que promete operar seu negócio sem tolerar vídeos de ódio ou nocivos de qualquer espécie.

Mas alguns dos trabalhadores contratados para identificar conteúdo problemático acusam o YouTube de favoritismo, e de punir de maneira mais leniente os criadores de vídeos mais famosos, cujo trabalho traz mais dinheiro para a empresa.

Onze atuais e antigos moderadores, que trabalharam na linha de frente das decisões sobre conteúdo, acreditam que os criadores populares muitas vezes recebem tratamento especial na forma de interpretações menos rigorosas das regras do YouTube que proíbem retórica degradante, “bullying” e outras formas de conteúdo explícito.

Os moderadores disseram que o YouTube abre exceções para criadores populares de conteúdo como Logan Paul, Steven Crowder e Pew Die Pie. O YouTube, controlado pelo Google, nega essas afirmações, afirmando que aplica as regras igualmente e tenta manter o rigor.

Usuários em frente ao logo do YouTube durante feira na Alemanha - Dado Ruvic/Reuters

O YouTube, a maior plataforma mundial de vídeo online, com quase dois bilhões de usuários acessando o serviço a cada mês, tem enfrentado reações ferozes de críticos que dizem que a empresa está permitindo que a difusão de conteúdo ofensivo e inadequado prolifere.

A cada crise, o YouTube corre para atualizar suas regras sobre os tipos de conteúdo que podem se beneficiar de seu poderoso sistema de publicidade –e priva os criadores do dinheiro que isso gera caso eles violem regras demais. Isso também prejudica o YouTube, que divide a receita publicitária com seus astros.

Os criadores que violam as regras do YouTube enfrentam a consequência de ter a publicidade removida em seus canais ou vídeos –ou de ter seu conteúdo removido de todo. Mas diferentemente de rivais como o Twitter e o Facebook, muitos moderadores do YouTube não têm o poder de remover conteúdo por conta própria.

Em lugar disso, eles ficam limitados a recomendar se um determinado conteúdo não deveria receber publicidade, identificando-o para superiores que têm o poder de tomar a decisão definitiva.

Os moderadores entrevistados pelo The Washington Post dizem que suas recomendações de remover publicidade de vídeos que violam as regras de uso do site são frequentemente desconsideradas pelos superiores no YouTube, quando os vídeos envolvem criadores de conteúdo conhecidos, que atraem mais publicidade. Além disso, dizem, muitas das regras são ineficientes e contraditórias, para começar.

Os moderadores, que falaram sob a condição de que seus nomes não fossem revelados, para proteger seus empregos, descrevem um ambiente de trabalho desmoralizante e uma percepção generalizada de padrões arbitrários, no que tange ao conteúdo ofensivo.

 

Alex Joseph, porta-voz do YouTube, afirmou em comunicado que a empresa conduz uma “revisão sistemática de nossas regras para garantir que estejamos seguindo a linha correta, Aplicamos essas regras de forma coerente, não importa quem seja o criador de conteúdo".

O YouTube alterou quase três dúzias de regras nos últimos 12 meses. Ele recusou pedidos de entrevista com os executivos que comandam as operações de moderação.

Os moderadores que falaram com o The Washington Post disseram que classificam os vídeos internamente, usando critérios que têm por foco os anunciantes e não os espectadores. Classificações etárias ajudam o YouTube a decidir de que maneira comercializar os vídeos para os usuários e anunciantes, e os moderadores dizem que as regras podem ser confusas.

Por exemplo, as regras do YouTube proíbem publicidade em vídeos que apresentem nudez parcial, mas apenas se a imagem parcialmente nua for o ponto “focal”, ou principal foco, do vídeo. Se a imagem for ‘fugaz”, ela pode ser autorizada.

O software desenvolvido pelo Google e usado para identificar conteúdo problemático frequentemente enguiça ou trava, e os moderadores dizem que eles tipicamente precisam cumprir cotas nada realistas, ditadas por empresas terceirizadas, da ordem de 120 vídeos por dia, o que em muitas casos significa pular trechos inteiros de vídeos mais longos. O YouTube diz não ter cotas.

Como consequência, material inapropriado e ofensivo muitas vezes fica na rede por mais tempo do que deveria, eles dizem.

A frustração expressada pelos moderadores, que trabalham para empresas terceirizadas em escritórios espalhados pelos Estados Unidos, também surge em um momento no qual esse tipo de prestador de serviços às companhias de mídia social vêm batalhando por melhores pagamentos e benefícios, assim como assistência psicológica para ajudar a lidar com o estresse pós-traumático causado pelo trabalho.

‘Quando comecei nesse trabalho, imaginei que ajudaria a proteger crianças contra conteúdo ruim”, disse uma ex-moderadora do YouTube em Austin. A conclusão da moderadora quando deixou o emprego no ano passado foi a de que a operação na verdade havia sido concebida para proteger as fontes de renda do YouTube. “Nossa responsabilidade jamais foi para com os criadores ou usuários – e sim para com os anunciantes”.

O YouTube admite que tem dois conjuntos de padrões de conduta em seu site. Em aparente contraste com a experiência descrita pelos moderadores, a empresa diz que tem regras mais severas para os criadores que podem se beneficiar de publicidade em seus vídeos, porque eles na prática fazem negócios com a companhia.

As regras para a comunidade mais ampla são um pouco mais frouxas. Os moderadores são divididos de forma a policiar os dois grupos separadamente, disse Joseph, porque a divisão torna seu trabalho mais especializado e eficiente.

Mas o modelo de negócios do YouTube, o de dividir a receita publicitária com os criadores populares, também cria desafios operacionais distintos. Retirar a publicidade de um criador controverso pode ajudar a proteger a reputação da marca, a manter o relacionamento da empresa com seus anunciantes e a preservar a confiança do público.

Mas também custa faturamento ao YouTube, disse Micah Schaffer, consultor de política tecnológica e ex-conselheiro do YouTube com foco em questões de confiança e segurança.

“É um imenso problema ter dois padrões para diferentes usuários, particularmente se você é mais leniente com os usuários de alto perfil, porque eles ditam o tom e o exemplo para todo mundo mais”, disse Schaffer.

Alguns criadores sentem há muito tempo que o YouTube trata seus canais mais lucrativos de modo diferente do que trata canais independentes e menores.

“Não recebo o mesmo respeito que alguma empresa com uma equipe de imprensa recebe”, disse Stephen, 25, um YouTuber que atende só pelo prenome e responde pelo “Coffee Break”, um canal com 340 mil assinantes. “Os criadores estão se cansando, e exigem o mesmo respeito, transparência e equilíbrio” que o YouTube propicia aos maiores criadores,

Pela maior parte de seus 14 anos de existência, o YouTube se viu como uma plataforma para a livre expressão, e não como rede social ou comunidade online. Isso levou ao que algumas pessoas consideram como uma abordagem menos restritiva com relação ao policiamento de vídeos, e tornou a empresa mais lenta no desenvolvimento de recursos e operações para lidar com os problemas.

Começando na metade de 2017, marcas como a Pepsi e a Walmart boicotaram o YouTube depois que vídeos promocionais sobre elas foram veiculados em companhia de conteúdo hostil e extremista, e isso levou a empresa a reforçar a fiscalização. Susan Wojcicki, a presidente-executiva do YouTube, prometeu publicamente em dezembro daquele ano que removeria conteúdo que “explora nossa abertura”, e prometeu mudar a abordagem da empresa e elevar o total de pessoas monitorando o Google em busca de violações de suas regras para 10 mil, em prazo de um ano.

Entre as 10 mil há muitos prestadores de serviços terceirizados, que moderam também a loja de apps e outros produtos do Google. (Isso se compara aos cerca de 30 mil empregados de segurança e proteção dedicados a revisar o conteúdo do Facebook).

Moderadores apontam para um incidente no final de 2017 como prova de padrões arbitrários. Logan Paul, um dos astros do YouTube, cujo canal tem mais de 19 milhões de assinantes no momento, subiu um vídeo que o mostrava ao lado de um homem japonês que havia se enforcado pouco tempo antes em uma árvore na floresta. (A floresta, no sopé do Monte Fuji, é conhecido como local sagrado e destino procurado por suicidas.)

"Ei, você está vivo?", perguntou Paul ao cadáver.

O YouTube o puniu removendo seus vídeos de um programa especial de publicidade, e Paul retirou o vídeo. Mas algumas semanas mais tarde, ele postou um vídeo que o mostrava disparando uma arma de choque ("taser") contra dois ratos mortos. O vídeo dos ratos e o do suicídio violam as regras comunitárias contra conteúdo violento ou explícito. Paul já havia cometido outras infrações.

Moderadores entrevistados pelo The Washington Post disseram esperar que um criador de alto perfil e responsável por diversas violações claras de regras recebesse uma suspensão permanente de publicidade em todo o seu canal, ou que seu canal fosse removido. Em lugar disso, Paul teve sua publicidade suspensa por duas semanas.

"Foi uma bofetada", disse um moderador. "Você é informado de que existem regras específicas para monetização, regras severas. E aí Logan Paul viola uma das maiores delas e é como se nada houvesse acontecido'".

Paul não respondeu a um pedido de comentário. Joseph, o porta-voz do YouTube, disse que a empresa acreditava que a suspensão de duas semanas havia sido bastante severa, e que bastava para servir de exemplo à comunidade. Embora Paul tenha cometido outras violações, ele jamais cometeu três delas em prazo de 90 dias, o que causaria exclusão.

Os moderadores do YouTube dizem que as contratações apressadas, o rápido crescimento da força de trabalho e as mudanças de regras criam um ambiente desorganizado e estressante, que às vezes torna confuso policiar o conteúdo, forçando os gestores a tomar decisões improvisadas ao interpretá-las.

Os moderadores dizem ter denunciado internamente um vídeo viral de rap da dupla City Girls, de Miami, alguns meses atrás, por mostrar uma forma de dança provocativa conhecida como "twerking". Dois dos moderadores disseram que o vídeo violava as proibições de veicular publicidade em companhia de vídeos que exibam nádegas de forma "sexualmente gratificante".

Eles reportaram a questão por princípio, ainda que o YouTube venha admitindo exceções às suas regras para outros vídeos musicais, que estão entre as formas de conteúdo mais assistidas no site. O vídeo das City Girls agora tem mais de 100 milhões de visitas.

Ainda assim, um ex-líder de equipe de moderação em Austin, que deixou o emprego no ano passado, disse que "as respostas" [que recebemos do YouTube] "não estavam enraizadas nas regras com que trabalhávamos".

Em lugar disso, o líder de equipe desconfia que a decisão foi tomada com base em se o YouTube perderia receita ou os anunciantes se irritariam caso não pudessem veicular publicidade junto a determinados vídeos. A pessoa disse que as regras mudavam 'pelo menos uma vez por mês" - e isso que inclui mudanças frequentes na forma pela qual o conteúdo para crianças é moderado, o que cria confusão.

Joseph diz que o YouTube está adotando regras mais firmes quanto a crianças e outros tópicos, e que promoveu muitas mudanças.

Depois de protestos públicos, executivo do YouTube decidiram em junho remover a publicidade de um canal operado por um criador de vídeos direitista, por repetidos abusos verbais contra um jornalista gay. Mas alguns dos moderadores de conteúdo da empresa já vinham pedindo por isso há semanas.

Uma equipe que trabalhava em Austin e cuidava da revisão dos vídeos postados pelo direitista Steven Crowder constatou que muitos deles violavam as regras do YouTube, ao menos um mês antes da decisão. A equipe realizava reuniões mensais para registrar as violações mais gritantes e denunciá-las aos superiores, e decidiram denunciar Crowder por postar vídeos degradantes, o que viola as regras do site. Crowder tem mais de quatro milhões de assinantes.

Uma semana depois, o administrador que supervisionava a equipe comunicou aos integrantes que o YouTube havia decidido não remover a publicidade dos vídeos denunciados.

"O consenso entre nós era de que o conteúdo era degradante e não era seguro", disse um dos moderadores. "A postura do YouTube é de que nada é problema até que surja uma manchete a respeito".

Um mês mais tarde, depois que o jornalista agredido divulgou suas comunicações com o YouTube, a empresa disse que o vídeo não violava suas normas a despeito da linguagem agressiva. No dia seguinte, os executivos mudaram de posição e anunciaram que Crowder não poderia ganhar mais dinheiro na plataforma através dos serviços publicitários do YouTube.

Posteriormente, o YouTube acrescentou que ele poderia voltar a receber publicidade em seus vídeos quando removesse um link para uma camiseta com dizeres homófobos que vende online. Por fim, o YouTube esclareceu uma vez mais que o corte da publicidade nos vídeos de Crowder era resultado de um "padrão" de comportamento e não se relacionava apenas à camiseta.

Joseph, do YouTube, se recusou a comentar sobre as decisões quanto a vídeos individuais, mas disse que a empresa havia removido a publicidade de dezenas de outros vídeos de Crowder antes de suspendê-la em todo o seu canal.

"O YouTube tem regras bem redigidas. Mas as regras escritas são anátema com relação ao modo pelo qual o YouTube de fato opera", disse Carlos Maza, o repórter da Vox que foi agredido por Crowder. "O que quer que façam, é só em reação a crises".

Uma pessoa que continua trabalhando como moderadora no YouTube disse que "o quadro que temos na empresa é que o YouTube tem de ganhar dinheiro - e assim, o que vemos como algo que passa dos limites, para eles não passa".

The Washington Post, tradução de Paulo Migliacci

Tópicos relacionados

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.