Já é assinante? Faça seu login
Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:
Oferta Exclusiva
6 meses por R$ 1,90/mês
SOMENTE ESSA SEMANA
ASSINE A FOLHACancele quando quiser
Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.
O Facebook anunciou na sexta-feira (3) que desabilitou uma função de recomendação de tópicos que associou erroneamente homens negros a “primatas”, em um vídeo veiculado na rede social.
Um porta-voz da empresa definiu a situação como “erro claramente inaceitável” e disse que o software de recomendações, baseado em inteligência artificial, foi desconectado.
“Pedimos desculpas a quem quer que tenha visto essas recomendações ofensivas”, respondeu o Facebook, depois de ser contatado pela AFP.
“Desabilitamos a função de recomendação de temas tão logo nos demos conta do que estava acontecendo, para que possamos investigar a causa e evitar que aconteça de novo”, acrescentou o Facebook.
O programa de reconhecimento facial foi severamente criticado por defensores dos direitos civis, que apontam para problemas de precisão, especialmente com relação a pessoas que não sejam brancas.
Nos últimos dias, usuários do Facebook viram um vídeo veiculado por um jornal sensacionalista britânico e protagonizado por homens negros, e receberam um aviso gerado automaticamente que perguntava se desejavam “continuar a receber vídeos sobre primatas”, de acordo com o jornal The New York Times.
Darci Groves, antiga diretora de design de conteúdo do Facebook, compartilhou uma captura de tela que mostrava a recomendação.
“Essa pergunta sobre se as pessoas desejam ‘continuar recebendo’ é inaceitável”, tuitou Groves. “Isso é atroz”.
Tradução de Paulo Migliacci
Receba notícias da Folha
Cadastre-se e escolha quais newsletters gostaria de receber
Ativar newsletters