Descrição de chapéu The New York Times

Como a China usa a inteligência artificial para rastrear minoria étnica

Em um mês, regime faz 500 mil 'scans' faciais para discernir transeuntes

Paul Mozur
The New York Times

O governo chinês atraiu forte condenação internacional por sua severa repressão a minorias étnicas muçulmanas no oeste do país, o que inclui a detenção de até um milhão de pessoas em campos de reeducação.

Agora, documentos e entrevistas demonstram que as autoridades também estão usando um vasto sistema secreto de tecnologia avançada de reconhecimento facial para rastrear e controlar os uigures, uma minoria majoritariamente muçulmana.

É o primeiro exemplo conhecido de uso de sistemas de inteligência artificial por um governo para registrar perfis raciais, dizem especialistas.

A tecnologia de reconhecimento facial, integrada à rede cada vez mais extensa de câmeras de vigilância instaladas na China, busca exclusivamente os uigures, com base em sua aparência, e mantém registros de seus deslocamentos, para busca e revisão.

A prática faz da China a pioneira na aplicação de tecnologia de próxima geração para vigiar o povo, o que pode dar início a uma nova era de racismo automatizado.

A demonstration of facial recognition technology from the artificial intelligence company SenseTime in Shanghai, on April 17, 2018. In a major ethical leap for the tech world, Chinese start-ups have built algorithms that the government uses to track members of a largely Muslim minority group ? the first known example of a government intentionally using artificial intelligence for racial profiling, experts said. (Gilles Sabrié/The New York Times)
Demonstração de tecnologia de reconhecimento facial pela companhia SenseTime, em Xangai - Gilles Sabrié - 17.abr.18/The New York Times

A tecnologia e seu uso para manter sob observação os 11 milhões de uigures chineses foram descritos por cinco pessoas com conhecimento direto dos sistemas, que pediram que seus nomes não fossem mencionados porque temem represálias.

O The New York Times também revisou bancos de dados usados pela polícia e governos, documentos de compra de equipamento e materiais publicitários distribuídos pelas empresas de inteligência artificial que produzem os sistemas.

As autoridades chinesas já mantêm uma vasta rede de vigilância, que inclui rastreamento de DNA, na província de Xinjiang, oeste do país, lar de muitos uigures. Mas o escopo dos novos sistemas, que não havia sido reportado até agora, estende essa monitoração a muitos outros quadrantes do país.

A polícia agora está usando tecnologia de reconhecimento facial para vigiar uigures em cidades ricas do leste chinês, como Hangzhou e Wenzhou, e na província costeira de Fujian, disseram duas das fontes.

A polícia da cidade de Sanmenxia, à beira do rio Huang He (Amarelo), no centro da China, opera um sistema que em um mês, neste ano, fez 500 mil verificações para determinar se transeuntes eram uigures.

Documentos policiais mostram que a demanda por essa capacidade está crescendo. Quase duas dezenas de forças policiais, em 16 províncias e regiões da China, começaram a buscar esse tipo de tecnologia a partir de 2018, de acordo com documentos sobre compra de equipamentos.

Children attend an Uighur language school in Gilles Plains, a suburb where many of Australia?s Uighur Muslims live, in Adelaide, Australia, March 22, 2019. Members of the Uighur ethnic group want their adopted homeland to take action over China?s internment camps, into which many of their loved ones seem to have disappeared. (Christina Simons/The New York Times)
Crianças frequentam escola uigur em Adelaide, na Austrália - Christina Simons - 22.mar.19/The New York Times

Em Shaanxi, uma província no centro da China, a polícia no ano passado planejava adquirir, por exemplo, um sistema de câmeras inteligentes que "permitiria reconhecimento facial para identificar atributos uigures/não uigures".

Algumas forças policiais e empresas de tecnologia descrevem a prática como "identificação de minorias", ainda que três das fontes afirmem que a expressão serve como eufemismo para um instrumento usado exclusivamente para identificar uigures.

A aparência dos uigures é distinta da aparência da etnia han, majoritária na China, e se assemelha mais à dos povos da Ásia Central. Essas diferenças facilitam a identificação por meio de software.

As democracias há décadas levam vantagem em termos de tecnologias de ponta. Hoje, uma nova geração de startups que atendem às necessidades autoritárias de Pequim começa a ditar o tom para tecnologias emergentes como a inteligência artificial. Instrumentos semelhantes podem automatizar vieses baseados em cor de pele e traços étnicos, em outros lugares.

"Se tomarmos a aplicação de maior risco para essa tecnologia, há boas chances de que alguém experimente colocá-la em uso", disse Clare Garvie, pesquisadora no Centro de Privacidade e Tecnologia, na escola de direito da Universidade de Georgetown. "Se você cria uma tecnologia que pode classificar as pessoas por etnia, alguém terminará por usá-la para reprimir essa etnia".

Do ponto de vista tecnológico, usar algoritmos para rotular pessoas com base em raça ou etnia se tornou relativamente fácil. Empresas como a IBM anunciam software capaz de separar as pessoas de acordo com categorias amplas.

Mas a China penetrou em território novo ao identificar um grupo étnico para fins de policiamento e ação judicial. Uma startup chinesa, a CloudWalk, delineou uma experiência de amostragem, ao divulgar seus sistemas de vigilância. A tecnologia, afirmou a empresa, era capaz de reconhecer "grupos de pessoas de interesse".

"Se um uigur vive em um determinado bairro, originalmente, e em 20 dias aparecem seis uigures", a empresa afirma em seu site, o sistema "imediatamente envia alertas às autoridades".

Na prática, os sistemas são imperfeitos, disseram duas das fontes. Sua precisão em muitos casos depende de fatores ambientais como a iluminação e o posicionamento das câmeras.

Nos Estados Unidos e Europa, o debate na comunidade de inteligência artificial tem por foco os vieses inconscientes das pessoas que projetam esse tipo de tecnologia.

Testes recentes demonstraram que sistemas de reconhecimento facial produzidos por empresas como IBM e Amazon eram menos precisos no reconhecimento de traços de pessoas de pele mais escura.

Os esforços da China despertam questões mais graves, Embora a tecnologia de reconhecimento facial empregue aspectos como tom de pele e formatos de rosto para separar imagens encontradas em fotos ou vídeos, deve ser instruída por seres humanos sobre como categorizar pessoas com base em definições sociais de raça ou etnia.

A polícia chinesa, com a ajuda de startups, fez exatamente isso.

"É algo que parece chocante, visto dos Estados Unidos, onde é bem provável que exista racismo incorporado aos nossos processos decisórios algorítmicos, mas não de forma assim aberta", disse Jennifer Lynch, diretora de litígios sobre vigilância na Electronic Freedom Foundation. "Não existe um sistema projetado para identificar alguém como afrodescendente, por exemplo."

As companhias chinesas de inteligência artificial que trabalham no desenvolvimento desse tipo de software incluem Yitu, Megvii, SenseTime e CloudWalk, todas avaliadas em mais de US$ 1 bilhão pelo setor de capital privado. Outra empresa, a Hikvision, que vende câmeras e software de processamento de imagem, oferecia uma função de reconhecimento de minorias, mas decidiu desativá-la em 2018, de acordo com uma das fontes.

As avaliações dessas empresas dispararam em 2018, quando o Ministério de Segurança Pública, a principal agência policial da China, reservou bilhões de dólares, sob dois programas, Skynet e Sharp Eyes, para computadorizar a vigilância, o policiamento e a coleta de informações.

Em comunicado, uma porta-voz da SenseTime afirmou ter contatado as "equipes relevantes", e que foi informada de que a empresa não estava ciente de que sua tecnologia estivesse sendo usada para desenvolver perfis raciais.

A Megvii afirmou em comunicado que seu foco eram "soluções comerciais, não políticas", acrescentando que "estamos preocupados com o bem-estar e segurança dos cidadãos individuais, e não com a vigilância de grupos". A CloudWalk e a Yitu não responderam a pedidos de comentários.

O Ministério de Segurança Pública chinês não respondeu a um pedido de comentário encaminhado por fax.

Vendendo produtos com nomes como Fire Eye, Sky Eye e Dragonfly Eye, as startups prometem usar a inteligência artificial para analisar imagens obtidas pelas câmeras de vigilância chinesas.

A tecnologia não está madura —em 2017, a Yitu estimava a probabilidade de sucesso da polícia ao responder a um de seus alertas em uma estação de trem como "uma em três" — e muitas das câmeras chinesas não são poderosas o bastante para que o software de reconhecimento facial trabalhe efetivamente.

Mas elas ajudam no avanço da arquitetura de controle social da China. Para fazer com que seus algoritmos funcionem, a polícia montou bancos de dados de imagens faciais de pessoas com fichas policiais, pacientes psiquiátricos, pessoas com histórico de uso de drogas, e pessoas que apresentaram queixas ao governo, de acordo com duas das fontes e documentos de compras públicas.

Um banco de dados nacional sobre criminosos foragidos inclui 300 mil rostos, e uma lista de pessoas com histórico de uso de drogas na cidade de Wenzhu inclui oito mil imagens faciais, de acordo com as fontes.

Usando um processo conhecido como aprendizado por máquina, os engenheiros alimentam os sistemas de inteligência artificial com dados de forma a treiná-los para reconhecer padrões ou traços. No caso dos perfis, eles oferecem milhares de imagens identificadas, tanto de uigures como de não uigures. Isso ajudaria a gerar uma função que permitiria distinguir entre grupos étnicos.

As companhias de inteligência artificial receberam dinheiro de grandes investidores. A Fidelity International e a Qualcomm Ventures eram parte de um consórcio que investiu US$ 620 milhões na Sensetime. A Sequoia Capital investiu na Yitu. A Megvii conta com capital da Sinovation Ventures, fundo criado por Kai-Fu Le, conhecido investidor chinês em tecnologia.

Uma porta-voz da Sinovation disse que o fundo recentemente havia vendido parte de sua participação na Megvii, e que não contava mais com um representante no conselho da empresa. A Fidelity não quis comentar. Sequoia e Qualcomm não responderam a pedidos de comentário encaminhados por email.

Lee, que investe vigorosamente no segmento chinês de inteligência artificial, argumentou que a China tem vantagem para desenvolver inteligência artificial porque seus líderes se preocupam menos com "complicações legais" ou com um "consenso moral".

"Não somos espectadores passivos na história da inteligência artificial — somos seus autores", escreveu Lee no ano passado., "Isso significa que os valores que embasam nossas visões sobre um futuro com inteligência artificial podem bem se tornar profecias realizadas".

Ele se recusou a comentar sobre o investimento de seu fundo na Megvii, ou sobre as práticas da empresa.

O uso de perfis étnicos pelo setor de tecnologia chinês não é segredo, disseram as fontes. Tornou-se tão comum que uma das pessoas o comparou à tecnologia Bluetooth de comunicação via rádio em curta distância. Empregados da Megvii foram alertados sobre a delicadeza de discutir em público a questão dos perfis étnicos, disse uma das fontes.

A China dedicou recursos consideráveis a rastrear os uigures, mencionando a violência étnica em Xinjiang e ataques terroristas uigures em outras áreas. Pequim colocou centenas de milhares de uigures, e pessoas de outras origens, de Xinjiang em campos de reeducação.

O software estende a capacidade do Estado para rotular uigures ao restante do país. Um banco de dados nacional tem imagens do rosto de todos os uigures que saem de Xinjiang, de acordo com duas das pessoas.

Documentos referentes a compras realizadas por governos nos dois últimos anos também mostram uma expansão da demanda. Na cidade de Yongzhou, no sul da província de Hunan, as autoridades estavam em busca de software que "caracterize e busque se uma pessoa é ou não uigur", de acordo com um documento.

Em dois municípios da província de Guizhou, a polícia mencionou a necessidade de classificar os uigures. Um das forças policiais desejava desenvolver a capacidade de reconhecer uigures com mais de 97% de precisão, tendo por base fotos de identificação.

Em Chongqing, megalópole no centro do país, e na região do Tibete, as forças policiais abriram concorrências para software semelhante.

E um documento de solicitação de propostas do governo provincial de Hebei descreve como a polícia deve ser notificada se diversos uigures reservarem passagem em um mesmo voo no mesmo dia.

Um estudo conduzido pelas autoridades em 2018 descreveu o uso de outros tipos de banco de dados. Coescrito por um dirigente da polícia de Xangai, o estudo afirma que sistemas de reconhecimento facial instalados nas proximidades de escolas poderiam buscar pessoas incluídas em bancos de dados de suspeitos de crimes ou de portadores de enfermidades psiquiátricas.

Um banco de dados gerado pelo software da Yitu e avaliado pelo The New York Times mostra como a polícia da cidade de Sanmenxia usou software instalado em câmeras mais de 500 mil vezes, em uma tentativa de identificar moradores que durou cerca de um mês e começou na metade de fevereiro.

Os códigos de reconhecimento incluíam rótulos como "rec_gender" [reconhecer gênero], e "rec_sunglasses" [reconhecer óculos escuros] , e também "rec_uygur", que recebia valor um, em contraposição a zero, caso o software acreditasse ter identificado um uigur.

Das 500 mil tentativas de identificação pelas câmeras, o software supôs ter distinguido uigures em 2.834 ocasiões. Imagens armazenadas ao lado da entrada relativa a isso, no registro, permitem que a polícia verifique as identificações.

A Yitu e suas rivais têm ambição de expansão no exterior. Um esforço nesse sentido poderia facilmente colocar software de reconhecimento étnico nas mãos de outros governos, disse Jonathan Frankle, pesquisador de inteligência artificial no Instituto de Tecnologia de Massachusetts (MIT).

"Não creio que seja um exagero tratar essa questão como ameaça à existência da democracia", disse Frankle.

"Assim que um país adotar esse modelo pesadamente autoritário, estará usando dados para impor pensamentos e regras de modo muito mais profundo do que aquilo que era possível fazer 70 anos atrás na União Soviética. Nesse sentido, estamos falando de uma crise urgente, na qual parecemos ingressar aos pouquinhos, como sonâmbulos."

Tradução de Paulo Migliacci

Tópicos relacionados

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.