Saltar para o conteúdo principal

Publicidade

Publicidade

 
 

evgeny morozov

 

19/12/2011 - 07h00

O sinistro efeito Palo Alto e as ditaduras

Será que o Google enfim amadureceu? O cuidado com que a empresa vem tratando a tecnologia de reconhecimento facial parece confirmar essa tese. Basta compará-lo ao Facebook que, tendo apresentado sua tecnologia de reconhecimento facial em junho, se viu apanhado em uma onda mundial de rejeição às suas propostas devido a preocupações com privacidade. No entanto, o Google foi mais afortunado: algumas semanas atrás, a companhia revelou tecnologia para identificar amigos em fotos postadas na sua rede social Google + --e quase ninguém reparou.

As reações diferentes são fáceis de explicar: o Facebook instalou esse recurso para todos os usuários sem pedir sua permissão, enquanto o Google tornou sua ferramenta opcional. O Facebook agora talvez esteja adotando essa abordagem mais polida: o recente acordo entre a empresa e a Comissão Federal do Comércio norte-americana estipula que todas as futuras mudanças nos controles de privacidade existentes requererão autorização dos usuários.

A web parece estar abandonando a mentalidade da opção compulsória, característica dos brutamontes mandões --ou seja, "sabemos que vocês vão adorar esse recurso, e por isso ele será habilitado automaticamente-- em troca da mentalidade de adesão voluntária que caracteriza os diplomatas mais habilidosos --"ei, veja só como é bacana esse novo recurso-- mas só se você estiver interessado". Como demonstra a adesão do Facebook ao "compartilhamento sem fricção", uma coisa é nos forçar a compartilhar aquilo que estamos ouvindo alterando sem nossa permissão os controles de privacidade em nossas páginas; já convencer os usuários de que essa é a coisa certa --e bacana-- a fazer é questão bem diferente. A primeira atitude é uma ofensa. A segunda, uma causa de celebração.

E no entanto, o triunfo da adesão voluntária não é bem o que parece. Embora seja certamente menos coerciva, a adesão voluntária ainda faz com que a tecnologia subjacente --no caso, a de reconhecimento facial-- pareça normal e aceitável. Mas as companhias de tecnologia não reconhecem o fato. "A decisão cabe totalmente aos usuários. O que importa é dar mais controle aos usuários. Não os estamos forçando a nada --as pessoas podem optar por ficar de fora". Essa retórica morna de "dar poder ao usuário" vem sendo a base do evangelho do Vale do Silício há décadas. Tem por base uma crença ingênua em que tecnologias são apenas ferramentas e que seu impacto é instrumental. Assim, se os usuários desejam usar a ferramenta X para executar a tarefa Y, a única coisa que precisa ser debatida é a desejabilidade da tarefa Y. Que a adoção ampla da ferramenta X possa deflagrar um inesperado efeito Z é algo que jamais incomoda aos instrumentalistas, ou se o faz, eles simplesmente descartam o fator como algo de incalculável.

No entanto, esse tipo de raciocínio desconsidera o fato de que as tecnologias, além de servirem a suas funções imediatas, também causam efeitos ecológicos --na verdade, transformam ambientes, ideologias, usuários, relações de poder e outras tecnologias. Assim, embora carros possam ser uma maneira de chegar do Ponto A ao Ponto B, ninguém deveria se concentrar apenas nesse aspecto e desconsiderar o que a cultura do automóvel mais ampla pode estar causando em termos de qualidade e até mesmo modos de vida nas cidades, índices de poluição ou estatísticas de mortalidade. O foco nos usos imediatos de um artefato --quer seja de adesão compulsória ou voluntária- parece ser uma má maneira de resolver o "problema do carro".

Da mesma forma, presumir que uma dada tecnologia não é problemática porque seus usuários podem desativá-la parece pouco sensato. Por que deveríamos descartar a possibilidade de que, assim que número suficiente de pessoas opte por usá-la, a adoção coletiva dessa tecnologia possa transformar dramaticamente o ambiente social, fazendo da opção de não usá-la algo pouco desejável, ou até impossível? Considere os espaços públicos na Califórnia: assim que número suficiente de californianos optaram por usar o carro, algo mudou --tanto em termos de infraestrutura pública quanto de normas- e isso fez da Califórnia um ambiente nada propício a viver sem carro. O carro continua a nos levar do Ponto A ao Ponto B, mas será que nossa qualidade de vida não seria muito melhor se tivéssemos tentado antecipar seus efeitos colaterais e desenvolver uma visão mais multifacetada da tecnologia automobilística?

Agora, voltando ao tema das tecnologias automatizadas de reconhecimento facial, eis o que sabemos: é fácil usá-las para fins abusivos. Um serviço de busca que identifique nomes de pessoas com base em suas fotos seria muito popular junto aos ditadores, sempre ávidos por reprimir os protestos populares. Também sabemos que a tecnologia de reconhecimento facial já conquistou espaço em muitas áreas. É uma maneira popular de proteger celulares e laptops e evitar uso não autorizado. É usada em muitos consoles de videogame para criar uma experiência de jogo mais personalizada. Também é utilizada para identificar --em tempo real!-- o número de frequentadores de cada sexo em um bar. E a lista é muito mais longa.

Usos aparentente inócuos como esses estimularam o surgimento de uma nova geração de empresas que buscam usos novos para essa tecnologia --nem todos inócuos, e muitos dos quais antevistos por seus críticos. Quando o público geral acordar, a tecnologia terá, é claro, se incorporado de tal forma à nossa cultura que será tarde demais para fazer alguma coisa.
Em certo sentido, estamos lidando com um processo mais sinistro que a noção popular de um "efeito borboleta" --a ideia de que uma borboleta batendo as asas no Brasil pode deflagrar um tornado no Texas. Talvez o melhor nome seja "efeito Palo Alto": um usuário despreocupado em Palo Alto que decida optar pelo uso da tecnologia de reconhecimento facial do Google termina fortalecendo um ditador em Damasco. Por que "sinistro"? Porque o usuário de Palo Alto, ao contrário da borboleta, pode antecipar o que virá --mas prefere não fazê-lo.

O que se pode fazer? Bem, podemos impor essa carga ética aos usuários de Internet e sensibilizá-los quanto às consequências posteriores (ainda que indiretas) de suas escolhas. Existem muitos precedentes quanto a isso. As crescentes preocupações quanto à desigualdade econômica, mudança do clima e mão-de-obra infantil resultaram no movimento de "consumo ético", que tenta levar o consumidor a considerar as ramificações éticas de seu comportamento no mercado.

Da mesma forma, por que não pensar em aplicar conceitos semelhantes ao nosso envolvimento com a Internet? O que seria necessário para uma "navegação ética" ou "rede social ética"? Jamais usar sites que empreguem técnicas de reconhecimento facial? Recusar fazer negócios com empresas de Internet que cooperem com a Agência Nacional de Segurança (NSA), [a organização que cuida da espionagem eletrônica norte-americana]? São escolhas que teremos de fazer se não desejamos que a Internet seja uma área isenta de ética. Afinal, o uso irrefletido da tecnologia, assim como o consumo irrefletido, não cria bons cidadãos.

Mas as companhias de Internet também precisam fazer sua parte. É claro que o Google e o Facebook são diferentes das grandes empresas rapaces que exploram trabalhadores rurais e crianças. Nenhuma delas está criando ferramentas de vigilância que poderiam ser usadas por ditadores. O que elas fazem, porém, é ajudar a criar uma infraestrutura técnica e ideológica para que essa cultura surja de maneira aparentemente natural. Isso não oferece argumentos fortes em favor da regulamentação --mas abre as portas a ativismo cidadão, boicotes e, se tudo mais falhar, desobediência civil.

As companhias de Internet sabem perfeitamente que têm responsabilidades. No começo do ano, Eric Schmidt, presidente do conselho do Google, classificou a tecnologia de reconhecimento facial como "sinistra" e expressou preocupação quanto a ela. Mas sua companhia acaba de endossar essa tecnologia --ainda que com a cláusula de adesão voluntária. O Google imagina que isso o proteja de acusações de comportamento antiético; afinal, a decisão cabe ao usuário. Mas será que nos deixaríamos persuadir se as companhias petroleiras alegassem que, se você se preocupa com a mudança do clima, não deveria dirigir um Humvee? Talvez não. É por fingirem não saber como esse triste filme acaba que as companhias de tecnologia cometem seu maior deslize ético.

TRADUÇÃO DE PAULO MIGLIACCI

evgeny morozov

Evgeny Morozov é pesquisador-visitante da Universidade Stanford e analista da New America Foundation. É autor de 'The Net Delusion: The Dark Side of Internet Freedom' (a ilusão da rede: o lado sombrio da liberdade na internet). Tem artigos publicados em jornais e revistas como 'The New York Times', 'The Wall Street Journal', 'Financial Times' e 'The Economist'. Lançará em 2012 o livro 'Silicon Democracy' (a democracia do silício). Escreve às segundas-feiras, a cada quatro semanas.

 

As Últimas que Você não Leu

  1.  

Publicidade

Publicidade

Publicidade

Publicidade


Voltar ao topo da página