Descrição de chapéu Entrevista da 2ª

É necessário fiscalizar algoritmos e regular empresas de tecnologia, diz especialista

Americana defende que Facebook e Google, por exemplo, lidem com efeitos que trazem para mundo real

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

As grandes empresas de tecnologia ainda seguem um modelo de negócio do século passado, sem se importar com os reflexos de suas atividades, o que dificulta inclusive o surgimento de novos empreendedores. E, para mudar isso, será necessário alguma forma de regulação, afirma a autora americana Kate O’Neill.

“Temos que responsabilizar as plataformas como Facebook, Twitter, Google e outras redes sociais que definem o conteúdo que é mostrado para a população”, diz ela, que defende um mecanismo capaz de supervisionar o modo como os algoritmos decidem o que aparece para os usuários.

Kate O'Neill
A autora e palestrante Kate O’Neill  - Divulgação

Uma das primeiras funcionárias da Netflix e presença constante em palestras no Vale do Silício, O’Neill também considera que as pessoas devem tomar mais cuidado com o que compartilham nas redes sociais, para que seus dados não sejam usados para fins políticos.

“Sempre que alguém chamar para participar de um meme ou de um jogo, o sinal vermelho deve acender. Foi esse o cenário que a Cambridge Analytica usou para conseguir os dados de 70 milhões de eleitores norte-americanos.”

No fim de 2018, ela publicou seu terceiro livro, “Tech Humanist”, um manifesto no qual defende que o avanço tecnológico precisa ser acompanhado de preocupação ética com seus efeitos para o ser humano.

Em seus livros, a senhora defende que os avanços tecnológicos devem andar juntos com o valor da humanidade. Qual é esse valor? 
É a ideia de que o ser humano deve ficar no centro, de que há valor na vida humana e que ela deve ser respeitada. Há um avanço tecnológico muito grande capitaneado pelas empresas, mas, na verdade, é uma construção coletiva que deve ter como norte ajudar a humanidade.

Conforme as tecnologias avançam e permitem às empresas ampliarem sua atuação, há uma obrigação ética crescente de alinhar os negócios com as consequências que eles geram para o ser humano, de modo a garantir que não exista uma diferença grande demais entre quem tem acesso e quem não tem.

E nós estamos fazendo isso?
Acho que não. Muito do que acontece com as empresas, especialmente as grandes companhias de tecnologia, é simplesmente uma aceleração do mesmo modelo de negócio dos últimos séculos.

A diferença é que, em uma era com inteligência artificial e automação, é possível conseguir cada vez mais dinheiro e mais eficiência com cada vez menos pessoas envolvidas no processo. Os empresários vão ter mais lucro, mas os seres humanos terão menos empregos, então vão ganhar menos da riqueza gerada.

É um cenário no qual é cada vez mais difícil enxergar qualquer tipo de oportunidade para quem já não faz parte da liderança dessas empresas.

Claro que ainda há oportunidades para empreendedorismo e inovação nesse cenário, mas elas são cada vez menores e mais desafiadoras. Devemos fazer um poderoso esforço para criar um sistema que permita às pessoas ter oportunidades conforme os negócios crescem. Não creio que hoje as empresas, em especial as de tecnologia, estejam fornecendo oportunidades suficientes. Elas não pensam nisso.

O que precisa mudar?
Os negócios precisam operar de uma perspectiva que chamo de propósito estratégico. Isso não significa necessariamente propósito em um sentido humanitário ou de caridade.

Significa um entendimento do que a empresa faz e do que quer fazer ao ganhar escala, de modo que possa dialogar com as consequências humanas do negócio. É como um hospital que entende que seu maior objetivo não é lucrar de qualquer maneira, e sim o bem estar de seus pacientes.

Colocar a perspectiva correta e as prioridades certas ajuda os negócios a tomarem as decisões corretas em relação a cultura, marca, experiência. Cada vez mais é necessário esse alinhamento entre a empresa e as pessoas que ela atende. Porque, do contrário, o negócio cresce de maneira exponencial, mas sem ser acompanhado por valores humanos.

Isso também vale para o mundo político?
São dois modelos bem diferentes. Acho que há um trabalho a ser feito na esfera política para garantir a criação de proteções e regulações necessárias às pessoas, assim como para garantir que os líderes políticos tenham as melhores intenções em relação a seus eleitores.

A tecnologia não é necessariamente a primeira coisa que vem à cabeça quando se pensa em política, mas evidentemente tem um papel importante em transmitir uma mensagem, em mudar a posição da população sobre determinado assunto e em quem votar.

O que mais chamou a atenção recentemente nesse aspecto foi a influência russa na eleição presidencial americana de 2016, mas em qualquer lugar do mundo temos visto um aumento de interesses particulares tentando criar campanhas ou usando o Facebook e outros canais para tentar influenciar o resultado de uma eleição.

Isso com certeza está acontecendo, e é preciso responsabilizar os políticos por suas ações. E também temos que responsabilizar as plataformas como Facebook, Twitter, Google e outras redes sociais que definem o conteúdo que é mostrado para a população.

Devemos regular as atividades dessas plataformas?
É preciso criar um equilíbrio, há uma divisão tripla da responsabilidade. Parte dela é interna das empresas. Companhias como Facebook e Google ajudariam muito se assumissem a responsabilidade de alinhar suas práticas com o que é melhor para a humanidade.

Além disso, sempre é necessário algum grau de regulação, alguma forma de supervisão da sociedade ou do governo.

É possível que a solução seja a criação de uma entidade para acompanhar o funcionamento dos algoritmos, entender qual o tipo de influência que eles geram e analisar quais fatores são levados em conta na hora de decidir qual conteúdo será distribuído e qual não será. Isso é uma discussão que está começando a crescer ao redor do mundo.

Creio que também há uma responsabilidade que recai sobre as pessoas, que precisam desenvolver a capacidade de reconhecer quando algo distribuído não é verdadeiro.

Será cada vez mais fácil manipular fotos, vídeos e áudios, além do uso da inteligência artificial para fazer um vídeo em que uma figura pública fala coisas que não falou de verdade. Então essa capacidade de reconhecer o que é falso precisa aumentar.

Nossas experiências serão cada vez mais influenciadas pelos algoritmos e pela automação. O trabalho precisa ser feito em cada uma dessas esferas: a empresarial, a política e a individual. Não adianta trabalhar em um lado e achar que os outros vão acompanhar.

É possível acabar com a distribuição de fake news durante os ciclos eleitorais?
A necessidade de algum nível de moderação e monitoramento de conteúdo —incluindo material de ódio, violento, alarmante e falso— vai apenas aumentar nos próximos anos, conforme os “deepfakes” se tornam cada vez mais comuns, e tentativas de copiar campanhas nas redes para influenciar questões políticas e sociais se proliferam.

Sempre houve um ciclo em que as pessoas tentam burlar as restrições impostas pela tecnologia, seguido pelas empresas aumentando essas restrições, seguido pelas pessoas quebrando essas novas restrições e assim infinitamente. Esse ciclo não vai mudar.

Em artigo para a revista Wired sobre o “10-year challenge” [brincadeira na qual usuários comparavam autorretratos de dez anos atrás e dos dias de hoje] , do Facebook, a senhora levantou a possibilidade de que as imagens fossem usadas para reconhecimento facial. 
Há muitos sites, games e memes que coletam dados que podem ser usados para iniciar uma campanha, para criar um algoritmo ou para fazer outro uso não autorizado.

Então era uma oportunidade para as pessoas que participavam do “10-year challenge” pensar que sempre que alguém chamar para participar de um meme ou de um jogo no qual todos respondem a uma mesma pergunta, o sinal vermelho deve acender.

Foi esse o cenário que a Cambridge Analytica usou para conseguir os dados de 70 milhões de eleitores americanos e criar campanhas que podem ter influenciado a eleição de 2016.

Esse tipo de truque acontece cada vez mais, então as pessoas devem ficar mais atentas ao participar das redes sociais. É realmente importante percebermos as oportunidades que a tecnologia traz para melhorar nossa vida. Ela facilita a comunicação e o acesso à informação. Mas, para isso, também é preciso ficar alerta com os problemas decorrentes dela.

Como manter uma relação saudável com a tecnologia em um mundo em que estamos sempre conectados?
A tecnologia pode ser viciante, mas ela também pode ser transformadora. Pessoas devem ter responsabilidade no modo que usam a tecnologia.

Mas certamente muita coisa depende da maneira que organizações lidam com isso, se elas estimulam esse comportamento perigoso ou se pensam a longo prazo. As empresas devem criar métricas para saber se seus usuários estão seguindo seus valores.

Pegue o Facebook, por exemplo. Se ele realmente segue o que costumava dizer, que sua função é conectar pessoas e conectar o mundo, então deve criar um modo de dimensionar isso. Não pode só estimular os usuários a ficarem o maior tempo possível nele, não é essa a métrica que mede a relação entre as pessoas e o sistema.

O Facebook é um exemplo de empresa que segue apenas seus próprios objetivos e que tem uma noção própria de sucesso. Então eles não estão em uma boa posição para cuidar dos seus dados e métricas. Este é um caso em que deve haver alguma regulação para manter a empresa na linha, e é necessário que as pessoas entendam que o Facebook pode gerar um risco de vício.

Recentemente o Facebook se envolveu em uma polêmica quando o atirador do massacre em Christchurch, na Nova Zelândia, transmitiu o ataque ao vivo na plataforma. 
As plataformas se beneficiam do uso e da atenção generalizados gerados por seus usuários, então elas têm a obrigação de lidar, ou pelo menos ajudar a lidar, com as consequências que este uso traz para o mundo real.

O atirador na Nova Zelândia, assim como o de Suzano, no Brasil, frequentava fóruns anônimos na internet. Por que o discurso de ódio se tornou tão comum nesses sites? 
O efeito do anonimato na amplificação de um comportamento já é algo bem compreendido pelos estudos. Todos provavelmente já testemunharam de alguma forma “o efeito de desinibição online”, mesmo sem saber o que ele significa. Nada mais é do que o resultado que a presença virtual, em vez da física, desempenha nas nossas interações online.

Ele explica por que seu colega de trabalho é tão legal no café, mas se torna um idiota raivoso nos comentários de um post. É a dualidade da internet: estamos cada vez mais conectados, mas, ao mesmo tempo, nos sentimos mais desconectados da realidade humana devido ao anonimato.

A senhora acha que a tecnologia se tornou uma vilã nos últimos tempos?
Creio que sim. Em certo grau, isso decorre do aumento do entendimento dos efeitos da tecnologia, algo que precisamos saber cada vez mais. Se pensarmos na capacidade que a inteligência artificial e a automação têm de amplificar qualquer coisa que toca, isso pode gerar experiências positivas e benéficas. Então precisamos ter as regras corretas para garantir que isso aconteça.

As empresas só estão pensando em lucro e crescimento, que é um modo muito limitado de ver a tecnologia. Ela é muito mais poderosa. Então temos uma grande oportunidade aí. As empresas podem unir o lucro a uma busca por melhorar a vida humana. Só quando isso acontecer as pessoas vão encarar a tecnologia de outra forma.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.