Siga a folha

Descrição de chapéu Cifras & Congresso Nacional

Quem é preso por causa de IA deve ser tão ouvido quanto big tech, diz ex-diretora do Google

Depois de liderar equipe de políticas públicas do gigante das buscas, Verity Harding escreve sobre como colocar a tecnologia a serviço da humanidade

Assinantes podem enviar 7 artigos por dia com acesso livre

ASSINE ou FAÇA LOGIN

Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:

Oferta Exclusiva

6 meses por R$ 1,90/mês

SOMENTE ESSA SEMANA

ASSINE A FOLHA

Cancele quando quiser

Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.

São Paulo

AI Needs You: How We Can Change AI's Future and Save Our Own

Avaliação:
  • Preço: US$ 14,72 (e-book)
  • Autoria: Verity Harding
  • Editora: Princeton University Press

Há diversos exemplos na história em que decisões sobre como conduzir uma tecnologia foram tomadas sem ouvir as pessoas afetadas por aquelas ferramentas, diz a pesquisadora Verity Harding, 39, autora do livro "AI Needs You" (a inteligência artificial precisa de você), lançado em março deste ano nos EUA.

Agora, em meio ao avanço da inteligência artificial, é preciso fazer diferente, defende. "Uma big tech deve ser ouvida sobre um projeto de lei sobre IA na mesma medida que quem perde o emprego ou é alvo de uma prisão injusta por um erro de sistemas de reconhecimento facial", afirma à Folha.

Harding fala da perspectiva de quem já esteve em governos e em big techs. Entre 2009 e 2013, ela foi a principal conselheira de tecnologia do político britânico Nick Clegg, vice-primeiro-ministro do Reino Unido entre 2010 e 2015 e hoje vice-presidente de políticas públicas da Meta, dona do Facebook. Além disso, Harding foi diretora de políticas públicas da Deepmind, o braço especializado em IAs avançadas do Google, entre 2016 e 2020.

Autora do livro "AI Needs You", Verity Harding passou pela subsidiária de inteligências artificiais avançadas do Google, Deepmind, e pelo gabinente do ex-primeiro ministro inglês Nick Clegg - Divulgação/Princeton University Press

A pesquisadora, que está no debate sobre como orientar o desenvolvimento de sistemas de inteligência artificial de forma segura desde os primórdios, afirma que dizer que o assunto é muito técnico é uma tentativa de interditar a discussão e que isso espantará o público em geral.

"Não é necessário ser um especialista em IA para ter uma opinião informada sobre a tecnologia", diz.

Harding, hoje, dirige um projeto sobre IA e geopolítica no Instituto Bennett para Políticas Públicas, vinculado à Universidade de Cambridge. Com a agenda lotada em meio ao avanço das discussões sobre a regulação da tecnologia pelo mundo, ela falou com a Folha por telefone durante uma corrida de táxi no intervalo entre dois eventos promovidos em Londres.

Na terça-feira (9) em que o Senado adiou mais uma vez a votação da proposta de regulação de inteligência artificial (PL 2338/2023), a pesquisadora evitou comentar o texto brasileiro, "por não saber de seus detalhes".

No entanto, ela afirma que considera a legislação europeia, que inspira a brasileira, um bom exemplo. "Pode não ser o modelo exato para todos os países, mas, ao menos, é clara e compreensível sobre certos limites."

"O Ato de IA da União Europeia divide a tecnologia em diferentes níveis de risco: se algo é de alto risco, há mais obrigações; se as coisas são de baixo risco, há menos. E há também regras acertadas para incentivar a inovação e a pesquisa", justifica.

"Precisamos aceitar que alguns dos lados mais obscuros da humanidade, como ganância, maldade e sede de poder, vão inevitavelmente definir o desenvolvimento e o uso de sistemas de inteligência artificial e impor certos limites."

Verity Harding

pesquisadora da Universidade de Cambridge

Em vez de estar preocupada com um cenário de destruição da humanidade por supercomputadores, Harding identifica problemas reais da IA: reconhecimento facial que não funciona com pessoas de pele mais escura, programas de tradução que não atendem a idiomas do chamado Sul Global e o uso de produções artísticas protegidas por direitos autorais para desenvolver modelos de IA.

Harding diz que é uma prioridade determinar quais grupos serão mais afetados pela inteligência artificial.

"Precisamos aceitar que alguns dos lados mais obscuros da humanidade, como ganância, maldade e sede de poder, vão inevitavelmente definir o desenvolvimento e o uso de sistemas de inteligência artificial, como já ocorreu com outras tecnologias, e impor certos limites."

O exemplo maior dos efeitos danosos da falta de regulação no livro de Harding é a própra internet.

Ela lembra que o ex-presidenciável americano Al Gore defendia que uma internet sem regulação garantiria acesso igualitário ao conhecimento a escolas e bibliotecas esquecidas pelo poder público.

Em vez disso, os principais programas educacionais pensados para internet ficaram no abandono, e ganhou espaço a versão comercial da rede mantida por poucos negócios extremamente bem-sucedidos.

A decepção com a utopia da internet tem, para a pesquisadora, reflexos negativos sobre as formulações sobre inteligência artificial. "Em um mundo mais desconfiado, certamente essas dúvidas vão se infiltrar e influenciar a tecnologia, e, nesse caso, a IA."

A sociedade deve evitar a premissa equivocada de que a tecnologia é neutra, na avaliação de Harding. "As pessoas precisam estar cientes disso e de como a política influencia a inteligência artificial e, então, sentirem-se capacitadas para mudar isso."

Por outro lado, ela defende que é justo dar uma chance para os benefícios que vêm com a inteligência artificial, se houver propósito em seu desenho.

"Ao longo da história sempre garantimos que os humanos fossem capazes de aproveitar e usar a tecnologia para nosso benefício", diz Harding.

Para ela é necessário orientar o desenvolvimento de inteligência artificial para a resolução de problemas concretos, como a crise climática. "É preciso dar foco a usos da tecnologia como a racionalização do gasto de energia, que pode reduzir as emissões de carbono, por exemplo."

"Precisamos pensar onde a IA pode nos apoiar e isso ajudará as pessoas a confiarem mais na tecnologia", emenda.

"Em um momento histórico pelo menos tão tenso quanto agora, os americanos e os soviéticos foram capazes de se reunir e dizer que queriam proteger o espaço como um lugar de empreendimento científico e pacífico."

Verity Harding

pesquisadora da Universidade de Cambridge

A escritora elege como caso de sucesso na regulação de tecnologia a legislação britânica sobre fertilização in vitro elaborada no início dos anos 1980. "Foi uma discussão muito dura, durante o governo liderado por Margaret Thatcher, poucos anos após a Inglaterra descriminalizar o aborto e a homossexualidade. Havia muita confusão."

Coube à filósofa Mary Warnock fazer a mediação desse debate. "Ela reuniu profissionais e pesquisadores com diferentes expertises, ouviu quem era afetado pela tecnologia, para chegar a uma solução que podemos chamar de ‘muito bem-sucedida’", avalia.

A elaboração da lei envolveu temas espinhosos como barriga de aluguel remunerada e doação e venda de esperma e óvulos.

A história da fertilização in vitro na Inglaterra mostra, segundo Harding, que a regulação impôs limites e incentivou a inovação ao mesmo tempo: "Traçar certas linhas na areia ao limitar certos aspectos da tecnologia de forma inteligente pode, na verdade, impulsionar o desenvolvimento".

Hoje, o mercado de inseminação artificial na Inglaterra movimenta anualmente US$ 70 bilhões (R$ 381 bilhões). O mesmo setor é, basicamente, inexistente nos Estados Unidos por interdição de movimentos conservadores, escreve Harding em seu livro.

"Todos os países podem ter a sua própria Mary Warnock, alguém que crie consensos", diz Harding.

A escritora reconhece que há "elefantes vermelhos, brancos e azuis na sala" quando o assunto é controle efetivo sobre o desenvolvimento de inteligência artificial, em função da disputa tecnológica entre Estados Unidos e China.

Porém, há precedentes em plena Guerra Fria de como é possível alcançar cooperação global em prol da ciência, de acordo com a autora: o "Tratado sobre os Princípios que Regem as Atividades dos Estados na Exploração e Uso do Espaço Exterior, incluindo a Lua e Outros Corpos Celestiais", que determinou o espaço sideral como um lugar-comum de toda a humanidade e evitou povoar a órbita terrestre com satélites artificiais armados com ogivas nucleares.

"A corrida espacial mostra que, mesmo quando há grandes tensões geopolíticas entre as nações, sempre há algo para os governantes cederem ou escolherem colaborar", diz a escritora. "Em um momento histórico pelo menos tão tenso quanto agora, os americanos, os soviéticos e muitos outros países ainda foram capazes de se reunir e dizer que queriam proteger o espaço como um lugar de empreendimento científico e pacífico, em vez de algo militarizado."

Receba notícias da Folha

Cadastre-se e escolha quais newsletters gostaria de receber

Ativar newsletters

Relacionadas