Descrição de chapéu
Sundar Pichai

Por que o Google acredita que precisamos regular a inteligência artificial

Tecnologia precisa ser regulamentada e a única questão é como abordar essa tarefa

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Sundar Pichai
Financial Times

Na minha infância, na Índia, a tecnologia me fascinava. Cada invenção nova mudava a vida de minha família de maneiras significativas. O telefone nos permitia economizar idas ao hospital para receber resultados de exames. O refrigerador queria dizer que podíamos economizar tempo no preparo de refeições, e a televisão nos permitia ver as notícias internacionais e os jogos de críquete que só podíamos imaginar quando ouvíamos o rádio de ondas curtas.

Agora, é meu privilégio ajudar a dar forma a novas tecnologias que, esperamos, virão a mudar as vidas de pessoas em toda parte. Uma das mais promissoras é a inteligência artificial (IA): só este mês, tivemos três exemplos concretes de como a Alphabet e o Google estão aproveitando o potencial da inteligência artificial.

A revista Nature publicou pesquisas nossas que demonstram que um modelo de inteligência artificial pode ajudar médicos a detectar câncer de mama em mamografias com maior precisão; estamos usando a inteligência artificial para realizar previsões de tempo imediatas e hiperlocalizadas quanto a chuvas, com mais rapidez e precisão do que os modelos existentes, como parte de um conjunto mais amplo de ferramentas para combater a mudança do clima; e o Lutfthansa Group está trabalhando com nossa divisão de computação em nuvem para testar o uso da inteligência artificial a fim de ajudar reduzir os atrasos em voos.

Sundar Pichai, presidente do Google e da Alphabet, fala sobre inteligência artificial durante conferência em Bruxelas, Bélgica - Yves Herman/Reuters

No entanto, a história está repleta de exemplos de que as virtudes da tecnologia nem sempre estão garantidas. Os motores de combustão interna permitiram que as pessoas se deslocassem para além de suas áreas, mas também causaram mais acidentes. A internet tornou possível que todos se conectassem a todos, e que informações fossem obtidas de qualquer parte, mas também facilitou a difusão de desinformações.

Essas lições nos ensinam que precisamos encarar com clareza as coisas que podem dar errado. Existem preocupações reais sobre as potenciais consequências negativas da inteligência artificial, dos deepfakes a usos nefários de sistemas de reconhecimento facial. Embora já haja algum trabalho em curso para tratar dessas preocupações, inevitavelmente surgirão novo desafios e nenhuma companhia ou setor será capaz de resolvê-los sem ajuda.

A União Europeia e os Estados Unidos já estão começando a desenvolver propostas regulatórias. O alinhamento internacional será crítico para fazer com que os padrões mundiais funcionem. Para chegar lá, precisaremos de acordo quanto aos valores centrais.

Companhias como a nossa não podem simplesmente criar tecnologias novas e promissoras e permitir que as forças de mercado decidam como elas serão usadas. Cabe-nos igualmente garantir que a tecnologia seja aproveitada para o bem, e que esteja disponível para todos.

Não tenho qualquer dúvida de que a inteligência artificial precisa ser regulamentada. Ela é importante demais para que ajamos de outra maneira. A única questão é como abordar essa tarefa.

É por isso que, em 2018, o Google divulgou seus princípios quanto à inteligência artificial, para ajudar a orientar o desenvolvimento ético e o uso da tecnologia. Essas diretrizes nos ajudam a evitar parcialidades, a testar rigorosamente a segurança dos nossos produtos, a projetá-los com a privacidade como principal preocupação, e a fazer com que a tecnologia preste contas às pessoas.

Também especificam áreas para as quais não projetaremos inteligência artificial e não permitiremos o uso de nossos recursos de inteligência artificial, como por exemplo em apoio a sistemas de vigilância em massa ou para violações dos direitos humanos.

Mas princípios que ficam no papel são irrelevantes. Por isso também desenvolvemos recursos para colocá-los em ação, como por exemplo um sistema de teste de decisões de inteligência artificial em termos de equanimidade e um sistema de avaliações independentes sobre os efeitos de novos produtos sobre os direitos humanos. Fomos ainda além e oferecemos acesso amplo a esses recursos e ao código de fonte aberta a eles associado, o que permitirá que outros empreguem a inteligência artificial para o bem. Acreditamos que qualquer empresa que desenvolva novos recursos de inteligência artificial deveria adotar princípios de orientação e processos rigorosos de revisão, como fizemos.

A regulamentação pelo governo também terá papel importante. Não precisamos começar do zero. Regras existentes, como o Regulamento Geral de Proteção de Dados (GDPR, na sigla em inglês), da União Europeia, podem servir como uma forte fundação. Boas estruturas regulatórias levarão em conta a segurança, facilidade de explicação, equanimidade e prestação de contas, para garantir que desenvolvamos os instrumentos corretos da maneira correta. A regulamentação sensata também deve adotar uma abordagem de proporcionalidade, balanceando os potenciais riscos, especialmente nas áreas mais delicadas, e as oportunidades sociais.

A regulamentação pode oferecer orientação ampla e permitir implementação sob medida em diferentes setores. Para alguns usos da inteligência artificial, como instrumento médicos regulamentados, por exemplo monitores cardíacos com recursos de inteligência artificial, as estruturas existentes são um bom começo. Para áreas mais novas, como os veículos autoguiados, o governo precisará estabelecer regras novas e apropriadas que considerem todos os custos e benefícios relevantes.

O papel do Google começa por reconhecer a necessidade de uma abordagem regulamentada e ética quanto à aplicação da inteligência artificial, mas não para por aí. Queremos ser um parceiro útil e engajado para as autoridades regulatórias à medida que elas enfrentam as tensões e ponderam as vantagens e desvantagens. Oferecemos nossos conhecimentos especializados, experiência e instrumentos para que naveguemos juntos por essas questões.

A inteligência artificial tem o potencial de melhorar bilhões de vidas, e o maior risco pode ser impedir que ela o faça. Ao garantir que seja desenvolvida responsavelmente e de uma forma que beneficie a todos, poderemos inspirar as gerações futuras a acreditar no poder da tecnologia tanto quanto o faço.

Tradução de Paulo Migliacci

Sundar Pichai

Presidente-executivo do Google e da Alphabet

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.