Descrição de chapéu Financial Times tecnologia Estados Unidos

OpenAI expande equipe de lobby para influenciar regulamentação de IA

Empresa reforça time de assuntos globais à medida que cresce pressão por leis que podem limitar modelos poderosos de IA

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cristina Criddle Javier Espinoza
Londres e Bruxelas | Financial Times

A OpenAI está construindo uma equipe internacional de lobistas em busca influenciar políticos e reguladores que aumentam o escrutínio sobre inteligências artificiais poderosas.

A startup sediada em São Francisco, nos Estados Unidos, disse ao Financial Times que expandiu o número de funcionários em sua equipe de assuntos globais de três no início de 2023 para 35 desde o inicio. A empresa pretende aumentar esse número para 50 até o final de 2024.

A iniciativa ocorre à medida que os governos exploram e debatem legislação em torno da segurança da IA, que corre o risco de limitar o crescimento da startup e o desenvolvimento de seus modelos de ponta, como o ChatGPT.

A imagem mostra o logotipo da OpenAI sobreposto a uma placa de circuito impresso.
Logo da OpenAI próximo de uma placa-mãe. - Dado Ruvic/Reuters

"Não estamos abordando isso a partir de uma perspectiva de que precisamos apenas entrar lá e anular regulamentações, porque não temos o objetivo de maximizar o lucro; temos o objetivo de garantir que a inteligência artificial geral beneficie toda a humanidade", disse Anna Makanju, vice-presidente de assuntos governamentais da OpenAI, referindo-se ao ponto em que as máquinas têm habilidades cognitivas equivalentes às dos humanos.

Embora represente uma pequena parte dos 1.200 funcionários da OpenAI, o departamento de assuntos globais é a unidade mais internacional da empresa, estrategicamente posicionada em locais onde a legislação de IA está avançada. Isso inclui alocar funcionários na Bélgica, Reino Unido, Irlanda, França, Cingapura, Índia, Brasil e EUA.

No entanto, a OpenAI ainda está atrás das suas rivais big tech nesse alcance. De acordo com arquivos públicos nos EUA, o Meta gastou um recorde de US$ 7,6 milhões (cerca de R$ 40,8 milhões) interagindo com o governo estadunidense no primeiro trimestre deste ano, enquanto o Google gastou US$ 3,1 milhões (R$ 16,6 milhões) e a OpenAI US$ 340 mil (R$ 1,82 milhões).

Em relação à defesa específica da IA, o Meta nomeou 15 lobistas, o Google tem cinco, enquanto a OpenAI tem apenas dois.

"Ao entrar, [o ChatGPT tinha] 100 milhões de usuários [mas a empresa tinha] três pessoas para lidar com políticas públicas", disse David Robinson, chefe de planejamento de políticas da OpenAI, que ingressou na empresa em maio do ano passado após uma carreira na academia e consultoria para Casa Branca em sua política de IA.

"Chegou ao ponto em que haveria alguém de alto escalão que gostaria de ter uma conversa, e não havia ninguém que pudesse atender o telefone", acrescentou.

No entanto, a unidade de assuntos globais da OpenAI não lida com alguns dos casos regulatórios mais contenciosos. Essa tarefa cabe à sua equipe jurídica, que lida com questões relacionadas à revisão pelos reguladores do Reino Unido e EUA sobre sua parceria de US$ 18 bilhões (R$ 96,8 bilhões) com a Microsoft.

O time jurídico também é responsável por lidar com a investigação da Comissão de Valores Mobiliários dos EUA sobre se o presidente-executivo Sam Altman enganou investidores durante seu breve afastamento pelo conselho em novembro e a investigação de proteção ao consumidor da Comissão Federal de Comércio estadunidense sobre a empresa.

Em vez disso, os lobistas da OpenAI se concentram na disseminação da legislação de IA. O Reino Unido, os EUA e Cingapura estão entre muitos países lidando com a forma de governar a IA, consultando de forma próxima a OpenAI e outras empresas de tecnologia sobre regulamentações propostas.

A empresa esteve envolvida nas discussões em torno da Lei de Inteligência Artificial da União Europeia, aprovada este ano, um dos projetos de lei mais avançados na busca por regular modelos poderosos de IA.

A OpenAI foi uma das empresas de IA que argumentaram sobre como alguns de seus modelos de IA não deveriam estar entre os que representam um "alto risco" nos primeiros rascunhos da Lei e sujeitos a regras mais rígidas, de acordo com três pessoas envolvidas nas negociações. Apesar desse esforço, os modelos mais capazes da empresa estarão sob a jurisdição da legislação.

A OpenAI também se opôs à pressão da UE para examinar todos os dados fornecidos a seus modelos fundamentais, de acordo com pessoas familiarizadas com as negociações.

A empresa disse ao Financial Times que os dados de pré-treinamento —informações usadas para dar a grandes modelos de linguagem uma compreensão ampla de linguagem ou padrões— devem estar fora do escopo da regulamentação, pois era uma maneira inadequada de entender as saídas de um sistema de IA. Em vez disso, propôs que o foco deveria estar nos dados de pós-treinamento usados para ajustar modelos para uma tarefa específica.

A UE decidiu que, para sistemas de IA de alto risco, os reguladores ainda podem solicitar acesso aos dados de treinamento para garantir que estejam livres de erros e vieses.

Desde a aprovação da lei na UE, a OpenAI contratou Chris Lehane, que trabalhou para o presidente Bill Clinton, na campanha presidencial de Al Gore e foi chefe de políticas do Airbnb. Lehane trabalhará em estreita colaboração com Makanju e sua equipe.

A OpenAI também recentemente contratou Jakob Kucharczyk, ex-líder de competição do Meta. Sandro Gianella, chefe de políticas e parcerias europeias, ingressou em junho do ano passado após trabalhar no Google e Stripe, enquanto James Hairston, chefe de políticas e parcerias internacionais, ingressou no Meta em maio do ano passado.

A empresa esteve recentemente envolvida em uma série de discussões com formuladores de políticas nos EUA e em outros mercados em torno do modelo Voice Engine da OpenAI, que pode clonar e criar vozes personalizadas, levando a empresa a restringir seus planos de lançamento após preocupações com os riscos de como poderia ser usado no contexto das eleições globais deste ano.

A equipe tem realizado workshops em países que enfrentam eleições este ano, como México e Índia, assim como publicando orientações sobre desinformação. Em países autocráticos, a OpenAI concede individual aos seus modelos para "pessoas confiáveis" em regiões onde considera que não é seguro lançar os produtos.

Um funcionário do governo que trabalhou em estreita colaboração com a OpenAI disse que uma preocupação diferente para a empresa era garantir que quaisquer regras fossem flexíveis no futuro e não se tornassem obsoletas com novos avanços científicos ou tecnológicos.

A OpenAI espera resolver algumas reveses da era das redes sociais, o que Makanju disse ter levado a uma "desconfiança geral das empresas do Vale do Silício".

"Infelizmente, as pessoas frequentemente veem a IA com a mesma lente", acrescentou. "Passamos muito tempo garantindo que as pessoas entendam que essa tecnologia é bastante diferente, e as intervenções regulatórias que fazem sentido para ela serão muito diferentes."

No entanto, algumas figuras da indústria são críticas à expansão do lobby da OpenAI.

"Inicialmente, a OpenAI recrutou pessoas profundamente envolvidas na política de IA e especialistas, enquanto agora estão apenas contratando lobistas de tecnologia comuns, o que é uma estratégia muito diferente", disse uma pessoa que se envolveu diretamente com a OpenAI na criação de legislação.

"Eles só querem influenciar os legisladores da mesma forma que as Big Techs fizeram por mais de uma década."

Robinson, chefe de planejamento da OpenAI, disse que a equipe de assuntos globais tem metas mais ambiciosas. "A missão é segura e amplamente benéfica, e o que isso significa? Significa criar leis que não apenas nos permitam inovar e trazer tecnologia benéfica para as pessoas, mas também resultar em um mundo onde a tecnologia seja segura."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.