Descrição de chapéu
John Thornhill

Scarlett Johansson está certa em querer que empresas de IA sejam mais transparentes

Índice de Stanford mostra que desenvolvedoras de modelos ainda têm um longo caminho a percorrer

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

John Thornhill

Editor de Inovação do Finacial Times e fundador do site Sifted, sobre startups europeias

Financial Times

No filme "Ela", um escritor solitário chamado Theodore Twombley se apaixona pela voz incorpórea de Samantha, uma assistente virtual interpretada pela atriz Scarlett Johansson.

"Não posso acreditar que estou tendo essa conversa com meu computador", diz Twombley para Samantha. "Você não está. Você está tendo essa conversa comigo", diz Samantha.

A genialidade do roteiro de Spike Jonze está em sua exploração das fronteiras entre o artificial e o real. Mas, hoje, o filme de ficção científica de 2013 adquiriu uma ressonância irônica depois que a OpenAI lançou seu mais recente chatbot de inteligência artificial (IA) multimodal GPT-4o, aparentemente imitando a voz de Johansson.

A atriz Scarlett Johansson em coletiva de imprensa no Festival de Cannes de 2023 - Yara Nardi - 24.mai.2023/Reuters

Johansson disse que recusou os pedidos da OpenAI para usar sua voz, acrescentando que ficou "chocada e irritada" ao descobrir que a empresa havia implantado uma voz "assustadoramente semelhante" à sua.

Ela pediu maior transparência e uma legislação apropriada para garantir que os direitos individuais fossem protegidos. A OpenAI interrompeu o uso da voz, que mais tarde explicou pertencer a outra pessoa não identificada.

O incidente pode ter parecido um capricho de uma celebridade para os representantes que participaram da Cúpula de Segurança de IA em Seul nesta semana. Mas a disputa ecoa três preocupações mais gerais sobre a IA generativa: o roubo de identidade, a corrosão da propriedade intelectual e a erosão da confiança.

As empresas de IA conseguem implementar essa tecnologia de forma responsável? Aflitivamente, até mesmo alguns dos responsáveis pela segurança estão fazendo essa pergunta.

Na semana passada, Jan Leike renunciou como chefe de uma equipe de segurança na OpenAI após a saída de Ilya Sutskever, um dos cofundadores e cientista-chefe da empresa.

No X, Leike afirmou que a segurança havia sido deixada de lado na empresa em prol de "produtos reluzentes". Ele argumentou que a OpenAI deveria dedicar muito mais recursos à segurança, confidencialidade, alinhamento humano e impacto social.

"Esses problemas são bastante difíceis de resolver, e estou preocupado que não estejamos em uma trajetória para resolvê-los", escreveu.

Em suas próprias declarações após deixar a empresa, Sutskever disse estar confiante de que a OpenAI construirá uma IA que seja "tanto segura quanto benéfica".

No entanto, Sutskever foi um dos membros do conselho da empresa que no ano passado tentaram destituir o CEO Sam Altman.

Depois que Altman foi reintegrado após um levante dos funcionários, Sutskever disse que lamentava sua participação no golpe. Mas sua própria saída removerá mais um contrapeso para Altman.

Não é apenas a OpenAI que tem enfrentado dificuldades na implementação da tecnologia de IA. O Google teve seus próprios problemas com a IA generativa quando seu chatbot Gemini gerou imagens anacrônicas de soldados nazistas negros e asiáticos.

Ambas as empresas afirmam que os erros são inevitáveis ao lançar novas tecnologias e respondem rapidamente aos seus erros.

Ainda assim, transmitira maior confiança se as principais empresas de IA fossem mais transparentes. Elas têm um longo caminho a percorrer, como mostrado pelo Foundation Model Transparency Index, publicado esta semana pela Universidade de Stanford.

O índice, que analisa dez principais desenvolvedores de modelos em cem indicadores, incluindo acesso aos dados, confiabilidade do modelo, políticas de uso e efeitos em cascata, destaca como as grandes empresas têm tomado medidas para melhorar a transparência nos últimos seis meses, embra alguns modelos permaneçam "extremamente opacos".

"O que esses modelos permitem e proíbem definirá nossa cultura. É importante examiná-los", disse Percy Liang, diretor do Stanford’s Center for Research on Foundation Models.

O que mais o preocupa é a concentração de poder corporativo. "O que acontece quando algumas organizações controlam o conteúdo e o comportamento dos futuros sistemas de IA?"

Essas preocupações podem alimentar demandas por mais intervenção regulatória, como a Lei da IA da UE, que recebeu aprovação do Conselho Europeu.

Mais de um quarto das legislaturas estaduais dos EUA também estão considerando projetos de lei para regular a IA. Mas alguns no setor temem que a regulamentação possa apenas fortalecer o domínio das grandes empresas de IA.

"As vozes na sala são as das big techs. Elas podem consolidar seu poder por meio da regulamentação", disse Martin Casado, sócio de investimentos na empresa de capital de risco Andreessen Horowitz.

Os legisladores precisam prestar muito mais atenção à "little techs", as dezenas de startups que usam modelos de IA de código aberto para competir contra os grandes players.

Dez países e a UE na cúpula de Seul concordaram esta semana em estabelecer uma rede internacional de institutos de segurança para monitorar o desempenho de modelos de IA de fronteira, o que é bem-vindo.

Mas eles devem agora ouvir Johansson e investigar muito mais profundamente as estruturas corporativas poderosas que implementam esses modelos.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.