Governo dos EUA oficializa acordo com OpenAI e Anthropic para pesquisa e teste de IA

Órgão americano terá acesso aos principais novos modelos das empresas antes e depois de seu lançamento público

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Harshita Mary Varghese
Bengaluru | Reuters

As startups de IA (inteligência artificial) OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, testes e avaliação de seus modelos de IA, informou nesta quinta-feira (29) o Instituto de Segurança de IA dos EUA.

Os primeiros acordos desse tipo surgem em um momento em que as empresas enfrentam o escrutínio regulatório sobre o uso seguro e ético de tecnologias de IA.

Os legisladores da Califórnia devem votar um projeto de lei ainda esta semana para regulamentar amplamente como a IA é desenvolvida e implantada no estado.

A imagem mostra um teclado iluminado em azul, com as teclas visíveis e o logotipo da OpenAI em destaque ao fundo. O logotipo é composto por um design em forma de nuvem com linhas entrelaçadas, e a palavra 'OpenAI' está escrita logo abaixo do logotipo.
Instituto do governo americano poderá acessar principais modelos de IA das empresas antes do lançamento ao público - Dado Ruvic/Reuters

"IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o Instituto de Segurança de IA alavanca sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada", disse Jack Clark, cofundador e chefe de política da Anthropic, apoiada pela Amazon e pela Alphabet.

Pelos acordos, o órgão americano terá acesso aos principais novos modelos da OpenAI e da Anthropic antes e depois de seu lançamento público.

Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.

"Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial, e esperamos que nosso trabalho conjunto ofereça uma estrutura na qual o resto do mundo possa se basear", disse Jason Kwon, diretor de estratégia da OpenAI, fabricante do ChatGPT.

"Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a administrar de forma responsável o futuro da IA", disse Elizabeth Kelly, diretora do instituto.

O órgão, parte do Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e dará retorno às empresas sobre possíveis melhorias de segurança.

O Instituto de Segurança de IA dos EUA foi lançado no ano passado como parte de uma ordem executiva do governo de Joe Biden para avaliar riscos conhecidos e emergentes de modelos de IA.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.