O Instituto de Segurança de Inteligência Artificial dos Estados Unidos afirmou, nesta quinta-feira, que as startups OpenAI e Anthropic assinaram acordos com o governo estadunidense para pesquisa, testes e avaliação de seus modelos de IA. Esses acordos surgem em meio a análises de regulamentação do uso seguro e ético de tecnologias na Califórnia. A Justiça californiana deve votar, ainda esta semana, um projeto de lei para regulamentar amplamente como esse tipo de produto é desenvolvida e implantada no estado.
“IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o US AI Safety Institute alavanca sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada”, disse Jack Clark, cofundador e chefe de política da Anthropic, apoiada pela Amazon e pela Alphabet.
Pelos acordos, o Instituto de Segurança de IA terá acesso aos principais novos modelos da OpenAI e da Anthropic antes e depois de seu lançamento público e permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.
“Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial, e esperamos que nosso trabalho conjunto ofereça uma estrutura na qual o resto do mundo possa se basear”, disse Jason Kwon, diretor de estratégia da OpenAI, fabricante do ChatGPT.
“Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a administrar de forma responsável o futuro da IA”, disse Elizabeth Kelly, diretora do instituto.
O instituto, criado ano passado pelo presidente Joe Biden e com a missão de avaliar riscos conhecidos e emergentes do setor, também colaborará com o Instituto de Segurança de IA do Reino Unido e dará retorno às empresas sobre possíveis melhorias de segurança.
Projeto de lei é apoiado por Musk e contrariado pela OpenAI e Microsoft
OpenAI, Adobe e Microsoft inicialmente criticaram o projeto de lei AB 3211, que exige rotulagem clara de conteúdo gerado por IA incluindo marcas d’água em fotos, vídeos e áudios, e transparência em grandes plataformas como Instagram e X. Embora o projeto tenha sido considerado “impraticável” e “oneroso” pelas empresas, após emendas recentes, elas mudaram de posição e agora apoiam a proposta. Essas empresas fazem parte de uma coalizão que ajudou a criar padrões para a rotulagem de conteúdo de IA.
Elon Musk, dono de empresas como X (antigo Twitter) e Starlink, declarou apoio ao projeto de lei SB 1047, na contramão das bigtechs.
Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!