A Anthropic removeu discretamente do seu site vários compromissos voluntários que a empresa assumiu em conjunto com a administração Biden em 2023 para promover uma IA segura e “confiável”.
Os compromissos, que incluíam promessas de compartilhar informações sobre a gestão de riscos de IA entre a indústria e o governo e pesquisas sobre viés e discriminação em IA, foram deletados do centro de transparência da Anthropic na semana passada, de acordo com o grupo de vigilância de IA, The Midas Project. Outros compromissos da era Biden relacionados a reduzir o abuso sexual baseado em imagens geradas por IA permanecem.
A Anthropic parece não ter dado aviso sobre a mudança. A empresa não respondeu imediatamente a um pedido de comentário.
A Anthropic, junto com empresas como OpenAI, Google, Microsoft, Meta e Inflection, anunciou em julho de 2023 que havia concordado em aderir a certos compromissos voluntários de segurança em IA propostos pela administração Biden. Os compromissos incluíam testes de segurança internos e externos de sistemas de IA antes do lançamento, investimento em cibersegurança para proteger dados sensíveis de IA e desenvolvimento de métodos para marcação de conteúdo gerado por IA.
Para ser claro, a Anthropic já havia adotado várias das práticas delineadas nos compromissos, e o acordo não era legalmente vinculativo. Mas a intenção da administração Biden era sinalizar suas prioridades de política em IA antes da ordem executiva mais abrangente sobre IA, que entrou em vigor vários meses depois.
A administração Trump indicou que sua abordagem à governança da IA será bastante diferente.
Em janeiro, o presidente Trump revogou a referida ordem executiva sobre IA, que havia instruído o Instituto Nacional de Padrões e Tecnologia a redigir diretrizes que ajudam as empresas a identificar — e corrigir — falhas em modelos, incluindo vieses. Críticos alinhados com Trump argumentaram que os requisitos de relatório da ordem eram onerosos e efetivamente forçavam as empresas a divulgar seus segredos comerciais.
Pouco depois de revogar a Ordem Executiva sobre IA, Trump assinou uma ordem direcionando as agências federais a promoverem o desenvolvimento de IA “livre de viés ideológico” que promova “florecimento humano, competitividade econômica e segurança nacional.” Importante, a ordem de Trump não mencionou o combate à discriminação em IA, que era um princípio fundamental da iniciativa de Biden.
Como o The Midas Project observou em uma série de postagens no X, nada nos compromissos da era Biden sugeriu que a promessa era limitada no tempo ou condicionada à filiação partidária do presidente em exercício. Em novembro, após a eleição, várias empresas de IA confirmaram que seus compromissos não haviam mudado.
A Anthropic não é a única empresa a ajustar suas políticas públicas nos meses desde que Trump assumiu o cargo. A OpenAI anunciou recentemente que adotaria “liberdade intelectual… não importa quão desafiador ou controverso o assunto possa ser,” e trabalharia para garantir que sua IA não censurasse certos pontos de vista.
A OpenAI também removeu uma página do seu site que costumava expressar o compromisso da startup com diversidade, equidade e inclusão, ou DEI. Esses programas foram criticados pela administração Trump, levando várias empresas a eliminar ou reestruturar substancialmente suas iniciativas de DEI.
Vários dos conselheiros de Trump no Vale do Silício sobre IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e OpenAI, participaram de censura em IA ao limitar as respostas de seus chatbots de IA. Laboratórios como OpenAI negaram que suas mudanças de políticas são em resposta à pressão política.
Tanto a OpenAI quanto a Anthropic têm ou estão buscando ativamente contratos governamentais.
Várias horas após a publicação desta história, a Anthropic enviou ao TechCrunch a seguinte declaração:
“Continuamos comprometidos com os compromissos voluntários de IA estabelecidos sob a administração Biden. Esse progresso e ações específicas continuam a ser refletidos em [nosso] centro de transparência dentro do conteúdo. Para evitar mais confusão, vamos adicionar uma seção citando diretamente onde nosso progresso se alinha.”
Atualizado às 11:25 a.m. Pacifico: Adicionada uma declaração da Anthropic.
Conteúdo relacionado
Welevel arrecada R$5,7 milhões para revolucionar o desenvolvimento de jogos procedimentais.
[the_ad id="145565"] A desenvolvedora de jogos indie Welevel anunciou hoje que levantou $5,7 milhões em investimentos para transformar o desenvolvimento de jogos procedurais.…
Especialistas não acreditam que a IA esteja pronta para ser um ‘co-cientista’
[the_ad id="145565"] No mês passado, o Google anunciou o “co-cientista de IA”, uma IA que a empresa afirma ser projetada para auxiliar cientistas na criação de hipóteses e…
GibberLink permite que agentes de IA se chamem em linguagem robô
[the_ad id="145565"] Um projeto de hackathon de fim de semana que permite que agentes de IA conversem entre si pelo telefone em uma linguagem robótica, incompreensível para os…