A Anthropic removeu discretamente do seu site vários compromissos voluntários que a empresa assumiu em conjunto com a administração Biden em 2023 para promover uma IA segura e “confiável”.
Os compromissos, que incluíam promessas de compartilhar informações sobre a gestão de riscos de IA entre a indústria e o governo e pesquisas sobre viés e discriminação em IA, foram deletados do centro de transparência da Anthropic na semana passada, de acordo com o grupo de vigilância de IA, The Midas Project. Outros compromissos da era Biden relacionados a reduzir o abuso sexual baseado em imagens geradas por IA permanecem.
A Anthropic parece não ter dado aviso sobre a mudança. A empresa não respondeu imediatamente a um pedido de comentário.
A Anthropic, junto com empresas como OpenAI, Google, Microsoft, Meta e Inflection, anunciou em julho de 2023 que havia concordado em aderir a certos compromissos voluntários de segurança em IA propostos pela administração Biden. Os compromissos incluíam testes de segurança internos e externos de sistemas de IA antes do lançamento, investimento em cibersegurança para proteger dados sensíveis de IA e desenvolvimento de métodos para marcação de conteúdo gerado por IA.
Para ser claro, a Anthropic já havia adotado várias das práticas delineadas nos compromissos, e o acordo não era legalmente vinculativo. Mas a intenção da administração Biden era sinalizar suas prioridades de política em IA antes da ordem executiva mais abrangente sobre IA, que entrou em vigor vários meses depois.
A administração Trump indicou que sua abordagem à governança da IA será bastante diferente.
Em janeiro, o presidente Trump revogou a referida ordem executiva sobre IA, que havia instruído o Instituto Nacional de Padrões e Tecnologia a redigir diretrizes que ajudam as empresas a identificar — e corrigir — falhas em modelos, incluindo vieses. Críticos alinhados com Trump argumentaram que os requisitos de relatório da ordem eram onerosos e efetivamente forçavam as empresas a divulgar seus segredos comerciais.
Pouco depois de revogar a Ordem Executiva sobre IA, Trump assinou uma ordem direcionando as agências federais a promoverem o desenvolvimento de IA “livre de viés ideológico” que promova “florecimento humano, competitividade econômica e segurança nacional.” Importante, a ordem de Trump não mencionou o combate à discriminação em IA, que era um princípio fundamental da iniciativa de Biden.
Como o The Midas Project observou em uma série de postagens no X, nada nos compromissos da era Biden sugeriu que a promessa era limitada no tempo ou condicionada à filiação partidária do presidente em exercício. Em novembro, após a eleição, várias empresas de IA confirmaram que seus compromissos não haviam mudado.
A Anthropic não é a única empresa a ajustar suas políticas públicas nos meses desde que Trump assumiu o cargo. A OpenAI anunciou recentemente que adotaria “liberdade intelectual… não importa quão desafiador ou controverso o assunto possa ser,” e trabalharia para garantir que sua IA não censurasse certos pontos de vista.
A OpenAI também removeu uma página do seu site que costumava expressar o compromisso da startup com diversidade, equidade e inclusão, ou DEI. Esses programas foram criticados pela administração Trump, levando várias empresas a eliminar ou reestruturar substancialmente suas iniciativas de DEI.
Vários dos conselheiros de Trump no Vale do Silício sobre IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e OpenAI, participaram de censura em IA ao limitar as respostas de seus chatbots de IA. Laboratórios como OpenAI negaram que suas mudanças de políticas são em resposta à pressão política.
Tanto a OpenAI quanto a Anthropic têm ou estão buscando ativamente contratos governamentais.
Várias horas após a publicação desta história, a Anthropic enviou ao TechCrunch a seguinte declaração:
“Continuamos comprometidos com os compromissos voluntários de IA estabelecidos sob a administração Biden. Esse progresso e ações específicas continuam a ser refletidos em [nosso] centro de transparência dentro do conteúdo. Para evitar mais confusão, vamos adicionar uma seção citando diretamente onde nosso progresso se alinha.”
Atualizado às 11:25 a.m. Pacifico: Adicionada uma declaração da Anthropic.
Conteúdo relacionado
Novo codificador de visão totalmente open source, OpenVision, chega para aprimorar o Clip da OpenAI e o SigLIP do Google.
[the_ad id="145565"] Here's the rewritten content in Portuguese, preserving the HTML structure: <div> <div id="boilerplate_2682874" class="post-boilerplate…
A OpenAI acabou de resolver o problema mais irritante do ChatGPT para negócios: conheça a exportação de PDF que muda tudo.
[the_ad id="145565"] Sure! Here’s the rewritten content in Portuguese while keeping the HTML tags intact: <div> <div id="boilerplate_2682874"…
AllTrails lança assinatura de $80/ano que inclui rotas inteligentes com tecnologia de IA.
[the_ad id="145565"] AllTrails, o companheiro de caminhadas e ciclismo nomeado como o App do Ano para iPhone de 2023, está lançando uma nova assinatura premium chamada “Peak”,…