A Anthropic removeu discretamente do seu site vários compromissos voluntários que a empresa assumiu em conjunto com a administração Biden em 2023 para promover uma IA segura e “confiável”.
Os compromissos, que incluíam promessas de compartilhar informações sobre a gestão de riscos de IA entre a indústria e o governo e pesquisas sobre viés e discriminação em IA, foram deletados do centro de transparência da Anthropic na semana passada, de acordo com o grupo de vigilância de IA, The Midas Project. Outros compromissos da era Biden relacionados a reduzir o abuso sexual baseado em imagens geradas por IA permanecem.
A Anthropic parece não ter dado aviso sobre a mudança. A empresa não respondeu imediatamente a um pedido de comentário.
A Anthropic, junto com empresas como OpenAI, Google, Microsoft, Meta e Inflection, anunciou em julho de 2023 que havia concordado em aderir a certos compromissos voluntários de segurança em IA propostos pela administração Biden. Os compromissos incluíam testes de segurança internos e externos de sistemas de IA antes do lançamento, investimento em cibersegurança para proteger dados sensíveis de IA e desenvolvimento de métodos para marcação de conteúdo gerado por IA.
Para ser claro, a Anthropic já havia adotado várias das práticas delineadas nos compromissos, e o acordo não era legalmente vinculativo. Mas a intenção da administração Biden era sinalizar suas prioridades de política em IA antes da ordem executiva mais abrangente sobre IA, que entrou em vigor vários meses depois.
A administração Trump indicou que sua abordagem à governança da IA será bastante diferente.
Em janeiro, o presidente Trump revogou a referida ordem executiva sobre IA, que havia instruído o Instituto Nacional de Padrões e Tecnologia a redigir diretrizes que ajudam as empresas a identificar — e corrigir — falhas em modelos, incluindo vieses. Críticos alinhados com Trump argumentaram que os requisitos de relatório da ordem eram onerosos e efetivamente forçavam as empresas a divulgar seus segredos comerciais.
Pouco depois de revogar a Ordem Executiva sobre IA, Trump assinou uma ordem direcionando as agências federais a promoverem o desenvolvimento de IA “livre de viés ideológico” que promova “florecimento humano, competitividade econômica e segurança nacional.” Importante, a ordem de Trump não mencionou o combate à discriminação em IA, que era um princípio fundamental da iniciativa de Biden.
Como o The Midas Project observou em uma série de postagens no X, nada nos compromissos da era Biden sugeriu que a promessa era limitada no tempo ou condicionada à filiação partidária do presidente em exercício. Em novembro, após a eleição, várias empresas de IA confirmaram que seus compromissos não haviam mudado.
A Anthropic não é a única empresa a ajustar suas políticas públicas nos meses desde que Trump assumiu o cargo. A OpenAI anunciou recentemente que adotaria “liberdade intelectual… não importa quão desafiador ou controverso o assunto possa ser,” e trabalharia para garantir que sua IA não censurasse certos pontos de vista.
A OpenAI também removeu uma página do seu site que costumava expressar o compromisso da startup com diversidade, equidade e inclusão, ou DEI. Esses programas foram criticados pela administração Trump, levando várias empresas a eliminar ou reestruturar substancialmente suas iniciativas de DEI.
Vários dos conselheiros de Trump no Vale do Silício sobre IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e OpenAI, participaram de censura em IA ao limitar as respostas de seus chatbots de IA. Laboratórios como OpenAI negaram que suas mudanças de políticas são em resposta à pressão política.
Tanto a OpenAI quanto a Anthropic têm ou estão buscando ativamente contratos governamentais.
Várias horas após a publicação desta história, a Anthropic enviou ao TechCrunch a seguinte declaração:
“Continuamos comprometidos com os compromissos voluntários de IA estabelecidos sob a administração Biden. Esse progresso e ações específicas continuam a ser refletidos em [nosso] centro de transparência dentro do conteúdo. Para evitar mais confusão, vamos adicionar uma seção citando diretamente onde nosso progresso se alinha.”
Atualizado às 11:25 a.m. Pacifico: Adicionada uma declaração da Anthropic.
Conteúdo relacionado
Excelência operacional com IA: Como as empresas estão impulsionando o sucesso com inteligência de processos acessível a todos.
[the_ad id="145565"] Apresentado pela ARIS De acordo com a Process Excellence Network, 2025 verá um foco intenso na excelência operacional como um pilar de sobrevivência e…
ARM assinará acordo de US$ 250 milhões para chips com a Malásia
[the_ad id="145565"] A Malásia se tornou um ponto de destaque na fabricação de chips devido ao aumento das tensões entre os EUA e a China, especialmente em relação ao…
Regulador de concorrência do Reino Unido afirma que parceria da Microsoft com a OpenAI não se qualifica para investigação
[the_ad id="145565"] O regulador de concorrência da Grã-Bretanha, a Autoridade de Concorrência e Mercados (CMA), disse na quarta-feira que a parceria da Microsoft com a OpenAI…