Bolt42

Principais empresas de inteligência artificial dos EUA, como OpenAI, Anthropic e Google, alertaram o governo federal de que a liderança tecnológica da América em IA “não é ampla e está diminuindo”, à medida que modelos chineses como o Deepseek R1 demonstram capacidades crescentes, de acordo com documentos apresentados ao governo dos EUA em resposta a um pedido de informações sobre o desenvolvimento de um Plano de Ação em IA.

Essas recentes submissões de março de 2025 destacam preocupações urgentes sobre riscos à segurança nacional, competitividade econômica e a necessidade de estruturas regulatórias estratégicas para manter a liderança dos EUA no desenvolvimento de IA em meio à crescente competição global e ao avanço subsidiado pelo estado da China no campo. A Anthropic e o Google enviaram suas respostas em 6 de março de 2025, enquanto a submissão da OpenAI ocorreu em 13 de março de 2025.

O Desafio da China e Deepseek R1

O surgimento do modelo Deepseek R1 da China provocou significativa preocupação entre os principais desenvolvedores de IA dos EUA, que o veem não como superior à tecnologia americana, mas como uma evidência convincente de que a lacuna tecnológica está se fechando rapidamente.

A OpenAI alerta explicitamente que “Deepseek mostra que nossa liderança não é ampla e está diminuindo”, caracterizando o modelo como “simultaneamente subsidiado pelo estado, controlado pelo estado e livremente disponível” – uma combinação que eles consideram particularmente ameaçadora para os interesses dos EUA e para o desenvolvimento global de IA.

De acordo com a análise da OpenAI, Deepseek apresenta riscos semelhantes aos associados ao gigante de telecomunicações chinês Huawei. “Assim como no caso da Huawei, existe um risco significativo ao construir sobre modelos do Deepseek em infraestrutura crítica e outros casos de uso de alto risco, dado o potencial de que o Deepseek poderia ser compelido pelo PCC a manipular seus modelos para causar danos”, afirmou a OpenAI em sua submissão.

A empresa levantou ainda preocupações sobre privacidade e segurança de dados, observando que regulamentos chineses poderiam exigir que o Deepseek compartilhasse dados de usuários com o governo. Isso poderia permitir ao Partido Comunista Chinês desenvolver sistemas de IA mais avançados alinhados com interesses do estado, ao mesmo tempo em que comprometeria a privacidade individual.

A avaliação da Anthropic concentra-se pesadamente nas implicações de biosegurança. Sua avaliação revelou que o Deepseek R1 “atendeu na maioria das questões sobre armamento biológico, mesmo quando formuladas com uma intenção claramente maliciosa.” Essa disposição em fornecer informações potencialmente perigosas contrasta com as medidas de segurança implementadas pelos principais modelos dos EUA.

“Embora a América mantenha uma liderança em IA hoje, o Deepseek mostra que nossa liderança não é ampla e está diminuindo”, ecoou a Anthropic em sua própria submissão, reforçando o tom urgente dos avisos.

Ambas as empresas moldam a competição em termos ideológicos, com a OpenAI descrevendo um concurso entre “IA democrática” liderada pelos EUA e “IA autocrática e autoritária” da China. Elas sugerem que a disposição relatada do Deepseek para gerar instruções para “atividades ilícitas e prejudiciais, como fraudes de identidade e roubo de propriedade intelectual” reflete abordagens éticas fundamentalmente diferentes no desenvolvimento de IA entre as duas nações.

O surgimento do Deepseek R1 é, sem dúvida, um marco significativo na corrida global de IA, demonstrando as crescentes capacidades da China apesar dos controles de exportação dos EUA sobre semicondutores avançados e destacando a urgência de uma ação governamental coordenada para manter a liderança americana no campo.

Implicações para a Segurança Nacional

As submissões de todas as três empresas enfatizam preocupações significativas de segurança nacional que surgem de modelos avançados de IA, embora abordem esses riscos de ângulos diferentes.

Os avisos da OpenAI concentram-se fortemente no potencial de influência do PCC sobre modelos chineses de IA, como o Deepseek. A empresa ressalta que regulamentos chineses poderiam compelir o Deepseek a “comprometer infraestrutura crítica e aplicações sensíveis” e exigir que dados de usuários sejam compartilhados com o governo. Esse compartilhamento de dados poderia permitir o desenvolvimento de sistemas de IA mais sofisticados alinhados com os interesses do estado da China, criando tanto problemas imediatos de privacidade quanto ameaças de segurança a longo prazo.

As preocupações da Anthropic estão centradas nos riscos de biosegurança apresentados pelas capacidades avançadas de IA, independentemente de sua origem. Em uma revelação particularmente alarmante, a Anthropic revelou que “nosso sistema mais recente, Claude 3.7 Sonnet, demonstra melhorias preocupantes em sua capacidade de apoiar aspectos do desenvolvimento de armas biológicas.” Essa admissão franca sublinha a natureza de uso duplo dos sistemas avançados de IA e a necessidade de salvaguardas robustas.

A Anthropic também identificou o que descreve como uma “lacuna regulatória nas restrições de chips dos EUA” relacionadas aos chips H20 da Nvidia. Embora esses chips atendam aos requisitos reduzidos de desempenho para exportação para a China, eles “excedem em geração de texto (‘amostragem’) — um componente fundamental das metodologias de aprendizado por reforço avançadas críticas para os atuais avanços nas capacidades de modelos de fronteira.” A Anthropic convocou uma “ação regulatória imediata” para abordar essa vulnerabilidade potencial nas estruturas de controle de exportação atuais.

O Google, enquanto reconhece os riscos de segurança em IA, defende uma abordagem mais equilibrada em relação aos controles de exportação. A empresa alerta que as atuais regras de exportação de IA “podem minar os objetivos de competitividade econômica… ao impor ônus desproporcionais aos provedores de serviços em nuvem dos EUA.” Em vez disso, o Google recomenda “controles de exportação equilibrados que protejam a segurança nacional enquanto possibilitam exportações dos EUA e operações comerciais globais.”

Todas as três empresas enfatizam a necessidade de melhorar as capacidades de avaliação governamental. A Anthropic pede especificamente a construção da “capacidade do governo federal de testar e avaliar modelos de IA poderosos para capacidades de segurança nacional” para entender melhor os possíveis usos indevidos por adversários. Isso envolveria preservar e fortalecer o Instituto de Segurança em IA, direcionar o NIST a desenvolver avaliações de segurança e montar equipes de especialistas interdisciplinares.

Tabela Comparativa: OpenAI, Anthropic, Google

Área de Foco OpenAI Anthropic Google
Principal Preocupação Ameaças políticas e econômicas de IA controlada pelo estado Riscos de biosegurança de modelos avançados Manter a inovação enquanto se equilibra a segurança
Visão sobre Deepseek R1 “Subsidiado pelo estado, controlado pelo estado e livremente disponível” com riscos semelhantes aos da Huawei Disposto a responder “questões sobre armamento biológico” com intenção maliciosa Menos foco específico no Deepseek, mais na competição mais ampla
Prioridade de Segurança Nacional Influência do PCC e riscos de segurança de dados Ameaças de biosegurança e lacunas de exportação de chips Controles de exportação equilibrados que não onerem provedores dos EUA
Abordagem Reguladora Parceria voluntária com o governo federal; ponto único de contato Capacidade de teste governamental aprimorada; controles de exportação endurecidos “Quadro federal pró-inovação”; governança setorial específica
Foco em Infraestrutura Adoção governamental de ferramentas de IA de fronteira Expansão de energia (50GW até 2027) para desenvolvimento de IA Ação coordenada sobre energia, reforma de permissões
Recomendação Distintiva Quadro de controle de exportação em camadas promovendo “IA democrática” Ação regulatória imediata sobre chips H20 da Nvidia exportados para a China Acesso da indústria a dados abertamente disponíveis para aprendizado justo

Estratégias de Competitividade Econômica

Requisitos de infraestrutura, especialmente as necessidades de energia, emergem como fatores críticos para manter a liderança em IA dos EUA. A Anthropic alertou que “até 2027, o treinamento de um único modelo de IA de fronteira exigirá clusters de computação em rede consumindo aproximadamente cinco gigawatts de energia.” Eles propuseram uma meta nacional ambiciosa de construir 50 gigawatts adicionais de energia dedicados especificamente à indústria de IA até 2027, juntamente com medidas para agilizar a concessão de licenças e acelerar aprovações de linhas de transmissão.

A OpenAI, mais uma vez, molda a competição como um concurso ideológico entre “IA democrática” e “IA autocrática e autoritária” construída pelo PCC. Sua visão para “IA democrática” enfatiza “um mercado livre promovendo competição justa e livre” e “liberdade para desenvolvedores e usuários trabalharem e direcionarem nossas ferramentas como acharem melhor,” dentro de guardrails de segurança apropriados.

Todas as três empresas ofereceram recomendações detalhadas para manter a liderança dos EUA. A Anthropic destacou a importância de “fortalecer a competitividade econômica americana” e garantir que “os benefícios econômicos impulsionados pela IA sejam amplamente compartilhados pela sociedade.” Eles defenderam “segurar e aumentar a oferta de energia dos EUA” como um pré-requisito crítico para manter o desenvolvimento de IA dentro das fronteiras americanas, alertando que restrições energéticas poderiam forçar os desenvolvedores a se deslocarem para o exterior.

O Google pediu ações decisivas para “potencializar o desenvolvimento de IA dos EUA,” com foco em três áreas principais: investimento em IA, aceleração da adoção de IA pelo governo e promoção de abordagens pró-inovação internacionalmente. A empresa enfatizou a necessidade de “ação coordenada em nível federal, estadual e local, e da indústria sobre políticas como reforma de transmissão e concessões para abordar as crescentes necessidades de energia” juntamente com “controles de exportação equilibrados” e “financiamento contínuo para pesquisa e desenvolvimento fundamental em IA.”

A submissão do Google destacou particularmente a necessidade de um “quadro federal pró-inovação para IA” que impediria um emaranhado de regulamentações estaduais, enquanto garantiria o acesso da indústria a dados abertamente disponíveis para treinamento de modelos. Sua abordagem enfatiza “governança e normas de IA focadas, específicas para setor e baseadas em risco” em vez de regulamentação ampla.

Recomendações Reguladoras

Uma abordagem federal unificada para a regulamentação da IA emergiu como um tema consistente em todas as submissões. A OpenAI alertou contra a “arbitragem regulatória criada por estados americanos individuais” e propôs uma “abordagem holística que permite parceria voluntária entre o governo federal e o setor privado.” Seu quadro prevê supervisão pelo Departamento de Comércio, potencialmente através de um reimaginado Instituto de Segurança em IA dos EUA, que forneceria um ponto único de contato para empresas de IA interagirem com o governo sobre riscos de segurança.

Sobre controles de exportação, a OpenAI defendeu um quadro em camadas projetado para promover a adoção de IA americana em países alinhados com valores democráticos enquanto restringe o acesso da China e de seus aliados. A Anthropic também pediu “endurecimento dos controles de exportação para ampliar a liderança em IA dos EUA” e “melhorar drasticamente a segurança dos laboratórios de fronteira dos EUA” através de colaboração aprimorada com agências de inteligência.

Considerações sobre direitos autorais e propriedade intelectual tiveram destaque nas recomendações tanto da OpenAI quanto do Google. A OpenAI enfatizou a importância de manter os princípios de uso justo para permitir que modelos de IA aprendam com materiais protegidos por direitos autorais sem minar o valor comercial das obras existentes. Eles alertaram que regras de direitos autorais excessivamente restritivas poderiam desvantajar empresas de IA dos EUA em comparação com concorrentes chineses. O Google ecoou essa visão, defendendo “regras de direitos autorais equilibradas, como o uso justo e exceções de mineração de texto e dados” que descreveram como “críticas para permitir que sistemas de IA aprendam com conhecimentos anteriores e dados publicamente disponíveis.”

Todas as três empresas enfatizaram a necessidade de uma adoção acelerada de tecnologias de IA pelo governo. A OpenAI pediu uma “estratégia ambiciosa de adoção do governo” para modernizar processos federais e implantar de forma segura ferramentas de IA de fronteira. Eles recomendaram especificamente a remoção de obstáculos à adoção de IA, incluindo processos de acreditação desatualizados como o FedRAMP, autoridades de teste restritivas e caminhos de aquisição inflexíveis. A Anthropic também defendeu “a promoção de aquisições rápidas de IA em todo o governo federal” para revolucionar operações e aumentar a segurança nacional.

O Google sugeriu “agilizar práticas de acreditação, autorização e aquisição desatualizadas” dentro do governo para acelerar a adoção de IA. Eles enfatizaram a importância de regras de aquisição pública eficazes e melhorar a interoperabilidade nas soluções em nuvem do governo para facilitar a inovação.

As submissões abrangentes dessas empresas de IA líderes apresentam uma mensagem clara: manter a liderança americana em inteligência artificial requer ação coordenada do governo em múltiplas frentes – desde o desenvolvimento de infraestrutura e estruturas regulatórias até proteções de segurança nacional e modernização governamental – especialmente à medida que a competição da China se intensifica.


    dezesseis − 7 =

    Bolt42