O Google, seguindo os passos da OpenAI, publicou uma proposta de política em resposta ao chamado da Administração Trump para um “Plano de Ação em IA” nacional. O gigante da tecnologia apoiou restrições fracas de direitos autorais para o treinamento de IA, assim como controles de exportação “balanceados” que “protegiam a segurança nacional enquanto possibilitavam exportações dos EUA e operações comerciais globais”.
“Os EUA precisam perseguir uma política econômica internacional ativa para defender os valores americanos e apoiar a inovação em IA internacionalmente,” escreveu o Google no documento. “Por muito tempo, a formulação de políticas de IA prestou atenção desproporcional aos riscos, muitas vezes ignorando os custos que uma regulação mal orientada pode ter sobre a inovação, a competitividade nacional e a liderança científica — uma dinâmica que está começando a mudar sob a nova Administração.”
Uma das recomendações mais controversas do Google diz respeito ao uso de material protegido por propriedade intelectual.
O Google argumenta que as “exceções de uso justo e mineração de texto e dados” são “críticas” para o desenvolvimento da IA e a inovação científica relacionada à IA. Assim como a OpenAI, a empresa busca codificar o direito de treinar em dados disponíveis publicamente — incluindo dados protegidos por direitos autorais — em grande parte sem restrições.
“Essas exceções permitem o uso de material protegido por direitos autorais e disponível publicamente para o treinamento de IA sem impactar significativamente os titulares de direitos,” escreveu o Google, “e evitam negociações muitas vezes altamente imprevisíveis, desiguais e prolongadas com detentores de dados durante o desenvolvimento de modelos ou experimentação científica.”
O Google, que já treinou vários modelos em dados públicos e protegidos por direitos autorais, está lutando contra processos com proprietários de dados que acusam a empresa de não os notificar e compensar antes de fazê-lo. Os tribunais dos EUA ainda não decidiram se a doutrina de uso justo efetivamente protege os desenvolvedores de IA de litígios relacionados a propriedade intelectual.
Em sua proposta de política de IA, o Google também critica certos controles de exportação impostos sob a Administração Biden, que afirma “podem minar os objetivos de competitividade econômica” ao “impor encargos desproporcionais aos provedores de serviços de nuvem dos EUA.” Isso contrasta com declarações de concorrentes do Google, como a Microsoft, que em janeiro disse que estava “confiante” de que poderia “cumprir totalmente” com as regras.
Importante, as regras de exportação dispõem de isenções para empresas confiáveis que buscam grandes clusters de chips avançados em IA.
Em outra parte de sua proposta, o Google pede investimentos “sustentados a longo prazo” em P&D doméstica fundamental, contestando os esforços federais recentes para reduzir gastos e eliminar concessões. A empresa afirmou que o governo deveria liberar conjuntos de dados que possam ser úteis para o treinamento comercial de IA, e alocar recursos para “P&D no início do mercado” enquanto garante que a computação e os modelos estejam “amplamente disponíveis” para cientistas e instituições.
Apontando para o ambiente regulatório caótico criado pelo emaranhado de leis estaduais sobre IA dos EUA, o Google instou o governo a aprovar legislação federal sobre IA, incluindo uma estrutura unificada de privacidade e segurança. Um pouco mais de dois meses em 2025, o número de projetos de lei pendentes sobre IA nos EUA cresceu para 781, segundo uma ferramenta de rastreamento online.
O Google alerta o governo dos EUA contra a imposição do que considera ser obrigações onerosas em torno de sistemas de IA, como obrigações de responsabilidade pelo uso. Em muitos casos, o Google argumenta, o desenvolvedor de um modelo “tem pouca ou nenhuma visão ou controle” sobre como um modelo está sendo utilizado por um desenvolvedor e, portanto, não deve ser responsabilizado por uso indevido.
“Mesmo em casos onde um desenvolvedor fornece um modelo diretamente para os implementadores, os implementadores muitas vezes estarão em melhor posição para entender os riscos de usos subsequentes, implementar uma gestão eficaz de riscos e realizar monitoramento e registro pós-mercado,” escreveu o Google.
O Google também considerou os requisitos de divulgação, como os que estão sendo contemplados pela UE, “excessivamente amplos”, e disse que o governo dos EUA deveria se opor a regras de transparência que exigem “revelar segredos comerciais, permitir que concorrentes duplicaram produtos ou comprometer a segurança nacional ao fornecer um roteiro para adversários sobre como contornar proteções ou quebrar modelos.”
Conteúdo relacionado
Sesame, the startup behind the viral virtual assistant Maya, launches its core AI model in Portuguese
[the_ad id="145565"] A empresa de IA Sesame lançou o modelo base que alimenta Maya, o impressionante assistente de voz realista. O modelo, que possui 1 bilhão de parâmetros…
A palestra principal da GTC da Nvidia enfatizará a IA em vez dos jogos.
[the_ad id="145565"] A Conferência de Tecnologia em GPU da Nvidia (GTC) acontece na próxima semana em San Jose, não muito longe de San Francisco, que está hospedando…
OpenAI pede ao governo dos EUA que codifique o ‘uso justo’ para treinamento de IA
[the_ad id="145565"] Em uma proposta para o “Plano de Ação de IA” do governo dos EUA, a iniciativa da administração Trump para reformular a política de IA americana, a OpenAI…