Bolt42

As empresas gastaram significativamente mais em lobby sobre questões de IA no nível federal dos EUA no ano passado em comparação com 2023, em meio à incerteza regulatória.

De acordo com dados compilados pela OpenSecrets, 648 empresas investiram em lobby sobre IA em 2024, contra 458 em 2023, representando um aumento de 141% ano a ano.

Empresas como a Microsoft apoiaram legislações como a CREATE AI Act, que visa apoiar a avaliação de sistemas de IA desenvolvidos nos EUA. Outras, incluindo a OpenAI, apoiaram o Advancement and Reliability Act, que criaria um centro governamental dedicado à pesquisa em IA.

A maioria dos laboratórios de IA — ou seja, empresas dedicadas quase exclusivamente à comercialização de diversos tipos de tecnologia em IA — aumentou seus gastos apoiando itens de agenda legislativa em 2024 em comparação com 2023, conforme mostram os dados.

A OpenAI aumentou seus gastos com lobby para $1,76 milhão no ano passado, em comparação com $260 mil em 2023. A Anthropic, rival próxima da OpenAI, mais que dobrou seus gastos de $280 mil em 2023 para $720 mil no ano passado, e a startup Cohere, focada em empresas, elevou seus gastos para $230 mil em 2024, de apenas $70 mil dois anos atrás.

Tanto a OpenAI quanto a Anthropic contrataram novos funcionários ao longo do último ano para coordenar suas interações com os legisladores. A Anthropic contratou sua primeira lobista interna, Rachel Appleton, ex-membro do Departamento de Justiça, enquanto a OpenAI trouxe o veterano político Chris Lehane como seu novo VP de políticas.

No total, OpenAI, Anthropic e Cohere alocaram $2,71 milhões combinados para suas iniciativas de lobby federal em 2024. Esse valor é muito pequeno se comparado ao que a indústria de tecnologia maior investiu em lobby no mesmo período ($61,5 milhões), mas mais de quatro vezes o total que os três laboratórios de IA gastaram em 2023 ($610 mil).

O TechCrunch entrou em contato com a OpenAI, Anthropic e Cohere para comentários, mas não obteve retorno até o fechamento desta matéria.

O ano passado foi tumultuado em termos de políticas de IA doméstica. Na primeira metade do ano, os legisladores do Congresso consideraram mais de 90 projetos de lei relacionados à IA, de acordo com o Brennan Center. No nível estadual, mais de 700 leis foram propostas.

O Congresso não avançou significativamente, levando os legisladores estaduais a prosseguir. O Tennessee se tornou o primeiro estado a proteger artistas de voz contra clonagem não autorizada por IA. O Colorado adotou uma abordagem heurística e baseada em riscos para a política de IA. O governador da Califórnia, Gavin Newsom, assinou dezenas de projetos de lei de segurança relacionados à IA, alguns dos quais exigem que as empresas de IA divulguem detalhes sobre seu treinamento.

No entanto, nenhum oficial estadual conseguiu implementar uma regulação de IA tão abrangente quanto os frameworks internacionais, como o Ato de IA da UE.

Após uma longa batalha com interesses especiais, o governador Newsom vetou o projeto de lei SB 1047, que teria imposto requisitos abrangentes de segurança e transparência aos desenvolvedores de IA. O projeto TRAIGA da Texas (Texas Responsible AI Governance Act), que é ainda mais amplo em escopo, pode sofrer o mesmo destino assim que passar pela câmara estadual.

Não está claro se o governo federal pode avançar mais em termos de legislação sobre IA este ano em comparação ao ano passado, ou mesmo se há um forte apetite pela codificação. O presidente Donald Trump sinalizou sua intenção de desregular amplamente a indústria, eliminando o que percebe como obstáculos à dominância dos EUA em IA.

No primeiro dia de seu mandato, Trump revogou uma ordem executiva do ex-presidente Joe Biden que buscava reduzir os riscos que a IA poderia representar para os consumidores, trabalhadores e segurança nacional. Na quinta-feira, Trump assinou uma EO instruindo agências federais a suspender certas políticas e programas de IA da era Biden, potencialmente incluindo regras de exportação sobre modelos de IA.

Em novembro, a Anthropic fez um apelo por uma regulação federal “direcionada” para a IA dentro dos próximos 18 meses, alertando que a janela para a “prevenção proativa de riscos está se fechando rapidamente.” Por sua vez, a OpenAI, em um recente documento de políticas, pediu ao governo dos EUA que tome medidas mais substanciais sobre a IA e a infraestrutura para apoiar o desenvolvimento da tecnologia.


    quatro × dois =

    Bolt42