Um ciclo eleitoral desgastante chegou ao fim. Donald Trump será o 47º presidente dos EUA e, com os republicanos no controle do Senado — e possivelmente da Câmara — seus aliados estão prontos para trazer mudanças significativas aos mais altos níveis do governo.
Os efeitos serão sentidos de forma aguda na indústria de IA, que se opôs amplamente à elaboração de políticas federais. Trump afirmou repetidamente que planeja desmontar a estrutura de políticas de IA de Biden no “primeiro dia” e se alinhou com influenciadores que criticaram de forma contundente praticamente todas as regulamentações, exceto as mais leves.
A abordagem de Biden
A política de IA de Biden entrou em vigor por meio de uma ordem executiva, a Ordem Executiva de IA, aprovada em outubro de 2023. A inação do Congresso em relação à regulamentação levou à redação da ordem executiva, cujos preceitos são voluntários — não obrigatórios.
A OE de IA aborda tudo, desde o avanço da IA na saúde até o desenvolvimento de diretrizes para mitigar os riscos de roubo de propriedade intelectual. Mas duas de suas disposições mais significativas — que levantaram a ira de alguns republicanos — dizem respeito aos riscos de segurança da IA e aos impactos na segurança do mundo real.
Uma disposição direciona as empresas que desenvolvem poderosos modelos de IA a relatar ao governo como estão treinando e assegurando esses modelos, e a fornecer os resultados de testes projetados para identificar vulnerabilidades no modelo. A outra disposição direciona o Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio a elaborar diretrizes que ajudem as empresas a identificar — e corrigir — falhas nos modelos, incluindo preconceitos.
A OE de IA alcançou muito. No último ano, o Departamento de Comércio estabeleceu o Instituto de Segurança em IA dos EUA (AISI), uma entidade para estudar os riscos em sistemas de IA, incluindo sistemas com aplicações de defesa. Também lançou um novo software para ajudar a melhorar a confiabilidade da IA e testou novos grandes modelos de IA por meio de acordos com a OpenAI e a Anthropic.
Críticos aliados a Trump argumentam que os requisitos de relato da OE são onerosos e efetivamente forçam as empresas a revelar seus segredos comerciais. Durante uma audiência na Câmara em março, a representante Nancy Mace (R-SC) afirmou que eles “podem afastar inovadores em potencial e impedir mais avanços semelhantes ao ChatGPT.”
Como os requisitos se baseiam em uma interpretação da Lei de Produção de Defesa, uma legislação da década de 1950 para apoiar a defesa nacional, também foram rotulados por alguns republicanos no Congresso como um exemplo de excessos executivos.
Em uma audiência no Senado em julho, o companheiro de chapa de Trump, JD Vance, expressou preocupações de que “tentativas de regulamentação preventiva” poderiam “entronizar os incumbentes da tecnologia que já temos.” Vance também se mostrou favorável ao antitruste, incluindo esforços da presidente da FTC, Lina Khan, que está liderando investigações sobre as aquisições de startups de IA por grandes empresas de tecnologia.
Diversos republicanos equipararam o trabalho da NIST em IA com a censura da fala conservadora. Eles acusam a administração Biden de tentar direcionar o desenvolvimento de IA com conceitos liberais sobre desinformação e preconceito; o senador Ted Cruz (R-TX) recentemente criticou os “padrões de ‘segurança’ da IA woke” da NIST como um “plano para controlar a fala” com base em danos sociais “amorfos.”
“Quando eu for reeleito”, disse Trump em um comício em Cedar Rapids, Iowa, no último dezembro, “eu cancelarei a ordem executiva de inteligência artificial de Biden e proibirei o uso de IA para censurar a fala dos cidadãos americanos no primeiro dia.”
Substituindo a OE de IA
Então, o que poderia substituir a OE de IA de Biden?
Pouco pode ser extraído das ordens executivas de IA que Trump assinou durante seu último mandato presidencial, que fundaram institutos nacionais de pesquisa em IA e direcionaram agências federais a priorizar P&D em IA. Suas ordens executivas mandatavam que as agências “protegessem as liberdades civis, a privacidade e os valores americanos” ao aplicar IA, ajudassem os trabalhadores a adquirirem habilidades relevantes para IA e promovesse o uso de tecnologias “confiáveis.”
Durante sua campanha, Trump prometeu políticas que “apoiariam o desenvolvimento de IA baseado na liberdade de expressão e no florescimento humano” — mas se absteve de entrar em detalhes.
Alguns republicanos disseram que querem que a NIST se concentre nos riscos físicos da IA, incluindo sua capacidade de ajudar adversários a construir armas biológicas (que a OE de Biden também aborda). No entanto, também evitaram endossar novas restrições à IA, o que poderia comprometer partes da orientação da NIST.
De fato, o destino do AISI, que está localizado dentro da NIST, é incerto. Embora tenha um orçamento, diretor e parcerias com institutos de pesquisa em IA em todo o mundo, o AISI poderia ser encerrado com a simples revogação da OE de Biden.
Em uma carta aberta em outubro, uma coalizão de empresas, organizações sem fins lucrativos e universidades pediu ao Congresso para aprovar uma legislação que codifique o AISI antes do final do ano.
Trump reconheceu que a IA é “muito perigosa” e que exigirá massivas quantidades de poder para desenvolver e operar, sugerindo uma disposição para lidar com os crescentes riscos da IA.
Considerando isso, Sarah Kreps, cientista política que se concentra nas políticas de defesa dos EUA, não espera que uma grande regulamentação de IA emerja da Casa Branca nos próximos quatro anos. “Não sei se as opiniões de Trump sobre a regulamentação de IA vão se elevar ao nível de antipatia que o faça revogar a OE de IA de Biden,” ela disse ao TechCrunch.
Regulamentação comercial e estadual
Dean Ball, pesquisador da George Mason University, concorda que a vitória de Trump provavelmente prenuncia um regime regulatório leve — um que dependerá da aplicação da legislação existente em vez da criação de novas leis. No entanto, Ball prevê que isso pode encorajar governos estaduais, particularmente em bastiões democratas como a Califórnia, a tentar preencher o vazio.
Esforços liderados por estados estão em andamento. Em março, o Tennessee aprovou uma lei protegendo artistas de voz da clonagem por IA. Neste verão, o Colorado adotou uma abordagem baseada em risco em relação às implementações de IA. E em setembro, o governador da Califórnia, Gavin Newsom, assinou dezenas de projetos de lei relacionados à IA, alguns dos quais exigem que as empresas publiquem detalhes sobre seu treinamento de IA.
Os formuladores de políticas estaduais introduziram perto de 700 propostas de lei sobre IA apenas neste ano.
“Como o governo federal responderá a esses desafios é incerto,” disse Ball.
Hamid Ekbia, professor da Universidade de Syracuse que estuda assuntos públicos, acredita que as políticas protecionistas de Trump poderiam ter implicações regulatórias para a IA. Ele espera que a administração Trump imponha controles de exportação mais rígidos à China, por exemplo — incluindo controles sobre as tecnologias necessárias para desenvolver IA.
A administração Biden já implementou várias proibições à exportação de chips e modelos de IA. No entanto, algumas empresas chinesas estão reportadamente utilizando brechas para acessar as ferramentas por meio de serviços de nuvem.
“A regulação global da IA sofrerá como consequência [de novos controles], apesar das circunstâncias que pedem mais cooperação global,” disse Ekbia. “As ramificações políticas e geopolíticas disso podem ser enormes, permitindo usos mais autoritários e opressivos da IA em todo o mundo.”
Se Trump aplicar tarifas sobre as tecnologias necessárias para construir IA, isso também pode restringir o capital necessário para financiar P&D em IA, afirma Matt Mittelsteadt, outro pesquisador da George Mason University. Durante sua campanha, Trump propôs uma tarifa de 10% sobre todas as importações dos EUA e de 60% sobre produtos fabricados na China.
“Talvez o maior impacto virá das políticas comerciais,” disse Mittelsteadt. “Espere que quaisquer tarifas potenciais tenham um enorme impacto econômico no setor de IA.”
Claro, é cedo. E enquanto Trump, na maior parte, evitou abordar a IA durante a campanha, muito de sua plataforma — como seu plano de restringir vistos H-1B e abraçar o petróleo e gás — pode ter efeitos colaterais sobre a indústria de IA.
Sandra Wachter, professora de ética de dados no Oxford Internet Institute, instou os reguladores, independentemente de suas afiliações políticas, a não perderem de vista os perigos da IA em relação às suas oportunidades.
“Esses riscos existem independentemente de onde você está no espectro político,” disse ela. “Esses danos não se importam com a geografia e não se preocupam com linhas partidárias. Eu só posso esperar que a governança da IA não se reduza a uma questão partidária — é uma questão que nos afeta a todos, em todos os lugares. Todos nós precisamos trabalhar juntos para encontrar boas soluções globais.”
A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada toda quarta-feira.
Conteúdo relacionado
OpenAI apagou acidentalmente evidências potenciais no processo de copyright do NY Times (atualizado)
[the_ad id="145565"] Advogados do The New York Times e do Daily News, que processam a OpenAI por supostamente coletar seus trabalhos para treinar seus modelos de IA sem…
Salesforce lança o Centro de Testes Agentforce para avaliar o desempenho dos agentes
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saiba mais…
Startup de chips de IA MatX, fundada por ex-funcionários do Google, levanta Série A com avaliação de mais de $300 milhões, dizem fontes.
[the_ad id="145565"] A MatX, uma startup que desenvolve chips para suportar modelos de linguagem grandes, levantou uma rodada de investimentos Série A de aproximadamente 80…