Bolt42

O governo dos EUA pode regular a IA de forma significativa? Ainda não está claro. Os legisladores têm avançado nos últimos meses, mas também enfrentaram retrocessos, o que destaca a complexidade das leis que buscam impor limites a essa tecnologia.

Em março, o Tennessee se tornou o primeiro estado a proteger artistas vocais contra clonagens de IA não autorizadas. Neste verão, o Colorado adotou uma abordagem escalonada e baseada em riscos para a política de IA. E em setembro, o governador da Califórnia, Gavin Newsom, aprovou dezenas de projetos de lei relacionados à segurança da IA, alguns dos quais exigem que as empresas divulguem detalhes sobre seu treinamento em IA.

No entanto, os EUA ainda carecem de uma política federal de IA equivalente à Lei de IA da UE. Mesmo a nível estadual, a regulação enfrenta grandes obstáculos.

Após uma longa batalha com interesses especiais, o governador Newsom vetou o projeto de lei SB 1047, uma legislação que teria imposto requisitos abrangentes de segurança e transparência às empresas que desenvolvem IA. Outro projeto na Califórnia que visava os distribuidores de deepfakes de IA nas redes sociais foi suspenso neste outono, aguardando o desfecho de um processo judicial.

Entretanto, há motivos para otimismo, segundo Jessica Newman, co-diretora do AI Policy Hub na UC Berkeley. Falando em um painel sobre governança de IA no TechCrunch Disrupt 2024, Newman observou que muitos projetos de lei federais podem não ter sido escritos com a IA em mente, mas ainda se aplicam à IA — como as legislações de anti-discriminação e proteção ao consumidor.

“Frequentemente ouvimos falar dos EUA como um tipo de ‘Faroeste’ em comparação ao que acontece na UE”, disse Newman, “mas acho que isso é exagerado, e a realidade é mais sutil do que isso.”

Para apoiar o ponto de vista de Newman, a Comissão Federal de Comércio forçou empresas que estavam coletando dados de maneira furtiva a deletar seus modelos de IA e está investigando se as vendas de startups de IA para grandes empresas de tecnologia violam a regulação antitruste. Enquanto isso, a Comissão Federal de Comunicações declarou ilegais as chamadas robocalls com voz de IA e sugeriu uma regra que exige a divulgação de conteúdo gerado por IA na publicidade política.

O presidente Joe Biden também tentou implementar certas regras sobre IA. Há cerca de um ano, Biden assinou a Ordem Executiva de IA, que apoia as práticas de relatórios e benchmarking voluntários que muitas empresas de IA já estavam escolhendo implementar.

Uma consequência da ordem executiva foi a criação do Instituto de Segurança de IA dos EUA (AISI), um órgão federal que estuda os riscos em sistemas de IA. Operando dentro do Instituto Nacional de Padrões e Tecnologia, o AISI possui parcerias de pesquisa com grandes laboratórios de IA como OpenAI e Anthropic.

No entanto, o AISI pode ser encerrado com uma simples revogação da ordem executiva de Biden. Em outubro, uma coalizão de mais de 60 organizações pediu ao Congresso que promulgasse uma legislação que codificasse o AISI antes do final do ano.

“Acredito que todos nós, como americanos, compartilhamos o interesse em garantir que mitigamos os potenciais lados negativos da tecnologia”, disse Elizabeth Kelly, diretora do AISI, que também participou do painel.

Portanto, há esperança para uma regulação abrangente de IA nos Estados Unidos? O fracasso do SB 1047, que Newman descreveu como uma proposta de “toque leve” com contribuição da indústria, não é exatamente encorajador. Autorizado pelo senador estadual da Califórnia, Scott Wiener, o SB 1047 foi desaprovado por muitos no Vale do Silício, incluindo tecnólogos de destaque como o principal cientista de IA da Meta, Yann LeCun.

Diante disso, Wiener, que também participou do painel no Disrupt, afirmou que não teria redigido o projeto de lei de forma diferente — e ele está confiante de que uma regulação ampla de IA prevalecerá eventualmente.

“Acredito que isso preparou o terreno para futuros esforços”, disse ele. “Espero que possamos fazer algo que una mais pessoas, porque a realidade que todos os grandes laboratórios já reconheceram é que os riscos [da IA] são reais e queremos testá-los.”

De fato, a Anthropic advertiu na semana passada sobre uma catástrofe de IA se os governos não implementarem regulação nos próximos 18 meses.

Os opositores só intensificaram sua retórica. Na última segunda-feira, o fundador da Khosla Ventures, Vinod Khosla, chamou Wiener de “totalmente desinformado” e “não qualificado” para regular os verdadeiros perigos da IA. E a Microsoft e a Andreessen Horowitz emitiram uma declaração se opondo a regulações de IA que possam afetar seus interesses financeiros.

No entanto, Newman sugere que a pressão para unificar o crescente emaranhado de regras de IA entre os estados, acabará produzindo uma solução legislativa mais forte. Na falta de um consenso sobre um modelo de regulação, os legisladores estaduais introduziram próximo de 700 propostas de lei sobre IA apenas neste ano.

“Minha percepção é que as empresas não desejam um ambiente de um sistema regulatório com emaranhados, onde cada estado seja diferente”, disse ela, “e acredito que haverá uma pressão crescente para ter algo a nível federal que forneça mais clareza e reduza parte dessa incerteza.”

O TechCrunch possui um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo em sua caixa de entrada toda quarta-feira.

    5 × cinco =

    Bolt42