O autor do SB 1047 da Califórnia, a lei de segurança em IA mais controversa do país em 2024, está de volta com um novo projeto de lei sobre IA que pode agitar o Vale do Silício.
O senador estadual da Califórnia, Scott Wiener, apresentou um novo projeto de lei na sexta-feira que protegeria funcionários de laboratórios de IA líderes, permitindo que eles se manifestem se acreditarem que os sistemas de IA de suas empresas possam representar um “risco crítico” para a sociedade. O novo projeto de lei, SB 53, também criaria um cluster público de computação em nuvem, chamado CalCompute, para fornecer aos pesquisadores e startups os recursos computacionais necessários para desenvolver IA que beneficie o público.
O último projeto de lei de Wiener, o SB 1047 da Califórnia, gerou um debate animado em todo o país sobre como lidar com sistemas de IA massivos que poderiam causar desastres. O SB 1047 visava prevenir a possibilidade de que modelos de IA muito grandes causassem eventos catastróficos, como a perda de vidas ou ciberataques que custassem mais de US$ 500 milhões em danos. No entanto, o governador Gavin Newsom acabou vetando o projeto em setembro, afirmando que o SB 1047 não era a melhor abordagem.
Mas o debate sobre o SB 1047 rapidamente se tornou hostil. Alguns líderes do Vale do Silício afirmaram que o SB 1047 prejudicaria a vantagem competitiva da América na corrida global de IA e alegaram que o projeto foi inspirado por medos irreais de que os sistemas de IA poderiam trazer cenários apocalípticos como os da ficção científica. Enquanto isso, o senador Wiener alegou que alguns capitalistas de risco estavam envolvidos em uma “campanha de propaganda” contra seu projeto, apontando em parte para a alegação da Y Combinator de que o SB 1047 enviaria fundadores de startups para a prisão, uma afirmação que especialistas argumentaram ser enganosa.
O SB 53, essencialmente, pega as partes menos controversas do SB 1047 – como proteções para denunciantes e o estabelecimento de um cluster CalCompute – e as reorganiza em um novo projeto de lei sobre IA.
Notavelmente, Wiener não se esquiva do risco existencial da IA no SB 53. O novo projeto de lei protege especificamente os denunciantes que acreditam que seus empregadores estão criando sistemas de IA que representam um “risco crítico.” O projeto define risco crítico como um “risco previsível ou material de que o desenvolvimento, armazenamento ou implantação de um modelo de base, conforme definido, resultará na morte de ou ferimentos graves a mais de 100 pessoas, ou mais de US$ 1 bilhão em danos aos direitos de dinheiro ou propriedade.”
O SB 53 limita os desenvolvedores de modelos de IA de fronteira – incluindo provavelmente OpenAI, Anthropic e xAI, entre outros – de retaliar contra funcionários que divulguem informações preocupantes ao procurador-geral da Califórnia, autoridades federais ou outros empregados. Sob o projeto de lei, esses desenvolvedores seriam obrigados a relatar de volta aos denunciantes sobre certos processos internos que os denunciantes considerem preocupantes.
Quanto ao CalCompute, o SB 53 estabeleceria um grupo para desenvolver um cluster público de computação em nuvem. O grupo seria composto por representantes da Universidade da Califórnia, bem como outros pesquisadores públicos e privados. Ele faria recomendações sobre como construir o CalCompute, a que tamanho o cluster deve ter e quais usuários e organizações devem ter acesso a ele.
Claro, ainda está muito cedo no processo legislativo para o SB 53. O projeto precisa ser revisado e aprovado pelos órgãos legislativos da Califórnia antes de chegar à mesa do governador Newsom. Os legisladores estaduais certamente estarão esperando pela reação do Vale do Silício ao SB 53.
No entanto, 2025 pode ser um ano mais difícil para aprovar projetos de lei sobre segurança em IA em comparação a 2024. A Califórnia aprovou 18 projetos de lei relacionados à IA em 2024, mas agora parece que o movimento contra os riscos da IA perdeu força.
O vice-presidente J.D. Vance sinalizou na Cúpula de Ação sobre IA em Paris que a América não está interessada em segurança em IA, mas prioriza a inovação em IA. Embora o cluster CalCompute estabelecido pelo SB 53 possa ser visto como um avanço no progresso da IA, não está claro como os esforços legislativos em torno do risco existencial da IA se sairão em 2025.
Conteúdo relacionado
Peter Diamandis responde à pergunta: A longevidade é apenas para os ricos?
[the_ad id="145565"] No episódio desta semana do StrictlyVC Download, a Editora Chefe do TechCrunch, Connie Loizos, e Alex Gove, da StrictlyVC, recebem o empreendedor,…
OpenAI irá lançar modelo de código aberto à medida que a economia da IA força uma mudança estratégica
[the_ad id="145565"] Certainly! Here’s the rewritten content in Portuguese while maintaining the HTML tags: <div> <div id="boilerplate_2682874"…
$40 bilhões para o fogo: À medida que a OpenAI ganha um milhão de usuários por hora, a corrida pela dominância em IA corporativa acelera em um novo nível.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA líder de indústria.…