Bolt42

O polêmico projeto de lei de segurança de IA da Califórnia, SB 1047, está agora a um passo de se tornar lei. Mas, à medida que se aproxima dessa realidade, o debate sobre seu impacto potencial na inovação e na segurança está se intensificando.

O Projeto de Lei em Resumo

O SB 1047 foi aprovado tanto pela Assembleia Estadual da Califórnia quanto pelo Senado, restando apenas uma última votação processual antes de ser enviado para a mesa do Governador Gavin Newsom. Se for assinado, exigirá que as empresas de IA que operam na Califórnia implementem várias medidas de segurança antes de treinar modelos de fundação avançados, incluindo:

  • A capacidade de desligar rapidamente um modelo em caso de violação de segurança
  • Proteção contra modificações inseguras após o treinamento
  • Manutenção de procedimentos de teste para avaliar riscos potenciais de danos críticos

Parece razoável? Nem todos pensam assim.

Um Debate Dividido

A indústria de IA está dividida em relação ao SB 1047. A OpenAI é, em grande parte, contra o projeto. A Anthropic inicialmente se opôs, mas agora parece apoiá-lo após propor emendas. E especialistas em IA também estão divididos.

Alguns, como Andrew Ng e Fei-Fei Li, argumentam que o projeto foca demais em danos catastróficos e pode sufocar a inovação, especialmente no desenvolvimento de código aberto. Por outro lado, Geoff Hinton acredita que essa abordagem de regulamentação da IA é sensata e necessária.

Por Que Isso Importa Além da Califórnia

Veja o detalhe: isso não diz respeito apenas às empresas baseadas na Califórnia, afirma Paul Roetzer, fundador e CEO do Marketing AI Institute, no episódio 113 do The Artificial Intelligence Show.

“Não se trata apenas de empresas na Califórnia, mas de empresas que fazem negócios na Califórnia,” diz ele.

Considerando esse fato e a economia massiva da Califórnia, o SB 1047 pode impactar empresas de IA — e aquelas que dependem de seus produtos — muito além das fronteiras da Califórnia.

A América Corporativa Está Atenta

A incerteza em torno da regulamentação de IA já está causando ondas no mundo dos negócios:

  • 27% das empresas da Fortune 500 mentionaram a regulamentação de IA como um risco em registros recentes da SEC
  • As preocupações variam desde custos de conformidade mais altos até possíveis impactos na receita
  • Algumas corporações estão proativamente estabelecendo suas próprias diretrizes para IA

“Essa incerteza importa para os negócios,” diz Roetzer.

Se essa lei for assinada em breve, muitos precisarão se adaptar a ela — e isso afetará todos na empresa. “O CMO [por exemplo] de repente terá que se preocupar com essa lei,” diz Roetzer.

As Consequências Não Intencionais

Se o SB 1047 se tornar lei, também poderemos observar mudanças significativas no cenário da IA, afirma Roetzer.

As camadas adicionais de verificações de segurança e intervenções governamentais potenciais podem estender o ciclo de desenvolvimento de novos modelos de IA de 8-12 meses para 18-24 meses.

Em vez de grandes “lançamentos de modelo”, poderemos ver atualizações frequentes e menores de capacidade para contornar obstáculos regulatórios.

E grandes empresas de IA podem se inscrever voluntariamente para participar de iniciativas federais, usando isso como uma forma de continuar seu desenvolvimento.

O Dilema da Regulamentação

O principal desafio que os legisladores enfrentam é encontrar um equilíbrio entre segurança e inovação.

O projeto tenta estabelecer limites com base no tamanho do modelo e nos métodos de treinamento. Mas em um campo que avança tão rapidamente quanto a IA, o que hoje pode ser considerado um modelo “inseguro” pode ser a tecnologia obsoleta de amanhã.

Uma escola de pensamento emergente sugere que a regulamentação deve ocorrer no nível da aplicação, em vez do nível do modelo.

O especialista em IA Andrew Ng comparou isso a uma tecnologia de uso geral em um editorial da TIME, escrevendo:

“Considere o motor elétrico. Ele pode ser usado para construir um liquidificador, um veículo elétrico, uma máquina de diálise ou uma bomba guiada. Faz mais sentido regular o liquidificador, em vez de seu motor. Além disso, não há como um fabricante de motores elétricos garantir que ninguém jamais usará esse motor para projetar uma bomba. Se fizermos com que o fabricante do motor seja responsável por usos nefastos a montante, isso o coloca em uma situação impossível. Da mesma forma, um fabricante de computadores não pode garantir que nenhum cibercriminoso usará seus produtos para invadir um banco, e um fabricante de lápis não pode garantir que não serão usados para escrever discursos ilegais. Em outras palavras, se uma tecnologia de uso geral é segura, depende muito mais de sua aplicação a montante do que da tecnologia em si.”



Bolt42