Bolt42

Participe do evento confiável por líderes empresariais há quase duas décadas. O VB Transform reúne as pessoas que estão construindo uma verdadeira estratégia de IA empresarial. Saiba mais


Em meio a uma semana cada vez mais tensa e desestabilizadora para as notícias internacionais, não deve passar despercebido que alguns legisladores no Congresso dos EUA ainda estão avançando com novas propostas de regulamentação de IA que podem remodelar a indústria de maneiras poderosas — e buscar estabilizá-la no futuro.

Por exemplo, ontem, a Senadora Republicana Cynthia Lummis de Wyoming apresentou o Ato de Inovação Responsável e Especialização Segura de 2025 (RISE), o primeiro projeto de lei autônomo que combina um escudo de responsabilidade condicional para desenvolvedores de IA com um mandato de transparência sobre treinamento e especificações de modelos.

Como em toda nova proposta legislativa, tanto o Senado quanto a Câmara dos EUA precisam votar a favor para aprovar o projeto e o Presidente dos EUA, Donald J. Trump, precisa assiná-lo antes que se torne lei, um processo que provavelmente levará meses no mínimo.

“Resumindo: se queremos que a América lidere e prospere em IA, não podemos deixar que os laboratórios escrevam as regras nas sombras,” escreveu Lummis em sua conta no X ao anunciar o novo projeto de lei. Precisamos de padrões públicos e aplicáveis que equilibrem a inovação com a confiança. É isso que o Ato RISE oferece. Vamos fazer isso acontecer.”

O projeto também mantém os padrões tradicionais de responsabilidade civil para médicos, advogados, engenheiros e outros “profissionais especializados.”

Se promulgado como escrito, a medida entraria em vigor em 1º de dezembro de 2025 e se aplicaria apenas a condutas que ocorrerem após essa data.

Por que Lummis afirma que a nova legislação sobre IA é necessária

A seção de descobertas do projeto pinta um panorama de rápida adoção de IA colidindo com um mosaico de regras de responsabilidade que inibe investimentos e deixa os profissionais inseguros sobre onde a responsabilidade recai.

Lummis estrutura sua resposta como uma reciprocidade simples: os desenvolvedores devem ser transparentes, os profissionais devem exercer julgamento, e nenhuma das partes deve ser punida por erros honestos uma vez que ambos os deveres sejam cumpridos.

Em uma declaração em seu site, Lummis chama a medida de “padrões previsíveis que encorajam o desenvolvimento seguro de IA enquanto preservam a autonomia profissional.”

Com a preocupação bipartidária crescendo sobre sistemas de IA opacos, o RISE oferece ao Congresso um modelo concreto: transparência como o preço da responsabilidade limitada. Os lobistas da indústria podem pressionar por direitos de omissão mais amplos, enquanto grupos de interesse público podem exigir prazos de divulgação mais curtos ou limites de opt-out mais rígidos. Associações profissionais, por sua vez, farão um escrutínio sobre como os novos documentos podem se encaixar nos padrões de cuidado existentes.

Independentemente da forma final que a legislação assumir, um princípio está agora firmemente sobre a mesa: em profissões de alto risco, a IA não pode permanecer uma caixa-preta. E se o projeto de Lummis se tornar lei, os desenvolvedores que desejam paz jurídica terão que abrir essa caixa — pelo menos o suficiente para que as pessoas que usam suas ferramentas vejam o que está dentro.

Como funciona a nova disposição de ‘Porto Seguro’ para desenvolvedores de IA que os protege de processos judiciais

O RISE oferece imunidade contra ações civis apenas quando um desenvolvedor atende a regras claras de divulgação:

  • Cartão de modelo – Um resumo técnico público que apresenta dados de treinamento, métodos de avaliação, métricas de desempenho, usos pretendidos e limitações.
  • Especificação do modelo – O prompt completo do sistema e outras instruções que moldam o comportamento do modelo, com quaisquer omissões de segredos comerciais justificadas por escrito.

O desenvolvedor também deve publicar modos de falha conhecidos, manter toda a documentação atualizada e enviar atualizações dentro de 30 dias de uma mudança de versão ou falha recém-descoberta. Perder o prazo — ou agir irresponsavelmente — fará com que o escudo desapareça.

Profissionais como médicos e advogados permanecem, em última instância, responsáveis pelo uso de IA em suas práticas

O projeto não altera os deveres de cuidado existentes.

O médico que interpreta erroneamente um plano de tratamento gerado por IA ou um advogado que apresenta um documento escrito por IA sem verificá-lo continua a ser responsável perante os clientes.

O porto seguro não está disponível para uso não profissional, fraude ou má representação consciente, e preserva expressamente quaisquer outras imunidades já em vigor.

Reação do coautor do projeto AI 2027

Daniel Kokotajlo, líder de políticas no projeto sem fins lucrativos AI Futures Project e coautor do documentário de planejamento de cenários amplamente circulado AI 2027, manifestou-se em sua conta no X para afirmar que sua equipe aconselhou o escritório de Lummis durante a redação e “apoiam tentativamente” o resultado. Ele elogia o projeto pela promoção da transparência, mas sinaliza três reservas:

  1. Loophole de opt-out. Uma empresa pode simplesmente aceitar a responsabilidade e manter suas especificações em segredo, limitando os ganhos de transparência nos cenários mais arriscados.
  2. Janela de atraso. Trinta dias entre um lançamento e a divulgação requerida pode ser tempo demais durante uma crise.
  3. Risco de redacção. As empresas podem comentar excessivamente sob a justificativa de proteger a propriedade intelectual; Kokotajlo sugere forçar as empresas a explicar por que cada omissão realmente serve ao interesse público.

O AI Futures Project considera o RISE um passo em frente, mas não a palavra final sobre a abertura da IA.

O que isso significa para desenvolvedores e tomadores de decisões técnicas empresariais

A troca de transparência por responsabilidade do Ato RISE terá repercussões diretas no dia a dia de quatro grupos de trabalho sobrepostos que mantêm a IA empresarial em funcionamento. Começando pelos principais engenheiros de IA — as pessoas que possuem o ciclo de vida de um modelo. Como o projeto torna a proteção legal condicional a cartões de modelo publicamente postados e especificações completas de prompt, esses engenheiros ganham um novo item de checklist não negociável: confirmar que cada fornecedor upstream, ou a equipe de pesquisa interna do outro lado do corredor, publicou a documentação necessária antes que um sistema entre em operação. Qualquer lacuna pode deixar a equipe de implantação responsável caso um médico, advogado ou consultor financeiro aponte que o modelo causou danos.

Em seguida, vêm os engenheiros seniores que orquestram e automatizam os pipelines de modelo. Eles já lidam com versionamento, planos de reversão e testes de integração; o RISE acrescenta um prazo rigoroso. Assim que um modelo ou sua especificaçãomudam, as divulgações atualizadas devem fluir para a produção dentro de trinta dias. Os pipelines CI/CD precisarão de um novo controle que falhe construções quando um cartão de modelo estiver ausente, desatualizado ou excessivamente redigido, forçando a revalidação antes de o código ser enviado.

Os líderes de engenharia de dados também não ficarão isentos. Eles herdarão um ônus de metadados expandido: capturar a proveniência dos dados de treinamento, registrar métricas de avaliação e armazenar quaisquer justificativas de omissão de segredos comerciais de uma maneira que os auditores possam consultar. Ferramentas de rastreamento mais robustas se tornam mais do que uma melhor prática; elas se transformam na evidência de que uma empresa cumpriu seu dever de cuidado quando reguladores — ou advogados de negligência — chegram.

Finalmente, os diretores de segurança de TI enfrentam um clássico paradoxo de transparência. A divulgação pública de prompts base e modos de falha conhecidos ajuda profissionais a usar o sistema com segurança, mas também dá aos adversários um mapa-alvo mais rico. As equipes de segurança precisarão endurecer os endpoints contra ataques de injeção de prompt, ficar atentas a exploits que exploram os modos de falha recentemente revelados e pressionar as equipes de produto para provar que o texto redigido oculta genuínos segredos comerciais sem enterrar vulnerabilidades.

Juntas, essas demandas transformam a transparência de uma virtude em uma exigência legal com consequências. Para qualquer um que construa, implante, proteja ou orquestre sistemas de IA destinados a profissionais regulamentados, o Ato RISE inserirá novos pontos de verificação nos formulários de due-diligence de fornecedores, portas de CI/CD e manuais de resposta a incidentes a partir de dezembro de 2025.





    cinco × três =




    Bolt42