Bolt42

Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de liderança no setor. Saiba mais


Com a chegada do novo ano, espera-se que a administração Trump implemente muitas mudanças nas políticas existentes, e a regulamentação da IA não será uma exceção. Isso provavelmente incluirá a revogação de uma ordem executiva sobre IA do atual presidente Joe Biden.

A ordem de Biden estabeleceu escritórios de supervisão governamental e encorajou os desenvolvedores de modelos a implementarem padrões de segurança. Embora as regras da ordem executiva de Biden se concentrem nos desenvolvedores de modelos, sua revogação pode apresentar alguns desafios que as empresas terão que enfrentar. Algumas empresas, como a xAI de Elon Musk, aliado de Trump, poderiam se beneficiar com a revogação da ordem, enquanto outras deverão enfrentar dificuldades. Isso pode incluir ter que lidar com um mosaico de regulamentações, menor compartilhamento aberto de fontes de dados, menos pesquisas financiadas pelo governo e um maior ênfase em programas voluntários de IA responsável.

Mosaico de regras locais

Antes da assinatura da ordem executiva, os responsáveis políticos realizaram várias visitas e audiências com líderes da indústria para determinar a melhor forma de regular a tecnologia adequadamente. Sob o Senado controlado pelos democratas, havia uma forte possibilidade de que as regulamentações de IA avançassem, mas fontes internas acreditam que o apetite por regras federais em torno da IA esfriou significativamente.

Gaurab Bansal, diretor executivo do Responsible Innovation Labs, afirmou durante a conferência ScaleUp: AI em Nova York que a falta de supervisão federal sobre a IA pode levar os estados a escreverem suas próprias políticas.

“Há uma sensação de que ambos os partidos no Congresso não regularão a IA, então serão os estados que poderão seguir o mesmo roteiro da SB 1047 da Califórnia”, disse Bansal. “As empresas precisam de padrões para consistência, mas será problemático quando houver um mosaico de padrões em diferentes áreas.”

Os legisladores estaduais da Califórnia impulsionaram a SB 1047 – que teria exigido um “kill switch” para modelos, entre outros controles governamentais – com o projeto chegando à mesa do governador Gavin Newsom. O veto de Newsom ao projeto foi celebrado por figuras da indústria como Yann Le Cunn, da Meta. Bansal disse que é mais provável que os estados aprovem projetos semelhantes.

Dean Ball, pesquisador do Mercatus Center da Universidade George Mason, disse que as empresas poderão ter dificuldade em navegar por diferentes regulamentações.

“Essas leis podem criar regimes de conformidade complexos e um mosaico de leis para desenvolvedores de IA e empresas que esperam usar IA; como um Congresso republicano responderá a esse desafio potencial não está claro”, disse Ball.

IA responsável voluntária

A IA responsável liderada pela indústria sempre existiu. No entanto, a pressão sobre as empresas para serem mais proativas em serem responsáveis e justas pode aumentar, pois seus clientes exigem um foco na segurança. Desenvolvedores de modelos e usuários empresariais devem dedicar tempo para implementar políticas de IA responsável e construir padrões que atendam a leis como o Ato de IA da União Europeia.

Durante a conferência ScaleUp: AI, a Diretora de Produto de IA Responsável da Microsoft, Sarah Bird, disse que muitos desenvolvedores e seus clientes, incluindo a Microsoft, estão se preparando para o ato de IA da UE.

Mas mesmo que não haja uma lei abrangente que rege a IA, Bird afirmou que é sempre uma boa prática integrar IA responsável e segurança nos modelos e aplicações desde o início.

“Isso será útil para novas empresas, pois muito do que o ato de IA está pedindo é apenas senso comum”, disse Bird. “Se você está construindo modelos, deve governar os dados que vão para eles; você deve testá-los. Para organizações menores, a conformidade se torna mais fácil se você estiver fazendo isso desde o início, então invista em uma solução que governará seus dados à medida que cresce.”

No entanto, entender o que está nos dados usados para treinar grandes modelos de linguagem (LLMs) que as empresas usam pode ser mais difícil. Jason Corso, um professor de robótica na Universidade de Michigan e cofundador da empresa de visão computacional Voxel51, disse à VentureBeat que a ordem executiva de Biden incentivou muita abertura por parte dos desenvolvedores de modelos.

“Não podemos saber totalmente o impacto de uma amostra em um modelo que apresenta um alto grau de risco potencial de viés, certo? Então, os negócios dos usuários dos modelos podem estar em jogo se não houver governança em torno do uso desses modelos e dos dados que foram utilizados”, disse Corso.

Menos dólares para pesquisa

As empresas de IA desfrutam de um considerável interesse dos investidores atualmente. No entanto, o governo frequentemente apoiou pesquisas que alguns investidores consideram arriscadas demais. Corso observou que a nova administração Trump pode optar por não investir em pesquisas de IA para economizar custos.

“Eu apenas me preocupo em não ter os recursos do governo para apoiar esse tipo de projetos arriscados e em estágio inicial”, disse Corso.

No entanto, uma nova administração não significa que o dinheiro não será alocado para a IA. Embora não esteja claro se a administração Trump irá abolir o recém-criado Instituto de Segurança de IA e outros escritórios de supervisão da IA, a administração Biden garantiu orçamentos até 2025.

“Uma pergunta pendente que deve colorir a substituição da ordem executiva de Biden é como organizar as autoridades e alocar os dólares apropriados sob o Ato da Iniciativa de IA. Este projeto é a fonte de muitas das autoridades e atividades que Biden encarregou a agências como o NIST e o financiamento deve continuar em 2025. Com esses dólares já alocados, muitas atividades provavelmente continuarão de alguma forma. No entanto, como essas atividades ocorrerão, ainda não está revelado”, disse Matt Mittelsteadt, pesquisador do Mercatus Center.

Saberemos como a próxima administração vê a política de IA em janeiro, mas as empresas devem se preparar para o que vier a seguir.





    dois × 1 =




    Bolt42