Antes do prazo de maio para definir orientações para os provedores de modelos de inteligência artificial de propósito geral (GPAI) sobre como cumprir as disposições da Lei de IA da UE que se aplicam à Grande IA, um terceiro rascunho do Código de Práticas foi publicado na terça-feira. O Código está em formulação desde o ano passado, e este rascunho deve ser a última rodada de revisão antes que as diretrizes sejam finalizadas nos próximos meses.
Um site também foi lançado com o objetivo de aumentar a acessibilidade do Código. Feedback escrito sobre o último rascunho deve ser enviado até 30 de março de 2025.
O conjunto de regras baseado em risco do bloco para IA inclui um subconjunto de obrigações que se aplicam apenas aos fabricantes de modelos de IA mais poderosos — abrangendo áreas como transparência, direitos autorais e mitigação de riscos. O Código visa ajudar os fabricantes de modelos GPAI a entender como cumprir as obrigações legais e evitar o risco de sanções por não conformidade. As penalidades da Lei de IA para violações dos requisitos de GPAI podem chegar a até 3% do faturamento anual global.
Simplificado
A versão mais recente do Código é apresentada como tendo “uma estrutura mais simplificada com compromissos e medidas refinados” em comparação com iterações anteriores, com base no feedback do segundo rascunho publicado em dezembro.
Mais feedback, discussões em grupos de trabalho e oficinas alimentarão o processo de transformação do terceiro rascunho em orientações finais. E os especialistas esperam alcançar uma maior “clareza e coerência” na versão final adotada do Código.
O rascunho é dividido em algumas seções cobrindo os compromissos para GPAIs, juntamente com orientações detalhadas para medidas de transparência e direitos autorais. Há também uma seção sobre obrigações de segurança que se aplicam aos modelos mais poderosos (com o chamado risco sistêmico, ou GPAISR).
Quanto à transparência, as orientações incluem um exemplo de um formulário de documentação de modelo que os GPAIs podem ser solicitados a preencher a fim de garantir que os implementadores subsequentes de sua tecnologia tenham acesso às informações-chave para ajudar na sua própria conformidade.
Em outros lugares, a seção de direitos autorais provavelmente continua a ser a área mais contenciosa para a Grande IA.
O rascunho atual está repleto de termos como “melhores esforços”, “medidas razoáveis” e “medidas apropriadas” quando se trata de cumprir compromissos, como respeitar os requisitos de direitos ao rastrear a web para adquirir dados para treinamento de modelos ou mitigar o risco de modelos gerarem saídas que infringem direitos autorais.
O uso de tal linguagem mediada sugere que grandes empresas de IA que realizam mineração de dados podem sentir que têm margem de manobra para continuar capturando informações protegidas para treinar seus modelos e pedir desculpas depois — mas resta saber se a linguagem será endurecida no rascunho final do Código.
A linguagem usada em uma iteração anterior do Código — dizendo que os GPAIs deveriam fornecer um único ponto de contato e manejo de reclamações para facilitar a comunicação dos titulares de direitos — parece ter desaparecido. Agora, há apenas uma linha afirmando: “Os signatários designarão um ponto de contato para comunicação com os titulares de direitos afetados e fornecerão informações facilmente acessíveis sobre isso.”
O texto atual também sugere que os GPAIs podem ser capazes de se recusar a agir em reclamações de direitos autorais feitas por titulares de direitos se forem “manifestamente infundadas ou excessivas, em particular devido ao seu caráter repetitivo.” Isso sugere que tentativas de criativos de inverter a situação utilizando ferramentas de IA para tentar detectar problemas de direitos autorais e automatizar o registro de reclamações contra a Grande IA poderiam resultar em desconsideração.
Quando se trata de segurança e proteção, os requisitos da Lei de IA da UE para avaliar e mitigar riscos sistêmicos já se aplicam apenas a um subconjunto dos modelos mais poderosos (aqueles treinados usando mais de 10^25 FLOPs de poder computacional) — mas este último rascunho vê algumas medidas recomendadas anteriormente sendo ainda mais restringidas em resposta ao feedback.
Pressão dos EUA
Não mencionado na comunicado de imprensa da UE sobre o último rascunho são os duros ataques à legislação europeia em geral, e às regras do bloco para IA especificamente, provenientes da administração dos EUA liderada pelo presidente Donald Trump.
Na cúpula de Ação de IA em Paris no mês passado, o vice-presidente dos EUA JD Vance descartou a necessidade de regulamentar para garantir que a IA seja aplicada de forma segura — a administração Trump estaria, em vez disso, aproveitando a “oportunidade da IA”. E ele alertou a Europa de que uma sobre-regulamentação poderia matar a galinha dos ovos de ouro.
Desde então, o bloco moveu-se para cancelar uma iniciativa de segurança em IA — colocando a Diretiva de Responsabilidade em IA na linha de corte. Legisladores da UE também estão preparando um pacote “omnibus” de reformas simplificadoras das regras existentes, que dizem ter como foco a redução de burocracia para os negócios, com atenção a áreas como relatórios de sustentabilidade. Mas com a Lei de IA ainda em processo de implementação, há claramente pressão sendo aplicada para diluir os requisitos.
Na Mobile World Congress, realizada em Barcelona no início deste mês, o fabricante de modelos GPAI francês Mistral — um oponente particularmente vocal da Lei de IA da UE durante as negociações para concluir a legislação em 2023 — com o fundador Arthur Mensh, afirmou que está tendo dificuldades em encontrar soluções tecnológicas para cumprir algumas das regras. Ele acrescentou que a empresa está “trabalhando com os reguladores para garantir que isso seja resolvido.”
Enquanto este Código GPAI está sendo elaborado por especialistas independentes, a Comissão Europeia — através do Escritório de IA que supervisiona a aplicação e outras atividades relacionadas à lei — está, em paralelo, produzindo algumas orientações “esclarecedoras” que também moldarão como a lei se aplica. Incluindo definições para GPAIs e suas responsabilidades.
Portanto, fique atento a mais orientações, “em devido tempo”, do Escritório de IA — que a Comissão diz que “esclarecerá … o escopo das regras” — pois isso pode oferecer um caminho para os legisladores que estão perdendo a paciência responderem ao lobby dos EUA para desregulamentar a IA.
Conteúdo relacionado
Como a Uso da IA Impacta o Pensamento Crítico?
[the_ad id="145565"] A inteligência artificial (IA) pode processar centenas de documentos em segundos, identificar padrões imperceptíveis em vastos conjuntos de dados e…
Pentera arrecada US$ 60 milhões com uma avaliação superior a US$ 1 bilhão para desenvolver ataques de rede simulados para treinar equipes de segurança.
[the_ad id="145565"] Equipes de operações de segurança fortes e inteligentes estão no coração de qualquer estratégia de cibersegurança, e hoje uma startup que desenvolve…
A IA Agente é uma Dança Delicada em Quatro Tempos: Democratizando o Acesso a Insights Críticos de Negócios
[the_ad id="145565"] Certainly! Below is your content rewritten in Portuguese while keeping the HTML tags intact. <p>A IA tem sido repleta de afirmações falsas desde seu…