Bolt42

A regulação da IA sempre foi um tema polêmico. Mas, com as diretrizes de IA prestes a serem desmontadas pela nova administração dos EUA, a regulação se tornou uma grande interrogação. Isso significa mais complexidade e uma volatilidade muito maior em um cenário de conformidade já complicado. O VentureBeat AI Impact Tour, em parceria com a Capgemini, fez uma parada em Washington D.C. para discutir os riscos em evolução e as novas oportunidades surpreendentes que o próximo ambiente regulatório trará — além de oferecer insights sobre como navegar nesse novo normal incerto.

O CEO da VB, Matt Marshall, conversou com Vall Hérard, SVP da Fidelity Labs, e Xuning (Mike) Tang, diretor sênior de engenharia de IA/ML na Verizon, sobre os crescentes desafios da regulação da IA nos serviços financeiros e nas telecomunicações, e explorou questões de gestão de risco, a ameaça da responsabilidade e mais com Steve Jones, EVP de negócios orientados a dados e IA generativa na Capgemini.

A responsabilidade é um alvo em movimento

O problema, segundo Jones, é que a falta de regulamentações se resume à ausência de responsabilidade em relação ao que seus modelos de linguagem de grande escala estão fazendo — e isso inclui a captura de propriedade intelectual. Sem regulamentações e consequências legais, resolver questões de roubo de IP se resumirá a casos judiciais ou, mais provavelmente, especialmente em casos onde o LLM pertence a uma empresa com recursos, a responsabilidade será transferida para os usuários finais. E quando a lucratividade supera o risco de um golpe financeiro, algumas empresas vão ultrapassar os limites.

“Acho que é justo dizer que os tribunais não são suficientes, e o fato é que as pessoas terão que envenenar seu conteúdo público para evitar perder sua propriedade intelectual,” diz Jones. “E é triste que tenhamos que chegar a esse ponto, mas absolutamente teremos que chegar lá se o risco for que, ao colocá-lo na internet, alguém simplesmente copiou todo o seu catálogo e agora está vendendo diretamente também.”

Definindo a questão da responsabilidade

No mundo real, aplicativos de IA não regulamentados levaram a tragédias genuínas, como o suicídio de um garoto de 14 anos que se isolou de amigos e familiares em favor de seu companheiro chatbot. Como a responsabilidade do produto pode ser aplicada em casos como esses, para evitar que aconteça com outro usuário, se as regulamentações forem ainda mais desfeitas?

“Essas massivas armas de destruição em massa, sob a perspectiva da IA, são ferramentas fenomenalmente poderosas. Deve haver responsabilidade pelo seu controle,” diz Jones. “O que será necessário para colocar essa responsabilidade nas empresas que criam os produtos, eu acredito firmemente que isso só vai acontecer se houver um impulso para isso.”

Por exemplo, a família da criança está processando a empresa do chatbot, que agora impôs novas políticas de segurança e auto-moderção em sua plataforma.

Gestão de risco em um mundo com pouca regulação

A estratégia de IA de hoje precisará girar em torno da gestão de risco, entendendo o risco que você está expondo seu negócio e mantendo controle sobre ele. Não há muita indignação em relação à questão da exposição de dados potenciais, acrescenta Jones, porque, sob a perspectiva de negócios, a verdadeira indignação é como um erro de IA pode impactar a percepção pública e a ameaça de um processo, seja envolvendo vidas humanas ou resultados financeiros.

“A parte da indignação é se eu colocar uma alucinação para um cliente, isso faz minha marca parecer terrível,” diz Jones. “Mas vou ser processado? Estou divulgando conteúdo inválido? Estou publicando conteúdo que faz parecer que roubei a concorrência? Portanto, estou menos preocupado com a indignação. Estou mais preocupado em dar trabalho aos advogados.”

Retirando o L de LLM

Manter modelos o menor possível será outra estratégia crítica, acrescenta. LLMs são poderosos e podem realizar tarefas impressionantes. Mas uma empresa precisa mesmo de seu LLM para jogar xadrez, falar klingon ou escrever poesia épica? Quanto maior o modelo, maior o potencial de questões de privacidade e mais vetores de ameaça, observou Tang anteriormente. A Verizon possui um grande volume de informações internas em seus dados de tráfego, e um modelo que abrangesse todas essas informações seria colossal, um risco à privacidade, e portanto a Verizon visa usar o modelo menor que ofereça os melhores resultados.

Modelos menores, projetados para lidar com tarefas específicas e bem definidas, também são uma maneira fundamental de reduzir ou eliminar alucinações, disse Hérard. É mais fácil controlar a conformidade dessa maneira, quando o conjunto de dados usado para treinar o modelo é de um tamanho que permite uma revisão de conformidade completa.

“O que é surpreendente é o quanto, em casos de uso empresarial, entender meu problema de negócio, entender meus dados, esse modelo pequeno entrega um conjunto de resultados fenomenal,” diz Jones. “Depois, combiná-lo com um ajuste fino para fazer exatamente o que quero, e reduzir meu risco ainda mais.”


    1 × quatro =

    Bolt42