Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura líder em IA no setor. Saiba mais
Compreender exatamente como a saída de um modelo de linguagem grande (LLM) se relaciona com os dados de treinamento tem sido um mistério e um desafio para o TI empresarial.
Um novo esforço de código aberto lançado esta semana pelo Instituto Allen para IA (Ai2) visa ajudar a resolver esse desafio, rastreando a saída do LLM para as entradas de treinamento. A ferramenta OLMoTrace permite que os usuários rastreiem as saídas do modelo de linguagem diretamente de volta para os dados de treinamento originais, abordando uma das barreiras mais significativas para a adoção de IA nas empresas: a falta de transparência em como os sistemas de IA tomam decisões.
OLMo é um acrônimo para Open Language Model, que também é o nome da família de LLMs de código aberto da Ai2. No site Ai2 Playground da empresa, os usuários podem experimentar o OLMoTrace com o recém-lançado modelo OLMo 2 32B. O código aberto também está disponível no GitHub e é livremente acessível para qualquer pessoa usar.
Diferente das abordagens existentes que se concentram em pontuações de confiança ou geração aumentada por recuperação, o OLMoTrace oferece uma janela direta para a relação entre as saídas do modelo e os conjuntos de dados de treinamento de bilhões de tokens que os moldaram.
“Nosso objetivo é ajudar os usuários a entender por que os modelos de linguagem geram as respostas que geram”, disse Jiacheng Liu, pesquisador da Ai2, ao VentureBeat.
Como o OLMoTrace funciona: Mais do que apenas citações
LLMs com funcionalidade de pesquisa na web, como Perplexity ou ChatGPT Search, podem fornecer citações de fontes. No entanto, essas citações são fundamentalmente diferentes do que o OLMoTrace faz.
Liu explicou que Perplexity e ChatGPT Search usam geração aumentada por recuperação (RAG). Com o RAG, o propósito é melhorar a qualidade da geração do modelo fornecendo mais fontes do que as que o modelo foi treinado. O OLMoTrace é diferente porque rastreia a saída do modelo em si sem RAG ou fontes de documentos externas.
A tecnologia identifica sequências de texto longas e únicas nas saídas do modelo e as associa a documentos específicos do corpus de treinamento. Quando uma correspondência é encontrada, o OLMoTrace destaca o texto relevante e fornece links para o material original, permitindo que os usuários vejam exatamente onde e como o modelo aprendeu as informações que está usando.
Além de pontuações de confiança: evidência tangível da tomada de decisão da IA
Por design, os LLMs geram saídas com base em pesos de modelo que ajudam a fornecer uma pontuação de confiança. A ideia básica é que quanto maior a pontuação de confiança, mais precisa é a saída.
Na visão de Liu, as pontuações de confiança são fundamentalmente falhas.
“Os modelos podem ser excessivamente confiantes nas coisas que geram e, se você pedir que eles gerem uma pontuação, geralmente é inflacionada”, disse Liu. “Isso é o que os acadêmicos chamam de erro de calibração — a confiança que os modelos emitem não reflete sempre quão precisas suas respostas realmente são.”
Em vez de outra pontuação potencialmente enganosa, o OLMoTrace fornece evidências diretas da fonte de aprendizagem do modelo, permitindo que os usuários façam seus próprios julgamentos informados.
“O que o OLMoTrace faz é mostrar as correspondências entre as saídas do modelo e os documentos de treinamento”, explicou Liu. “Através da interface, você pode ver diretamente onde estão os pontos de correspondência e como as saídas do modelo coincidem com os documentos de treinamento.”
Como o OLMoTrace se compara a outras abordagens de transparência
Ai2 não está sozinha na busca por entender melhor como os LLMs geram saída. A Anthropic recentemente lançou sua própria pesquisa sobre o assunto. Essa pesquisa focou nas operações internas do modelo, em vez de entender os dados.
“Estamos adotando uma abordagem diferente da deles”, disse Liu. “Estamos rastreando diretamente o comportamento do modelo, seus dados de treinamento, em vez de rastrear coisas nas estruturas internas do modelo, circuitos internos, esse tipo de coisa.”
Essa abordagem torna o OLMoTrace mais imediatamente útil para aplicações empresariais, já que não requer experiência profunda na arquitetura de redes neurais para interpretar os resultados.
Aplicações de IA empresarial: da conformidade regulatória à depuração de modelos
Para empresas que implementam IA em indústrias reguladas como saúde, finanças ou serviços jurídicos, o OLMoTrace oferece vantagens significativas sobre sistemas de caixa-preta existentes.
“Acreditamos que o OLMoTrace ajudará usuários empresariais a entender melhor o que foi usado no treinamento dos modelos, para que possam estar mais confiantes ao querer construir sobre eles”, disse Liu. “Isso pode ajudar a aumentar a transparência e a confiança entre eles e seus clientes sobre o comportamento dos modelos.”
A tecnologia habilita várias capacidades críticas para equipes de IA empresarial:
- Verificação de fatos em saídas de modelos contra fontes originais
- Compreensão das origens de alucinações
- Aprimoramento da depuração do modelo identificando padrões problemáticos
- Aumento da conformidade regulatória através da rastreabilidade dos dados
- Construção de confiança com partes interessadas através de maior transparência
A equipe da Ai2 já utilizou o OLMoTrace para identificar e corrigir problemas em seus modelos.
“Já estamos usando para melhorar nossos dados de treinamento,” revela Liu. “Quando construímos o OLMo 2 e começamos nosso treinamento, através do OLMoTrace, descobrimos que na verdade alguns dos dados pós-treinamento não eram bons.”
O que isso significa para a adoção de IA empresarial
Para empresas que buscam liderar o caminho na adoção de IA, o OLMoTrace representa um avanço significativo em direção a sistemas de IA empresarial mais responsáveis. A tecnologia está disponível sob uma licença de código aberto Apache 2.0, o que significa que qualquer organização com acesso aos dados de treinamento de seu modelo pode implementar capacidades de rastreamento semelhantes.
“OLMoTrace pode funcionar em qualquer modelo, desde que você tenha os dados de treinamento do modelo,” observa Liu. “Para modelos totalmente abertos, onde todos têm acesso aos dados de treinamento do modelo, qualquer um pode configurar o OLMoTrace para aquele modelo e, para modelos proprietários, talvez alguns provedores não queiram liberar seus dados, eles também podem fazer esse OLMoTrace internamente.”
À medida que os frameworks de governança de IA continuam a evoluir globalmente, ferramentas como o OLMoTrace, que permitem verificação e auditoria, provavelmente se tornarão componentes essenciais das pilhas de IA empresarial, especialmente em indústrias regulamentadas onde a transparência algorítmica é cada vez mais exigida.
Para os tomadores de decisão técnica que pesam os benefícios e riscos da adoção de IA, o OLMoTrace oferece um caminho prático para implementar sistemas de IA mais confiáveis e explicáveis, sem sacrificar o poder dos grandes modelos de linguagem.
Insights diários sobre casos de uso empresarial com o VB Daily
Se você quer impressionar seu chefe, o VB Daily tem tudo que você precisa. Damos a você o inside scoop sobre o que as empresas estão fazendo com a IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para um ROI máximo.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais boletins do VB aqui.
Ocorreu um erro.

Conteúdo relacionado
CISO da Amex combate ameaças em velocidade de máquina com IA
[the_ad id="145565"] Participe de nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre nossa cobertura líder de mercado em IA. Saiba…
Os novos modelos GPT-4.1 da OpenAI podem processar um milhão de tokens e resolver problemas de programação melhor do que nunca.
[the_ad id="145565"] OpenAI lançou uma nova família de modelos de IA esta manhã que melhora significativamente as habilidades de programação enquanto reduz custos, respondendo…
Apple detalha como pretende melhorar seus modelos de IA por meio da análise privada de dados dos usuários.
[the_ad id="145565"] Após críticas sobre o desempenho insatisfatório de seus produtos de IA, especialmente em áreas como resumos de notificações, a Apple detalhou na…