Participe das nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura inovadora da IA. Saiba Mais
Quando a empresa de pesquisa jurídica LexisNexis criou seu assistente de IA Protégé, ela queria descobrir a melhor maneira de alavancar sua experiência sem implantar um grande modelo.
O objetivo do Protégé é ajudar advogados, assistentes e paralegais a redigir e revisar documentos jurídicos, garantindo que tudo o que citam em queixas e pareceres seja preciso. No entanto, a LexisNexis não queria um assistente jurídico geral; eles queriam construir um que aprenda o fluxo de trabalho de um escritório e seja mais personalizável.
A LexisNexis viu a oportunidade de trazer o poder dos grandes modelos de linguagem (LLMs) da Anthropic e Mistral e encontrar os melhores modelos que respondem às perguntas dos usuários da melhor forma possível, disse Jeff Riehl, CTO da LexisNexis Legal e Professional, ao VentureBeat.
“Usamos o melhor modelo para o caso de uso específico como parte da nossa abordagem de múltiplos modelos. Usamos o modelo que fornece o melhor resultado com o tempo de resposta mais rápido”, disse Riehl. “Para alguns casos de uso, isso será um pequeno modelo de linguagem como Mistral ou realizamos destilação para melhorar o desempenho e reduzir custos.”
Enquanto os LLMs ainda oferecem valor na construção de aplicações de IA, algumas organizações optam por usar pequenos modelos de linguagem (SLMs) ou destilar LLMs para se tornarem versões menores do mesmo modelo.
A destilação, onde um LLM “ensina” um modelo menor, tornou-se um método popular para muitas organizações.
Modelos pequenos costumam funcionar melhor para aplicativos como chatbots ou complementação de código simples, que é o que a LexisNexis queria usar para o Protégé.
Esta não é a primeira vez que a LexisNexis constrói aplicações de IA, mesmo antes de lançar seu hub de pesquisa jurídica LexisNexis + AI em julho de 2024.
“Usamos muito de IA no passado, que estava mais relacionada ao processamento de linguagem natural, aprendizado profundo e machine learning,” disse Riehl. “Isso realmente mudou em novembro de 2022, quando o ChatGPT foi lançado, porque antes disso, muitas das capacidades de IA estavam meio que nos bastidores. Mas uma vez que o ChatGPT foi lançado, as capacidades generativas e conversacionais dele foram muito intrigantes para nós.”
Modelos pequenos, modelos ajustados e roteamento de modelos
Riehl disse que a LexisNexis utiliza diferentes modelos de muitos dos principais provedores ao construir suas plataformas de IA. O LexisNexis + AI utilizou modelos Claude da Anthropic, modelos GPT da OpenAI e um modelo da Mistral.
Essa abordagem multimodal ajudou a dividir cada tarefa que os usuários desejavam realizar na plataforma. Para fazer isso, a LexisNexis teve que arquitetar sua plataforma para alternar entre modelos.
“Dividimos qualquer tarefa que estava sendo realizada em componentes individuais e, em seguida, identificamos o melhor grande modelo de linguagem para suportar esse componente. Um exemplo disso é que usaremos Mistral para avaliar a consulta que o usuário inseriu,” disse Riehl.
Para o Protégé, a empresa queria tempos de resposta mais rápidos e modelos mais ajustados para casos de uso jurídicos. Assim, ela recorreu ao que Riehl chama de versões “ajustadas” de modelos, essencialmente versões de peso menor de LLMs ou modelos destilados.
“Você não precisa do GPT-4o para fazer a avaliação de uma consulta, então o usamos para trabalhos mais sofisticados e trocamos os modelos,” disse ele.
Quando um usuário faz uma pergunta ao Protégé sobre um caso específico, o primeiro modelo que ele acessa é um Mistral ajustado “para avaliar a consulta, e então determinar qual é o propósito e a intenção daquela consulta”, antes de trocar para o modelo mais adequado para completar a tarefa. Riehl disse que o próximo modelo pode ser um LLM que gera novas consultas para o motor de busca ou outro modelo que resume os resultados.
Atualmente, a LexisNexis depende principalmente de um modelo Mistral ajustado, embora Riehl tenha dito que usou uma versão ajustada do Claude “quando ela foi lançada; não a estamos utilizando no produto hoje, mas de outras maneiras.” A LexisNexis também está interessada em usar outros modelos da OpenAI, especialmente desde que a empresa lançou novas capacidades de ajuste fino por reforço no ano passado. A LexisNexis está em processo de avaliação dos modelos de raciocínio da OpenAI, incluindo o o3, para suas plataformas.
Riehl acrescentou que também pode considerar o uso de modelos Gemini do Google.
A LexisNexis fundamenta todas as suas plataformas de IA com seu próprio grafo de conhecimento para realizar capacidades de geração aumentada por recuperação (RAG), especialmente à medida que o Protégé pode ajudar a lançar processos agentes no futuro.
A suíte jurídica de IA
Mesmo antes do advento da IA generativa, a LexisNexis testou a possibilidade de colocar chatbots para trabalhar na indústria jurídica. Em 2017, a empresa testou um assistente de IA que competiria com o Watson da IBM, e o Protégé está na plataforma LexisNexis + AI da empresa, que reúne os serviços de IA da LexisNexis.
O Protégé auxilia os escritórios de advocacia com tarefas que paralegais ou assistentes tendem a fazer. Ele ajuda a redigir documentos e queixas jurídicas baseadas nos documentos e dados dos escritórios, sugere os próximos passos no fluxo de trabalho jurídico, sugere novas solicitações para refinar buscas, elabora perguntas para depoimentos e descobertas, vincula citações em processos para precisão, gera cronogramas e, claro, resume documentos legais complexos.
“Vemos o Protégé como o primeiro passo para personalização e capacidades agentes,” disse Riehl. “Pense em diferentes tipos de advogados: M&A, litigantes, imobiliário. Ele continuará a se tornar cada vez mais personalizado com base na tarefa específica que você realiza. Nossa visão é que cada profissional jurídico terá um assistente pessoal para ajudá-los a fazer seu trabalho com base no que fazem, e não no que outros advogados fazem.”
Hoje, o Protégé compete com outras plataformas de pesquisa e tecnologia jurídica. A Thomson Reuters personalizou o modelo o1-mini da OpenAI para seu assistente jurídico CoCounsel. A Harvey, que levantou US$ 300 milhões de investidores, incluindo a LexisNexis, também possui um assistente de IA jurídica.
Insights diários sobre casos de uso empresarial com o VB Daily
Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Oferecemos informações sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para o máximo ROI.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais newsletters do VB aqui.
Ocorreu um erro.
Conteúdo relacionado
Uso de Navegador, a ferramenta que facilita a navegação de ‘agentes’ de IA em sites, arrecada US$ 17 milhões
[the_ad id="145565"] Pode que ainda não tenhamos uma definição consensual para “agente” de IA, mas um grande número de startups deseja criar ferramentas “agentes” para…
O debate sobre IA de código aberto: Por que a transparência seletiva constitui um sério risco
[the_ad id="145565"] Participe de nossos boletins diários e semanais para receber as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder na…
A Anthropic parece estar utilizando o Brave para impulsionar a busca na web para seu chatbot Claude.
[the_ad id="145565"] No início desta semana, a Anthropic lançou um recurso de busca na web para sua plataforma de chatbot alimentada por IA, Claude, trazendo o bot em…