Bolt42

Participe do evento confiável por líderes empresariais há quase duas décadas. O VB Transform reúne pessoas que constroem verdadeiramente estratégias de IA empresarial. Saiba mais


A potência europeia em IA, a Mistral lançou hoje o Magistral, uma nova família de modelos de linguagem de grande porte (LLMs) que marca a primeira entrada da empresa no espaço cada vez mais competitivo da “razão”, ou modelos que levam tempo para refletir sobre seu pensamento, a fim de capturar erros e resolver tarefas mais complexas do que os LLMs básicos baseados em texto.

O anúncio apresenta um lançamento estratégico duplo: um poderoso Magistral Medium proprietário para clientes corporativos e, notavelmente, uma versão open-source de 24 bilhões de parâmetros, o Magistral Small.

Este último lançamento parece calculado para reforçar o compromisso da empresa com suas raízes fundamentais, após um período em que enfrentou críticas por se inclinar mais para modelos fechados e proprietários, como seu Medium 3 para empresas, lançado em maio de 2025.

Um retorno às raízes open source

Em um movimento que certamente será celebrado por desenvolvedores e pela comunidade de IA mais ampla, a Mistral está liberando o Magistral Small sob a permissiva licença open source Apache 2.0.

Esse é um detalhe crucial. Ao contrário de licenças mais restritivas, a Apache 2.0 permite que qualquer pessoa use, modifique e distribua livremente o código-fonte do modelo, mesmo para fins comerciais.

Isso capacita startups e empresas estabelecidas a construir e implantar suas próprias aplicações em cima da mais recente arquitetura de raciocínio da Mistral, sem taxas de licenciamento ou medo de bloqueio do fornecedor.

Essa abordagem aberta é particularmente significativa dado o contexto. Enquanto a Mistral construiu sua reputação em modelos abertos poderosos, seu lançamento recente do Medium 3 como uma oferta puramente proprietária levantou preocupações em alguns setores da comunidade open-source, que temiam que a empresa estivesse se afastando para um ecossistema mais fechado, semelhante a concorrentes como a OpenAI.

O lançamento do Magistral Small sob uma licença tão permissiva serve como uma poderosa narrativa de contraposição, reafirmando a dedicação da Mistral em armar a comunidade aberta com ferramentas de ponta.

Desempenho competitivo contra adversários formidáveis

A Mistral não está apenas fazendo grandes promessas; ela trouxe resultados. A empresa divulgou uma série de benchmarks comparando o Magistral-Medium com seu predecessor, Mistral-Medium 3, e concorrentes da Deepseek. Os resultados mostram um modelo que é ferozmente competitivo na arena de raciocínio.

No benchmark de matemática AIME-24, o Magistral-Medium marcou impressionantes 73,6% de precisão, empatando com seu predecessor e superando significativamente os modelos da Deepseek. Ao usar votação majoritária (uma técnica onde o modelo gera várias respostas e a mais comum é escolhida), seu desempenho no AIME-24 salta para impressionantes 90%.

O novo modelo também se destaca em outros testes exigentes, incluindo o GPQA Diamond, um benchmark de perguntas e respostas de nível de pós-graduação, e LiveCodeBench para desafios de programação.

Embora o Deepseek-V3 mostre forte desempenho em alguns benchmarks, o Magistral-Medium consistentemente se prova ser um modelo de raciocínio de alto nível, validando as alegações da Mistral sobre suas capacidades avançadas.

Poder empresarial

Enquanto o Magistral Small atende ao mundo open-source, o Magistral Medium validado por benchmarks é voltado diretamente para o setor empresarial.

Ele está acessível por meio da interface Le Chat da Mistral e da API La Plateforme, oferecendo o desempenho de alto nível necessário para tarefas críticas.

A Mistral está disponibilizando este modelo nas principais plataformas em nuvem, incluindo Amazon SageMaker, com Azure AI, IBM WatsonX e Google Cloud Marketplace a seguir.

Essa estratégia de lançamento dual permite que a Mistral tenha o melhor dos dois mundos: fomentar um ecossistema vibrante em torno de seus modelos abertos enquanto monetiza sua tecnologia mais poderosa e testada em termos de desempenho para clientes corporativos.

Comparação de custos

Em termos de custo, a Mistral está posicionando o Magistral Medium como uma oferta distinta e premium, mesmo em comparação com seus próprios modelos.

Com um custo de $2 por milhão de tokens de entrada e $5 por milhão de tokens de saída, representa um aumento significativo de preço em relação ao Mistral Medium 3 mais antigo, que custava apenas $0,40 por entrada e $2 por saída.

No entanto, em comparação com seus concorrentes externos, a estratégia de preços do Magistral Medium parece bastante agressiva. O custo de entrada é equivalente ao do modelo mais recente da OpenAI e se situa dentro da faixa do Gemini 2.5 Pro, mas seu preço de saída de $5 subcarta ambos, que estão na faixa de $8 e acima de $10, respectivamente.

Custo da API do Magistral comparado a outros principais modelos LLM. Crédito: VentureBeat elaborado com Google Gemini 2.5 Pro (Preview)

Enquanto é consideravelmente mais caro do que modelos especializados como o DeepSeek-Reasoner, é uma ordem de magnitude mais barato do que o modelo principal Claude Opus 4 da Anthropic, tornando-se uma proposta de valor atraente para clientes que buscam raciocínio de última geração sem pagar os preços mais elevados do mercado.

Raciocínio que você pode visualizar, entender e usar

A Mistral está destacando três vantagens principais com a linha Magistral: transparência, multilinguismo e velocidade.

Quebrando a natureza “caixa-preta” de muitos modelos de IA, o Magistral foi projetado para produzir uma “cadeia de pensamento” rastreável. Isso permite que os usuários sigam o caminho lógico do modelo, um recurso crítico para campos profissionais de alto risco, como direito, finanças e saúde, onde conclusões devem ser verificáveis.

Além disso, essas capacidades de raciocínio são globais. A Mistral enfatiza a “destreza multilíngue” do modelo, destacando o desempenho de alta fidelidade em idiomas como francês, espanhol, alemão, italiano, árabe, russo e chinês simplificado.

No que diz respeito ao desempenho, a empresa alega um grande aumento de velocidade. Um novo “Modo de Pensar” e o recurso “Respostas Rápidas” na interface Le Chat permitem que o Magistral Medium alcance até 10 vezes a taxa de transferência de tokens de seus concorrentes, facilitando o raciocínio em tempo real em uma escala previamente inédita.

De geração de código a estratégia criativa e além

As aplicações para o Magistral são vastas. A Mistral está visando qualquer caso de uso que exija precisão e pensamento estruturado, desde modelagem financeira e análise legal até arquitetura de software e engenharia de dados. A empresa até demonstrou a capacidade do modelo de gerar uma simulação física em uma única tentativa, demonstrando sua compreensão de sistemas complexos.

Mas não é tudo negócios. A Mistral também recomenda o modelo como um “companheiro criativo” para redação e narrativa, capaz de produzir trabalhos que são altamente coerentes ou, como a empresa descreve, “deliciosamente excêntricos.”

Com o Magistral, a Mistral AI está fazendo um movimento estratégico para não apenas competir, mas liderar na próxima fronteira da IA. Ao reengajar sua base open-source com um modelo poderoso e licenciado permissivamente, enquanto simultaneamente empurra os limites do desempenho de nível empresarial, a empresa está sinalizando que o futuro da IA de raciocínio será poderoso e, de uma maneira significativa, aberto a todos.





    cinco × 5 =




    Bolt42