Participe de nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre cobertura de IA líder na indústria. Saiba Mais
A Nvidia está entrando no mercado de modelos de raciocínio de código aberto.
No evento GTC da Nvidia hoje, a gigante da IA fez uma série de anúncios sobre hardware e software. Entre os grandes anúncios de silício, a empresa revelou um novo conjunto de modelos de raciocínio Llama Nemotron de código aberto para ajudar a acelerar as cargas de trabalho de IA agentic. Os novos modelos são uma extensão dos modelos Nemotron da Nvidia que foram anunciados pela primeira vez em janeiro na Consumer Electronics Show (CES).
Os novos modelos de raciocínio Llama Nemotron são em parte uma resposta ao aumento dramático dos modelos de raciocínio em 2025. A Nvidia (e seu preço de ações) foram fortemente impactados no início deste ano quando o DeepSeek R1 foi lançado, oferecendo a promessa de um modelo de raciocínio de código aberto e desempenho superior.
A família Llama Nemotron é competitiva com o DeepSeek, oferecendo modelos de raciocínio em IA prontos para negócios para agentes avançados.
“Os agentes são sistemas de software autônomos projetados para raciocinar, planejar, agir e criticar seu trabalho,” disse Kari Briski, vice-presidente de Gerenciamento de Produtos de Software de IA Generativa da Nvidia, durante uma pré-briefing do GTC com a imprensa. “Assim como os humanos, os agentes precisam entender o contexto para descrever solicitações complexas, entender a intenção do usuário e se adaptar em tempo real.”
O que há no Llama Nemotron para IA agentic
Como o nome implica, o Llama Nemotron é baseado nos modelos Llama de código aberto da Meta.
Com o Llama como base, Briski disse que a Nvidia podou o modelo de forma algorítmica para otimizar os requisitos de computação enquanto mantinha a precisão.
A Nvidia também aplicou técnicas sofisticadas de pós-treinamento usando dados sintéticos. O treinamento envolveu 360 mil horas de inferência H100 e 45 mil horas de anotação humana para aprimorar as capacidades de raciocínio. Todo esse treinamento resulta em modelos que possuem capacidades excepcionais de raciocínio em importantes benchmarks para tarefas de matemática, chamada de ferramentas, seguimento de instruções e conversação, de acordo com a Nvidia.
A família Llama Nemotron tem três modelos diferentes
A família inclui três modelos direcionados a diferentes cenários de implantação:
- Nemotron Nano: Otimizado para implantações em borda e menores, mantendo alta precisão de raciocínio.
- Nemotron Super: Balanceado para otimizar a largura de banda e precisão em GPUs de data center únicas.
- Nemotron Ultra: Projetado para máxima “precisão agentic” em ambientes de data center com múltiplas GPUs.
Quanto à disponibilidade, o Nano e o Super já estão disponíveis nos serviços micro NIM e podem ser baixados em AI.NVIDIA.com. O Ultra está a caminho.
O raciocínio híbrido ajuda a avançar as cargas de trabalho de IA agentic
Uma das principais características do Nvidia Llama Nemotron é a capacidade de ativar ou desativar o raciocínio.
A capacidade de alternar o raciocínio é uma habilidade emergente no mercado de IA. O Anthropic Claude 3.7 tem uma funcionalidade semelhante, embora este modelo seja fechado e proprietário. No espaço de código aberto, o IBM Granite 3.2 também possui uma alternância de raciocínio que a IBM se refere como – raciocínio condicional.
A promessa do raciocínio híbrido ou condicional é que permite que os sistemas evitem etapas de raciocínio computacionalmente caras para consultas simples. Em uma demonstração, a Nvidia mostrou como o modelo poderia fazer um raciocínio complexo ao resolver um problema combinatório, mas mudar para um modo de resposta direta para consultas factuais simples.
O blueprint Nvidia Agent AI-Q fornece uma camada de integração para empresas
Reconhecendo que apenas os modelos não são suficientes para a implantação em empresas, a Nvidia também anunciou o blueprint Agent AI-Q, uma estrutura de código aberto para conectar agentes de IA a sistemas empresariais e fontes de dados.
“O AI-Q é um novo blueprint que permite que os agentes consultem vários tipos de dados—textos, imagens, vídeos—e aproveitem ferramentas externas como pesquisa na web e outros agentes,” disse Briski. “Para equipes de agentes conectados, o blueprint fornece observabilidade e transparência na atividade dos agentes, permitindo que os desenvolvedores melhorem o sistema ao longo do tempo.”
O blueprint AI-Q deverá estar disponível em abril.
Por que isso importa para a adoção da IA nas empresas
Para as empresas que consideram implantações de agentes de IA avançados, os anúncios da Nvidia abordam vários desafios-chave.
A natureza aberta dos modelos Llama Nemotron permite que as empresas implantem IA capaz de raciocínio dentro de sua própria infraestrutura. Isso é importante, pois pode abordar questões de soberania de dados e privacidade que podem limitar a adoção de soluções apenas em nuvem. Ao construir os novos modelos como NIMs, a Nvidia também facilita para as organizações a implantação e gerenciamento de implantações, seja no local ou na nuvem.
A abordagem de raciocínio híbrido e condicional também é importante observar, pois oferece às organizações outra opção para esse tipo de capacidade emergente. O raciocínio híbrido permite que as empresas optem por minuciosidade ou velocidade, economizando em latência e computação para tarefas mais simples enquanto ainda possibilita raciocínio complexo quando necessário.
Conforme a IA empresarial avança além de aplicações simples para tarefas de raciocínio mais complexas, a oferta combinada da Nvidia de modelos de raciocínio eficientes e estruturas de integração posiciona as empresas para implantar agentes de IA mais sofisticados que podem lidar com problemas lógicos em múltiplas etapas, mantendo flexibilidade de implantação e eficiência de custos.
Insights diários sobre casos de uso empresarial com VB Daily
Se você deseja impressionar seu chefe, o VB Daily tem o que você precisa. Oferecemos informações sobre o que as empresas estão fazendo com a IA generativa, desde mudanças regulatórias até implantações práticas, para que você possa compartilhar insights para um ROI máximo.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais newsletters do VB aqui.
Ocorreu um erro.

Conteúdo relacionado
GPUs se tornam biológicas: BBB revela Bionode, computação com neurônios vivos cultivados em laboratório para aplicações de IA.
[the_ad id="145565"] Participe dos nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA líder na indústria. Saiba mais…
A Nvidia irá impulsionar o desenvolvimento de robôs humanoides com o modelo base Isaac GR00T N1 para raciocínio humano.
[the_ad id="145565"] Certo, isso não é um exercício. Os robôs estão chegando. A Nvidia anunciou um portfólio de tecnologias para impulsionar o desenvolvimento de robôs…
Atualizações ao Vivo do Nvidia GTC 2025: Blackwell Ultra, Parcerias com a GM e Dois ‘Supercomputadores Pessoais de IA’
[the_ad id="145565"] A GTC, a maior conferência da Nvidia do ano, começa esta semana em San Jose. Estamos no local cobrindo todos os principais desenvolvimentos. O CEO Jensen…