Bolt42

Participe de nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre cobertura de IA líder na indústria. Saiba Mais


A Nvidia está entrando no mercado de modelos de raciocínio de código aberto.

No evento GTC da Nvidia hoje, a gigante da IA fez uma série de anúncios sobre hardware e software. Entre os grandes anúncios de silício, a empresa revelou um novo conjunto de modelos de raciocínio Llama Nemotron de código aberto para ajudar a acelerar as cargas de trabalho de IA agentic. Os novos modelos são uma extensão dos modelos Nemotron da Nvidia que foram anunciados pela primeira vez em janeiro na Consumer Electronics Show (CES).

Os novos modelos de raciocínio Llama Nemotron são em parte uma resposta ao aumento dramático dos modelos de raciocínio em 2025. A Nvidia (e seu preço de ações) foram fortemente impactados no início deste ano quando o DeepSeek R1 foi lançado, oferecendo a promessa de um modelo de raciocínio de código aberto e desempenho superior.

A família Llama Nemotron é competitiva com o DeepSeek, oferecendo modelos de raciocínio em IA prontos para negócios para agentes avançados.

“Os agentes são sistemas de software autônomos projetados para raciocinar, planejar, agir e criticar seu trabalho,” disse Kari Briski, vice-presidente de Gerenciamento de Produtos de Software de IA Generativa da Nvidia, durante uma pré-briefing do GTC com a imprensa. “Assim como os humanos, os agentes precisam entender o contexto para descrever solicitações complexas, entender a intenção do usuário e se adaptar em tempo real.”

O que há no Llama Nemotron para IA agentic

Como o nome implica, o Llama Nemotron é baseado nos modelos Llama de código aberto da Meta.

Com o Llama como base, Briski disse que a Nvidia podou o modelo de forma algorítmica para otimizar os requisitos de computação enquanto mantinha a precisão.

A Nvidia também aplicou técnicas sofisticadas de pós-treinamento usando dados sintéticos. O treinamento envolveu 360 mil horas de inferência H100 e 45 mil horas de anotação humana para aprimorar as capacidades de raciocínio. Todo esse treinamento resulta em modelos que possuem capacidades excepcionais de raciocínio em importantes benchmarks para tarefas de matemática, chamada de ferramentas, seguimento de instruções e conversação, de acordo com a Nvidia.

A família Llama Nemotron tem três modelos diferentes

A família inclui três modelos direcionados a diferentes cenários de implantação:

  • Nemotron Nano: Otimizado para implantações em borda e menores, mantendo alta precisão de raciocínio.
  • Nemotron Super: Balanceado para otimizar a largura de banda e precisão em GPUs de data center únicas.
  • Nemotron Ultra: Projetado para máxima “precisão agentic” em ambientes de data center com múltiplas GPUs.

Quanto à disponibilidade, o Nano e o Super já estão disponíveis nos serviços micro NIM e podem ser baixados em AI.NVIDIA.com. O Ultra está a caminho.

O raciocínio híbrido ajuda a avançar as cargas de trabalho de IA agentic

Uma das principais características do Nvidia Llama Nemotron é a capacidade de ativar ou desativar o raciocínio.

A capacidade de alternar o raciocínio é uma habilidade emergente no mercado de IA. O Anthropic Claude 3.7 tem uma funcionalidade semelhante, embora este modelo seja fechado e proprietário. No espaço de código aberto, o IBM Granite 3.2 também possui uma alternância de raciocínio que a IBM se refere como – raciocínio condicional.

A promessa do raciocínio híbrido ou condicional é que permite que os sistemas evitem etapas de raciocínio computacionalmente caras para consultas simples. Em uma demonstração, a Nvidia mostrou como o modelo poderia fazer um raciocínio complexo ao resolver um problema combinatório, mas mudar para um modo de resposta direta para consultas factuais simples.

O blueprint Nvidia Agent AI-Q fornece uma camada de integração para empresas

Reconhecendo que apenas os modelos não são suficientes para a implantação em empresas, a Nvidia também anunciou o blueprint Agent AI-Q, uma estrutura de código aberto para conectar agentes de IA a sistemas empresariais e fontes de dados.

“O AI-Q é um novo blueprint que permite que os agentes consultem vários tipos de dados—textos, imagens, vídeos—e aproveitem ferramentas externas como pesquisa na web e outros agentes,” disse Briski. “Para equipes de agentes conectados, o blueprint fornece observabilidade e transparência na atividade dos agentes, permitindo que os desenvolvedores melhorem o sistema ao longo do tempo.”

O blueprint AI-Q deverá estar disponível em abril.

Por que isso importa para a adoção da IA nas empresas

Para as empresas que consideram implantações de agentes de IA avançados, os anúncios da Nvidia abordam vários desafios-chave.

A natureza aberta dos modelos Llama Nemotron permite que as empresas implantem IA capaz de raciocínio dentro de sua própria infraestrutura. Isso é importante, pois pode abordar questões de soberania de dados e privacidade que podem limitar a adoção de soluções apenas em nuvem. Ao construir os novos modelos como NIMs, a Nvidia também facilita para as organizações a implantação e gerenciamento de implantações, seja no local ou na nuvem.

A abordagem de raciocínio híbrido e condicional também é importante observar, pois oferece às organizações outra opção para esse tipo de capacidade emergente. O raciocínio híbrido permite que as empresas optem por minuciosidade ou velocidade, economizando em latência e computação para tarefas mais simples enquanto ainda possibilita raciocínio complexo quando necessário.

Conforme a IA empresarial avança além de aplicações simples para tarefas de raciocínio mais complexas, a oferta combinada da Nvidia de modelos de raciocínio eficientes e estruturas de integração posiciona as empresas para implantar agentes de IA mais sofisticados que podem lidar com problemas lógicos em múltiplas etapas, mantendo flexibilidade de implantação e eficiência de custos.





    3 × quatro =




    Bolt42