Bolt42

A Nvidia obteve mais de US$ 19 bilhões em lucro líquido no último trimestre, conforme a empresa relatou na quarta-feira, mas isso pouco fez para tranquilizar os investidores sobre a continuidade de seu rápido crescimento. Durante a teleconferência sobre os ganhos, os analistas questionaram o CEO Jensen Huang sobre como a Nvidia se sairia caso as empresas de tecnologia começassem a usar novos métodos para aprimorar seus modelos de IA.

O método que fundamenta o modelo o1 da OpenAI, ou “test-time scaling”, foi mencionado várias vezes. Trata-se da ideia de que os modelos de IA fornecerão respostas melhores se forem dados mais tempo e poder computacional para “pensar” nas questões. Especificamente, isso adiciona mais computação à fase de inferência da IA, que é tudo que ocorre depois que um usuário pressiona enter em seu prompt.

O CEO da Nvidia foi questionado se estava percebendo os desenvolvedores de modelos de IA migrarem para esses novos métodos e como os chips mais antigos da Nvidia funcionariam para a inferência de IA.

Huang indicou que o o1, e o test-time scaling de forma mais ampla, poderiam desempenhar um papel maior nos negócios da Nvidia no futuro, chamando isso de “um dos desenvolvimentos mais empolgantes” e “uma nova lei de escalabilidade.” Huang fez o possível para garantir aos investidores que a Nvidia está bem posicionada para essa mudança.

Os comentários do CEO da Nvidia alinhavam-se com o que o CEO da Microsoft, Satya Nadella, disse no palco em um evento da Microsoft na terça-feira: o o1 representa uma nova forma para a indústria de IA melhorar seus modelos.

Isso é um grande negócio para a indústria de chips porque coloca uma ênfase maior na inferência de IA. Embora os chips da Nvidia sejam o padrão ouro para treinamento de modelos de IA, há um amplo conjunto de startups bem financiadas criando chips de inferência de IA super rápidos, como Groq e Cerebras. Isso poderia resultar em um espaço mais competitivo para a Nvidia.

Apesar de relatórios recentes que indicam que as melhorias em modelos generativos estão desacelerando, Huang disse aos analistas que os desenvolvedores de modelos de IA ainda estão aprimorando seus modelos adicionando mais computação e dados durante a fase de pré-treinamento.

O CEO da Anthropic, Dario Amodei, também afirmou na quarta-feira durante uma entrevista no palco na cúpula Cerebral Valley em São Francisco que não está vendo desacelerações no desenvolvimento de modelos.

“A escalabilidade do pré-treinamento de modelos fundacionais está intacta e continua,” disse Huang na quarta-feira. “Como você sabe, essa é uma lei empírica, não uma lei física fundamental, mas a evidência é que continua a escalar. O que estamos aprendendo, no entanto, é que isso não é suficiente.”

Isso é certamente o que os investidores da Nvidia queriam ouvir, já que as ações da fabricante de chips subiram mais de 180% em 2024 ao vender os chips de IA que a OpenAI, Google e Meta utilizam para treinar seus modelos. No entanto, parceiros da Andreessen Horowitz e vários outros executivos de IA já afirmaram anteriormente que esses métodos estão começando a apresentar retornos decrescentes.

Huang observou que a maior parte das cargas de trabalho computacionais da Nvidia hoje está em torno do pré-treinamento de modelos de IA — e não da inferência — mas ele atribuiu isso mais ao estado atual do mundo da IA. Ele disse que um dia haverá simplesmente mais pessoas executando modelos de IA, significando que mais inferência de IA ocorrerá. Huang afirmou que a Nvidia é a maior plataforma de inferência do mundo atualmente e que a escala e a confiabilidade da empresa proporcionam uma grande vantagem em comparação com as startups.

“Nossas esperanças e sonhos são que um dia, o mundo faça uma tonelada de inferência, e é quando a IA realmente terá sucesso,” disse Huang. “Todo mundo sabe que se inovarem em cima do CUDA e da arquitetura da Nvidia, podem inovar mais rapidamente, e sabem que tudo deve funcionar.”


    4 × 5 =

    Bolt42