Bolt42

Na terça-feira, a Meta realizará a sua primeira conferência de desenvolvedores de IA, a LlamaCon, em sua sede em Menlo Park, onde a empresa tentará convencer desenvolvedores a criar aplicações com seus modelos de IA Llama abertos. Apenas um ano atrás, isso não era uma venda difícil.

No entanto, nos últimos meses, a Meta teve dificuldades para acompanhar laboratórios de IA “abertos” como o DeepSeek e concorrentes comerciais fechados como o OpenAI na corrida de IA em rápida evolução. A LlamaCon chega em um momento crítico para a Meta em sua busca para construir um amplo ecossistema Llama.

Convencer desenvolvedores pode ser tão simples quanto lançar melhores modelos abertos, mas isso pode ser mais desafiador do que parece.

Um começo promissor

O lançamento do Llama 4 pela Meta no início deste mês decepcionou desenvolvedores, com vários resultados de benchmark ficando abaixo de modelos como o R1 e V3 do DeepSeek. Era uma grande distância do que o Llama costumava ser: uma linha de modelos que ultrapassava limites.

Quando a Meta lançou seu modelo Llama 3.1 405B no verão passado, o CEO Mark Zuckerberg celebrava isso como uma grande vitória. Em um postagem de blog, a Meta chamou o Llama 3.1 405B de “o modelo fundacional mais capaz amplamente disponível”, com desempenho rivalizando com o melhor modelo da OpenAI na época, o GPT-4o.

Era um modelo impressionante, sem dúvida — e assim eram os outros modelos da família Llama 3 da Meta. Jeremy Nixon, que tem organizado hackathons na AGI House de São Francisco nos últimos anos, chamou os lançamentos do Llama 3 de “momentos históricos”.

O Llama 3 tornou a Meta um favorito entre os desenvolvedores de IA, oferecendo desempenho de ponta com a liberdade de hospedar os modelos onde quisessem. Hoje, o modelo Llama 3.3 da Meta é baixado com mais frequência do que o Llama 4, disse Jeff Boudier, chefe de produto e crescimento da Hugging Face, em uma entrevista.

Contrastando isso com a recepção à família Llama 4 da Meta, a diferença é marcante. Mas o Llama 4 foi controverso desde o início.

Trapaças nos benchmarks

A Meta otimizou uma versão de um de seus modelos Llama 4, o Llama 4 Maverick, para “conversacionalidade”, o que lhe ajudou a conseguir uma posição de destaque no benchmark crowdsourced LM Arena. No entanto, a Meta nunca lançou esse modelo — a versão do Maverick que foi amplamente divulgada acabou apresentando um desempenho muito pior no LM Arena.

O grupo por trás do LM Arena afirmou que a Meta deveria ter sido “mais clara” sobre a discrepância. Ion Stoica, co-fundador do LM Arena e professor da UC Berkeley, que também co-fundou empresas como Anyscale e Databricks, disse ao TechCrunch que o incidente prejudicou a confiança da comunidade de desenvolvedores na Meta.

“[A Meta] deveria ter sido mais explícita de que o modelo Maverick que estava no [LM Arena] era diferente do modelo que foi lançado”, disse Stoica ao TechCrunch em uma entrevista. “Quando isso acontece, há uma perda de confiança com a comunidade. Claro, eles podem recuperar isso lançando modelos melhores.”

Sem raciocínio

Uma omissão gritante da família Llama 4 foi um modelo de raciocínio de IA. Modelos de raciocínio conseguem trabalhar cuidadosamente através de perguntas antes de respondê-las. No último ano, grande parte da indústria de IA lançou modelos de raciocínio, que tendem a ter um desempenho melhor em benchmarks específicos.

A Meta teaser um modelo de raciocínio do Llama 4, mas a empresa não indicou quando se pode esperar por ele.

Nathan Lambert, um pesquisador da Ai2, comenta que o fato de a Meta não ter lançado um modelo de raciocínio com o Llama 4 sugere que a empresa pode ter apressado o lançamento.

“Todo mundo está lançando um modelo de raciocínio, e isso faz com que seus modelos pareçam tão bons”, disse Lambert. “Por que [a Meta] não poderia esperar para fazer isso? Não tenho a resposta para essa questão. Parece um tipo de estranheza típica de empresa.”

Lambert observou que modelos abertos rivais estão mais perto da fronteira do que nunca e agora vêm em mais formatos e tamanhos — aumentando significativamente a pressão sobre a Meta. Por exemplo, na segunda-feira, a Alibaba lançou uma coleção de modelos, Qwen3, que supostamente superam alguns dos melhores modelos de codificação da OpenAI e Google no Codeforces, um benchmark de programação.

Para recuperar a liderança nos modelos abertos, a Meta simplesmente precisa entregar modelos superiores, de acordo com Ravid Shwartz-Ziv, um pesquisador de IA do Centro de Ciência de Dados da NYU. Isso pode envolver assumir mais riscos, como empregar novas técnicas, disse ele ao TechCrunch.

Se a Meta está em posição de assumir grandes riscos neste momento é incerto. Funcionários atuais e antigos já disseram à Fortune que o laboratório de pesquisa em IA da Meta está “morrendo devagar”. A VP de Pesquisa em IA da empresa, Joelle Pineau, anunciou este mês que estava deixando a empresa.

A LlamaCon é a chance da Meta mostrar o que tem preparado para superar os lançamentos futuros de laboratórios de IA como OpenAI, Google, xAI e outros. Se não entregar, a empresa pode ficar ainda mais para trás nesse espaço ultra competitivo.


    quatro + 16 =

    Bolt42