A recente publicação da Microsoft sobre Phi-4-reasoning desafia uma suposição fundamental na construção de sistemas de inteligência artificial capazes de raciocinar. Desde a introdução do raciocínio em cadeia em 2022, os pesquisadores acreditavam que o raciocínio avançado exigia grandes modelos de linguagem com centenas de bilhões de parâmetros. No entanto, o novo modelo de 14 bilhões de parâmetros da Microsoft, Phi-4-reasoning, questiona essa crença. Ao utilizar uma abordagem centrada em dados em vez de depender apenas do poder computacional, o modelo alcança um desempenho comparável a sistemas muito maiores. Essa inovação mostra que uma abordagem centrada em dados pode ser tão eficaz para treinar modelos de raciocínio quanto para o treinamento convencional de IA. Isso abre a possibilidade de modelos de IA menores alcançarem raciocínios avançados ao mudar a maneira como os desenvolvedores de IA treinam modelos de raciocínio, passando de “maior é melhor” para “melhores dados são melhores”.
O Paradigma Tradicional de Raciocínio
O raciocínio em cadeia se tornou um padrão para resolver problemas complexos em inteligência artificial. Essa técnica orienta os modelos de linguagem por meio de um raciocínio passo a passo, dividindo problemas difíceis em etapas menores e administráveis. Ela imita o pensamento humano, fazendo com que os modelos “pensem em voz alta” em linguagem natural antes de fornecer uma resposta.
No entanto, essa habilidade veio com uma limitação importante. Os pesquisadores constataram que a sugestão de raciocínio em cadeia funcionava bem apenas quando os modelos de linguagem eram muito grandes. A capacidade de raciocínio parecia estar diretamente ligada ao tamanho do modelo, com modelos maiores apresentando desempenho melhor em tarefas de raciocínio complexo. Essa constatação levou a uma competição na construção de modelos de raciocínio grandes, onde as empresas se concentravam em transformar seus grandes modelos de linguagem em motores de raciocínio poderosos.
A ideia de incorporar habilidades de raciocínio em modelos de IA veio principalmente da observação de que grandes modelos de linguagem podem realizar aprendizado em contexto. Os pesquisadores observaram que, quando os modelos são apresentados a exemplos de como resolver problemas passo a passo, eles aprendem a seguir esse padrão para novos problemas. Isso levou à crença de que modelos maiores treinados em vastos dados desenvolvem naturalmente raciocínios mais avançados. A forte conexão entre o tamanho do modelo e o desempenho no raciocínio tornou-se uma sabedoria aceita. As equipes investiram enormes recursos na ampliação das habilidades de raciocínio usando aprendizado por reforço, acreditando que o poder computacional era a chave para o raciocínio avançado.
Compreendendo a Abordagem Centrada em Dados
A ascensão da IA centrada em dados desafia a mentalidade de “maior é melhor”. Essa abordagem muda o foco da arquitetura do modelo para o cuidado na engenharia dos dados utilizados para treinar sistemas de IA. Em vez de tratar os dados como uma entrada fixa, a metodologia centrada em dados vê os dados como um material que pode ser aprimorado e otimizado para melhorar o desempenho da IA.
Andrew Ng, um líder neste campo, promove a construção de práticas de engenharia sistemáticas para melhorar a qualidade dos dados, em vez de apenas ajustar o código ou aumentar os modelos. Essa filosofia reconhece que a qualidade e a curadoria dos dados geralmente importam mais do que o tamanho do modelo. As empresas que adotam essa abordagem mostram que modelos menores, bem treinados, podem superar os maiores se forem treinados em conjuntos de dados de alta qualidade e cuidadosamente preparados.
A abordagem centrada em dados faz uma pergunta diferente: “Como podemos melhorar nossos dados?” em vez de “Como podemos aumentar o tamanho do modelo?”. Isso significa criar conjuntos de treinamento melhores, melhorar a qualidade dos dados e desenvolver engenharia sistemática de dados. Na IA centrada em dados, o foco está em entender o que torna os dados eficazes para tarefas específicas, não apenas em reunir mais deles.
Essa abordagem demonstrou grande promessa no treinamento de modelos de IA pequenos, mas poderosos, usando pequenos conjuntos de dados e muito menos computação. Os modelos Phi da Microsoft são um bom exemplo de treinamento de pequenos modelos de linguagem usando uma abordagem centrada em dados. Esses modelos são treinados usando aprendizado de currículo, inspirado principalmente em como as crianças aprendem por meio de exemplos progressivamente mais difíceis. Inicialmente, os modelos são treinados em exemplos fáceis, que são gradualmente substituídos por mais difíceis. A Microsoft construiu um conjunto de dados a partir de livros didáticos, como explicado em seu artigo “Textbooks Are All You Need.” Isso ajudou Phi-3 a superar modelos como o Gemma do Google e o GPT 3.5 em tarefas como compreensão de linguagem, conhecimento geral, problemas de matemática de escola primária e perguntas médicas.
Apesar do sucesso da abordagem centrada em dados, o raciocínio geralmente permaneceu uma característica de grandes modelos de IA. Isso porque o raciocínio exige padrões complexos e conhecimentos que modelos de grande escala capturam mais facilmente. No entanto, essa crença foi recentemente desafiada pelo desenvolvimento do modelo Phi-4-reasoning.
Estratégia Inovadora do Phi-4-reasoning
O Phi-4-reasoning demonstra como a abordagem centrada em dados pode ser usada para treinar pequenos modelos de raciocínio. O modelo foi construído por meio de ajuste fino supervisionado do modelo base Phi-4 em “prompts” e exemplos de raciocínio cuidadosamente selecionados, gerados com a ferramenta o3-mini da OpenAI. O foco estava na qualidade e especificidade, em vez do tamanho do conjunto de dados. O modelo é treinado usando cerca de 1,4 milhões de prompts de alta qualidade, em vez de bilhões de genéricos. Os pesquisadores filtraram exemplos para cobrir diferentes níveis de dificuldade e tipos de raciocínio, garantindo diversidade. Essa curadoria cuidadosa tornou cada exemplo de treinamento intencional, ensinando ao modelo padrões específicos de raciocínio, em vez de apenas aumentar o volume de dados.
No ajuste fino supervisionado, o modelo é treinado com demonstrações completas de raciocínio, envolvendo todo o processo de pensamento. Essas cadeias de raciocínio passo a passo ajudaram o modelo a aprender a construir argumentos lógicos e resolver problemas de forma sistemática. Para aprimorar ainda mais as habilidades de raciocínio do modelo, ele é refinado adicionalmente com aprendizado por reforço em cerca de 6.000 problemas matemáticos de alta qualidade com soluções verificadas. Isso mostra que mesmo pequenas quantidades de aprendizado por reforço focado podem melhorar significativamente o raciocínio quando aplicadas a dados bem curados.
Desempenho Além das Expectativas
Os resultados provam que essa abordagem centrada em dados funciona. O Phi-4-reasoning supera modelos muito maiores com pesos abertos, como DeepSeek-R1-Distill-Llama-70B e quase iguala o modelo completo DeepSeek-R1, apesar de ser muito menor. No teste AIME 2025 (um qualificatório da Olimpíada de Matemática dos EUA), o Phi-4-reasoning supera o DeepSeek-R1, que possui 671 bilhões de parâmetros.
Esses ganhos vão além da matemática para resolução de problemas científicos, codificação, algoritmos, planejamento e tarefas espaciais. As melhorias da curadoria cuidadosa de dados transferem-se bem para benchmarks gerais, sugerindo que esse método constrói habilidades fundamentais de raciocínio, em vez de truques específicos de tarefas.
O Phi-4-reasoning desafia a ideia de que o raciocínio avançado precisa de computação massiva. Um modelo de 14 bilhões de parâmetros pode igualar o desempenho de modelos dezenas de vezes maiores quando treinado com dados cuidadosamente selecionados. Essa eficiência tem consequências importantes para a implantação de IA de raciocínio onde os recursos são limitados.
Implicações para o Desenvolvimento de IA
O sucesso do Phi-4-reasoning sinaliza uma mudança na forma como devem ser construídos os modelos de raciocínio em IA. Em vez de focar principalmente em aumentar o tamanho do modelo, as equipes podem obter melhores resultados investindo na qualidade e curadoria dos dados. Isso torna o raciocínio avançado mais acessível para organizações sem grandes orçamentos computacionais.
A metodologia centrada em dados também abre novos caminhos de pesquisa. Trabalhos futuros podem se concentrar em encontrar melhores prompts de treinamento, criar demonstrações de raciocínio mais ricas e entender quais dados são mais eficazes para o raciocínio. Essas direções podem ser mais produtivas do que simplesmente construir modelos maiores.
Mais amplamente, isso pode ajudar a democratizar a IA. Se modelos menores treinados em dados curados puderem igualar modelos grandes, a IA avançada se tornará disponível para mais desenvolvedores e organizações. Isso também pode acelerar a adoção e inovação em áreas onde modelos muito grandes não são práticos.
O Futuro dos Modelos de Raciocínio
O Phi-4-reasoning estabelece um novo padrão para o desenvolvimento de modelos de raciocínio. Os futuros sistemas de IA provavelmente equilibrarão a curadoria cuidadosa dos dados com melhorias arquitetônicas. Essa abordagem reconhece que tanto a qualidade dos dados quanto o design do modelo são importantes, mas melhorar os dados pode oferecer ganhos mais rápidos e econômicos.
Isso também possibilita a criação de modelos de raciocínio especializados treinados com dados específicos de um domínio. Em vez de gigantes de propósito geral, as equipes podem construir modelos focados que se destacam em campos particulares por meio da curadoria direcionada de dados. Isso criará uma IA mais eficiente para usos específicos.
À medida que a IA avança, as lições do Phi-4-reasoning influenciarão não apenas o treinamento de modelos de raciocínio, mas o desenvolvimento da IA como um todo. O sucesso da curadoria de dados superando limites de tamanho sugere que o progresso futuro reside na combinação da inovação do modelo com engenharia de dados inteligente, em vez de apenas construir arquiteturas maiores.
A Conclusão
A Phi-4-reasoning da Microsoft muda a crença comum de que o raciocínio avançado em IA precisa de modelos muito grandes. Em vez de depender de tamanho maior, este modelo utiliza uma abordagem centrada em dados com treinamento de alta qualidade e cuidadosamente escolhido. O Phi-4-reasoning possui apenas 14 bilhões de parâmetros, mas se destaca em tarefas de raciocínio difíceis, equiparando-se a modelos muito maiores. Isso mostra que focar em dados melhores é mais importante do que simplesmente aumentar o tamanho do modelo.
Essa nova maneira de treinar torna a IA de raciocínio avançada mais eficiente e acessível para organizações que não possuem grandes recursos computacionais. O sucesso do Phi-4-reasoning aponta para uma nova direção no desenvolvimento de IA. Ele se concentra na melhoria da qualidade dos dados, treinamento inteligente e engenharia cuidadosa em vez de apenas aumentar os modelos.
Essa abordagem pode ajudar a acelerar o progresso da IA, reduzir custos e permitir que mais pessoas e empresas utilizem ferramentas de IA poderosas. No futuro, a IA provavelmente crescerá combinando melhores modelos com melhores dados, tornando a IA avançada útil em muitas áreas especializadas.
Conteúdo relacionado
Competir com um incumbente, com Linear Cristina Cordova no Sessions: AI
[the_ad id="145565"] Um problema familiar está enfrentando novos entrantes na indústria de IA: Como se destacar quando os incumbentes estão tão enraizados? Essa é apenas uma…
CEO da Nvidia critica a política dos EUA que impede vendas de chips de IA para a China.
[the_ad id="145565"] O CEO da Nvidia, Jensen Huang, adentrou o mundo da política com um comentário criticando a política dos EUA que cortou as vendas de seus chips para a…
Molde a agenda Disrupt 2025: Vote nas suas sessões favoritas!
[the_ad id="145565"] Ficamos impressionados com o incrível interesse em palestrar no TechCrunch Disrupt 2025, que acontecerá de 27 a 29 de outubro no Moscone West em São…