Sure! Here’s the rewritten content in Portuguese while preserving the HTML tags:
<div>
<div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Inscreva-se em nossos newsletters diários e semanais para as últimas atualizações e conteúdos exclusivos sobre coberturas de IA de ponta. Saiba mais</em></p>
<!-- /wp:paragraph -->
<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator --></div><p>Modelos de linguagem de larga escala (LLMs) podem aprender tarefas complexas de raciocínio sem depender de grandes conjuntos de dados, de acordo com um <a target="_blank" href="https://arxiv.org/abs/2502.03387" target="_blank" rel="noreferrer noopener">novo estudo</a> de pesquisadores da Universidade Jiao Tong de Xangai. As descobertas mostram que, com apenas um pequeno lote de exemplos bem selecionados, é possível treinar um LLM para tarefas que antes exigiam dezenas de milhares de instâncias de treinamento.</p>
<p>Essa eficiência é atribuída ao conhecimento inerente que os LLMs modernos obtêm durante a fase de pré-treinamento. Com novos métodos de treinamento se tornando mais eficientes em termos de dados e computação, as empresas podem conseguir criar modelos personalizados sem precisar acessar os recursos de grandes laboratórios de IA.</p>
<h2 class="wp-block-heading" id="h-less-is-more-limo">Menos é mais (LIMO)</h2>
<p>Em seu estudo, os pesquisadores desafiam a suposição de que é necessário um grande volume de dados para treinar LLMs para tarefas de raciocínio. Eles introduzem o conceito de "menos é mais" (LIMO). Seu trabalho se baseia em <a target="_blank" href="https://arxiv.org/abs/2305.11206" target="_blank" rel="noreferrer noopener">pesquisas anteriores</a> que mostraram que LLMs poderiam ser alinhados com preferências humanas com apenas alguns exemplos.</p>
<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1048" height="572" src="https://venturebeat.com/wp-content/uploads/2025/02/image_7cef4b.png?w=800" alt="" class="wp-image-2996236" /><figcaption class="wp-element-caption"><em>Menos é Mais (LIMO) para raciocínio (fonte: arXiv)</em></figcaption></figure>
<p>Nos experimentos, os pesquisadores demonstraram que conseguiram criar um conjunto de dados LIMO para tarefas complexas de raciocínio matemático com apenas algumas centenas de exemplos de treinamento. Um LLM ajustado a esse conjunto foi capaz de criar cadeias de raciocínio complexas (CoT) que o permitiram realizar as tarefas com uma taxa de sucesso muito alta.</p>
<p>Por exemplo, um modelo Qwen2.5-32B-Instruct ajustado com 817 exemplos de treinamento escolhidos com base no LIMO atingiu 57,1% de precisão no desafiador benchmark AIME e 94,8% no MATH, superando modelos que foram treinados com cem vezes mais exemplos. Também obteve pontuação mais alta nos benchmarks do que modelos de raciocínio como QwQ-32B-Preview (uma versão do modelo Qwen que foi treinada para raciocínio) e OpenAI o1-preview, ambos que foram treinados com dados e recursos computacionais maiores.</p>
<p>Além disso, modelos treinados com LIMO generalizam para exemplos drasticamente diferentes de seus dados de treinamento. Por exemplo, no benchmark científico <a target="_blank" href="https://github.com/OpenBMB/OlympiadBench" target="_blank" rel="noreferrer noopener">OlympiadBench</a>, o modelo LIMO superou o QwQ-32B-Preview e, no desafiador <a target="_blank" href="https://github.com/idavidrein/gpqa" target="_blank" rel="noreferrer noopener">GPQA benchmark</a>, alcançou 66,7% de precisão, próximo à pontuação líder do OpenAI-o1-preview de 73,3%.</p>
<h2 class="wp-block-heading" id="h-what-does-it-mean-for-enterprise-ai">O que isso significa para a IA empresarial?</h2>
<p>Personalizar LLMs é um caso de uso atraente para aplicações empresariais. Graças a técnicas como geração aumentada por recuperação (RAG) e aprendizado em contexto, os LLMs podem ser personalizados para usar dados específicos ou realizar novas tarefas sem a necessidade de um ajuste de treinamento caro.</p>
<p>No entanto, tarefas de raciocínio muitas vezes requerem o treinamento e ajuste fino de LLMs. A crença amplamente difundida tem sido que tais tarefas necessitam de grandes volumes de exemplos de treinamento com cadeias de raciocínio e soluções altamente detalhadas. Criar tais conjuntos de dados é lento e impraticável para muitas aplicações e empresas.</p>
<p>Mais recentemente, pesquisadores mostraram que abordagens de aprendizado por reforço puro podem permitir que modelos se treinem para tarefas de raciocínio, gerando muitas soluções e escolhendo as que funcionam melhor. Embora essa abordagem exija menos esforço manual, ainda requer recursos computacionais caros que estão além do alcance de muitas empresas.</p>
<p>Por outro lado, elaborar algumas centenas de exemplos é um esforço que muitas empresas podem enfrentar, trazendo modelos de raciocínio especializados ao alcance de uma gama mais ampla de organizações.</p>
<p>“Esta descoberta tem profundas implicações para a pesquisa em inteligência artificial: Sugere que até habilidades complexas de raciocínio em nível de competição podem ser eficazmente extraídas por meio de amostras de treinamento mínimas, mas cuidadas”, escrevem os pesquisadores.</p>
<h2 class="wp-block-heading" id="h-why-limo-works">Por que LIMO funciona</h2>
<p>Em seus experimentos, os pesquisadores identificam duas razões chave pelas quais LLMs podem aprender tarefas complexas de raciocínio com menos exemplos.</p>
<p>Primeiro, modelos fundamentais de última geração foram treinados com uma quantidade muito grande de conteúdo matemático e de código durante o pré-treinamento. Isso significa que esses LLMs já possuem um rico conhecimento de raciocínio em seus parâmetros que pode ser ativado por meio de exemplos cuidadosamente elaborados.</p>
<p>Em segundo lugar, novas técnicas de pós-treinamento mostraram que permitir que os modelos gerem cadeias de raciocínio extensas melhora significativamente sua habilidade de raciocínio. Em essência, dar aos modelos mais tempo para “pensar” permite que eles desempacotem e apliquem seu conhecimento pré-treinado de forma mais eficaz.</p>
<p>“Hipotetizamos que o raciocínio bem-sucedido emerge da sinergia desses dois fatores: um rico conhecimento pré-treinado e recursos computacionais suficientes no momento da inferência”, escrevem os pesquisadores. “Esses desenvolvimentos, coletivamente, sugerem uma possibilidade surpreendente: se os modelos possuem conhecimento rico em raciocínio e são dados espaço computacional adequado, então ativar suas capacidades de raciocínio pode exigir apenas um pequeno número de amostras de treinamento de alta qualidade que incentivem a deliberação extensiva, em vez de grandes conjuntos de dados de ajuste fino.”</p>
<figure class="wp-block-image size-large"><img decoding="async" width="992" height="408" src="https://venturebeat.com/wp-content/uploads/2025/02/image_b48fa8.png?w=800" alt="" class="wp-image-2996237" /><figcaption class="wp-element-caption"><em>Escolher problemas mais complexos para incluir no conjunto de dados de treinamento pode afetar significativamente a precisão do modelo treinado em tarefas de raciocínio (fonte: arXiv)</em></figcaption></figure>
<p>De acordo com as descobertas dos pesquisadores, criar conjuntos de dados LIMO úteis depende da escolha dos problemas e soluções corretas. Curadores de dados devem priorizar problemas desafiadores que exigem cadeias de raciocínio complexas, processos de pensamento diversos e integração de conhecimentos. Os problemas também devem se desviar da distribuição de treinamento do modelo para incentivar novas abordagens de raciocínio e forçá-lo à generalização.</p>
<p>Consequentemente, as soluções devem ser claramente organizadas, com os passos de raciocínio adaptados à complexidade do problema. Soluções de alta qualidade também devem fornecer suporte educacional estratégico, desenvolvendo gradualmente a compreensão por meio de explicações cuidadosamente estruturadas.</p>
<p>“Ao nos concentrarmos em um conjunto mínimo, mas meticulosamente elaborado de cadeias de raciocínio, incorporamos o princípio central do LIMO: Demonstrações de alta qualidade, em vez do volume de dados, são a chave para desbloquear capacidades complexas de raciocínio”, escrevem os pesquisadores.</p>
<p>Os pesquisadores <a target="_blank" href="https://github.com/GAIR-NLP/LIMO?tab=readme-ov-file#overview" target="_blank" rel="noreferrer noopener">publicaram o código e os dados</a> usados para treinar os modelos LIMO em seus experimentos. No futuro, planejam expandir o conceito para outros domínios e aplicações.</p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
<div class="Boilerplate__newsletter-container vb">
<div class="Boilerplate__newsletter-main">
<p><strong>Insights diários sobre casos de uso empresarial com o VB Daily</strong></p>
<p class="copy">Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Trazemos as novidades sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para um ROI máximo.</p>
<p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
<p class="Form__success" id="boilerplateNewsletterConfirmation">
Obrigado por se inscrever. Confira mais newsletters do VB aqui.
</p>
<p class="Form__error">Um erro ocorreu.</p>
</div>
<div class="image-container">
<img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
</div>
</div>
<!-- /wp:shortcode --></div>
</div>
If you need any further modifications or assistance, feel free to let me know!
Conteúdo relacionado
Uplimit eleva as apostas na aprendizagem corporativa com conjunto de agentes de IA que podem treinar 1.000 funcionários simultaneamente.
[the_ad id="145565"] Participe dos nossos boletins informativos diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba…
Actively AI levanta US$ 22,5 milhões para oferecer ‘superinteligência’ em vendas, afirma que SDRs de IA falharam.
[the_ad id="145565"] As startups de representantes de vendas baseados em IA estão se tornando um mercado muito concorrido atualmente. Se você estiver dirigindo para San…
Anthropic transforma a abordagem da IA na educação: o Modo de Aprendizagem do Claude faz os alunos refletirem.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas novidades e conteúdo exclusivo sobre cobertura de IA de liderança no setor. Saiba mais……