Bolt42

Sure! Here’s the content rewritten in Portuguese while preserving the HTML tags:

<div>
    <div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
    <p><em>Participe das nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba mais</em></p>
    <!-- /wp:paragraph -->

    <!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
    <hr class="wp-block-separator has-css-opacity is-style-wide"/>
    <!-- /wp:separator --></div>
    <p>A Microsoft Research <a target="_blank" href="https://huggingface.co/microsoft/Phi-4-reasoning-plus">anunciou o lançamento do Phi-4-reasoning-plus</a>, um modelo de linguagem de pesos abertos construído para tarefas que exigem raciocínio profundo e estruturado.</p>

    <p>Construído sobre a arquitetura do Phi-4 previamente lançado, o novo modelo integra ajuste fino supervisionado e aprendizado por reforço para oferecer desempenho aprimorado em benchmarks de matemática, ciência, programação e tarefas baseadas em lógica.</p>

    <p>O Phi-4-reasoning-plus é um modelo Transformer denso de decodificador único com 14 bilhões de parâmetros que enfatiza a qualidade em vez da escala. Seu processo de treinamento envolveu 16 bilhões de tokens — cerca de 8,3 bilhões deles únicos — extraídos de conjuntos de dados baseados na web e sintéticos devidamente selecionados. </p>

    <p>Uma fase de aprendizado por reforço (RL), utilizando apenas cerca de 6.400 problemas focados em matemática, aprimorou ainda mais as capacidades de raciocínio do modelo.</p>

    <p>O modelo foi lançado sob uma <a target="_blank" href="https://huggingface.co/microsoft/Phi-4-reasoning-plus/resolve/main/LICENSE">licença MIT permissiva</a>, permitindo seu uso para amplas aplicações comerciais e empresariais, assim como ajustes ou destilações, sem restrições — e é compatível com estruturas de inferência amplamente utilizadas, incluindo Hugging Face Transformers, vLLM, llama.cpp e Ollama.</p>

    <p>A Microsoft fornece recomendações detalhadas sobre parâmetros de inferência e formatação de prompt de sistema para ajudar os desenvolvedores a aproveitarem ao máximo o modelo.</p>

    <h2 class="wp-block-heading" id="h-outperforms-larger-models">Supera modelos maiores</h2>

    <p>O desenvolvimento do modelo reflete a crescente ênfase da Microsoft em treinar modelos menores que possam rivalizar com sistemas muito maiores em termos de desempenho.</p>

    <p>Apesar de seu tamanho relativamente modesto, o Phi-4-reasoning-plus supera modelos de pesos abertos maiores, como o DeepSeek-R1-Distill-70B, em vários benchmarks exigentes.</p>

    <p>No exame de matemática AIME 2025, por exemplo, ele apresenta uma média de precisão mais alta ao passar em todas as 30 perguntas na primeira tentativa (um feito conhecido como “pass@1”) do que o modelo de destilação de 70B parâmetros, e se aproxima do desempenho do DeepSeek-R1, que é muito maior, com 671B de parâmetros.</p>

    <h2 class="wp-block-heading" id="h-structured-thinking-via-fine-tuning">Raciocínio estruturado através de ajuste fino</h2>

    <p>Para alcançar isso, a Microsoft empregou uma estratégia de treinamento centrada em dados.</p>

    <p>Durante a fase de ajuste fino supervisionado, o modelo foi treinado usando uma mistura selecionada de traços de raciocínio em cadeia sintética e prompts de alta qualidade filtrados.</p>

    <p>Uma inovação importante na abordagem de treinamento foi o uso de saídas de raciocínio estruturadas marcadas com tokens especiais <code><think/></code> e <code/></code>.</p>

    <p>Esses guiam o modelo a separar seus passos intermediários de raciocínio da resposta final, promovendo tanto transparência quanto coerência na resolução de problemas complexos.</p>

    <h2 class="wp-block-heading" id="h-reinforcement-learning-for-accuracy-and-depth">Aprendizado por reforço para precisão e profundidade</h2>

    <p>Após o ajuste fino, a Microsoft utilizou aprendizado por reforço baseado em resultados — especificamente, o algoritmo Group Relative Policy Optimization (GRPO) — para melhorar a precisão e eficiência do output do modelo.</p>

    <p>A função de recompensa do RL foi elaborada para equilibrar correção com concisão, penalizar repetições e impor consistência na formatação. Isso resultou em respostas mais longas, mas mais pensadas, particularmente em perguntas em que o modelo inicialmente carecia de confiança.</p>

    <h2 class="wp-block-heading" id="h-optimized-for-research-and-engineering-constraints">Otimizado para restrições de pesquisa e engenharia</h2>

    <p>O Phi-4-reasoning-plus é projetado para uso em aplicações que se beneficiam de raciocínio de alta qualidade sob restrições de memória ou latência. Ele suporta um comprimento de contexto de 32.000 tokens por padrão e demonstrou desempenho estável em experimentos com entradas de até 64.000 tokens.</p>

    <p>É melhor utilizado em um ambiente de chat e apresenta desempenho otimizado com um prompt de sistema que instrui explicitamente a raciocinar passo a passo antes de apresentar uma solução.</p>

    <h2 class="wp-block-heading" id="h-extensive-safety-testing-and-use-guidelines">Testes de segurança extensivos e diretrizes de uso</h2>

    <p>A Microsoft posiciona o modelo como uma ferramenta de pesquisa e um componente para sistemas de IA generativa, e não como uma solução pronta para todas as tarefas subsequentes.</p>

    <p>Os desenvolvedores são aconselhados a avaliar cuidadosamente o desempenho, a segurança e a imparcialidade antes de implantar o modelo em ambientes de alto risco ou regulamentados.</p>

    <p>O Phi-4-reasoning-plus passou por uma avaliação de segurança extensa, incluindo testes de red-team da equipe de IA da Microsoft e benchmarking com ferramentas como Toxigen para avaliar suas respostas em categorias de conteúdo sensíveis.</p>

    <p>De acordo com a Microsoft, este lançamento demonstra que com dados e técnicas de treinamento cuidadosamente selecionados, modelos pequenos podem proporcionar um desempenho de raciocínio forte — com acesso democrático e aberto.</p>

    <p>Aqui está uma versão revisada da seção de implicações para empresas em um tom mais técnico e estilo de notícias, alinhado com uma publicação de tecnologia empresarial:</p>

    <h2 class="wp-block-heading" id="h-implications-for-enterprise-technical-decision-makers">Implicações para decisores técnicos empresariais</h2>

    <p>O lançamento do Phi-4-reasoning-plus da Microsoft pode apresentar oportunidades significativas para stakeholders técnicos empresariais que gerenciam o desenvolvimento de modelos de IA, orquestração ou infraestrutura de dados.</p>

    <p>Para engenheiros de IA e gerentes do ciclo de vida de modelos, o tamanho de 14B parâmetros do modelo, combinado com desempenho competitivo em benchmarks, apresenta uma opção viável para raciocínio de alto desempenho sem as demandas de infraestrutura de modelos significativamente maiores. Sua compatibilidade com estruturas como Hugging Face Transformers, vLLM, llama.cpp e Ollama fornece flexibilidade de implantação em diferentes pilhas empresariais, incluindo ambientes containerizados e serverless.</p>

    <p>Equipes responsáveis pela implantação e escalonamento de modelos de aprendizado de máquina podem achar o suporte do modelo para contextos de 32k tokens — expansíveis para 64k em testes — particularmente útil em casos de uso que envolvem muitos documentos, como análise jurídica, QA técnico ou modelagem financeira. A estrutura integrada de separar o raciocínio em cadeia da resposta final também poderia simplificar integrando-se em interfaces onde a interpretabilidade ou auditabilidade é necessária.</p>

    <p>Para equipes de orquestração de IA, o Phi-4-reasoning-plus oferece uma arquitetura de modelo que pode ser mais facilmente integrada em pipelines com restrições de recursos. Isso é relevante em cenários onde o raciocínio em tempo real deve ocorrer sob limites de latência ou custo. Sua capacidade demonstrada de generalizar para problemas fora do domínio, incluindo tarefas NP-difíceis como 3SAT e TSP, sugere utilidade em planejamento algorítmico e casos de suporte à decisão além daqueles explicitamente abordados durante o treinamento.</p>

    <p>Líderes de engenharia de dados também podem considerar o formato de raciocínio do modelo — projetado para refletir passos intermediários na resolução de problemas — como um mecanismo para rastrear a consistência lógica em longas sequências de dados estruturados. O formato de saída estruturada poderia ser integrado em camadas de validação ou sistemas de log para apoiar a explicabilidade em aplicações ricas em dados.</p>

    <p>Do ponto de vista de governança e segurança, o Phi-4-reasoning-plus incorpora múltiplas camadas de alinhamento de segurança pós-treinamento e passou por testes adversariais pela equipe de IA interna da Microsoft. Para organizações sujeitas a requisitos de conformidade ou auditoria, isso pode reduzir a carga de desenvolver fluxos de trabalho de alinhamento personalizados desde o início.</p>

    <p>No geral, o Phi-4-reasoning-plus demonstra como a febre do raciocínio, iniciada por modelos como a série "o" da OpenAI e o DeepSeek R1, continua a acelerar e se expandir para modelos menores, mais acessíveis, acessíveis e personalizáveis.</p>

    <p>Para os decisores técnicos encarregados de gerenciar desempenho, escalabilidade, custo e risco, ele oferece uma alternativa modular e interpretável que pode ser avaliada e integrada de forma flexível — seja em endpoints de inferência isolados, ferramentas incorporadas ou sistemas de IA generativa de pilha completa.</p>
    <div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
        <div class="Boilerplate__newsletter-container vb">
            <div class="Boilerplate__newsletter-main">
                <p><strong>Insights diários sobre casos de uso empresarial com VB Daily</strong></p>
                <p class="copy">Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Nós trazemos informações sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para obter o máximo de ROI.</p>

                <p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
                <p class="Form__success" id="boilerplateNewsletterConfirmation">
                    Obrigado por se inscrever. Confira mais newsletters do VB aqui.
                </p>
                <p class="Form__error">Ocorreu um erro.</p>
            </div>

            <div class="image-container">
                <img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
            </div>

        </div>

    <!-- /wp:shortcode --></div>
</div>

Feel free to reach out if you need any more modifications!


    oito − 1 =

    Bolt42