Bolt42

Sure! Here’s your content rewritten in Portuguese while maintaining the HTML tags:

<div>
    <div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA líder na indústria. Saiba mais</em></p>
<!-- /wp:paragraph -->

<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator --></div><p><a target="_blank" href="https://openai.com/">OpenAI</a> lançou hoje dois modelos de IA inovadores que conseguem raciocinar com imagens e usar ferramentas de forma independente, representando o que especialistas chamam de um avanço significativo nas capacidades da inteligência artificial.</p>

<p>A empresa com sede em San Francisco apresentou <a target="_blank" href="https://openai.com/index/introducing-o3-and-o4-mini/">o3</a> e <a target="_blank" href="https://openai.com/index/introducing-o3-and-o4-mini/">o4-mini</a>, os mais recentes em sua “série-o” de modelos de raciocínio, os quais a OpenAI afirma serem seus modelos mais inteligentes e capazes até o momento. Esses sistemas podem integrar imagens diretamente em seu processo de raciocínio, pesquisar na web, executar código, analisar arquivos e até gerar imagens em um único fluxo de tarefa.</p>

<p>“Existem modelos que parecem um passo qualitativo em direção ao futuro. O GPT-4 foi um deles. Hoje também será um desses dias,” disse Greg Brockman, presidente da OpenAI, durante uma coletiva de imprensa que anunciou o lançamento. “Estes são os primeiros modelos onde os principais cientistas nos dizem que produzem ideias novel e realmente boas e úteis.”</p>

<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><p>
<iframe src="https://www.youtube.com/watch?v=sq8GBPUb3rk"></iframe>
</p></figure>

<h2 class="wp-block-heading" id="h-how-openai-s-new-models-think-with-images-to-transform-visual-problem-solving">Como os novos modelos da OpenAI ‘pensam com imagens’ para transformar a resolução de problemas visuais</h2>

<p>A característica mais marcante desses novos modelos é sua capacidade de “<a target="_blank" href="https://openai.com/index/thinking-with-images/">pensar com imagens</a>” — não apenas vê-las, mas manipulá-las e raciocinar sobre elas como parte de seu processo de resolução de problemas.</p>

<p>“Eles não apenas vêem uma imagem — eles pensam com ela,” afirmou a OpenAI em um comunicado enviado ao VentureBeat. “Isso desbloqueia uma nova classe de resolução de problemas que combina raciocínio visual e textual.”</p>

<p>Durante uma demonstração na coletiva de imprensa, um pesquisador mostrou como o o3 poderia analisar um pôster de física de um estágio de uma década atrás, navegar seus complexos diagramas de forma independente e até identificar que o resultado final não estava presente no próprio pôster.</p>

<p>“Ele deve ter lido, sabe, pelo menos como 10 artigos diferentes em poucos segundos para mim,” disse Brandon McKenzie, um pesquisador da OpenAI que trabalha em raciocínio multimodal, durante a demonstração. Ele estimou que a tarefa teria levado “muitos dias, só para eu conseguir me atualizar sobre meu projeto, e mais alguns dias para realmente buscar na literatura.”</p>

<p>A capacidade da IA de manipular imagens em seu processo de raciocínio — aproximando detalhes, rotacionando diagramas ou cortando elementos desnecessários — representa uma abordagem inédita que analistas da indústria dizem que poderia revolucionar campos, desde a pesquisa científica até a educação.</p>

<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Tive acesso antecipado, o3 é um modelo impressionante, parece muito capaz. Alguns exemplos divertidos:<br/>1) Resolvi um caso de negócio que uso em minha aula<br/>2) Criando alguns SVGs (imagens criadas apenas com código)<br/>3) Escrevendo uma história confinada de dois giros interligados<br/>4) Batalha espacial de ficção científica dura. <a target="_blank" href="https://t.co/TK4PKvKNoT">pic.twitter.com/TK4PKvKNoT</a></p>— Ethan Mollick (@emollick) <a target="_blank" href="https://twitter.com/emollick/status/1912552106214502739?ref_src=twsrc%5Etfw">16 de Abril de 2025</a></blockquote> 

<p>Os executivos da OpenAI enfatizaram que esses lançamentos representam mais do que apenas modelos aprimorados — são sistemas de IA completos que podem usar e conectar de forma independente múltiplas ferramentas ao resolver problemas.</p>

<p>“Nós os treinamos para usar ferramentas por meio de aprendizado por reforço — ensinando-os não apenas como usar as ferramentas, mas a raciocinar sobre quando usá-las,” explicou a empresa em seu comunicado.</p>

<p>Greg Brockman destacou as extensas capacidades de uso de ferramentas dos modelos: “Eles realmente usam essas ferramentas em seu raciocínio enquanto estão tentando resolver um problema difícil. Por exemplo, já vimos o o3 usar como 600 chamadas de ferramentas seguidas para tentar resolver uma tarefa realmente complicada.”</p>

<p>Essa capacidade permite que os modelos realizem fluxos de trabalho complexos e em múltiplas etapas sem constante direção humana. Por exemplo, se questionado sobre padrões futuros de uso de energia na Califórnia, a IA pode pesquisar na web por dados de utilidades, escrever código Python para analisá-lo, gerar visualizações e produzir um relatório abrangente — tudo como um único processo fluido.</p>

<h2 class="wp-block-heading" id="h-openai-surges-ahead-of-competitors-with-record-breaking-performance-on-key-ai-benchmarks">OpenAI avança à frente dos concorrentes com desempenho recorde em benchmarks de IA importantes</h2>

<p>A OpenAI afirma que o o3 estabelece novos benchmarks de ponta em medidas-chave de capacidade de IA, incluindo <a target="_blank" href="https://codeforces.com/" target="_blank" rel="noreferrer noopener">Codeforces</a>, <a target="_blank" href="https://www.swebench.com/" target="_blank" rel="noreferrer noopener">SWE-bench</a>, e <a target="_blank" href="https://mmmu-benchmark.github.io/" target="_blank" rel="noreferrer noopener">MMMU</a>. Em avaliações por especialistas externos, o o3 supostamente comete 20% menos erros graves do que seu predecessor em tarefas reais desafiadoras.</p>

<p>O modelo menor o4-mini é otimizado para velocidade e eficiência de custo, mantendo fortes capacidades de raciocínio. Na <a target="_blank" href="https://artofproblemsolving.com/wiki/index.php/2025_AIME_I?srsltid=AfmBOoqX3qw2-Ij7el3VLh8zrR5XCEAURWqZ0YfQUR-GJ1FX8aRF5UFp" target="_blank" rel="noreferrer noopener">competição de matemática AIME 2025</a>, o o4-mini marcou 99,5% quando teve acesso a um interpretador Python.</p>

<p>“Eu realmente acredito que com este conjunto de modelos, o o3 e o o4-mini, veremos mais avanços,” disse Mark Chen, chefe de pesquisa da OpenAI, durante a coletiva de imprensa.</p>

<p>O timing deste lançamento é significativo, vindo apenas dois dias depois que a OpenAI revelou seu <a target="_blank" href="https://openai.com/index/gpt-4-1/">modelo GPT-4.1</a>, que se destaca em tarefas de codificação. A rápida sucessão de anúncios sinaliza uma aceleração no competitivo cenário de IA, onde a OpenAI enfrenta pressão crescente dos modelos <a target="_blank" href="https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/">Gemini</a> do Google, de <a target="_blank" href="https://claude.ai/new">Claude</a> da Anthropic, e da <a target="_blank" href="https://x.ai/">xAI</a> de Elon Musk.</p>

<p>No mês passado, a OpenAI fechou o que equivale ao maior financiamento privado da história do setor de tecnologia, <a target="_blank" href="https://openai.com/index/march-funding-updates/">levantando $40 bilhões</a> a uma avaliação de $300 bilhões. A empresa também está supostamente considerando construir sua própria <a target="_blank" href="https://www.cnbc.com/2025/04/15/openai-considering-own-social-network-to-compete-with-elon-musks-x.html">rede social</a>, potencialmente para competir com a plataforma X de Elon Musk e para garantir uma fonte proprietária de dados de treinamento.</p>

<blockquote class="twitter-tweet"><p lang="en" dir="ltr">o3 e o4-mini são super bons em codificação, então estamos lançando um novo produto, Codex CLI, para torná-los mais fáceis de usar.</p><p>Esse é um agente de codificação que roda no seu computador. É totalmente open source e disponível hoje; esperamos que melhore rapidamente.</p>— Sam Altman (@sama) <a target="_blank" href="https://twitter.com/sama/status/1912558495997784441?ref_src=twsrc%5Etfw">16 de Abril de 2025</a></blockquote> 

<h2 class="wp-block-heading" id="h-how-openai-s-new-models-transform-software-engineering-with-unprecedented-code-navigation-abilities">Como os novos modelos da OpenAI transformam a engenharia de software com habilidades de navegação de código sem precedentes</h2>

<p>Uma área onde os novos modelos se destacam especialmente é na engenharia de software. Brockman observou durante a coletiva de imprensa que o o3 é “na verdade melhor do que eu em navegar pelo nosso banco de dados de código da OpenAI, o que é realmente útil.”</p>

<p>Como parte do anúncio, a OpenAI também apresentou <a target="_blank" href="https://github.com/openai/codex">Codex CLI</a>, um agente de codificação leve que roda diretamente no terminal do usuário. A ferramenta de código aberto permite que os desenvolvedores aproveitem as capacidades de raciocínio dos modelos para tarefas de codificação, com suporte para capturas de tela e esboços.</p>

<p>“Também estamos compartilhando uma nova experiência: Codex CLI, um agente de codificação leve que você pode executar a partir do seu terminal,” anunciou a empresa. “Você pode obter os benefícios do raciocínio multimodal a partir da linha de comando, passando capturas de tela ou esboços de baixa fidelidade para o modelo, combinado com acesso ao seu código localmente.”</p>

<p>Para incentivar a adoção, a OpenAI está lançando uma <a target="_blank" href="https://openai.com/form/codex-open-source-fund/" target="_blank" rel="noreferrer noopener">iniciativa de $1 milhão</a> para apoiar projetos que utilizem o Codex CLI e os modelos da OpenAI, com subsídios disponíveis em incrementos de $25.000 em créditos de API.</p>

<h2 class="wp-block-heading" id="h-inside-openai-s-enhanced-safety-protocols-how-the-company-protects-against-ai-misuse">Dentro dos protocolos de segurança aprimorados da OpenAI: Como a empresa se protege contra o uso indevido da IA</h2>

<p>A OpenAI relata ter realizado extensos testes de segurança nos novos modelos, com foco especial em sua capacidade de recusar solicitações nocivas. As medidas de segurança da empresa incluem a reconstrução completa de seus dados de treinamento de segurança e o desenvolvimento de mitigitações em nível de sistema para sinalizar solicitações perigosas.</p>

<p>“Nós estressamos ambos os modelos com o nosso programa de segurança mais rigoroso até o momento,” afirmou a empresa, observando que tanto o o3 quanto o o4-mini permanecem abaixo do limiar “Alto” da OpenAI para riscos potenciais nas capacidades biológicas, de cibersegurança e de autoaperfeiçoamento da IA.</p>

<p>Durante a coletiva de imprensa, os pesquisadores da OpenAI, Wenda e Ananya, apresentaram resultados de benchmark detalhados, observando que os novos modelos passaram por mais de 10 vezes a computação de treinamento das versões anteriores para alcançar suas capacidades.</p>

<h2 class="wp-block-heading" id="h-when-and-how-you-can-access-o3-and-o4-mini-deployment-timeline-and-commercial-strategy">Quando e como você pode acessar o o3 e o o4-mini: Cronograma de implantação e estratégia comercial</h2>

<p>Os novos modelos estão imediatamente disponíveis para usuários do <a target="_blank" href="https://openai.com/index/chatgpt-plus/">ChatGPT Plus</a>, <a target="_blank" href="https://openai.com/index/introducing-chatgpt-pro/">Pro</a>, e <a target="_blank" href="https://openai.com/chatgpt/team/">Team</a>, com clientes de <a target="_blank" href="https://openai.com/chatgpt/enterprise/">Enterprise</a> e <a target="_blank" href="https://openai.com/chatgpt/education/">Educação</a> obtendo acesso na próxima semana. Usuários gratuitos podem experimentar o o4-mini selecionando “Pensar” no compositor antes de enviar consultas.</p>

<p>Os desenvolvedores podem acessar ambos os modelos por meio da <a target="_blank" href="https://platform.openai.com/docs/guides/text?api-mode=chat" target="_blank" rel="noreferrer noopener">Chat Completions API</a> e <a target="_blank" href="https://community.openai.com/t/introducing-the-responses-api/1140929" target="_blank" rel="noreferrer noopener">Responses API</a>, embora algumas organizações precisem de verificação para acessá-los.</p>

<p>O lançamento representa uma oportunidade comercial significativa para a OpenAI, já que os modelos parecem tanto mais capazes quanto mais eficientes em custo do que seus predecessores. “Por exemplo, na competição de matemática AIME 2025, a fronteira de custo-desempenho do o3 melhora estritamente em relação ao o1, e de forma semelhante, a fronteira do o4-mini melhora estritamente em relação ao o3-mini,” afirmou a empresa.</p>

<h2 class="wp-block-heading" id="h-the-future-of-ai-how-openai-is-bridging-reasoning-and-conversation-for-next-generation-systems">O futuro da IA: Como a OpenAI está unindo raciocínio e conversa para sistemas de próxima geração</h2>

<p>Analistas da indústria veem esses lançamentos como parte de uma convergência mais ampla nas capacidades da IA, com modelos cada vez mais combinando raciocínio especializado com habilidades de conversa natural e uso de ferramentas.</p>

<p>“As atualizações de hoje refletem a direção para a qual nossos modelos estão indo: estamos convergindo as capacidades de raciocínio especializado da série-o com mais das habilidades de conversação natural e uso de ferramentas da série GPT,” observou a OpenAI em seu comunicado.</p>

<p>Ethan Mollick, professor associado da Wharton School que estuda a adoção de IA, descreveu o o3 como “um modelo muito forte, mas ainda irregular” em uma postagem nas redes sociais após o anúncio.</p>

<p>À medida que a competição no espaço da IA continua a se intensificar, com Google, Anthropic e outros lançando modelos cada vez mais poderosos, o foco dual da OpenAI tanto nas capacidades de raciocínio quanto no uso prático de ferramentas sugere uma estratégia destinada a manter sua posição de liderança, entregando tanto inteligência quanto utilidade.</p>

<p>Com o o3 e o o4-mini, a OpenAI cruzou um limiar onde as máquinas começam a perceber imagens da maneira como os humanos fazem — manipulando informações visuais como uma parte integral de seu processo de pensamento, em vez de apenas analisar o que veem. Essa mudança de reconhecimento passivo para raciocínio visual ativo pode, em última análise, se mostrar mais significativa do que qualquer pontuação de benchmark, representando o momento em que a IA começou a ver verdadeiramente o mundo com olhos pensantes.</p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
        <div class="Boilerplate__newsletter-container vb">
            <div class="Boilerplate__newsletter-main">
                <p><strong>Insights diários sobre casos de uso de negócios com o VB Daily</strong></p>
                <p class="copy">Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Damos a você informações privilegiadas sobre o que as empresas estão fazendo com a IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para um ROI máximo.</p>

                <p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
                <p class="Form__success" id="boilerplateNewsletterConfirmation">
                    Obrigado por se inscrever. Confira mais newsletters do VB aqui.
                </p>
                <p class="Form__error">Ocorreu um erro.</p>
            </div>

            <div class="image-container">
                <img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
            </div>

        </div>

<!-- /wp:shortcode --></div>            
</div>
<script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script>

Feel free to replace or modify any parts if needed!


    11 − sete =

    Bolt42