Sure! Here’s the content rewritten in Portuguese while preserving the HTML tags:
<div>
<div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba Mais</em></p>
<!-- /wp:paragraph -->
<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator --></div>
<p><a target="_blank" href="https://www.google.com/" target="_blank" rel="noreferrer noopener">O Google</a> está se aproximando de seu objetivo de criar um "assistente universal de IA" que pode entender o contexto, planejar e agir.</p>
<p>Hoje, durante o <a target="_blank" href="https://io.google/2025/" target="_blank" rel="noreferrer noopener">Google I/O</a>, a gigante da tecnologia anunciou melhorias em seu Gemini 2.5 Flash — agora está melhor em quase todos os aspectos, incluindo benchmarks para raciocínio, código e contextos longos — e 2.5 Pro, incluindo um modo de raciocínio aprimorado experimental, chamado 'Deep Think', que permite ao Pro considerar múltiplas hipóteses antes de responder.</p>
<p>“Este é o nosso objetivo final para o aplicativo Gemini: uma IA que seja pessoal, proativa e poderosa”, disse Demis Hassabis, CEO da Google DeepMind, em uma coletiva de imprensa.</p>
<h2 class="wp-block-heading" id="h-deep-think-scores-impressively-on-top-benchmarks">‘Deep Think’ alcança pontuações impressionantes em benchmarks de topo</h2>
<p>O Google anunciou o Gemini 2.5 Pro — o que considera seu modelo mais inteligente até agora, com uma janela de contexto de um milhão de tokens — <a target="_blank" href="https://x.com/demishassabis/status/1919779362980692364" target="_blank" rel="noreferrer noopener">em março</a>, e lançou sua edição "I/O" de codificação no início deste mês (com Hassabis <a target="_blank" href="https://x.com/demishassabis/status/1919779362980692364">definindo-o</a> como “o melhor modelo de codificação que já construímos!”).</p>
<p>“Estamos realmente impressionados com o que as pessoas criaram, desde transformar esboços em aplicativos interativos até simular cidades inteiras”, disse Hassabis.</p>
<p><span style="box-sizing: border-box; margin: 0px; padding: 0px;">Ele observou que, com base na experiência do Google com a AlphaGo, as respostas do modelo de IA melhoram quando recebem </span>mais tempo para pensar. Isso levou os cientistas da DeepMind a desenvolver o Deep Think, que utiliza a mais recente pesquisa de ponta do Google em pensamento e raciocínio, incluindo técnicas paralelas.</p>
<p>O Deep Think tem mostrado pontuações impressionantes nos mais difíceis benchmarks de matemática e codificação, incluindo a Olimpíada Matemática dos EUA de 2025 (<a target="_blank" href="https://maa.org/news/2025-usamo-and-usajmo-thresholds-now-available/#:~:text=Association%20of%20America-,Mathematical%20Association%20of%20America,Score%20+%2010%20x%20AIME%20Score" target="_blank" rel="noreferrer noopener">USAMO</a>). Ele também lidera o <a target="_blank" href="https://livecodebench.github.io/" target="_blank" rel="noreferrer noopener">LiveCodeBench</a>, um benchmark difícil para codificação de nível competitivo, e marca 84,0% no <a target="_blank" href="https://mmmu-benchmark.github.io/" target="_blank" rel="noreferrer noopener">MMMU</a>, que testa a compreensão e raciocínio multimodais.</p>
<p>Hassabis acrescentou: “Estamos levando um pouco mais de tempo para realizar mais avaliações de segurança de fronteira e obter mais feedback de especialistas em segurança.” (Significando: Por enquanto, está disponível para testadores de confiança via API para feedback antes que a capacidade seja amplamente disponibilizada.)</p>
<p>No geral, o novo 2.5 Pro lidera a tabela de líderes de codificação popular <a target="_blank" href="https://web.lmarena.ai/" target="_blank" rel="noreferrer noopener">WebDev Arena</a>, com uma pontuação ELO — que mede o nível de habilidade relativo de jogadores em jogos de dois jogadores como xadrez — de 1420 (intermediário a proficiente). Ele também lidera em todas as categorias do <a target="_blank" href="https://lmarena.ai/" target="_blank" rel="noreferrer noopener">LMArena</a>, que avalia IA com base na preferência humana.</p>
<p>Desde seu lançamento, “estamos realmente impressionados com o que [os usuários] criaram, desde transformar esboços em aplicativos interativos até simular cidades inteiras”, disse Hassabis.</p>
<h2 class="wp-block-heading" id="h-important-updates-to-gemini-2-5-pro-flash">Atualizações importantes para o Gemini 2.5 Pro, Flash</h2>
<p>Hoje, o Google também anunciou um 2.5 Flash aprimorado, considerado seu modelo de trabalho projetado para velocidade, eficiência e baixo custo. O 2.5 Flash foi melhorado em todos os aspectos em benchmarks para raciocínio, multimodalidade, código e longos contextos — Hassabis observou que é “o segundo apenas” ao 2.5 Pro na tabela de líderes do LMArena. O modelo também é mais eficiente, utilizando 20 a 30% menos tokens.</p>
<p>O Google está fazendo ajustes finais no 2.5 Flash com base no feedback dos desenvolvedores; agora está disponível para visualização no Google AI Studio, Vertex AI e no aplicativo Gemini. Ele estará geralmente disponível para produção no início de junho.</p>
<p>O Google está trazendo capacidades adicionais tanto para o Gemini 2.5 Pro quanto para o 2.5 Flash, incluindo saída de áudio nativa para criar experiências conversacionais mais naturais, conversão de texto em voz para suportar múltiplos falantes, resumos de pensamento e orçamentos de pensamento.</p>
<p>Com a entrada de áudio nativa (em prévia), os usuários podem direcionar o tom, o sotaque e o estilo de fala do Gemini (pense: direcionar o modelo para ser melodramático ou nostálgico ao contar uma história). Assim como o Projeto Mariner, o modelo também é equipado para uso de ferramentas, permitindo que ele pesquise em nome dos usuários.</p>
<p>Outros recursos experimentais de voz incluem diálogo afetivo, que confere à IA a capacidade de detectar emoções na voz do usuário e responder de forma apropriada; áudio proativo, que permite que ela ignore conversas de fundo; e raciocínio na API Live para suportar tarefas mais complexas.</p>
<p>Novos recursos de múltiplos falantes tanto no Pro quanto no Flash suportam mais de 24 idiomas, e os modelos podem alternar rapidamente de um dialeto para outro. “A conversão de texto em voz é expressiva e pode capturar nuances sutis, como sussurros”, escreveram Koray Kavukcuoglu, CTO da Google DeepMind, e Tulsee Doshi, diretora sênior de gerenciamento de produtos na Google DeepMind, em um <a target="_blank" href="https://blog.google/technology/google-deepmind/google-gemini-updates-io-2025" target="_blank" rel="noreferrer noopener">blog postado hoje</a>.</p>
<p>Além disso, o 2.5 Pro e o Flash agora incluem resumos de pensamento na API Gemini e no Vertex AI. Esses “pegam os pensamentos brutos do modelo e os organizam em um formato claro com cabeçalhos, detalhes principais e informações sobre ações do modelo, como quando usam ferramentas”, explicam Kavukcuoglu e Doshi. O objetivo é fornecer um formato mais estruturado e simplificado para o processo de pensamento do modelo e proporcionar interações com o Gemini que sejam mais fáceis de entender e depurar.</p>
<p>Assim como o 2.5 Flash, o Pro também está agora equipado com 'orçamentos de pensamento', que dão aos desenvolvedores a capacidade de controlar o número de tokens que um modelo usa para pensar antes de responder, ou, se preferirem, desligar suas capacidades de pensamento completamente. Essa capacidade estará geralmente disponível nas próximas semanas.</p>
<p>Por fim, o Google adicionou suporte nativo de SDK para definições de Protocolo de Contexto do Modelo (MCP) na API Gemini para que os modelos possam se integrar mais facilmente com ferramentas de código aberto.</p>
<p>Como disse Hassabis: “Estamos vivendo um momento notável na história em que a IA está tornando possível um novo futuro incrível. O progresso tem sido implacável.”</p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
<div class="Boilerplate__newsletter-container vb">
<div class="Boilerplate__newsletter-main">
<p><strong>Insights diários sobre casos de uso empresarial com VB Daily</strong></p>
<p class="copy">Se você quer impressionar seu chefe, o VB Daily tem tudo coberto. Nós te damos a scoop sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implantações práticas, para que você possa compartilhar insights para um ROI máximo.</p>
<p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
<p class="Form__success" id="boilerplateNewsletterConfirmation">
Obrigado por se inscrever. Confira mais boletins informativos do VB aqui.
</p>
<p class="Form__error">Ocorreu um erro.</p>
</div>
<div class="image-container">
<img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
</div>
</div>
<!-- /wp:shortcode --></div>
</div>
Feel free to let me know if you need any adjustments!
Conteúdo relacionado
Stitch é a ferramenta da Google alimentada por IA para ajudar a criar aplicativos.
[the_ad id="145565"] Na conferência de desenvolvedores Google I/O 2025, a Google lançou Stitch, uma ferramenta alimentada por IA para auxiliar na criação de interfaces de…
O Projeto Astra chega ao Google Search, Gemini e desenvolvedores.
[the_ad id="145565"] O Google anunciou na terça-feira, durante o Google I/O 2025, que o Projeto Astra — a experiência multimodal de IA de baixa latência da empresa — alimentará…
A plataforma de teleconferência 3D do Google, agora chamada Beam, será lançada no final de 2025.
[the_ad id="145565"] O Google anunciou na Google I/O 2025 que está rebatizando o Projeto Starline, sua plataforma de teleconferência focada em empresas que utiliza imagens 3D,…