O Google I/O 2025, a maior conferência de desenvolvedores do Google do ano, acontecerá na terça e quarta-feira no Shoreline Amphitheatre em Mountain View. Estamos no local trazendo as últimas atualizações do evento.
O I/O apresenta anúncios de produtos de todo o portfólio do Google. Temos muitas novidades relacionadas ao Android, Chrome, Google Search, YouTube e — claro — ao chatbot alimentado por IA do Google, Gemini.
O Google organizou um evento separado dedicado às atualizações do Android: O Android Show. A empresa anunciou novas maneiras de encontrar telefones Android perdidos e outros itens, recursos adicionais para seu programa de Proteção Avançada, ferramentas de segurança para proteção contra fraudes e roubos, e uma nova linguagem de design chamada Material 3 Expressive.
Aqui estão todas as novidades anunciadas no Google I/O 2025.
Gemini Ultra
O Gemini Ultra (apenas nos EUA por enquanto) oferece o “mais alto nível de acesso” aos aplicativos e serviços potenciais com IA do Google, de acordo com a empresa. Está com preço de $249,99 por mês e inclui o gerador de vídeos Veo 3, o novo aplicativo de edição de vídeo Flow, e uma capacidade de IA poderosa chamada Gemini 2.5 Pro Deep Think mode, que ainda não foi lançada.
O AI Ultra vem com limites ampliados na plataforma NotebookLM do Google e no Whisk, o aplicativo de remixagem de imagens da empresa. Os assinantes do AI Ultra também têm acesso ao chatbot Gemini no Chrome; algumas ferramentas “agenciais” alimentadas pela tecnologia do Project Mariner da empresa; YouTube Premium; e 30TB de armazenamento no Google Drive, Google Photos e Gmail.
Deep Think no Gemini 2.5 Pro
Deep Think é um modo de raciocínio “aprimorado” para o modelo flagship Gemini 2.5 Pro. Permite que o modelo considere múltiplas respostas para perguntas antes de responder, melhorando seu desempenho em certos benchmarks.
O Google não detalhou como funciona o Deep Think, mas pode ser semelhante aos modelos o1-pro e o3-pro da OpenAI, que provavelmente usam um motor para buscar e sintetizar a melhor solução para um problema específico.
O Deep Think está disponível para “testadores confiáveis” via API do Gemini. O Google afirmou que está levando mais tempo para realizar avaliações de segurança antes de lançar o Deep Think amplamente.
Modelo de IA gerador de vídeo Veo 3
O Google afirma que o Veo 3 pode gerar efeitos sonoros, ruídos de fundo e até diálogos para acompanhar os vídeos que cria. O Veo 3 também melhora em relação ao seu predecessor, Veo 2, em termos de qualidade de filmagem gerada, segundo o Google.
O Veo 3 estará disponível a partir de terça-feira no aplicativo de chatbot Gemini do Google para assinantes do plano AI Ultra de $249,99 por mês, onde pode ser solicitado com texto ou imagem.
Gerador de imagens AI Imagen 4
Segundo o Google, o Imagen 4 é rápido – mais rápido que o Imagen 3. E em breve ficará ainda mais rápido. No futuro próximo, o Google planeja lançar uma variante do Imagen 4 que será até 10x mais rápida que o Imagen 3.
O Imagen 4 é capaz de renderizar “detalhes refinados” como tecidos, gotículas de água e pelagens de animais, de acordo com o Google. Ele pode lidar com estilos fotorealistas e abstratos, criando imagens em várias proporções e até 2K de resolução.
Tanto o Veo 3 quanto o Imagen 4 serão utilizados para impulsionar o Flow, a ferramenta de vídeo alimentada pela IA da empresa voltada para a produção de filmes.

Atualizações do aplicativo Gemini
O Google anunciou que os aplicativos Gemini têm mais de 400 usuários ativos mensalmente.
Os recursos de câmera e compartilhamento de tela do Gemini Live serão lançados esta semana para todos os usuários no iOS e Android. O recurso, alimentado pelo Project Astra, permite que as pessoas tenham conversas verbais quase em tempo real com o Gemini, enquanto transmitem vídeo da câmera ou da tela de seus smartphones para o modelo de IA.
O Google diz que o Gemini Live também começará a integrar-se mais profundamente com seus outros aplicativos nas próximas semanas: logo poderá oferecer direções do Google Maps, criar eventos no Google Calendar e fazer listas de tarefas com o Google Tasks.
O Google diz que está atualizando o Deep Research, o agente de IA do Gemini que gera relatórios de pesquisa completos, permitindo que os usuários enviem seus próprios PDFs e imagens privados.
Stitch
Stitch é uma ferramenta alimentada por IA para ajudar as pessoas a projetar front-ends de aplicativos web e móveis, gerando os elementos e o código de UI necessários. O Stitch pode ser solicitado para criar interfaces de aplicativos com algumas palavras ou até mesmo uma imagem, fornecendo marcação HTML e CSS para os designs que gera.
O Stitch é um pouco mais limitado em suas capacidades em comparação com alguns outros produtos de codificação, mas oferece uma quantidade razoável de opções de personalização.
O Google também expandiu o acesso ao Jules, seu agente de IA voltado para ajudar os desenvolvedores a corrigir bugs no código. A ferramenta auxilia os desenvolvedores a entender código complexo, criar pull requests no GitHub e lidar com certos itens de backlog e tarefas de programação.
Project Mariner
O Project Mariner é o agente experimental de IA do Google que navega e usa sites. O Google diz que atualizou significativamente como o Project Mariner funciona, permitindo que o agente execute quase uma dúzia de tarefas ao mesmo tempo, e agora está garantindo seu lançamento para os usuários.
Por exemplo, os usuários do Project Mariner podem comprar ingressos para um jogo de beisebol ou comprar mantimentos online sem nunca visitar um site de terceiros. As pessoas podem apenas conversar com o agente de IA do Google e ele visita os sites e realiza ações para elas.
Project Astra
A experiência AI multimodal de baixa latência do Google, Project Astra, impulsionará uma série de novas experiências na Pesquisa, no aplicativo Gemini e em produtos de desenvolvedores de terceiros.
O Project Astra nasceu do Google DeepMind como uma forma de exibir capacidades multimodais de IA quase em tempo real. A empresa afirma que está construindo esses óculos do Project Astra com parceiros como Samsung e Warby Parker, mas não tem uma data de lançamento definida ainda.

Modo IA
O Google está lançando o Modo IA, o recurso experimental de Pesquisa Google que permite que as pessoas façam perguntas complexas e multipartes por meio de uma interface de IA, para usuários nos EUA esta semana.
O Modo IA suportará o uso de dados complexos em consultas sobre esportes e finanças, e oferecerá opções de “experimente” para vestuário. O Search Live, que será lançado mais tarde neste verão, permitirá que você faça perguntas com base no que a câmera do seu telefone está vendo em tempo real.
O Gmail é o primeiro aplicativo a ser suportado com contexto personalizado.
Teleconferência 3D Beam
O Beam, anteriormente chamado Starline, utiliza uma combinação de software e hardware, incluindo uma matriz de seis câmeras e um display de campo luminoso customizado, para permitir que um usuário converse com alguém como se estivesse na mesma sala de reunião. Um modelo de IA converte o vídeo das câmeras, que estão posicionadas em ângulos diferentes e voltadas para o usuário, em uma renderização 3D.
O Beam do Google possui rastreamento de cabeça milimétrico “quase perfeito” e streaming de vídeo a 60fps. Quando usado com o Google Meet, o Beam oferece um recurso de tradução de fala em tempo real alimentado por IA que preserva a voz, o tom e as expressões do falante original.
E falando do Google Meet, o Google anunciou que o Meet está recebendo tradução de fala em tempo real.
Mais atualizações de IA
O Google está lançando o Gemini no Chrome, que dará às pessoas acesso a um novo assistente de navegação por IA que ajudará a entender rapidamente o contexto de uma página e a realizar tarefas.
O Gemma 3n é um modelo projetado para funcionar “suavemente” em telefones, laptops e tablets. Está disponível em preview a partir de terça-feira; pode lidar com áudio, texto, imagens e vídeos, segundo o Google.
A empresa também anunciou várias funcionalidades de IA para o Workspace que chegarão ao Gmail, Google Docs e Google Vids. Mais notavelmente, o Gmail está recebendo respostas automáticas personalizadas e um novo recurso de limpeza de caixa de entrada, enquanto o Vids está ganhando novas maneiras de criar e editar conteúdo.
Visões gerais em vídeo estão chegando ao NotebookLM, e a empresa lançou o SynthID Detector, um portal de verificação que usa a tecnologia de marca d’água SynthID do Google para ajudar a identificar conteúdo gerado por IA. O Lyria RealTime, o modelo de IA que alimenta seu aplicativo experimental de produção musical, agora está disponível via API.
Wear OS 6
O Wear OS 6 traz uma fonte unificada para os tiles, proporcionando um visual mais limpo para os aplicativos, e os relógios Pixel estão recebendo personalização dinâmica que sincroniza as cores dos aplicativos com os mostradores.
A promessa central da nova plataforma de referência de design é permitir que os desenvolvedores construam uma melhor personalização em aplicativos junto com transições suaves. A empresa estará lançando uma diretriz de design para desenvolvedores, juntamente com arquivos de design Figma.

Google Play
O Google está fortalecendo a Play Store para desenvolvedores Android com novas ferramentas para gerenciar assinaturas, páginas de tópicos para que os usuários possam explorar interesses específicos, amostras de áudio para dar uma prévia do conteúdo do aplicativo e uma nova experiência de checkout para facilitar a venda de complementos.
As páginas de “navegação por tópicos” para filmes e shows (somente nos EUA por enquanto) conectarão os usuários a aplicativos ligados a uma série de programas e filmes. Além disso, os desenvolvedores estão recebendo páginas dedicadas para testes e lançamentos, e ferramentas para monitorar e melhorar seus lançamentos de aplicativos. Os desenvolvedores que usam o Google também poderão interromper os lançamentos ao vivo de aplicativos se um problema crítico surgir.
As ferramentas de gerenciamento de assinaturas também estão recebendo uma atualização com checkout de múltiplos produtos. Os desenvolvedores em breve poderão oferecer complementos de assinatura juntamente com as assinaturas principais, tudo sob um único pagamento.
Android Studio
O Android Studio está integrando novos recursos de IA, incluindo “Journeys”, uma capacidade de “IA agencial” que coincide com o lançamento do modelo Gemini 2.5 Pro. E um “Modo Agente” será capaz de lidar com processos de desenvolvimento mais intrincados.
O Android Studio receberá novas capacidades de IA, incluindo um recurso “insights de falhas” aprimorado no painel App Quality Insights. Essa melhoria, alimentada pelo Gemini, analisará o código fonte de um aplicativo para identificar possíveis causas de falhas e sugerir correções.
Conteúdo relacionado
Stitch é a ferramenta da Google alimentada por IA para ajudar a criar aplicativos.
[the_ad id="145565"] Na conferência de desenvolvedores Google I/O 2025, a Google lançou Stitch, uma ferramenta alimentada por IA para auxiliar na criação de interfaces de…
O Projeto Astra chega ao Google Search, Gemini e desenvolvedores.
[the_ad id="145565"] O Google anunciou na terça-feira, durante o Google I/O 2025, que o Projeto Astra — a experiência multimodal de IA de baixa latência da empresa — alimentará…
A plataforma de teleconferência 3D do Google, agora chamada Beam, será lançada no final de 2025.
[the_ad id="145565"] O Google anunciou na Google I/O 2025 que está rebatizando o Projeto Starline, sua plataforma de teleconferência focada em empresas que utiliza imagens 3D,…