Bolt42

O Google está trazendo o Gemini, sua IA generativa, para todos os carros que suportam o Android Auto nos próximos meses, conforme foi anunciado na sua apresentação do Android, antes da conferência para desenvolvedores I/O de 2025.

A empresa afirma que adicionar a funcionalidade do Gemini ao Android Auto e, ainda este ano, aos carros que rodam o sistema operacional integrado do Google, tornará a condução “mais produtiva — e divertida”, conforme mencionado no blog.

“Este será, nós acreditamos, uma das maiores transformações na experiência dentro do veículo que já vimos em muito, muito tempo”, disse Patrick Brady, VP do Android para Carros, durante um briefing virtual com membros da mídia antes da conferência.

O Gemini se manifestará na experiência do Android Auto de duas maneiras principais.

O Gemini servirá como um assistente virtual mais poderoso. Motoristas (ou passageiros — Brady disse que não estão vinculando a voz a quem possui o telefone que roda o Android Auto) poderão pedir ao Gemini para enviar mensagens, tocar músicas e fazer basicamente todas as coisas que o Google Assistente já fazia. A diferença é que os usuários não precisarão ser tão robóticos com seus comandos, graças às capacidades de linguagem natural do Gemini.

O Gemini também pode “lembrar” coisas, como se um contato prefere receber mensagens de texto em um idioma específico, e fazer essa tradução para o usuário. E o Google afirma que o Gemini será capaz de realizar uma das demonstrações tecnológicas mais comuns em carros: encontrar bons restaurantes ao longo de uma rota planejada. Claro, Brady disse que o Gemini será capaz de explorar listagens e avaliações do Google para responder a pedidos mais específicos (como “lugares de taco com opções veganas”).

A outra maneira principal pela qual o Gemini se manifestará é com o que o Google chama de “Gemini Live”, que é uma opção onde a IA digital está essencialmente sempre ouvindo e pronta para se envolver em conversas sobre… qualquer coisa. Brady disse que essas conversas poderiam variar de ideias de viagem para as férias de primavera a ajudar a criar receitas que uma criança de 10 anos adoraria, até “história romana”.

Se tudo isso soa um pouco distrativo, Brady disse que o Google acredita que não será. Ele afirmou que as capacidades de linguagem natural facilitarão pedir ao Android Auto para realizar tarefas específicas com menos complicação e, portanto, o Gemini diminuirá a “carga cognitiva”.

É uma afirmação ousada em um momento em que as pessoas clamam para que as montadoras deixem de lado as telas sensíveis ao toque e retornem aos botões e comandos físicos — um pedido que muitas dessas empresas estão começando a atender.

Há muitas questões ainda a serem resolvidas. Por enquanto, o Gemini aproveitará o processamento em nuvem do Google para operar tanto no Android Auto quanto em carros com Google Built-In. Mas Brady disse que o Google está trabalhando com montadoras “para construir mais capacidade de computação para que [o Gemini] possa operar na borda”, o que ajudaria não apenas na performance, mas também na confiabilidade — um fator desafiador em um veículo em movimento que pode estar se conectando a novas torres de celular a cada poucos minutos.

Os carros modernos também geram muitos dados a partir de sensores a bordo, e em alguns modelos, até câmeras internas e externas. Brady disse que o Google não tem “nada a anunciar” sobre se o Gemini poderá aproveitar esses dados multimodais, e que “temos discutido muito sobre isso.”

“Definitivamente acreditamos que à medida que os carros tiverem mais e mais câmeras, haverá casos de uso realmente interessantes no futuro aqui”, disse ele.

O Gemini no Android Auto e Google Built-In estará disponível em todos os países que já têm acesso ao modelo de IA generativa da empresa e suportará mais de 40 idiomas.

Confira como assistir à transmissão ao vivo e mais novidades do Google I/O.


    5 + 16 =

    Bolt42