Bolt42

Participe das nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura em IA de ponta. Saiba mais


Há alguns meses, Google adicionou modos de raciocínio ao seu chatbot de IA Gemini. Agora, ele expandiu o alcance do Gemini 2.0 Flash Thinking Experimental para outras funcionalidades da experiência do chat, dobrando a aposta em respostas recheadas de contexto.

A empresa anunciou que está tornando o Gemini mais pessoal, conectado e útil. Além disso, está tornando sua versão de Deep Research, que procura informações na Internet, mais amplamente disponível para os usuários do Gemini.

O Deep Research agora será apoiado pelo Gemini 2.0 Flash Thinking Experimental. O Google declarou em uma postagem no blog que, ao adicionar o poder do Flash Thinking, o Deep Research pode agora oferecer aos usuários “uma visão em tempo real de como está resolvendo suas tarefas de pesquisa.” A empresa afirmou que essa combinação melhorará a qualidade dos relatórios feitos através do Deep Research, fornecendo mais detalhes e insights.

Antes dessa atualização, o Deep Research era alimentado pelo Gemini 1.5 Pro e estava disponível apenas no plano de IA Premium do Google One de $20 por mês. No entanto, Carl Franzen, do VentureBeat, descobriu que até essa versão agora menos poderosa era uma assistente de pesquisa útil.

Um Gemini mais pessoal

O Gemini 2.0 Flash Thinking Experimental também impulsionará uma nova capacidade chamada personalização.

A personalização é exatamente isso: As respostas serão mais adaptadas ao usuário, referenciando conversas ou buscas anteriores. Para possibilitar esse nível de personalização, o Gemini se conecta aos aplicativos e serviços do Google dos usuários, incluindo Pesquisa e Fotos. O Google enfatizou que usará informações dos seus aplicativos do Google apenas com permissão.

“Nos próximos meses, o Gemini expandirá sua capacidade de entendê-lo conectando-se a outros aplicativos e serviços do Google, incluindo Fotos e YouTube,” disse Dave Citron, diretor sênior de gerenciamento de produtos do aplicativo Gemini, em uma postagem no blog. “Isso permitirá que o Gemini forneça insights mais personalizados, baseando-se em uma compreensão mais ampla de suas atividades e preferências para oferecer respostas que realmente ressoem com você.”

Como o Gemini 2.0 Flash Thinking Experimental está integrado ao recurso de personalização, os usuários podem ver um esboço das fontes de dados que o modelo está utilizando para responder consultas ou completar solicitações.

Os usuários do Gemini Advanced podem alternar outras preferências que querem que o chatbot memorize, como instruí-lo a se referir a conversas anteriores ou relembrar restrições alimentares. Isso permite que o Gemini ofereça respostas mais naturais e relevantes.

Claro que o Google não é a única empresa que reconhece a importância de respostas personalizadas e relevantes. Em novembro, Anthropic lançou seu recurso Styles, que permite às pessoas personalizar como Claude fala com elas.

Aplicativos mais conectados

Como a personalização requer acesso a mais dados sobre o usuário, pense nisso como RAG, mas para um usuário do Gemini em vez de uma organização inteira, com o Google conectando mais de seus serviços ao Gemini 2.0 Flash Thinking Experimental.

O modelo pode acessar aplicativos como Calendário, Notas, Tarefas e Fotos.

“Com este modelo de raciocínio, o Gemini pode lidar melhor com solicitações complexas, como prompts que envolvem múltiplos aplicativos, porque o novo modelo pode raciocinar melhor sobre a solicitação global, dividi-la em etapas distintas e avaliar seu próprio progresso à medida que avança,” disse Citron.

O Google afirmou que em algumas semanas, o Gemini será capaz de olhar fotos no Google Fotos e responder a perguntas baseadas nas imagens dos usuários. Ele pode criar itinerários de viagem com base em fotos de viagens recentes e relembrar informações como a data de validade de uma carteira de motorista ou se você por acaso tirou uma foto de leite no mercado.

Integrar aplicativos para fornecer mais contexto às respostas do chatbot tem sido uma grande tendência para as empresas de IA. Isso se traduz em dar acesso a chatbots a ambientes de desenvolvedores ou e-mails no espaço empresarial. O ChatGPT pode abrir a maioria dos IDEs para que os desenvolvedores tragam seu código do VSCode e consultem o ChatGPT sobre isso. O assistente de codificação do Google, Code Assist, também se conecta aos IDEs.

A crescente integração de aplicativos e serviços do Google e a personalização do Gemini destacam a importância do contexto e dados para tornar esses chatbots mais úteis, mesmo que a consulta seja apenas pedindo uma recomendação de restaurante.





    três × 2 =




    Bolt42