Bolt42

O Google está tentando fazer ondas com o Gemini, sua suíte de modelos, aplicações e serviços de IA generativa de ponta. Mas o que é o Gemini? Como você pode usá-lo? E como ele se compara a outras ferramentas de IA generativa, como o ChatGPT da OpenAI, o Llama da Meta e o Copilot da Microsoft?

Para facilitar o acompanhamento dos últimos desenvolvimentos do Gemini, reunimos este guia prático, que manteremos atualizado à medida que novos modelos, recursos e notícias sobre os planos do Google para o Gemini forem divulgados.

O que é o Gemini?

O Gemini é a tão prometida família de modelos de IA generativa de nova geração do Google. Desenvolvido pelos laboratórios de pesquisa em IA do Google, DeepMind e Google Research, vem em quatro variantes:

  • Gemini Ultra
  • Gemini Pro
  • Gemini Flash, uma versão acelerada e “destilada” do Pro, que também tem uma versão um pouco menor e mais rápida chamada Gemini Flash-8B.
  • Gemini Nano, que é composto por dois modelos pequenos: Nano-1 e o ligeiramente mais capaz Nano-2, que é destinado a funcionar offline.

Todos os modelos do Gemini foram treinados para serem nativamente multimodais — ou seja, capazes de trabalhar com e analisar mais do que apenas texto. O Google afirma que foram pré-treinados e ajustados com uma variedade de dados públicos, proprietários e licenciados, incluindo áudio, imagens e vídeos; um conjunto de bases de código; e textos em diferentes idiomas.

Isso distingue o Gemini de modelos como o próprio LaMDA do Google, que foi treinado exclusivamente com dados textuais. Enquanto a LaMDA não consegue entender ou gerar nada além de texto (como ensaios, emails etc.), essa limitação não se aplica necessariamente aos modelos do Gemini.

Vale a pena mencionar que as questões éticas e legais do treinamento de modelos em dados públicos, em alguns casos sem o conhecimento ou consentimento dos proprietários, são obscuras. O Google conta com uma política de indenização em IA para proteger alguns clientes do Google Cloud contra processos judiciais, mas essa política contém exceções. Portanto, é preciso ter cuidado — especialmente se você pretende usar o Gemini comercialmente.

Qual é a diferença entre os aplicativos Gemini e os modelos Gemini?

O Gemini é distinto e separado dos aplicativos Gemini disponíveis na web e em dispositivos móveis (anteriormente conhecidos como Bard).

Os aplicativos Gemini são clientes que se conectam a vários modelos Gemini e sobrepõem uma interface semelhante a chatbot. Pense neles como front-ends para a IA generativa do Google, análogos ao ChatGPT e à família de aplicativos Claude da Anthropic.

O Gemini na web está disponível aqui. No Android, o aplicativo Gemini substitui o aplicativo Google Assistant existente. E no iOS, os aplicativos Google e Google Search servem como clientes Gemini dessa plataforma.

No Android, também se tornou possível trazer a sobreposição do Gemini sobre qualquer aplicativo para fazer perguntas sobre o que está na tela (ex: um vídeo do YouTube). Basta pressionar e manter pressionado o botão de energia de um smartphone compatível ou dizer “Ok Google”; você verá a sobreposição aparecer.

Os aplicativos Gemini aceitam imagens, bem como comandos de voz e texto — incluindo arquivos como PDFs e em breve vídeos, que podem ser enviados ou importados do Google Drive — e geram imagens. Como esperado, as conversas com os aplicativos Gemini em dispositivos móveis são sincronizadas com o Gemini na web e vice-versa, desde que você esteja conectado à mesma Conta do Google em ambos os locais.

Gemini Avançado

Os aplicativos Gemini não são os únicos meios de solicitar assistência dos modelos Gemini com tarefas. Aos poucos, recursos impulsionados pelo Gemini estão chegando a aplicativos e serviços staples do Google, como Gmail e Google Docs.

Para aproveitar a maioria desses recursos, você precisará do Google One AI Premium Plan. Tecnicamente parte do Google One, o plano AI Premium custa $20 e oferece acesso ao Gemini em aplicativos do Google Workspace como Docs, Maps, Slides, Sheets, Drive e Meet. Ele também habilita o que o Google chama de Gemini Avançado, que traz os modelos mais sofisticados do Gemini para os aplicativos Gemini.

Os usuários do Gemini Avançado recebem extras aqui e ali, como acesso prioritário a novos recursos, a capacidade de executar e editar código Python diretamente no Gemini, e uma “janela de contexto” maior. O Gemini Avançado pode lembrar o conteúdo de — e raciocinar sobre — cerca de 750.000 palavras em uma conversa (ou 1.500 páginas de documentos). Isso é comparado às 24.000 palavras (ou 48 páginas) que o aplicativo Gemini padrão pode lidar.

O Gemini Avançado também oferece aos usuários acesso ao novo recurso de Pesquisa Profunda do Google, que usa “raciocínio avançado” e “capacidades de contexto longo” para gerar resumos de pesquisa. Depois que você solicita ao chatbot, ele cria um plano de pesquisa em várias etapas, pede a sua aprovação e então o Gemini leva alguns minutos para pesquisar na web e gerar um relatório extenso com base em sua consulta. Ele é feito para responder perguntas mais complexas, como: “Você pode me ajudar a redesenhar minha cozinha?”

O Google também oferece aos usuários do Gemini Avançado um recurso de memória que permite que o chatbot use suas conversas antigas com o Gemini como contexto para sua conversa atual.

Outro exclusivo do Gemini Avançado é o planejamento de viagens no Google Search, que cria itinerários de viagem personalizados a partir de solicitações. Levando em conta coisas como horários de voos (a partir de emails na caixa de entrada do Gmail do usuário), preferências de refeições e informações sobre atrações locais (a partir de dados do Google Search e Maps), além das distâncias entre essas atrações, o Gemini gera um itinerário que é atualizado automaticamente para refletir quaisquer mudanças.

O Gemini em serviços do Google também está disponível para clientes corporativos por meio de dois planos: Gemini Business (um complemento para o Google Workspace) e Gemini Enterprise. O Gemini Business custa a partir de $6 por usuário por mês, enquanto o Gemini Enterprise — que acrescenta a tomada de notas em reuniões e legendas traduzidas, além de classificação e rotulação de documentos — é geralmente mais caro, mas é precificado com base nas necessidades de um negócio. (Ambos os planos exigem um compromisso anual.)

No Gmail, o Gemini vive em um painel lateral que pode redigir e resumir emails. Você encontrará o mesmo painel no Docs, onde ele ajuda a escrever e refinar seu conteúdo e gerar novas ideias. O Gemini em Slides gera apresentações e imagens personalizadas. E o Gemini em Google Sheets rastreia e organiza dados, criando tabelas e fórmulas.

O chatbot de IA do Google recentemente chegou ao Maps, onde o Gemini pode resumir avaliações sobre cafeterias ou oferecer recomendações sobre como passar um dia visitando uma cidade estrangeira.

O alcance do Gemini se estende ao Drive também, onde pode resumir arquivos e pastas e fornecer dados rápidos sobre um projeto. No Meet, por sua vez, o Gemini traduz legendas para idiomas adicionais.

Recentemente, o Gemini chegou ao navegador Chrome do Google na forma de uma ferramenta de escrita com IA. Você pode usá-la para escrever algo completamente novo ou reescrever texto existente; o Google afirma que considerará a página da web em que você estiver para fazer recomendações.

Em outros lugares, você encontrará indícios do Gemini em produtos de banco de dados do Google, ferramentas de segurança em nuvem e plataformas de desenvolvimento de aplicativos (incluindo Firebase e Project IDX), assim como em aplicativos como o Google Photos (onde o Gemini lida com consultas de busca em linguagem natural), YouTube (onde ajuda a gerar ideias para vídeos) e o assistente de anotações NotebookLM.

O Code Assist (anteriormente Duet AI for Developers), a suíte de ferramentas de assistência baseada em IA do Google para conclusão e geração de código, está transferindo o pesado trabalho computacional para o Gemini. Isso também se aplica aos produtos de segurança do Google respaldados pelo Gemini, como o Gemini na Inteligência de Ameaças, que pode analisar grandes porções de código potencialmente malicioso e permitir que os usuários realizem pesquisas em linguagem natural sobre ameaças em andamento ou indicadores de comprometimento.

Extensões do Gemini e Gems

Anunciados na Google I/O 2024, os usuários do Gemini Avançado podem criar Gems, chatbots personalizados alimentados por modelos Gemini. Os Gems podem ser gerados a partir de descrições em linguagem natural — por exemplo, “Você é meu treinador de corrida. Dê-me um plano de corrida diário” — e podem ser compartilhados com outras pessoas ou mantidos em privado.

Os Gems estão disponíveis em desktop e dispositivos móveis em 150 países e na maioria dos idiomas. No futuro, eles poderão utilizar um conjunto expandido de integrações com serviços do Google, incluindo Google Calendar, Tasks, Keep e YouTube Music, para completar tarefas personalizadas.

Falando em integrações, os aplicativos Gemini na web e em dispositivos móveis podem acessar serviços do Google por meio do que o Google chama de “extensões Gemini”. Atualmente, o Gemini integra com Google Drive, Gmail e YouTube para responder a perguntas como “Você poderia resumir meus últimos três emails?” Mais tarde neste ano, o Gemini será capaz de realizar ações adicionais com o Google Calendar, Keep, Tasks, YouTube Music e Utilitários, que são aplicativos exclusivos do Android que controlam recursos do dispositivo, como cronômetros e alarmes, controles de mídia, lanterna, volume, Wi-Fi, Bluetooth, e muito mais.

Gemini Live: conversas de voz aprofundadas

Uma experiência chamada Gemini Live permite que os usuários tenham conversas de voz “aprofundadas” com o Gemini. Ela está disponível nos aplicativos Gemini para dispositivos móveis e nos Pixel Buds Pro 2, onde pode ser acessada mesmo quando o telefone está bloqueado.

Com o Gemini Live ativado, você pode interromper o Gemini enquanto o chatbot está falando (em uma das várias novas vozes) para fazer uma pergunta de esclarecimento, e ele se adaptará aos seus padrões de fala em tempo real. Em algum momento, espera-se que o Gemini ganhe compreensão visual, permitindo ver e responder ao seu entorno, seja por fotos ou vídeos capturados pelas câmeras dos smartphones.

O Live também é projetado para servir como um tipo de coach virtual, ajudando você a ensaiar para eventos, gerar ideias, entre outros. Por exemplo, o Live pode sugerir quais habilidades destacar em uma entrevista de emprego ou estágio e pode dar conselhos sobre oratória.

Você pode ler nossa análise do Gemini Live aqui. Spoiler: achamos que o recurso ainda tem um longo caminho a percorrer antes de se tornar realmente útil — mas é começo, reconhecidamente.

Geração de imagens via Imagen 3

Os usuários do Gemini podem gerar obras de arte e imagens usando o modelo Imagen 3 do Google.

O Google afirma que o Imagen 3 pode entender mais precisamente os prompts em texto que traduz em imagens em comparação com seu predecessor, o Imagen 2, e é mais “criativo e detalhado” em suas gerações. Além disso, o modelo produz menos artefatos e erros visuais (pelo menos de acordo com o Google) e é o melhor modelo Imagen até agora para renderizar texto.

Uma amostra do Imagen 3.

Em fevereiro, o Google foi forçado a interromper a capacidade do Gemini de gerar imagens de pessoas após reclamações de usuários sobre imprecisões históricas. Mas em agosto, a empresa reintroduziu a geração de pessoas para certos usuários, especificamente usuários de língua inglesa que se inscreveram em um dos planos pagos do Gemini do Google (por exemplo, Gemini Avançado) como parte de um programa piloto.

Gemini para adolescentes

Em junho, o Google apresentou uma experiência do Gemini voltada para adolescentes, permitindo que estudantes se inscrevessem por meio de suas contas escolares do Google Workspace for Education.

O Gemini voltado para adolescentes possui “políticas e salvaguardas adicionais”, incluindo um processo de integração personalizado e um “guia de alfabetização em IA” para (conforme o Google descreve) “ajudar os adolescentes a usar a IA de maneira responsável”. De resto, é praticamente idêntico à experiência padrão do Gemini, até o recurso de “dobrar a verificação” que busca na web para verificar se as respostas do Gemini são precisas.

Gemini em dispositivos domésticos inteligentes

Um número crescente de dispositivos fabricados pelo Google utiliza o Gemini para funcionalidade aprimorada, desde o Google TV Streamer até o Pixel 9 e 9 Pro e o mais recente Nest Learning Thermostat.

No Google TV Streamer, o Gemini usa suas preferências para curar sugestões de conteúdo em suas assinaturas e resumir avaliações e até mesmo temporadas inteiras de TV.

No mais recente termostato Nest (assim como em alto-falantes, câmeras e displays inteligentes da Nest), o Gemini em breve aumentará as capacidades conversacionais e analíticas do Google Assistant.

Os assinantes do plano Nest Aware do Google terão, ainda neste ano, uma prévia de novas experiências impulsionadas pelo Gemini, como descrições de IA para gravações de câmeras Nest, busca de vídeo em linguagem natural e automações recomendadas. Câmeras Nest entenderão o que está acontecendo em fluxos de vídeo em tempo real (por exemplo, quando um cachorro está cavando no jardim), enquanto o aplicativo Google Home associado apresentará vídeos e criará automações de dispositivos dadas uma descrição (por exemplo, “As crianças deixaram as bikes na calçada?” ou “Fazer o termostato Nest ligar o aquecimento quando eu chegar em casa todos os meses”.)

O Gemini em breve será capaz de resumir gravações de segurança de dispositivos Nest.

Além disso, ainda neste ano, o Google Assistant receberá algumas atualizações em dispositivos inteligentes da marca Nest e outros para tornar as conversas mais naturais. Novas vozes estão a caminho, além da capacidade de fazer perguntas de seguimento e “[mais] facilidade para dialogar.”

O que os modelos Gemini podem fazer?

Como os modelos Gemini são multimodais, eles podem realizar uma gama de tarefas multimodais, desde transcrever fala até legendagem de imagens e vídeos em tempo real. Muitas dessas capacidades já estão disponíveis para produtos (como mencionado na seção anterior), e o Google promete muito mais em um futuro não muito distante.

Claro, é um pouco difícil levar a empresa ao pé da letra. O Google realmente não entregou o que prometeu com o lançamento original do Bard. Mais recentemente, a companhia causou desconforto com um vídeo que supostamente mostrava as capacidades do Gemini, mas que era mais ou menos aspiracional — não ao vivo.

Além disso, o Google não oferece uma solução para alguns dos problemas subjacentes da tecnologia de IA generativa hoje, como seus preconceitos codificados e a tendência a inventar coisas (ou seja, “alucinar”). Nenhum de seus concorrentes faz isso, mas é algo a ter em mente ao considerar usar ou pagar pelo Gemini.

Supondo para fins deste artigo que o Google está sendo verdadeiro com suas alegações recentes, aqui está o que os diferentes níveis do Gemini podem agora fazer e o que eles serão capazes de fazer uma vez que atinjam todo seu potencial:

O que você pode fazer com o Gemini Ultra

O Google afirma que o Gemini Ultra — devido à sua multimodalidade — pode ser usado para ajudar com coisas como deveres de física, resolvendo problemas passo a passo em uma folha de exercícios e apontando possíveis erros em respostas já preenchidas.

O Ultra também pode ser aplicado em tarefas como identificar artigos científicos relevantes para um problema, segundo o Google. O modelo pode extrair informações de vários artigos, por exemplo, e atualizar um gráfico a partir de um deles gerando as fórmulas necessárias para recriar o gráfico com dados mais atualizados.

O Gemini Ultra suporta tecnicamente a geração de imagens. Mas essa capacidade ainda não chegou à versão produtizada do modelo — talvez porque o mecanismo seja mais complexo do que o que aplicativos como o ChatGPT usam para gerar imagens. Em vez de fornecer prompts para um gerador de imagens (como o DALL-E 3, no caso do ChatGPT), o Gemini gera imagens “nativamente”, sem uma etapa intermediária.

O Ultra está disponível como uma API através do Vertex AI, a plataforma de desenvolvimento de IA totalmente gerenciada do Google, e do AI Studio, a ferramenta baseada na web para desenvolvedores de aplicativos e plataformas.

Capacidades do Gemini Pro

O Google afirma que o Gemini Pro é uma melhoria em relação ao LaMDA em suas capacidades de raciocínio, planejamento e entendimento. A versão mais recente, Gemini 1.5 Pro — que alimenta os aplicativos Gemini para assinantes do Gemini Avançado — supera o desempenho do Ultra em algumas áreas.

O Gemini 1.5 Pro está aprimorado em várias áreas em relação ao seu antecessor, o Gemini 1.0 Pro, talvez mais evidentemente na quantidade de dados que ele pode processar. O Gemini 1.5 Pro pode absorver até 1,4 milhão de palavras, duas horas de vídeo ou 22 horas de áudio e pode raciocinar sobre ou responder a perguntas sobre esses dados (mais ou menos).

O Gemini 1.5 Pro tornou-se geralmente disponível no Vertex AI e no AI Studio em junho, juntamente com um recurso chamado execução de código, que visa reduzir bugs no código gerado pelo modelo, refinando-o iterativamente ao longo de várias etapas. (A execução de código também suporta o Gemini Flash.)

No Vertex AI, os desenvolvedores podem personalizar o Gemini Pro para contextos e casos de uso específicos por meio de um processo de ajuste ou “fundamentação”. Por exemplo, o Pro (junto com outros modelos Gemini) pode ser instruído a usar dados de fornecedores de terceiros como Moody’s, Thomson Reuters, ZoomInfo e MSCI, ou obter informações de conjuntos de dados corporativos ou da pesquisa do Google em vez de seu banco de conhecimento mais amplo. O Gemini Pro também pode ser conectado a APIs de terceiros externas para realizar ações específicas, como automatizar um fluxo de trabalho de back-office.

O AI Studio oferece modelos para criar prompts de chat estruturados com o Pro. Os desenvolvedores podem controlar a gama criativa do modelo e fornecer exemplos para dar instruções de tom e estilo — e também ajustar as configurações de segurança do Pro.

O Vertex AI Agent Builder permite que as pessoas criem “agentes” impulsionados pelo Gemini dentro do Vertex AI. Por exemplo, uma empresa poderia criar um agente que analisa campanhas de marketing anteriores para entender o estilo da marca e, em seguida, aplica esse conhecimento para ajudar a gerar novas ideias consistentes com aquele estilo.

O Gemini Flash é menor, mas potente

Enquanto a primeira versão do Gemini Flash foi feita para cargas de trabalho menos exigentes, a mais nova versão, 2.0 Flash, é agora o modelo de IA de ponta do Google. O Google chama o Gemini 2.0 Flash de seu modelo de IA para a era agentíca. O modelo pode gerar nativamente imagens e áudio, além de texto, e pode usar ferramentas como a Pesquisa do Google e interagir com APIs externas.

O modelo 2.0 Flash é mais rápido do que a geração anterior de modelos do Gemini e supera até mesmo alguns dos maiores modelos do Gemini 1.5 em benchmarks de codificação e análise de imagens. Você pode experimentar uma versão experimental do 2.0 Flash na versão web do Gemini ou através das plataformas de desenvolvedor de IA do Google, e uma versão de produção do modelo deve ser lançada em janeiro.

Um desdobramento do Gemini Pro que é pequeno e eficiente, construído para cargas de trabalho generativas estreitas e de alta frequência, o Flash é multimodal como o Gemini Pro, o que significa que pode analisar áudio, vídeo, imagens e texto (mas só pode gerar texto). O Google afirma que o Flash é particularmente adequado para tarefas como sumarização e aplicativos de chat, além de legendagem de imagens e vídeos e extração de dados de documentos longos e tabelas.

Desenvolvedores que usam Flash e Pro podem, opcionalmente, aproveitar o cache de contexto, que permite armazenar grandes quantidades de informações (como uma base de conhecimento ou banco de dados de artigos de pesquisa) em um cache que os modelos Gemini podem acessar rapidamente e de forma relativamente barata. O cache de contexto é uma taxa adicional em cima das outras taxas de uso dos modelos Gemini.

Gemini Nano pode rodar no seu celular

O Gemini Nano é uma versão muito menor dos modelos Gemini Pro e Ultra, e é eficiente o suficiente para rodar diretamente em (alguns) dispositivos, em vez de enviar a tarefa para um servidor. Até agora, o Nano alimenta algumas funcionalidades no Pixel 8 Pro, Pixel 8, Pixel 9 Pro, Pixel 9 e Samsung Galaxy S24, incluindo Resumo no Gravador e Resposta Inteligente no Gboard.

O aplicativo Gravador, que permite que os usuários pressionem um botão para registrar e transcrever áudio, inclui um resumo alimentado pelo Gemini de conversas gravadas, entrevistas, apresentações e outros trechos de áudio. Os usuários recebem resumos mesmo que não tenham sinal ou conexão Wi-Fi — e, em um gesto de privacidade, nenhum dado deixa o telefone deles durante o processo.

O Nano também está presente no Gboard, o substituto do teclado do Google. Lá, ele alimenta um recurso chamado Resposta Inteligente, que ajuda a sugerir o que você pode querer dizer a seguir ao ter uma conversa em um aplicativo de mensagens como o WhatsApp.

Além disso, no aplicativo Google Messages em dispositivos compatíveis, o Nano impulsiona o Magic Compose, que pode criar mensagens em estilos como “animado”, “formal” e “lírico”.

Google afirma que uma versão futura do Android usará o Nano para alertar os usuários sobre possíveis fraudes durante as chamadas. O novo aplicativo de clima nos celulares Pixel usa o Gemini Nano para gerar relatórios meteorológicos personalizados. E o TalkBack, o serviço de acessibilidade do Google, utiliza o Nano para criar descrições orais de objetos para usuários com baixa visão e deficientes visuais.

Qual é o custo dos modelos Gemini?

O Gemini 1.0 Pro (a primeira versão do Gemini Pro), 1.5 Pro e Flash estão disponíveis através da API do Gemini para construção de aplicativos e serviços — todos com opções gratuitas. Porém, as opções gratuitas impõem limites de uso e não incluem certos recursos, como cache de contexto e processamento em lote.

Os modelos Gemini são, de outra forma, no formato pay-as-you-go. Aqui estão os preços base — sem contar adições como cache de contexto — a partir de setembro de 2024:

  • Gemini 1.0 Pro: 50 centavos por 1 milhão de tokens de entrada, $1.50 por 1 milhão de tokens de saída
  • Gemini 1.5 Pro: $1.25 por 1 milhão de tokens de entrada (para prompts de até 128K tokens) ou $2.50 por 1 milhão de tokens de entrada (para prompts maiores que 128K tokens); $5 por 1 milhão de tokens de saída (para prompts de até 128K tokens) ou $10 por 1 milhão de tokens de saída (para prompts maiores que 128K tokens)
  • Gemini 1.5 Flash: 7.5 centavos por 1 milhão de tokens de entrada (para prompts de até 128K tokens), 15 centavos por 1 milhão de tokens de entrada (para prompts maiores que 128K tokens), 30 centavos por 1 milhão de tokens de saída (para prompts de até 128K tokens), 60 centavos por 1 milhão de tokens de saída (para prompts maiores que 128K tokens)
  • Gemini 1.5 Flash-8B: 3.75 centavos por 1 milhão de tokens de entrada (para prompts de até 128K tokens), 7.5 centavos por 1 milhão de tokens de entrada (para prompts maiores que 128K tokens), 15 centavos por 1 milhão de tokens de saída (para prompts de até 128K tokens), 30 centavos por 1 milhão de tokens de saída (para prompts maiores que 128K tokens)

Tokens são frações subdivididas de dados brutos, como as sílabas “fan,” “tas,” e “tic” na palavra “fantastic”; 1 milhão de tokens é equivalente a cerca de 700.000 palavras. Entrada se refere a tokens inseridos no modelo, enquanto saída se refere a tokens que o modelo gera.

Os preços para o Ultra e o 2.0 Flash ainda não foram anunciados, e o Nano ainda está em acesso antecipado.

Qual é a última sobre o Projeto Astra?

O Projeto Astra é o esforço da Google DeepMind para criar aplicativos e “agentes” alimentados por IA para compreensão multimodal em tempo real. Em demonstrações, o Google mostrou como o modelo de IA pode processar simultaneamente vídeo e áudio ao vivo. O Google lançou uma versão do aplicativo do Projeto Astra para um pequeno número de testadores de confiança em dezembro, mas não há planos para um lançamento mais amplo no momento.

A empresa gostaria de colocar o Projeto Astra em um par de óculos inteligentes. O Google também deu um protótipo de alguns óculos com capacidades de Projeto Astra e realidade aumentada para alguns testadores de confiança em dezembro. No entanto, não há um produto claro neste momento, e não está claro quando o Google realmente lançaria algo assim.

O Projeto Astra ainda é apenas isso, um projeto, e não um produto. No entanto, as demonstrações do Astra revelam o que o Google gostaria que seus produtos de IA fizessem no futuro.

O Gemini estará disponível no iPhone?

Pode ser.

A Apple declarou que está em conversações para utilizar o Gemini e outros modelos de terceiros em várias funções em sua suíte Apple Intelligence. Após uma apresentação-chave na WWDC 2024, o SVP da Apple, Craig Federighi, confirmou planos de trabalhar com modelos, incluindo o Gemini, mas não divulgou mais detalhes.

Esta postagem foi publicada originalmente em 16 de fevereiro de 2024 e foi atualizada desde então para incluir novas informações sobre o Gemini e os planos do Google para ele.


    cinco × 5 =

    Bolt42