Bolt42

Na sexta-feira, o Google adicionou um novo modelo experimental de “embedding” para texto, o Gemini Embedding, à sua API de desenvolvedor Gemini.

Modelos de embedding traduzem entradas de texto, como palavras e frases, em representações numéricas, conhecidas como embeddings, que capturam o significado semântico do texto. Embeddings são utilizados em uma gama de aplicações, como recuperação e classificação de documentos, em parte porque podem reduzir custos enquanto melhoram a latência.

Empresas como Amazon, Cohere e OpenAI oferecem modelos de embedding por meio de suas respectivas APIs. O Google já ofereceu modelos de embedding anteriormente, mas o Gemini Embedding é o primeiro treinado na família de modelos de IA Gemini.

“Treinado no próprio modelo Gemini, este modelo de embedding herdou a compreensão de linguagem e contexto sutil do Gemini, tornando-o aplicável para uma ampla gama de usos,” disse o Google em um post do blog. “Treinamos nosso modelo para ser notavelmente geral, proporcionando um desempenho excepcional em diversos domínios, incluindo finanças, ciência, jurídico, pesquisa e mais.”

O Google afirma que o Gemini Embedding supera o desempenho de seu modelo de embedding anterior, o text-embedding-004, e alcança desempenho competitivo em benchmarks populares de embedding. Em comparação com o text-embedding-004, o Gemini Embedding também pode aceitar blocos maiores de texto e código de uma só vez, além de suportar o dobro de idiomas (mais de 100).

O Google observa que o Gemini Embedding está em uma “fase experimental” com capacidade limitada e está sujeito a alterações. “[W]e estamos trabalhando em direção a um lançamento estável e disponível para o público nos próximos meses,” escreveu a empresa em seu post no blog.


    cinco − 2 =

    Bolt42