Bolt42

Apresentado pela Salesforce


No cenário em rápida evolução da inteligência artificial, a própria definição de “busca” está passando por uma transformação profunda. Não se limita mais ao simples emparelhamento de palavras-chave; a busca empresarial está se movendo em direção à compreensão e raciocínio sobre dados em uma interface conversacional, possibilitando, em última análise, que agentes de IA autônomos remodelam a forma como o trabalho é realizado em uma organização. Essa evolução — impulsionada por inovações como busca vetorial, grafos de conhecimento e raciocínio agentivo — está reformulando a maneira como as empresas acessam, entendem e agem sobre seus imensos tesouros de informação.

Desafio dos dados: Capacitando agentes de IA a acessar dados em toda a empresa

Hoje, as organizações enfrentam dificuldades para navegar em seu vasto e fragmentado cenário de dados. Os dados que sua organização coleta geralmente se apresentam em três formas: estruturados, semi-estruturados e não estruturados. As organizações produzem enormes volumes de conteúdo não estruturado — transcrições de chamadas, documentos formais, mensagens do Slack e e-mails que possuem um valor imenso, mas muitas vezes são subutilizados. Aproveitar esse conteúdo é desafiador devido a formatos inconsistentes, baixa qualidade dos dados e crescentes requisitos em torno de privacidade e segurança.

Esses desafios só aumentarão com o advento de agentes de IA interoperáveis que devem não apenas identificar informações precisas, mas também agir autonomamente sobre esses dados de forma segura, mantendo guardrails críticos de confiança, privacidade e conformidade.

Para serem realmente eficazes, os agentes de IA precisam de acesso em tempo real a informações abrangentes, precisas e ricas em contexto — especialmente sobre seus clientes. Muitas vezes, eles não conseguem identificar os insights necessários para resolver problemas dos clientes ou tomar ações proativas. Por exemplo, dados sobre o histórico de fidelidade de um cliente ou status familiar podem estar enterrados em sistemas, bloqueando até mesmo ações autônomas simples, como o envio de uma notificação personalizada sobre uma oferta de resort para a família.

Quando os dados estão isolados, fragmentados ou ruidosos, os agentes de IA são forçados a adivinhar, resultando em saídas não confiáveis. Isso deixa as organizações presas no ciclo de ‘lixo na entrada, lixo na saída’ que tem atormentado muitos CIOs hoje. Em termos simples, dados ruins = IA ruim.

A evolução da busca: De palavras-chave a significado

Motores de busca tradicionais dependem fortemente de palavras-chave. Se um documento não contiver a frase exata que você está procurando, pode perder informações cruciais. O primeiro salto significativo na busca habilitada por IA ocorreu com a busca vetorial. Quando perguntas são frequentemente faladas ou expressas em linguagem natural, os sistemas precisam entender o significado por trás das palavras. A busca vetorial converte dados e consultas em representações numéricas (vetores), permitindo que o sistema faça correspondências com base na similaridade semântica, não apenas na presença literal das palavras. Isso significa que uma consulta como “sentimento do cliente sobre o produto XYZ” pode encontrar documentos relevantes, mesmo que não usem explicitamente a palavra “sentimento”, mas discutam opiniões, avaliações ou sentimentos dos clientes.

No entanto, a complexidade dos dados empresariais exige mais. Enquanto a busca vetorial é um poderoso primeiro passo, a enorme variedade de formatos de conteúdo e a necessidade de uma compreensão contextual mais profunda levaram ao surgimento da indexação enriquecida. Aqui, a IA dá um passo adiante, primeiro entendendo os dados e construindo uma ontologia parecida com um grafo. Pense nisso como organizar dados desordenados e não estruturados (fato: 80% dos dados empresariais hoje são não estruturados por natureza) — documentos, e-mails, apresentações — em uma rede estruturada de quem, o quê, onde, quando e por quê. Esse “grafo de conhecimento” fornece o contexto crítico que melhora a qualidade das respostas de busca, permitindo resultados mais perspicazes e precisos.

A empresa não lida apenas com documentos não estruturados; uma vasta quantidade de informação crítica reside em bancos de dados estruturados. Para realmente unificar a experiência de busca, a tecnologia de linguagem natural para SQL (NL2SQL) entra em cena. Esta inovação permite que os usuários façam perguntas sobre dados estruturados em inglês simples (por exemplo, “Mostre-me os números de vendas do Q1 na Califórnia para o produto A”), e o sistema de IA automaticamente traduz isso em código SQL para recuperação de dados. Isso complementa a busca vetorial, criando uma abordagem holística para consultar informações não estruturadas e estruturadas.

Na Salesforce, estamos fortemente focados em otimizar a Busca e Geração Aumentada por Recuperação (RAG) na Data Cloud para melhorar o desempenho e a precisão das aplicações de IA generativa, particularmente para potencializar agentes de IA como Agentforce. A abordagem híbrida da Salesforce, que combina busca vetorial e busca por palavras-chave, aborda as limitações de cada modelo isoladamente — levando a resultados mais consistentes e precisos. Além disso, a Salesforce está implementando métodos para incorporar metadados adicionais em nossos documentos e índices. Isso permite que os modelos de IA acessem o contexto estruturado antes de gerar respostas, ajudando a evitar que o LLM fabrique respostas com base em dados parciais ou ambíguos.

Fundamentando LLMs para aumentar a confiabilidade autônoma

Modelos de Linguagem Grande (LLMs), os poderosos motores que impulsionam a IA generativa, revolucionaram a forma como interagimos com a tecnologia. Eles podem enfrentar questões complexas, criar conteúdo original e até mesmo codificar com fluência impressionante. No entanto, as empresas rapidamente atingem um obstáculo: LLMs sozinhos são limitados pelos seus dados de treino, que muitas vezes são estáticos e não incluem informações específicas, em tempo real ou proprietárias de uma organização.

É exatamente aqui que a Geração Aumentada por Recuperação (RAG) se torna indispensável. O RAG atua como a ponte crítica, permitindo que as empresas conectem de forma segura seus dados internos únicos diretamente aos LLMs. Essa conexão transforma o potencial da IA para as empresas, tornando as respostas não apenas mais confiáveis e relevantes, mas também atualizadas e precisas.

Imagine isso: com o RAG vinculando perfeitamente um LLM à sua base de conhecimento interna, um agente de IA autônomo pode fornecer instantaneamente respostas de atendimento ao cliente que considerem todo o histórico de interações de um cliente ou gerar resumos de marketing perfeitamente alinhados com as diretrizes de marca mais recentes e dados de desempenho de campanhas. É a diferença entre uma IA genérica e um sistema inteligente profundamente informado pelos dados vivos da sua empresa.

Para desbloquear uma eficiência e sucesso sem precedentes em toda a sua organização, você precisará reunir o poder dos LLMs, um motor de dados em nuvem, seu CRM e IA conversacional através do RAG. Essa combinação poderosa permitirá que você implante uma frota de agentes poderosos, cada um informado e precisamente adaptado às demandas únicas de cada departamento — profundamente integrados em seus fluxos de trabalho e constantemente atualizando informações para impulsionar os resultados comerciais.

O caminho a seguir: Inteligência empresarial e agentes autônomos

A visão final é nada menos que inteligência empresarial impulsionada por agentes de IA autônomos. Imagine agentes de IA dentro de uma empresa que podem acessar e buscar de forma independente informações todas as informações da empresa para realizar tarefas complexas. Isso poderia significar um agente de IA pesquisando tendências de mercado, outro compilando inteligência competitiva, ou ainda outro resolvendo um problema de atendimento ao cliente ao coletar dados autonomamente de vários sistemas internos. No entanto, realizar essa visão traz consigo seu próprio conjunto de desafios significativos de implementação. Os principais obstáculos incluem:

  • Integração de Dados: Conectar e integrar sistemas de dados diversos enquanto honra rigidamente as permissões.
  • Qualidade dos Dados: Garantir que os dados de entrada sejam limpos, consistentes e de alta qualidade, pois motores de raciocínio são tão bons quanto os dados que consomem.
  • Construção de Ontologia: A complexa tarefa de construir grafos de conhecimento e ontologias em nível empresarial que reflitam com precisão as nuances das informações de uma empresa.
  • Desempenho: A necessidade crítica de velocidade e eficiência na busca, especialmente ao lidar com enormes conjuntos de dados e processos complexos de raciocínio.

Apesar desses desafios, a trajetória é clara. O futuro da busca empresarial é inteligente, interconectado e cada vez mais autônomo. Ao abraçar inovações como busca vetorial e grafos de conhecimento, as empresas estão preparadas para desbloquear níveis sem precedentes de insight e eficiência operacional, transformando a forma como as informações orientam decisões em toda a organização.

Rohit Kapoor é VP de Produto, Busca e IA na Salesforce.


Artigos patrocinados são conteúdos produzidos por uma empresa que está pagando pelo post ou tem um relacionamento comercial com a VentureBeat, e sempre são claramente marcados. Para mais informações, entre em contato com sales@venturebeat.com.


    dezoito − oito =

    Bolt42