Bolt42

Inscreva-se em nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdos exclusivos sobre a cobertura de IA de ponta. Saiba mais


O ano de 2025 promete ser um ano crucial para a IA empresarial. O ano passado viu uma rápida inovação, e este ano seguirá na mesma trajetória. Isso tornou ainda mais vital reavaliar sua estratégia de IA para se manter competitivo e criar valor para seus clientes. Desde escalar agentes de IA até otimizar custos, aqui estão as cinco áreas críticas que as empresas devem priorizar em sua estratégia de IA neste ano.

1. Agentes: a próxima geração de automação

Os agentes de IA não são mais teóricos. Em 2025, eles são ferramentas indispensáveis para empresas que desejam otimizar operações e aprimorar interações com clientes. Diferente do software tradicional, agentes impulsionados por grandes modelos de linguagem (LLMs) podem tomar decisões sutis, navegar em tarefas complexas e se integrar perfeitamente a ferramentas e APIs.

No início de 2024, os agentes não estavam prontos para o prime time, cometendo erros frustrantes, como a alucinação de URLs. Eles começaram a melhorar à medida que os grandes modelos de linguagem na fronteira se aprimoraram.

“Deixe-me colocar desta forma”, disse Sam Witteveen, cofundador da Red Dragon, uma empresa que desenvolve agentes para outras empresas e que recentemente revisou os 48 agentes que criou no ano passado. “Curiosamente, aqueles que construímos no início do ano funcionaram muito melhor no final do ano, apenas porque os modelos melhoraram.” Witteveen compartilhou isso no vídeo-podcast que filmamos para discutir essas cinco grandes tendências em detalhes.

Os modelos estão melhorando e alucinando menos, e também estão sendo treinados para realizar tarefas agentes. Outro aspecto que os provedores de modelos estão pesquisando é uma forma de usar o LLM como um juiz, e à medida que os modelos ficam mais baratos (algo que abordaremos abaixo), as empresas podem usar três ou mais modelos para escolher a melhor saída para tomar uma decisão.

Outra parte do segredo? A geração aumentada por recuperação (RAG), que permite que os agentes armazenem e reutilizem conhecimento de forma eficiente, está melhorando. Imagine um bot de agente de viagens que não apenas planeja viagens, mas também reserva voos e hotéis em tempo real, com base em preferências e orçamentos atualizados.

Conclusão: As empresas precisam identificar casos de uso onde os agentes possam oferecer um ROI elevado — seja em atendimento ao cliente, vendas ou fluxos de trabalho internos. O uso de ferramentas e as capacidades de raciocínio avançadas definirão os vencedores nesse espaço.

2. Avaliações: a base da IA confiável

As avaliações, ou “evals”, são a espinha dorsal de qualquer implantação robusta de IA. Este é o processo de escolher qual LLM — entre os centenas disponíveis atualmente — usar para a sua tarefa. Isso é importante para a precisão, mas também para alinhar as saídas de IA com os objetivos da empresa. Uma boa avaliação garante que um chatbot entenda o tom, que um sistema de recomendação forneça opções relevantes e que um modelo preditivo evite erros caros.

Por exemplo, a avaliação de uma empresa para um chatbot de suporte ao cliente pode incluir métricas de tempo médio de resolução, precisão das respostas e índices de satisfação do cliente.

Muitas empresas têm investido muito tempo em processar entradas e saídas para que se conformem às expectativas e fluxos de trabalho da empresa, mas isso pode levar muito tempo e recursos. À medida que os modelos em si melhoram, muitas empresas estão economizando esforço ao confiar mais nos próprios modelos para fazer o trabalho, portanto, escolher o correto se torna mais importante.

E esse processo exige comunicação clara e melhores decisões. Quando você se torna “muito mais consciente de como avaliar a saída de algo e o que realmente deseja, isso não só melhora sua interação com LLMs e a IA, como também melhora sua interação com humanos”, disse Witteveen. “Quando você pode articular claramente a um humano: ‘Isso é o que eu quero, aqui está como eu quero que seja, aqui está o que eu espero que tenha.’ Quando você se torna realmente específico sobre isso, os humanos de repente se saem muito melhor.”

Witteveen observou que gerentes de empresas e outros desenvolvedores estão lhe dizendo: “Oh, você sabe, eu melhorei muito em dar direções à minha equipe, apenas por me tornar bom em engenharia de prompts ou apenas por me aprimorar em redigir as avaliações corretas para os modelos.”

Ao redigir avaliações claras, as empresas se forçam a esclarecer objetivos — uma vitória tanto para humanos quanto para máquinas.

Conclusão: Criar avaliações de alta qualidade é essencial. Comece com benchmarks claros: precisão de resposta, tempo de resolução e alinhamento com os objetivos empresariais. Isso garante que sua IA não apenas execute bem, mas esteja alinhada com os valores da sua marca.

3. Eficiência de custos: escalando a IA sem estourar o orçamento

A IA está se tornando mais barata, mas a implantação estratégica continua sendo fundamental. Melhorias em todos os níveis da cadeia de LLM estão trazendo reduções de custos dramáticas. A intensa concorrência entre fornecedores de LLM e rivais de código aberto está levando a cortes de preços regulares.

Enquanto isso, técnicas de software pós-treinamento estão tornando os LLMs mais eficientes.

A concorrência de novos fornecedores de hardware, como os LPUs da Groq, e melhorias de fornecedores legados de GPUs, como a Nvidia, estão reduzindo drasticamente os custos de inferência, tornando a IA acessível para mais casos de uso.

Os verdadeiros avanços vêm da otimização da forma como os modelos são utilizados em aplicações, que é o tempo de inferência, em vez do tempo de treinamento, quando os modelos são construídos inicialmente com dados. Outras técnicas como a destilação de modelos, juntamente com inovações em hardware, significam que as empresas podem alcançar mais com menos. Não se trata mais de saber se você pode afford a IA — você pode fazer a maioria dos projetos de forma muito menos dispendiosa este ano do que até mesmo há seis meses — mas sim sobre como escalá-la.

Conclusão: Realize uma análise de eficiência de custos para seus projetos de IA. Compare opções de hardware e explore técnicas como a destilação de modelos para reduzir custos sem comprometer o desempenho.

4. Personalização de memória: adaptando a IA aos seus usuários

A personalização não é mais opcional — é esperada. Em 2025, sistemas de IA com memória estão tornando isso uma realidade. Ao lembrar as preferências e interações passadas dos usuários, a IA pode oferecer experiências mais adaptadas e eficazes.

A personalização de memória não é amplamente discutida ou abordada abertamente porque os usuários muitas vezes ficam incomodados com aplicativos de IA armazenando informações pessoais para aprimorar o serviço. Há preocupações com a privacidade e a estranheza quando um modelo fornece respostas que mostram que sabe muito sobre você — por exemplo, quantos filhos você tem, o que você faz e quais são seus gostos pessoais. A OpenAI, por exemplo, protege informações sobre usuários do ChatGPT em sua memória do sistema — que pode ser desativada e excluída, embora esteja ativada por padrão.

Embora as empresas que usam a OpenAI e outros modelos que fazem isso não consigam obter as mesmas informações, o que podem fazer é criar seus próprios sistemas de memória usando RAG, garantindo que os dados sejam tanto seguros quanto impactantes. Contudo, as empresas devem agir com cautela, equilibrando personalização com privacidade.

Conclusão: Desenvolva uma estratégia clara para a personalização de memória. Sistemas de opt-in e políticas transparentes podem construir confiança enquanto oferecem valor.

5. Inferência e computação em tempo de teste: a nova fronteira de eficiência e raciocínio

A inferência é onde a IA encontra o mundo real. Em 2025, o foco está em tornar esse processo mais rápido, barato e poderoso. O raciocínio de cadeia de pensamento — onde os modelos dividem tarefas em etapas lógicas — está revolucionando como as empresas abordam problemas complexos. Tarefas que exigem um raciocínio mais profundo, como planejamento estratégico, podem agora ser abordadas de forma eficaz pela IA.

Por exemplo, o modelo o3-mini da OpenAI deve ser lançado ainda este mês, seguido pelo modelo o3 completo em uma data posterior. Eles introduzem capacidades de raciocínio avançadas que decompõem problemas complexos em partes gerenciáveis, reduzindo assim as alucinações da IA e melhorando a precisão da tomada de decisões. Essas melhorias de raciocínio funcionam em áreas como matemática, codificação e aplicações científicas, onde um pensamento incrementado pode ajudar — embora em outras áreas, como sintetização de linguagem, os avanços possam ser limitados.

No entanto, essas melhorias também virão com aumentos nas demandas computacionais, e, portanto, custos operacionais mais altos. O o3-mini é pensado para fornecer uma oferta de compromisso para conter custos enquanto mantém alto desempenho.

Conclusão: Identifique fluxos de trabalho que possam se beneficiar de técnicas avançadas de inferência. Implementar suas próprias etapas especiais de raciocínio em cadeia de pensamento da sua empresa e selecionar modelos otimizados pode lhe dar uma vantagem aqui.

Conclusão: Transformando insights em ação

A IA em 2025 não se trata apenas de adotar novas ferramentas; trata-se de fazer escolhas estratégicas. Seja implantando agentes, refinando avaliações ou escalando de forma eficiente em custo, o caminho para o sucesso reside em uma implementação cuidadosa. As empresas devem abraçar essas tendências com uma estratégia clara e focada.

Para mais detalhes sobre essas tendências, confira o vídeo podcast completo entre Sam Witteveen e eu aqui:





    quatro × um =




    Bolt42