Bolt42

Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre nossa cobertura líder de mercado em inteligência artificial. Saiba Mais


A adoção em larga escala de ferramentas generativas sempre foi um desafio de equilibrar ambição e praticidade, e em 2025, as apostas são mais altas do que nunca. As empresas que correm para adotar modelos de linguagem de grande escala (LLMs) estão enfrentando uma nova realidade: Escalar não se trata apenas de implantar modelos maiores ou investir em ferramentas de ponta — é sobre integrar a IA de maneiras que transformem operações, capacitem equipes e otimizem custos. O sucesso depende de mais do que tecnologia; requer uma mudança cultural e operacional que alinhe as capacidades da IA com os objetivos de negócios.

A impérativa de escalonamento: Por que 2025 é diferente

À medida que a IA generativa evolui de experimentação para implantações em escala empresarial, as empresas estão enfrentando um ponto de inflexão. A empolgação da adoção inicial deu lugar aos desafios práticos de manter a eficiência, gerenciar custos e garantir relevância em mercados competitivos. Escalar a IA em 2025 é sobre responder perguntas difíceis: Como as empresas podem tornar as ferramentas generativas impactantes em todos os departamentos? Qual infraestrutura suportará o crescimento da IA sem travar recursos? E, talvez mais importante, como as equipes se adaptam a fluxos de trabalho impulsionados por IA?

O sucesso depende de três princípios críticos: identificar casos de uso claros e de alto valor; manter flexibilidade tecnológica; e cultivar uma força de trabalho capacitada para se adaptar. As empresas que têm sucesso não apenas adotam a IA generativa — elas elaboram estratégias que alinham a tecnologia às necessidades de negócios, reevaluando continuamente custos, desempenho e as mudanças culturais necessárias para um impacto sustentável. Essa abordagem não se trata apenas de implantar ferramentas de ponta; trata-se de construir resiliência operacional e escalabilidade em um ambiente onde a tecnologia e os mercados evoluem a uma velocidade vertiginosa.

Empresas como Wayfair e Expedia encarnam essas lições, demonstrando como abordagens híbridas para a adoção de LLM podem transformar operações. Ao misturar plataformas externas com soluções personalizadas, esses negócios ilustram o poder de equilibrar agilidade com precisão, estabelecendo um modelo para outros.

Combinando personalização com flexibilidade

A decisão de construir ou comprar ferramentas de IA generativa é frequentemente apresentada como binária, mas Wayfair e Expedia ilustram as vantagens de uma estratégia mais nuance. Fiona Tan, CTO da Wayfair, enfatiza o valor de equilibrar flexibilidade com especificidade. A Wayfair utiliza o Google Vertex AI para aplicações gerais enquanto desenvolve ferramentas proprietárias para requisitos específicos. Tan compartilhou a abordagem iterativa da empresa, mostrando como modelos menores e mais econômicos muitas vezes superam opções maiores e mais caras na categorização de atributos de produtos como tecido e cores de móveis.

Da mesma forma, a Expedia emprega uma camada proxy de LLM de vários fornecedores que permite a integração fluida de vários modelos. Rajesh Naidu, vice-presidente sênior da Expedia, descreve sua estratégia como uma forma de permanecer ágil enquanto otimiza custos. “Estamos sempre sendo oportunistas, olhando para os melhores modelos onde faz sentido, mas também estamos dispostos a construir para nosso próprio domínio,” explica Naidu. Essa flexibilidade garante que a equipe possa se adaptar às necessidades empresariais em evolução sem ficar presa a um único fornecedor.

Essas abordagens híbridas lembram a evolução do planejamento de recursos empresariais (ERP) da década de 1990, quando as empresas tiveram que decidir entre adotar soluções rígidas e prontas para uso e personalizar sistemas para se adequar aos seus fluxos de trabalho. Então, como agora, as empresas que tiveram sucesso reconheceram o valor de fundir ferramentas externas com desenvolvimentos sob medida para enfrentar desafios operacionais específicos.

Eficiência operacional para funções principais de negócios

Tanto a Wayfair quanto a Expedia demonstram que o verdadeiro poder dos LLMs reside em aplicações direcionadas que oferecem impacto mensurável. A Wayfair utiliza IA generativa para enriquecer seu catálogo de produtos, aprimorando metadados com precisão autônoma. Isso não só agiliza fluxos de trabalho, mas também melhora a pesquisa e as recomendações aos clientes. Tan destaca outra aplicação transformadora: usar LLMs para analisar estruturas de banco de dados desatualizadas. Com os designers de sistemas originais não disponíveis, a IA generativa permite que a Wayfair mitigue a dívida técnica e descubra novas eficiências em sistemas legados.

A Expedia obteve sucesso na integração da IA generativa em seus serviços ao cliente e fluxos de trabalho de desenvolvedores. Naidu compartilha que uma ferramenta de IA generativa personalizada projetada para sumarização de chamadas garante que “90% dos viajantes possam falar com um agente em até 30 segundos,” contribuindo significativamente para uma melhoria na satisfação do cliente. Além disso, o GitHub Copilot foi implantado em toda a empresa, acelerando a geração e depuração de código. Esses ganhos operacionais sublinham a importância de alinhar as capacidades da IA generativa com casos de uso empresarial claros e de alto valor.

O papel do hardware na IA generativa

As considerações de hardware para escalar LLMs são frequentemente negligenciadas, mas desempenham um papel crucial na sustentabilidade a longo prazo. Tanto a Wayfair quanto a Expedia atualmente dependem da infraestrutura em nuvem para gerenciar suas cargas de trabalho de IA generativa. Tan observa que a Wayfair continua a avaliar a escalabilidade de provedores de nuvem como o Google, enquanto mantém atenção na necessidade potencial de infraestrutura localizada para lidar com aplicações em tempo real de maneira mais eficiente.

A abordagem da Expedia também enfatiza a flexibilidade. Hospedada principalmente no AWS, a empresa emprega uma camada proxy para encaminhar dinamicamente as tarefas ao ambiente computacional mais apropriado. Esse sistema equilibra desempenho com eficiência de custo, garantindo que os custos de inferência não saiam de controle. Naidu destaca a importância dessa adaptabilidade à medida que as aplicações empresariais de IA generativa se tornam mais complexas e exigem maior poder de processamento.

Esse foco em infraestrutura reflete tendências mais amplas na computação empresarial, semelhante à transição de data centers monolíticos para arquiteturas de microserviços. À medida que empresas como Wayfair e Expedia escalam suas capacidades de LLM, elas mostram a importância de equilibrar a escalabilidade da nuvem com opções emergentes como computação em borda e chips personalizados.

Treinamento, governança e gestão de mudanças

Implantar LLMs não é apenas um desafio tecnológico — é um desafio cultural. Tanto a Wayfair quanto a Expedia enfatizam a importância de fomentar a prontidão organizacional para adotar e integrar ferramentas de IA generativa. Na Wayfair, o treinamento abrangente garante que os colaboradores de diversos departamentos possam se adaptar a novos fluxos de trabalho, especialmente em áreas como atendimento ao cliente, onde respostas geradas por IA requerem supervisão humana para se alinhar à voz e tom da empresa.

A Expedia deu um passo além ao estabelecer um Conselho de IA Responsável para supervisionar todas as principais decisões relacionadas à IA generativa. Este conselho garante que as implantações estejam alinhadas com diretrizes éticas e objetivos de negócios, promovendo confiança em toda a organização. Naidu destaca a importância de repensar as métricas para medir a eficácia da IA generativa. KPIs tradicionais muitas vezes não são suficientes, levando a Expedia a adotar métricas de precisão e recall que se alinham melhor com os objetivos de negócios.

Essas adaptações culturais são cruciais para o sucesso a longo prazo da IA generativa em ambientes empresariais. A tecnologia sozinha não pode impulsionar a transformação; a transformação exige uma força de trabalho capacitada para aproveitar as capacidades da IA generativa e uma estrutura de governança que assegure uma implementação responsável.

Lições para o sucesso no escalonamento

As experiências da Wayfair e da Expedia oferecem lições valiosas para qualquer organização que procure escalar LLMs de maneira eficaz. Ambas as empresas demonstram que o sucesso depende da identificação de casos de uso claros de negócios, da manutenção da flexibilidade nas escolhas tecnológicas e do cultivo de uma cultura de adaptação. Suas abordagens híbridas fornecem um modelo para equilibrar inovação com eficiência, garantindo que os investimentos em IA generativa entreguem resultados tangíveis.

O que torna o escalonamento da IA em 2025 um desafio sem precedentes é a velocidade da mudança tecnológica e cultural. As estratégias híbridas, infraestruturas flexíveis e culturas de dados fortes que definem os implantes bem-sucedidos de IA hoje estabelecerão as bases para a próxima onda de inovação. As empresas que construírem essas fundações agora não apenas escalarão a IA; elas escalarão resiliência, adaptabilidade e vantagem competitiva.

Olhando para frente, os desafios dos custos de inferência, capacidades em tempo real e necessidades de infraestrutura em evolução continuarão a moldar o cenário empresarial da IA generativa. Como Naidu apropriadamente coloca, “A IA generativa e os LLMs serão um investimento a longo prazo para nós e nos diferenciaram no espaço de viagens. Precisamos estar cientes de que isso exigirá alguma priorização consciente de investimento e compreensão dos casos de uso.”





    12 + oito =




    Bolt42