Participe das nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre coberturas de IA líderes na indústria. Saiba mais
O movimento na IA está acelerado — e se você não está acompanhando, está ficando para trás.
Duas recentes tendências estão moldando o cenário para desenvolvedores e empresas: o lançamento do modelo R1 da DeepSeek e o novo produto Deep Research da OpenAI. Juntas, estão redefinindo o custo e a acessibilidade de poderosos modelos de raciocínio, o que tem sido amplamente noticiado. No entanto, menos se fala sobre como isso forçará as empresas a utilizarem técnicas como destilação, ajuste fino supervisionado (SFT), aprendizado por reforço (RL) e geração aumentada por recuperação (RAG) para criar aplicações de IA mais inteligentes e especializadas.
Após a empolgação inicial em torno das incríveis conquistas da DeepSeek se acalmar, desenvolvedores e tomadores de decisão empresarial precisam considerar o que isso significa para eles. Desde preços e desempenho até riscos de alucinação e a importância de dados limpos, aqui está o que essas inovações significam para qualquer um que esteja construindo IA hoje.
Modelos de raciocínio líderes da indústria mais baratos e transparentes – mas através da destilação
A grande novidade com a DeepSeek-R1 é simples: ela fornece um modelo de raciocínio líder na indústria a uma fração do custo do o1 da OpenAI. Especificamente, custa cerca de 30 vezes menos para operar, e ao contrário de muitos modelos fechados, a DeepSeek oferece total transparência em relação às suas etapas de raciocínio. Para os desenvolvedores, isso significa que agora você pode construir modelos de IA altamente personalizados sem gastar uma fortuna — seja através da destilação, ajuste fino ou implementações simples de RAG.
A destilação, em particular, está emergindo como uma ferramenta poderosa. Ao usar o DeepSeek-R1 como um “modelo professor”, as empresas podem criar modelos menores e específicos para tarefas que herdam as capacidades superiores de raciocínio do R1. Estes modelos menores, de fato, são o futuro para a maioria das empresas. O modelo completo de raciocínio R1 pode ser excessivo para o que as empresas precisam — pensando demais e não tomando as ações decisivas necessárias para suas aplicações específicas. “Uma das coisas que ninguém está realmente falando, certamente na mídia mainstream, é que os modelos de raciocínio não estão funcionando tão bem para coisas como agentes”, disse Sam Witteveen, um desenvolvedor de ML que trabalha em agentes de IA, que estão cada vez mais orquestrando aplicações empresariais.
Como parte de seu lançamento, a DeepSeek destilou suas próprias capacidades de raciocínio em uma série de modelos menores, incluindo modelos de código aberto da família Llama da Meta e da família Qwen da Alibaba, conforme descrito em seu artigo. São esses modelos menores que podem então ser otimizados para tarefas específicas. Essa tendência em direção a modelos menores e rápidos para atender a necessidades personalizadas vai acelerar: teremos exércitos desses modelos. “Estamos começando a nos mover para um mundo onde as pessoas estão usando múltiplos modelos. Elas não estão apenas utilizando um modelo o tempo todo”, disse Witteveen. E isso inclui os modelos menores e de baixo custo da Google e OpenAI. “Isso significa que modelos como Gemini Flash, GPT-4o Mini e esses modelos realmente baratos funcionam muito bem para 80% dos casos de uso”, afirmou.
Se você trabalha em um domínio obscuro e tem recursos: Use SFT…
Após o passo de destilação, as empresas têm algumas opções para garantir que o modelo esteja pronto para sua aplicação específica. Se você é uma empresa em um domínio muito específico, onde detalhes sobre esse domínio não estão disponíveis na web ou em livros — onde LLMs podem treinar com eles — você pode injetar conjuntos de dados específicos do seu domínio, em um processo chamado ajuste fino supervisionado (SFT). Um exemplo seria a indústria de construção de contêineres de navios, onde especificações, protocolos e regulamentos não estão amplamente disponíveis.
A DeepSeek mostrou que é possível fazer isso bem com “milhares” de conjuntos de dados de perguntas e respostas. Para um exemplo prático, Chris Hay, um engenheiro da IBM, demonstrou como ele ajustou um pequeno modelo usando seus próprios conjuntos de dados específicos de matemática para obter respostas extremamente rápidas — superando o o1 da OpenAI nas mesmas tarefas (Veja seu vídeo prático aqui)
…e um pouco de RL
Adicionalmente, empresas que desejam treinar um modelo com uma maior alinhamento a preferências específicas — por exemplo, fazer com que um chatbot de suporte ao cliente soe empático enquanto é conciso — irão querer realizar um pouco de aprendizado por reforço (RL) no modelo. Isso também é bom se uma empresa quer que seu chatbot adapte seu tom e recomendações com base no feedback de um usuário. À medida que cada modelo se torna bom em tudo, a “personalidade” vai se tornar cada vez mais importante, disse o professor de IA da Wharton, Ethan Mollick ontem no X.
Esses passos de SFT e RL podem ser complicados para as empresas implementarem corretamente, no entanto. Alimentar o modelo com dados de uma área de domínio específica, ou ajustá-lo para agir de uma certa forma, pode rapidamente torná-lo inútil para realizar tarefas fora daquela área ou estilo.
Para a maioria das empresas, RAG será suficiente
Para a maioria das empresas, no entanto, a geração aumentada por recuperação (RAG) é o caminho mais fácil e seguro a seguir. RAG é um processo relativamente simples que permite que as organizações fundamentem seus modelos com dados proprietários contidos em seus próprios bancos de dados — garantindo que as saídas sejam precisas e específicas do domínio. Aqui, um LLM alimenta o prompt de um usuário em bancos de dados de vetores e gráficos para pesquisar informações relevantes para esse prompt. Os processos de RAG se tornaram muito bons em encontrar apenas o conteúdo mais relevante.
Essa abordagem também ajuda a combater alguns dos problemas de alucinação associados à DeepSeek, que atualmente alucina 14% das vezes em comparação com 8% para o modelo o3 da OpenAI, de acordo com um estudo realizado pela Vectara, um fornecedor que ajuda empresas no processo RAG.
Essa destilação de modelos mais RAG é onde a mágica acontecerá para a maioria das empresas. Tornou-se incrivelmente fácil de fazer, mesmo para aqueles com limitações em ciência de dados ou expertise em programação. Eu, pessoalmente, baixei o modelo Qwen destilado de 1.5 bilhões da DeepSeek, o menor, para que ele coubesse perfeitamente no meu Macbook Air. Em seguida, carreguei alguns PDFs de currículos de candidatos a um banco de dados de vetores, e pedi ao modelo que analisasse os candidatos para me informar quais estavam qualificados para trabalhar na VentureBeat. (No total, isso me levou 74 linhas de código, que basicamente copiei de outras pessoas fazendo o mesmo).
Eu adorei que o modelo destilado da DeepSeek mostrou seu processo de raciocínio por trás do porquê ou por que não recomendou cada candidato — uma transparência que não teria obtido facilmente antes do lançamento da Deepseek.
No meu recente vídeo de discussão sobre a DeepSeek e RAG, expliquei como se tornou simples implementar RAG em aplicações práticas, mesmo para não especialistas. Sam Witteveen também contribuiu para a discussão detalhando como funcionam os pipelines de RAG e por que as empresas estão cada vez mais confiando neles em vez de modelos totalmente ajustados. (Assista aqui).
OpenAI Deep Research: Ampliando as capacidades do RAG — mas com ressalvas
Enquanto a DeepSeek torna os modelos de raciocínio mais baratos e transparentes, o Deep Research da OpenAI, anunciado no domingo, representa uma mudança diferente, mas complementar. Ele pode levar o RAG a um novo nível ao percorrer a web para criar pesquisas altamente personalizadas. A saída dessa pesquisa pode então ser inserida como entrada nos documentos RAG que as empresas podem usar, ao lado de seus próprios dados.
Essa funcionalidade, frequentemente referida como RAG agentic, permite que sistemas de IA busquem autonomamente o melhor contexto pela internet, trazendo uma nova dimensão à recuperação de conhecimento e fundamentação.
O Deep Research da OpenAI é semelhante a ferramentas como Google Deep Research, Perplexity e You.com, mas a OpenAI tentou diferenciar sua oferta sugerindo que seu raciocínio encadeado superior o torna mais preciso. É assim que essas ferramentas funcionam: Um pesquisador de uma empresa solicita ao LLM que encontre todas as informações disponíveis sobre um tópico em um relatório bem pesquisado e citado. O LLM responde pedindo ao pesquisador para responder a 20 sub-perguntas para confirmar o que é desejado. O LLM de pesquisa então sai e realiza 10 ou 20 buscas na web para obter os dados mais relevantes para responder a todas essas sub-perguntas, e então extrai o conhecimento e o apresenta de maneira útil.
No entanto, essa inovação não está isenta de desafios. Amr Awadallah, CEO da Vectara, alertou sobre os riscos de depender demais das saídas de modelos como o Deep Research. Ele questiona se realmente é mais preciso: “Não está claro que isso seja verdade”, observou Awadallah: “Estamos vendo artigos e postagens em vários fóruns dizendo que não, ainda estão recebendo muitas alucinações e o Deep Research é apenas tão bom quanto outras soluções disponíveis no mercado.”
Em outras palavras, embora o Deep Research ofereça capacidades promissoras, as empresas precisam ter cautela ao integrar suas saídas em suas bases de conhecimento. O fundamento do conhecimento para um modelo deve vir de fontes verificadas e aprovadas por humanos para evitar erros em cascata, disse Awadallah.
A curva de custo está caindo: por que isso importa
O impacto mais imediato do lançamento da DeepSeek é sua redução agressiva de preços. A indústria de tecnologia esperava que os custos diminuíssem com o tempo, mas poucos anteciparam quão rapidamente isso aconteceria. A DeepSeek provou que modelos abertos poderosos podem ser tanto acessíveis quanto eficientes, criando oportunidades para experimentação em larga escala e implementação econômica.
Awadallah enfatizou esse ponto, observando que a verdadeira mudança não está apenas no custo de treinamento — mas no custo de inferência, que para a DeepSeek é cerca de 1/30 do o1 ou o3 da OpenAI em custo de inferência por token. “As margens que a OpenAI, Anthropic e Google Gemini foram capazes de capturar agora terão que ser reduzidas em pelo menos 90% porque não podem se manter competitivas com preços tão altos,” disse Awadallah.
Além disso, esses custos continuarão a cair. Dario Amodei, CEO da Anthropic, disse recentemente que o custo de desenvolvimento de modelos continua a cair a uma taxa de cerca de 4x a cada ano. Segue-se que a taxa que os fornecedores de LLM cobram para usá-los também continuará a cair. “Eu espero plenamente que o custo chegue a zero”, disse Ashok Srivastava, diretor de dados da Intuit, uma empresa que tem impulsionado a IA fortemente em suas ofertas de software de impostos e contabilidade, como TurboTax e Quickbooks. “…e a latência venha a zero. Elas irão se tornar capacidades de commodity que poderemos usar.”
Essa redução de custos não é apenas uma vitória para desenvolvedores e usuários empresariais; é um sinal de que a inovação em IA não está mais confinada a grandes laboratórios com orçamentos de bilhões. As barreiras de entrada caíram, e isso está inspirando empresas menores e desenvolvedores individuais a experimentar de maneiras que antes eram impensáveis. Mais importante ainda, os modelos são tão acessíveis que qualquer profissional de negócios os estará utilizando, e não apenas especialistas em IA, disse Srivastava.
A disrupção da DeepSeek: Desafiando o domínio da “Big AI” no desenvolvimento de modelos
Mais importante ainda, a DeepSeek destruiu o mito de que apenas grandes laboratórios de IA podem inovar. Por anos, empresas como OpenAI e Google se posicionaram como os guardiões da IA avançada, espalhando a crença de que apenas PhDs de alto nível com vastos recursos poderiam construir modelos competitivos.
A DeepSeek virou essa narrativa de cabeça para baixo. Ao tornar os modelos de raciocínio abertos e acessíveis, ela capacitou uma nova leva de desenvolvedores e empresas a experimentar e inovar sem precisar de bilhões em financiamento. Essa democratização é particularmente significativa nas fases pós-treinamento — como RL e ajuste fino — onde as inovações mais empolgantes estão ocorrendo.
A DeepSeek expôs uma falácia que havia surgido na IA — que apenas os grandes laboratórios e empresas de IA poderiam realmente inovar. Essa falácia havia forçado muitos outros construtores de IA a ficarem à margem. A DeepSeek pôs fim a isso. Ela inspirou a todos que há uma tonelada de maneiras de inovar nessa área.
A Imperativa de Dados: Por que dados limpos e curados são a próxima ação necessária para empresas
Enquanto a DeepSeek e o Deep Research oferecem ferramentas poderosas, sua eficácia depende, em última análise, de um fator crítico: a qualidade dos dados. Colocar seus dados em ordem tem sido um grande tema há anos e acelerou durante os últimos nove anos da era da IA. Mas isso se tornou ainda mais importante com a IA generativa, e agora, com a disrupção da DeepSeek, é absolutamente crucial. Hilary Packer, CTO da American Express, enfatizou isso em uma entrevista com a VentureBeat ontem: “O momento AHA para nós, honestamente, foi os dados. Você pode fazer a melhor seleção de modelo do mundo… mas os dados são a chave. Validação e precisão são o santo graal agora da IA generativa.”
É aqui que as empresas devem concentrar seus esforços. Embora seja tentador correr atrás dos últimos modelos e técnicas, a base de qualquer aplicação de IA bem-sucedida é dados limpos e bem estruturados. Esteja você usando RAG, SFT ou RL, a qualidade dos seus dados determinará a precisão e confiabilidade dos seus modelos.
E embora muitas empresas aspirem a aperfeiçoar seus ecossistemas de dados, a realidade é que a perfeição é ilusória. Em vez disso, as empresas devem focar em limpar e curar as porções mais críticas de seus dados para possibilitar aplicações pontuais de IA que entreguem valor imediato.
Relacionado a isso, muitas perguntas permanecem sobre os dados exatos que a DeepSeek usou para treinar seus modelos, e isso levanta questões sobre o viés inerente ao conhecimento armazenado nos pesos de seu modelo. Mas isso não é diferente das questões em torno de outros modelos de código aberto, como a série de modelos Llama da Meta. A maioria dos usuários empresariais encontrou maneiras de ajustar ou fundamentar os modelos com RAG o suficiente para mitigar quaisquer problemas relacionados a esses viés. E isso foi suficiente para criar um sério impulso entre as empresas em direção à aceitação da fonte aberta, de fato, levando com fonte aberta.
Da mesma forma, não há dúvida de que muitas empresas estarão usando modelos DeepSeek, independentemente do receio em torno do fato de que a empresa é da China. Embora também seja verdade que muitas empresas em setores altamente regulamentados, como finanças ou saúde, serão cautelosas ao usar qualquer modelo da DeepSeek em qualquer aplicação que interaja diretamente com clientes, pelo menos a curto prazo.
Conclusão: O futuro da IA empresarial é aberto, acessível e orientado por dados
A DeepSeek e o Deep Research da OpenAI são mais do que apenas novas ferramentas no arsenal de IA — são sinais de uma mudança profunda, onde as empresas estarão implantando em massa modelos construídos para propósitos, extremamente acessíveis, competentes e fundamentados nos dados e na abordagem da empresa.
Para as empresas, a mensagem é clara: as ferramentas para construir aplicações de IA poderosas e específicas do domínio estão ao seu alcance. Você corre o risco de ficar para trás se não aproveitar essas ferramentas. Mas o verdadeiro sucesso virá da forma como você curar seus dados, aproveitar técnicas como RAG e destilação, e inovar além da fase de pré-treinamento.
Como colocou Packer, da AmEx, as empresas que acertarem seus dados serão as que estarão liderando a próxima onda de inovação em IA.
Insights diários sobre casos de uso empresarial com VB Daily
Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Nós fornecemos a você as informações internas sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implantações práticas, para que você possa compartilhar insights para um ROI máximo.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais newsletters da VB aqui.
Ocorreu um erro.

Conteúdo relacionado
Peter Diamandis responde à pergunta: A longevidade é apenas para os ricos?
[the_ad id="145565"] No episódio desta semana do StrictlyVC Download, a Editora Chefe do TechCrunch, Connie Loizos, e Alex Gove, da StrictlyVC, recebem o empreendedor,…
OpenAI irá lançar modelo de código aberto à medida que a economia da IA força uma mudança estratégica
[the_ad id="145565"] Certainly! Here’s the rewritten content in Portuguese while maintaining the HTML tags: <div> <div id="boilerplate_2682874"…
$40 bilhões para o fogo: À medida que a OpenAI ganha um milhão de usuários por hora, a corrida pela dominância em IA corporativa acelera em um novo nível.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA líder de indústria.…