A startup chinesa de IA, DeepSeek, recentemente declarou que seus modelos de IA poderiam ser muito lucrativos — com algumas ressalvas.
Em um post no X, a DeepSeek se gabou de que seus serviços online têm uma “margem de lucro de custo” de 545%. No entanto, essa margem é calculada com base na “renda teórica”.
A empresa discutiu esses números com mais detalhes no final de um post mais longo no GitHub que delineia sua abordagem para alcançar “maior throughput e menor latência.” A empresa escreveu que, ao analisar o uso de seus modelos V3 e R1 durante um período de 24 horas, se esse uso tivesse sido totalmente cobrado usando preços do R1, a DeepSeek já teria $562.027 em receita diária.
Enquanto isso, o custo de alugar as GPUs necessárias (unidades de processamento gráfico) teria sido de apenas $87.072.
A empresa admitiu que sua receita real é “substancialmente menor” por várias razões, como descontos noturnos, preços mais baixos para o V3 e o fato de que “apenas um subconjunto de serviços é monetizado,” com acesso na web e no aplicativo permanecendo gratuito.
Claro, se o aplicativo e o site não fossem gratuitos, e se outros descontos não estivessem disponíveis, o uso seria presumivelmente muito menor. Portanto, esses cálculos parecem ser altamente especulativos — mais um gesto em direção às margens de lucro potencial futuro do que uma representação real da situação financeira da DeepSeek neste momento.
Mas a empresa está compartilhando esses números em meio a debates mais amplos sobre o custo da IA e seu potencial de lucratividade. A DeepSeek ganhou destaque em janeiro, com um novo modelo que supostamente igualou o o1 da OpenAI em certos benchmarks, apesar de ter sido desenvolvido a um custo muito mais baixo, e diante de restrições comerciais dos EUA que impedem empresas chinesas de acessar os chips mais poderosos. As ações de tecnologia despencaram e analistas levantaram questões sobre os gastos com IA.
A tecnologia da DeepSeek não apenas abalou Wall Street. Seu aplicativo ocupou brevemente o topo da App Store da Apple, à frente do ChatGPT da OpenAI — embora tenha caído posteriormente das classificações gerais e atualmente esteja classificado em #6 em produtividade, atrás do ChatGPT, Grok e Google Gemini.
Conteúdo relacionado
Micron lança novos chips de memória para acompanhar o processamento de IA
[the_ad id="145565"] A Micron anunciou esta semana seus primeiros samples de chip de memória DDR5 1y (1-gamma) e afirma que isso faz parte de sua contribuição para sistemas que…
2025 já nos trouxe a IA mais performática de todos os tempos: O que podemos fazer com essas capacidades supercarregadas (e o que vem a seguir)?
[the_ad id="145565"] Participe das nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder na indústria.…
Flora está desenvolvendo uma ‘tela infinita’ impulsionada por IA para profissionais criativos.
[the_ad id="145565"] Com apenas algumas palavras, modelos de IA podem ser acionados para criar uma história, uma imagem ou até mesmo um curta-metragem. Mas, segundo Weber Wong,…