A empresa de IA chinesa DeepSeek surgiu como um potencial desafiador para os líderes de IA dos EUA, demonstrando modelos inovadores que afirmam oferecer desempenho comparável aos chatbots líderes a uma fração do custo. O aplicativo móvel da empresa, lançado no início de janeiro, também alcançou o topo das paradas do iPhone em mercados importantes, incluindo EUA, Reino Unido e China.
Fundada em 2023 por Liang Wenfeng, ex-chefe do fundo de hedge quantitativo High-Flyer impulsionado por IA, a DeepSeek torna seus modelos de código aberto e incorpora um recurso de raciocínio que articula seu pensamento antes de fornecer respostas.
A reação de Wall Street foi mista. Enquanto a Jefferies alerta que a abordagem eficiente da DeepSeek “fura a euforia do capex” após os compromissos de gastos recentes da Meta e Microsoft — cada um superior a $60 bilhões este ano — a Citi questiona se tais resultados foram alcançados sem GPUs avançadas. O Goldman Sachs vê implicações mais amplas, sugerindo que o desenvolvimento pode remodelar a competição entre gigantes da tecnologia estabelecidos e startups, reduzindo barreiras à entrada.
Aqui está como os analistas de Wall Street estão reagindo à DeepSeek, com suas próprias palavras (ênfase minha):
Jefferies
As implicações de poder da DeepSeek para o treinamento de IA furam a euforia do capex que se seguiu a compromissos maiores da Stargate e Meta na semana passada. Com a DeepSeek apresentando desempenho comparável ao GPT-4o por uma fração do poder computacional, há implicações negativas potenciais para os construtores, à medida que a pressão sobre os jogadores de IA para justificar planos de capex cada vez maiores pode, em última análise, levar a um crescimento mais baixo da receita e lucro dos centros de dados.
Se modelos menores puderem funcionar bem, isso é potencialmente positivo para smartphones. Estamos pessimistas sobre smartphones com IA, pois a IA não ganhou tração com os consumidores. Mais atualizações de hardware (pacote avançado + DRAM rápida) são necessárias para executar modelos maiores no telefone, o que aumentará os custos. O modelo da AAPL é, de fato, baseado em MoE, mas 3 bilhões de parâmetros de dados ainda são muito pequenos para tornar os serviços úteis aos consumidores. Portanto, o sucesso da DeepSeek oferece alguma esperança, mas não há impacto no panorama de smartphones com IA no curto prazo.
A China é o único mercado que busca eficiência em LLM devido à restrição de chips. Trump/Musk provavelmente reconhecem que o risco de mais restrições é forçar a China a inovar mais rápido. Portanto, achamos provável que Trump relaxe a política de Disseminação de IA.
Citi
Embora a conquista da DeepSeek possa ser revolucionária, questionamos a noção de que seus feitos foram realizados sem o uso de GPUs avançadas para ajustá-los e/ou construir os LLMs subjacentes com base na técnica de Destilação. Embora a dominância das empresas dos EUA nos modelos de IA mais avançados possa ser potencialmente desafiada, estimamos que, em um ambiente inevitavelmente mais restritivo, o acesso dos EUA a chips mais avançados é uma vantagem. Assim, não esperamos que as principais empresas de IA se afastem de GPUs mais avançadas que oferecem um custo atraente de $/TFLOPs em escala. Vemos os recentes anúncios de capex em IA, como o da Stargate, como um aceno à necessidade de chips avançados.
Bernstein
Em suma, acreditamos que 1) a DeepSeek NÃO “construiu a OpenAI por $5M”; 2) os modelos parecem fantásticos, mas não achamos que sejam milagres; e 3) o pânico resultante no Twitter durante o fim de semana parece exagerado.
Nossa própria reação inicial não inclui pânico (longe disso). Se reconhecermos que a DeepSeek pode ter reduzido os custos para alcançar um desempenho de modelo equivalente em cerca de 10x, também notamos que as trajetórias de custo atuais dos modelos estão aumentando cerca desse valor a cada ano (as infames “leis de escalonamento…”) que não podem continuar para sempre. Nesse contexto, precisamos de inovações como essa (MoE, destilação, precisão mista etc.) se a IA quiser continuar progredindo. E para aqueles que buscam a adoção de IA, como analistas de semicondutores, somos firmes crentes na paradoxo de Jevons (ou seja, que ganhos de eficiência geram um aumento líquido na demanda), e acreditamos que qualquer nova capacidade computacional desbloqueada é muito mais provável de ser absorvida devido ao aumento de uso e demanda do que impactar a perspectiva de gastos a longo prazo neste ponto, pois não acreditamos que as necessidades computacionais estejam nem perto de atingir seu limite em IA. Também parece exagero pensar que as inovações sendo implantadas pela DeepSeek são completamente desconhecidas pela vasta quantidade de pesquisadores de IA de primeira linha nos numerosos outros laboratórios de IA do mundo (francamente, não sabemos o que os grandes laboratórios fechados têm utilizado para desenvolver e implantar seus próprios modelos, mas simplesmente não podemos acreditar que não consideraram ou talvez até usado estratégias similares).
Morgan Stanley
Não confirmamos a veracidade desses relatos, mas se eles forem precisos, e os LLMs avançados puderem realmente ser desenvolvidos por uma fração do investimento anterior, podemos ver a IA generativa rodando eventualmente em computadores cada vez menores (diminuindo de supercomputadores para estações de trabalho, computadores de escritório e, finalmente, computadores pessoais), e a indústria de SPE poderia se beneficiar do aumento correspondente na demanda por produtos relacionados (chips e SPE) à medida que a demanda por IA generativa se espalha.
Goldman Sachs
Com os últimos desenvolvimentos, também vemos 1) potencial competição entre gigantes da internet ricos em capital e startups, dada a redução das barreiras à entrada, especialmente com novos modelos desenvolvidos a uma fração do custo dos existentes; 2) da formação à inferência, com maior ênfase em pós-treinamento (incluindo capacidades de raciocínio e capacidades de reforço) que requerem recursos computacionais significativamente menores em comparação ao pré-treinamento; e 3) a possibilidade de maior expansão global para players chineses, dado seu desempenho e competitividade de custo/preço.
Continuamos a esperar que a corrida pela aplicação de IA/agentes de IA continue na China, especialmente entre aplicações voltadas ao consumidor, onde as empresas chinesas foram pioneiras em aplicações móveis na era da internet, por exemplo, a criação do super-app Weixin (WeChat) pela Tencent. Entre as aplicações voltadas ao consumidor, a ByteDance tem liderado o caminho, lançando 32 aplicações de IA no último ano. Entre elas, o Doubao tem sido o chatbot de IA mais popular até agora na China, com o maior MAU (cerca de 70 milhões), que recentemente foi atualizado com seu modelo Doubao 1.5 Pro. Acreditamos que fluxos de receita incremental (assinaturas, publicidade) e um caminho eventual/sustentável para monetização/econômica unitária positiva entre aplicações/agentes serão fundamentais.
Para a camada de infraestrutura, o foco dos investidores se concentrou em saber se haverá uma incompatibilidade de curto prazo entre as expectativas de mercado sobre capex de IA e a demanda computacional, caso haja melhorias significativas na eficiência de custo/modelo computacional. Para os players de cloud/data center da China, continuamos a acreditar que o foco para 2025 se concentrará na disponibilidade de chips e na capacidade dos provedores de serviços em nuvem (CSP) de oferecer contribuição crescente de receita provenientes do crescimento da receita em nuvem impulsionada por IA, e além do aluguel de infraestrutura/GPU, como as cargas de trabalho de IA e os serviços relacionados à IA poderiam contribuir para o crescimento e margens no futuro. Permanecemos positivos em relação ao crescimento da demanda por computação em IA a longo prazo, pois uma redução adicional nos custos de computação/treinamento/inferência poderia impulsionar uma maior adoção de IA. Veja também o Tema #5 do nosso relatório de temas principais para nossos cenários base/bear para estimativas de capex da BBAT, dependendo da disponibilidade de chips, onde esperamos que o crescimento agregado do capex da BBAT continue em 2025E em nosso caso base (GSe: +38% ano a ano), embora em um ritmo ligeiramente mais moderado em comparação a 2024 forte (GSe: +61% ano a ano), impulsionado por investimentos contínuos em infraestrutura de IA.
J.P. Morgan
Acima de tudo, muito se fala dos artigos de pesquisa da DeepSeek e da eficiência de seus modelos. Não está claro até que ponto a DeepSeek está aproveitando os ~50k GPUs hopper da High-Flyer (semelhante ao cluster no qual se acredita que a OpenAI esteja treinando o GPT-5), mas o que parece provável é que eles estão reduzindo drasticamente os custos (os custos de inferência para seu modelo V2, por exemplo, são alegadamente 1/7 do GPT-4 Turbo). Sua reivindicação subversiva (embora não nova) – que começou a impactar os nomes de IA dos EUA esta semana – é que “mais investimentos não equivalem a mais inovação.” Liang: “Atualmente, não vejo novas abordagens, mas grandes empresas não têm vantagem clara. Grandes empresas têm clientes existentes, mas seus negócios de fluxo de caixa também são seu fardo, e isso os torna vulneráveis a interrupções a qualquer momento.” E quando questionado sobre o fato de que o GPT-5 ainda não foi lançado: “A OpenAI não é um deus, eles não estarão necessariamente sempre na vanguarda.”
Vamos atualizar a história à medida que lemos mais análises.
Conteúdo relacionado
Eric Schmidt diz que DeepSeek marca um ‘ponto de virada’ na corrida global da IA
[the_ad id="145565"] O ex-CEO do Google, Eric Schmidt, pediu que os Estados Unidos intensificassem os esforços em inteligência artificial de código aberto para enfrentar o…
Pesquisadores da Hugging Face estão tentando construir uma versão mais aberta do modelo de ‘raciocínio’ da IA do DeepSeek.
[the_ad id="145565"] Pouco depois que a DeepSeek lançou seu modelo de IA R1 "raciocínio" — que agitou os mercados — pesquisadores da Hugging Face estão tentando replicar o…
Figura AI detalha plano para melhorar a segurança de robôs humanoides no local de trabalho.
[the_ad id="145565"] A segurança é frequentemente negligenciada na corrida para levar robôs humanoides ao local de trabalho. Enquanto grandes corporações, que vão de varejistas…