Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre coberturas de IA líderes na indústria. Saiba mais
A startup chinesa de IA DeepSeek lançou discretamente um novo modelo de linguagem grande que já está causando impacto na indústria de inteligência artificial — não apenas por suas capacidades, mas também por como está sendo implementado. O modelo de 641 gigabytes, chamado DeepSeek-V3-0324, apareceu hoje no repositório de IA Hugging Face com praticamente nenhum anúncio, continuando o padrão da empresa de lançamentos discretos, porém impactantes.
O que torna este lançamento especialmente notável é a licença MIT do modelo — tornando-o livremente disponível para uso comercial — e relatos iniciais de que ele pode ser executado diretamente em hardware de consumo, especificamente no Mac Studio da Apple com chip M3 Ultra.
O novo Deep Seek V3 0324 em 4-bit opera a > 20 toks/sec em um M3 Ultra de 512GB com mlx-lm! pic.twitter.com/wFVrFCxGS6
— Awni Hannun (@awnihannun) 24 de março de 2025
“O novo DeepSeek-V3-0324 em 4-bit opera a > 20 tokens/segundo em um M3 Ultra de 512GB com mlx-lm!” escreveu o pesquisador de IA Awni Hannun nas redes sociais. Embora o Mac Studio de $9,499 possa esticar a definição de “hardware de consumo”, a capacidade de executar um modelo tão massivo localmente é uma grande mudança em relação às exigências de data centers normalmente associadas à IA de ponta.
A estratégia de lançamento discreto da DeepSeek rompe as expectativas do mercado de IA
O modelo de 685 bilhões de parâmetros chegou sem um whitepaper acompanhando, postagem no blog, ou impulso de marketing — apenas um README vazio e os pesos do modelo em si. Esta abordagem contrasta fortemente com os lançamentos de produtos cuidadosamente orquestrados típicos das empresas de IA ocidentais, onde meses de hype geralmente precedem os lançamentos reais.
Testadores iniciais relatam melhorias significativas em relação à versão anterior. O pesquisador de IA Xeophon proclamou em uma postagem no X.com: “Testei o novo DeepSeek V3 em meu banco interno e ele teve um enorme salto em todos os parâmetros em todos os testes. Agora é o melhor modelo sem raciocínio, destronando o Sonnet 3.5.”
Testei o novo DeepSeek V3 em meu banco interno e ele teve um enorme salto em todos os parâmetros em todos os testes.
Agora é o melhor modelo sem raciocínio, destronando o Sonnet 3.5.Parabéns @deepseek_ai! pic.twitter.com/efEu2FQSBe
— Xeophon (@TheXeophon) 24 de março de 2025
Essa afirmação, se validada por testes mais amplos, posicionaria o novo modelo da DeepSeek acima do Claude Sonnet 3.5 da Anthropic, um dos sistemas de IA comercial mais respeitados. E ao contrário do Sonnet, que requer uma assinatura, os pesos do DeepSeek-V3-0324 estão disponíveis gratuitamente para qualquer um baixar e usar.
Como a arquitetura inovadora do DeepSeek V3-0324 atinge uma eficiência incomparável
DeepSeek-V3-0324 emprega uma arquitetura de mistura de especialistas (MoE) que reimagina fundamentalmente como modelos de linguagem grandes operam. Modelos tradicionais ativam toda sua contagem de parâmetros para cada tarefa, enquanto a abordagem da DeepSeek ativa apenas cerca de 37 bilhões de seus 685 bilhões de parâmetros durante tarefas específicas.
Essa ativação seletiva representa uma mudança de paradigma na eficiência do modelo. Ao ativar apenas os parâmetros “especialistas” mais relevantes para cada tarefa específica, a DeepSeek alcança desempenho comparável a modelos muito maiores que são totalmente ativados, enquanto reduz drasticamente as demandas computacionais.
O modelo incorpora duas tecnologias inovadoras adicionais: Atenção Latente Multi-Cabeça (MLA) e Predição Multi-Token (MTP). A MLA aprimora a capacidade do modelo de manter o contexto ao longo de longos trechos de texto, enquanto a MTP gera múltiplos tokens por etapa em vez da abordagem usual de um por vez. Juntas, essas inovações aumentam a velocidade de saída em quase 80%.
Simon Willison, um criador de ferramentas para desenvolvedores, observou em uma postagem de blog que uma versão quantizada de 4 bits reduz a pegada de armazenamento para 352GB, tornando viável executá-la em hardware de consumo de alto desempenho, como o Mac Studio com chip M3 Ultra.
Isso representa uma possível mudança significativa na implantação de IA. Enquanto a infraestrutura de IA tradicional geralmente depende de várias GPUs Nvidia consumindo vários quilowatts de energia, o Mac Studio consome menos de 200 watts durante a inferência. Essa diferença de eficiência sugere que a indústria de IA pode precisar repensar suposições sobre os requisitos de infraestrutura para o desempenho de modelos de alto nível.
A revolução da IA de código aberto na China desafia o modelo fechado do Vale do Silício
A estratégia de lançamento da DeepSeek exemplifica uma divergência fundamental na filosofia empresarial de IA entre empresas chinesas e ocidentais. Enquanto líderes dos EUA como OpenAI e Anthropic mantêm seus modelos atrás de paywalls, empresas de IA chinesas abraçam cada vez mais licenças de código aberto permissivas.
Essa abordagem está transformando rapidamente o ecossistema de IA da China. A disponibilidade aberta de modelos de ponta cria um efeito multiplicador, permitindo que startups, pesquisadores e desenvolvedores construam sobre tecnologia de IA sofisticada sem grandes gastos de capital. Isso acelerou as capacidades de IA da China a um ritmo que chocou observadores ocidentais.
A lógica de negócios por trás dessa estratégia reflete as realidades do mercado na China. Com múltiplos concorrentes bem financiados, manter uma abordagem proprietária se torna cada vez mais difícil quando os concorrentes oferecem capacidades semelhantes gratuitamente. A disponibilização de código aberto cria caminhos alternativos de valor por meio da liderança do ecossistema, serviços de API e soluções empresariais construídas sobre modelos fundamentais amplamente disponíveis.
Até mesmo gigantes chinêses de tecnologia estabelecidos reconheceram essa mudança. O Baidu anunciou planos de tornar sua série de modelos Ernie 4.5 de código aberto até junho, enquanto Alibaba e Tencent lançaram modelos de IA de código aberto com capacidades especializadas. Este movimento se destaca em contraste com a estratégia centrada na API empregada pelos líderes ocidentais.
A abordagem de código aberto também enfrenta desafios únicos que as empresas de IA chinesas enfrentam. Com restrições de acesso aos mais recentes chips da Nvidia, as empresas chinesas enfatizaram a eficiência e a otimização para alcançar um desempenho competitivo com recursos computacionais mais limitados. Essa inovação movida pela necessidade agora se tornou uma possível vantagem competitiva.
DeepSeek V3-0324: A base para uma revolução no raciocínio de IA
O tempo e as características do DeepSeek-V3-0324 sugerem fortemente que ele servirá como a base para o DeepSeek-R2, um modelo melhorado focado em raciocínio que deve ser lançado dentro dos próximos dois meses. Isso segue o padrão estabelecido da DeepSeek, onde seus modelos base precedem modelos de raciocínio especializados por várias semanas.
“Isso se alinha com como eles lançaram o V3 por volta do Natal seguido do R1 algumas semanas depois. O R2 é rumorado para abril, então isso pode ser,” observou um usuário do Reddit mxforest.
As implicações de um modelo avançado de raciocínio de código aberto não podem ser subestimadas. Modelos de raciocínio atuais como o1 da OpenAI e R1 da DeepSeek representam o que há de mais avançado em capacidades de IA, demonstrando habilidades de resolução de problemas sem precedentes em domínios que vão de matemática a programação. Tornar essa tecnologia livremente disponível democratizaria o acesso a sistemas de IA atualmente limitados àqueles com orçamentos substanciais.
O modelo potencial R2 chega em meio a revelações significativas sobre as demandas computacionais dos modelos de raciocínio. O CEO da Nvidia, Jensen Huang, observou recentemente que o modelo R1 da DeepSeek “consome 100 vezes mais computação do que uma IA não baseada em raciocínio”, contradizendo suposições anteriores da indústria sobre eficiência. Isso revela a notável conquista por trás dos modelos da DeepSeek, que oferecem desempenho competitivo enquanto operam com menos recursos do que seus concorrentes ocidentais.
Se o DeepSeek-R2 seguir a trajetória definida pelo R1, poderia apresentar um desafio direto ao GPT-5, o próximo modelo de destaque da OpenAI, que deve ser lançado nos próximos meses. O contraste entre a abordagem fechada e altamente financiada da OpenAI e a estratégia aberta e eficiente em recursos da DeepSeek representa duas visões concorrentes para o futuro da IA.
Como experimentar o DeepSeek V3-0324: Um guia completo para desenvolvedores e usuários
Para aqueles ansiosos para experimentar o DeepSeek-V3-0324, existem várias opções dependendo das necessidades técnicas e recursos. Os pesos completos do modelo estão disponíveis no Hugging Face, embora o tamanho de 641GB torne o download direto prático apenas para aqueles com armazenamento e recursos computacionais substanciais.
Para a maioria dos usuários, opções baseadas em nuvem oferecem o ponto de entrada mais acessível. OpenRouter fornece acesso gratuito à API do modelo, com uma interface de chat amigável. Basta selecionar DeepSeek V3 0324 como o modelo para começar a experimentar.
A própria interface de chat da DeepSeek em chat.deepseek.com provavelmente foi atualizada para a nova versão também, embora a empresa não tenha confirmado explicitamente isso. Usuários iniciais relatam que o modelo está acessível através desta plataforma com desempenho melhorado em relação às versões anteriores.
Desenvolvedores que desejam integrar o modelo em aplicativos podem acessá-lo através de vários provedores de inferência. O Hyperbolic Labs anunciou a disponibilidade imediata como “o primeiro provedor de inferência a servir este modelo no Hugging Face,” enquanto o OpenRouter oferece acesso à API compatível com o SDK da OpenAI.
DeepSeek-V3-0324 Agora Ao Vivo no Hyperbolic?
No Hyperbolic, estamos comprometidos em entregar os mais recentes modelos de código aberto assim que estiverem disponíveis. Esta é a nossa promessa à comunidade de desenvolvedores.
Comece a inferir hoje. pic.twitter.com/495xf6kofa
— Hyperbolic (@hyperbolic_labs) 24 de março de 2025
O novo modelo da DeepSeek prioriza precisão técnica em vez de calor conversacional
Usuários iniciais relataram uma mudança notável no estilo de comunicação do modelo. Embora modelos anteriores da DeepSeek fossem elogiados por seu tom conversacional e humano, “V3-0324” apresenta uma persona mais formal e orientada para aspectos técnicos.
“Sou só eu ou essa versão parece menos humana?” perguntou um usuário do Reddit nother_level. “Para mim, a coisa que diferenciava o DeepSeek V3 dos outros era que parecia mais humano. Como o tom das palavras e tal, não soava robótico como outros LLMs, mas agora com esta versão é como os outros LLMs, soando robótico demais.”
Outro usuário, AppearanceHeavy6724, acrescentou: “Sim, definitivamente perdeu seu charme distante, parece muito intelectual para seu próprio bem.”
Essa mudança de personalidade provavelmente reflete escolhas de design deliberadas pelos engenheiros da DeepSeek. A transição para um estilo de comunicação mais preciso e analítico sugere um reposicionamento estratégico do modelo para aplicações profissionais e técnicas em vez de conversas casuais. Isso se alinha às tendências mais amplas da indústria, uma vez que os desenvolvedores de IA reconhecem cada vez mais que diferentes casos de uso se beneficiam de diferentes estilos de interação.
Para desenvolvedores que constroem aplicativos especializados, esse estilo de comunicação mais preciso pode representar na verdade uma vantagem, proporcionando saídas mais claras e consistentes para integração em fluxos de trabalho profissionais. No entanto, pode limitar o apelo do modelo para aplicações voltadas ao cliente, onde o calor e a acessibilidade são valorizados.
Como a estratégia de código aberto da DeepSeek está redesenhando o cenário global de IA
A abordagem da DeepSeek para desenvolvimento e distribuição de IA representa mais do que uma conquista técnica — incorpora uma visão fundamentalmente diferente de como a tecnologia avançada deve se propagar pela sociedade. Ao tornar a IA de ponta livremente disponível sob licenciamento permissivo, a DeepSeek possibilita uma inovação exponencial que modelos fechados inibem naturalmente.
Essa filosofia está rapidamente fechando a lacuna percebida de IA entre a China e os Estados Unidos. Apenas meses atrás, a maioria dos analistas estimava que a China estava 1-2 anos atrás nas capacidades de IA dos EUA. Hoje, essa lacuna se estreitou drasticamente, talvez para 3-6 meses, com algumas áreas se aproximando da paridade ou até mesmo da liderança chinesa.
As semelhanças com o impacto do Android no ecossistema móvel são surpreendentes. A decisão do Google de tornar o Android livre criou uma plataforma que, em última análise, alcançou uma participação dominante no mercado global. Da mesma forma, modelos de IA de código aberto podem superar sistemas fechados por meio da pura ubiquidade e inovação coletiva de milhares de contribuidores.
As implicações também vão além da concorrência de mercado para questões fundamentais sobre acesso à tecnologia. Líderes ocidentais de IA enfrentam cada vez mais críticas por concentrar capacidades avançadas em corporações e indivíduos bem financiados. A abordagem da DeepSeek distribui essas capacidades de forma mais ampla, potencialmente acelerando a adoção global da IA.
À medida que o DeepSeek-V3-0324 encontra seu caminho em laboratórios de pesquisa e estações de trabalho de desenvolvedores em todo o mundo, a concorrência não é mais apenas sobre construir a IA mais poderosa, mas sobre possibilitar que o maior número de pessoas construa com IA. Nesse aspecto, o lançamento discreto da DeepSeek fala volumes sobre o futuro da inteligência artificial. A empresa que compartilha sua tecnologia mais livremente pode, em última análise, ter a maior influência sobre como a IA transforma nosso mundo.
Insights diários sobre casos de uso empresariais com VB Daily
Se você deseja impressionar seu chefe, o VB Daily tem tudo que você precisa. Nós fornecemos uma visão detalhada do que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implantações práticas, para que você possa compartilhar ideias para um ROI máximo.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais boletins do VB aqui.
Ocorreu um erro.

Conteúdo relacionado
A Microsoft adiciona ferramentas de pesquisa profunda impulsionadas por IA ao Copilot
[the_ad id="145565"] A Microsoft está lançando uma ferramenta de “pesquisa profunda” alimentada por IA no Microsoft 365 Copilot, seu aplicativo de chatbot de IA. Recentemente,…
O Google lança o ‘modelo mais inteligente até agora’, Gemini 2.5 Pro.
[the_ad id="145565"] Participe de nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA de ponta. Saiba Mais…
A função de geração de imagens do ChatGPT recebe uma atualização
[the_ad id="145565"] Durante uma transmissão ao vivo na terça-feira, o CEO da OpenAI, Sam Altman, anunciou a primeira grande atualização das capacidades de geração de imagens…