Participe das nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA de ponta. Saiba Mais
A baleia retornou.
Após agitar a comunidade global de IA e negócios no início deste ano com o lançamento inicial do seu aclamado modelo de IA de raciocínio open source R1 em 20 de janeiro, a startup chinesa DeepSeek — um desdobramento da conhecida firma de análise quantitativa local High-Flyer Capital Management — lançou o DeepSeek-R1-0528, uma atualização significativa que traz o modelo gratuito e aberto da DeepSeek para perto da paridade em capacidades de raciocínio com modelos pagos proprietários como o o3 da OpenAI e o Google Gemini 2.5 Pro.
Essa atualização foi projetada para oferecer um desempenho mais robusto em tarefas complexas de raciocínio em matemática, ciência, negócios e programação, além de recursos aprimorados para desenvolvedores e pesquisadores.
Assim como seu predecessor, o DeepSeek-R1-0528 está disponível sob a permissiva e aberta Licença MIT, apoiando uso comercial e permitindo que os desenvolvedores personalizem o modelo para suas necessidades.
Os pesos do modelo open-source estão disponíveis através da comunidade de compartilhamento de código de IA Hugging Face, e documentação detalhada é fornecida para aqueles que desejam implementar localmente ou integrar via a API da DeepSeek.
Usuários existentes da API DeepSeek terão suas inferências de modelo atualizadas automaticamente para R1-0528 sem custo adicional. O custo atual da API da DeepSeek é de $0.14 por 1 milhão de tokens de entrada durante o horário regular de 8h30 às 12h30 (cai para $0.035 durante horários promocionais). A saída de 1 milhão de tokens é consistentemente precificada em $2.19.
Para aqueles que desejam executar o modelo localmente, a DeepSeek publicou instruções detalhadas em seu repositório do GitHub. A empresa também incentiva a comunidade a fornecer feedback e perguntas por meio de seu e-mail de serviço.
Usuários individuais podem experimentá-lo gratuitamente através do site da DeepSeek aqui, embora seja necessário fornecer um número de telefone ou acesso à conta do Google para se inscrever.
Raciocínio aprimorado e desempenho de benchmark
No cerne da atualização estão melhorias significativas na capacidade do modelo de lidar com tarefas desafiadoras de raciocínio.
A DeepSeek explica em seu novo cartão de modelo no HuggingFace que essas melhorias resultam da utilização de recursos computacionais aumentados e da aplicação de otimizações algorítmicas no pós-treinamento. Essa abordagem resultou em melhorias notáveis em vários benchmarks.
No teste AIME 2025, por exemplo, a precisão do DeepSeek-R1-0528 saltou de 70% para 87.5%, indicando processos de raciocínio mais profundos que agora têm uma média de 23.000 tokens por pergunta, comparados a 12.000 na versão anterior.

O desempenho em codificação também teve um aumento, com a precisão no conjunto de dados LiveCodeBench subindo de 63.5% para 73.3%. Na exigente “Última Prova da Humanidade”, o desempenho mais do que dobrou, alcançando 17.7% a partir de 8.5%.
Esses avanços colocam o DeepSeek-R1-0528 mais perto do desempenho de modelos estabelecidos como o o3 da OpenAI e o Gemini 2.5 Pro, de acordo com avaliações internas — esses modelos têm limites de taxa e/ou exigem assinaturas pagas para acesso.
Melhorias na experiência do usuário e novos recursos
Além das melhorias de desempenho, o DeepSeek-R1-0528 apresenta vários novos recursos destinados a aprimorar a experiência do usuário.
A atualização adiciona suporte para saída JSON e chamadas de função, recursos que devem facilitar para os desenvolvedores integrar as capacidades do modelo em suas aplicações e fluxos de trabalho.
As capacidades de front-end também foram refinadas, e a DeepSeek afirma que essas mudanças criarão uma interação mais suave e eficiente para os usuários.
Além disso, a taxa de alucinação do modelo foi reduzida, contribuindo para resultados mais confiáveis e consistentes.
Uma atualização notável é a introdução de prompts de sistema. Diferente da versão anterior, que exigia um token especial no início da saída para ativar o modo de “pensamento”, essa atualização remove essa necessidade, agilizando a implementação para os desenvolvedores.
Versões menores para aqueles com orçamentos computacionais limitados
Juntamente com este lançamento, a DeepSeek destilou seu raciocínio em cadeia em uma variante menor, o DeepSeek-R1-0528-Qwen3-8B, que deve ajudar aqueles tomadores de decisão e desenvolvedores empresariais que não têm o hardware necessário para executar o modelo completo.
Esta versão destilada supostamente alcança desempenho de ponta entre modelos open-source em tarefas como AIME 2024, superando o Qwen3-8B em 10% e igualando o Qwen3-235B-thinking.
De acordo com Modal, executar um modelo de linguagem grande (LLM) com 8 bilhões de parâmetros em precisão de meio (FP16) requer aproximadamente 16 GB de memória GPU, equivalente a cerca de 2 GB por bilhão de parâmetros.
Portanto, uma única GPU de alto desempenho com pelo menos 16 GB de VRAM, como a NVIDIA RTX 3090 ou 4090, é suficiente para executar um LLM de 8B em precisão FP16. Para modelos mais quantizados, GPUs com 8–12 GB de VRAM, como a RTX 3060, podem ser usadas.
A DeepSeek acredita que esse modelo destilado será útil para pesquisa acadêmica e aplicações industriais que requerem modelos de menor escala.
Reações iniciais de desenvolvedores e influenciadores de IA
A atualização já atraiu atenção e elogios de desenvolvedores e entusiastas nas redes sociais.
Haider, conhecido como “@slow_developer”, compartilhou no X que o DeepSeek-R1-0528 “é simplesmente incrível em codificação”, descrevendo como gerou código limpo e testes funcionais para um desafio de sistema de pontuação de palavras, ambos funcionando perfeitamente na primeira tentativa. Segundo ele, apenas o o3 havia conseguido igualar essa performance anteriormente.
Enquanto isso, Lisan al Gaib postou que “a DeepSeek está mirando no rei: o3 e Gemini 2.5 Pro”, refletindo o consenso de que a nova atualização aproxima o modelo da DeepSeek desses melhores desempenhos.
Outro influenciador de notícias e rumores de IA, Chubby, comentou que “a DeepSeek estava cozinhando!” e destacou como a nova versão está quase em paridade com o o3 e o Gemini 2.5 Pro.
Chubby até especulou que a última atualização do R1 pode indicar que a DeepSeek está se preparando para lançar seu aguardado e presumido modelo “R2” em breve.
Olhando para o futuro
A liberação do DeepSeek-R1-0528 ressalta o compromisso da DeepSeek em fornecer modelos open-source de alto desempenho que priorizam raciocínio e usabilidade. Ao combinar ganhos mensuráveis em benchmark com recursos práticos e uma licença open-source permissiva, o DeepSeek-R1-0528 está posicionado como uma ferramenta valiosa para desenvolvedores, pesquisadores e entusiastas que buscam aproveitar o que há de mais recente nas capacidades de modelos de linguagem.
Insights diários sobre casos de uso de negócios com VB Daily
Se você quer impressionar seu chefe, o VB Daily tem tudo a ver com você. Fornecemos informações sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para o máximo ROI.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais newsletters do VB aqui.
Ocorreu um erro.

Conteúdo relacionado
Meta planeja automatizar muitas de suas avaliações de risco de produtos.
[the_ad id="145565"] Um sistema impulsionado por inteligência artificial poderá em breve assumir a responsabilidade pela avaliação dos potenciais danos e riscos à privacidade…
NAACP pede às autoridades de Memphis que interrompam as operações do ‘centro de dados sujo’ da xAI
[the_ad id="145565"] A NAACP está pedindo às autoridades locais que interrompam as operações da Colossus, a instalação de "supercomputador" operada pela xAI de Elon Musk em…
ElevenLabs lança assistentes de voz de IA Conversacional 2.0 que entendem quando pausar, falar e alternar falas.
[the_ad id="145565"] Participe de nossos boletins diários e semanais para receber as últimas atualizações e conteúdo exclusivo sobre cobertura líder da indústria em IA. Saiba…