Here’s the content translated into Portuguese while maintaining the HTML tags:
<div>
<div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Participe de nossos boletins informativos diários e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA de ponta. Saiba Mais</em></p>
<!-- /wp:paragraph -->
<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator --></div><p>A gigante chinesa de comércio eletrônico e web <a target="_blank" href="https://qwenlm.github.io/blog/qwen3/" target="_blank" rel="noreferrer noopener">time Qwen da Alibaba lançou oficialmente</a> uma nova série de modelos multimodais de linguagem grande de código aberto conhecidos como Qwen3, que parecem estar entre os melhores modelos abertos e se aproximam do desempenho de modelos proprietários de empresas como OpenAI e Google.</p>
<p>A série Qwen3 apresenta dois modelos de "mistura de especialistas" e seis modelos densos, totalizando oito (!) novos modelos. A abordagem de "mistura de especialistas" envolve a combinação de vários tipos de modelos especializados em um só, com apenas os modelos relevantes para a tarefa em questão sendo ativados quando necessário nas configurações internas do modelo (conhecidas como parâmetros). Essa abordagem foi popularizada pela startup francesa de IA de código aberto Mistral.</p>
<p>De acordo com a equipe, a versão de 235 bilhões de parâmetros do Qwen3, codinome A22B, supera o modelo de código aberto R1 da DeepSeek e o modelo proprietário o1 da OpenAI em benchmarks importantes de terceiros, incluindo ArenaHard (com 500 perguntas de usuários em engenharia de software e matemática) e se aproxima do desempenho do novo Google Gemini 2.5-Pro proprietário.</p>
<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="3413" height="1920" src="https://venturebeat.com/wp-content/uploads/2025/04/Gppj9_kbEAAkO9U.jpg?w=800" alt="" class="wp-image-3005882" /></figure>
<p>No geral, os dados de benchmark posicionam o Qwen3-235B-A22B como um dos modelos publicamente disponíveis mais poderosos, alcançando paridade ou superioridade em relação às grandes ofertas da indústria.</p>
<h2 class="wp-block-heading" id="h-hybrid-reasoning-theory">Teoria da Razão Híbrida</h2>
<p>Os modelos Qwen3 são treinados para fornecer capacidades de "razão híbrida" ou "razão dinâmica", permitindo aos usuários alternar entre respostas rápidas e precisas e etapas de raciocínio mais demoradas e intensivas em computação (semelhantes à série "o" da OpenAI) para consultas mais difíceis em ciência, matemática, engenharia e outros campos especializados. Essa abordagem foi pioneira pela Nous Research e outras startups e coletivos de pesquisa em IA.</p>
<p>Com o Qwen3, os usuários podem ativar o modo "Pensando" mais intensivo usando o botão marcado como tal no site do Qwen Chat ou incorporando prompts específicos como <code>/think</code> ou <code>/no_think</code> ao implantar o modelo localmente ou via API, permitindo uso flexível dependendo da complexidade da tarefa.</p>
<p>Os usuários agora podem acessar e implantar esses modelos em plataformas como Hugging Face, ModelScope, Kaggle e GitHub, bem como interagir diretamente com eles através da <a target="_blank" href="https://chat.qwen.ai/" target="_blank" rel="noreferrer noopener">interface web do Qwen Chat</a> e aplicativos móveis. O lançamento inclui tanto modelos de Mistura de Especialistas (MoE) quanto modelos densos, todos disponíveis sob a licença de código aberto Apache 2.0.</p>
<p>Em meu breve uso do site do Qwen Chat até agora, ele conseguiu gerar imagens de forma relativamente rápida e com boa adesão ao prompt — especialmente ao incorporar texto na imagem de forma nativa enquanto combinava o estilo. No entanto, ele frequentemente pedia para eu fazer login e estava sujeito às habituais restrições de conteúdo da China (como a proibição de prompts ou respostas relacionadas aos protestos da Praça Tiananmen).</p>
<figure class="wp-block-image size-large is-resized"><img decoding="async" width="2302" height="770" src="https://venturebeat.com/wp-content/uploads/2025/04/Screenshot-2025-04-28-at-6.31.44%E2%80%AFPM.png?w=800" alt="" class="wp-image-3005903" style="width:840px;height:auto" /></figure>
<p>Além das ofertas MoE, o Qwen3 inclui modelos densos em diferentes escalas: Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B e Qwen3-0.6B.</p>
<p>Esses modelos variam em tamanho e arquitetura, oferecendo opções aos usuários para atender a diversas necessidades e orçamentos computacionais.</p>
<p>Os modelos Qwen3 também expandem significativamente o suporte multilíngue, agora cobrindo 119 idiomas e dialetos em famílias linguísticas principais. Isso amplia as potenciais aplicações dos modelos globalmente, facilitando pesquisas e implantações em uma ampla gama de contextos linguísticos.</p>
<h2 class="wp-block-heading" id="h-model-training-and-architecture">Treinamento e arquitetura do modelo</h2>
<p>Em termos de treinamento do modelo, o Qwen3 representa um avanço substancial em relação ao seu predecessor, Qwen2.5. O conjunto de dados de pré-treinamento dobrou de tamanho, chegando a aproximadamente 36 trilhões de tokens.</p>
<p>As fontes de dados incluem rastreamentos da web, extrações de documentos semelhantes a PDF e conteúdo sintético gerado usando modelos Qwen anteriores focados em matemática e codificação.</p>
<p>A pipeline de treinamento consistiu em um processo de pré-treinamento em três etapas, seguido por um refinamento pós-treinamento em quatro etapas para ativar as capacidades de pensamento híbrido e não-pensante. As melhorias no treinamento permitem que os modelos densos base do Qwen3 igualem ou superem o desempenho de modelos Qwen2.5 muito maiores.</p>
<p>As opções de implantação são versáteis. Os usuários podem integrar os modelos Qwen3 usando estruturas como SGLang e vLLM, ambas oferecendo endpoints compatíveis com OpenAI.</p>
<p>Para uso local, opções como Ollama, LMStudio, MLX, llama.cpp e KTransformers são recomendadas. Além disso, usuários interessados nas capacidades agentivas dos modelos são incentivados a explorar o toolkit Qwen-Agent, que simplifica as operações de chamada de ferramentas.</p>
<p>Junyang Lin, membro da equipe Qwen, <a target="_blank" href="https://x.com/JustinLin610/status/1916965026977747313" target="_blank" rel="noreferrer noopener">comentou no X</a> que a construção do Qwen3 envolveu enfrentar desafios técnicos críticos, mas menos glamourosos, como escalar o aprendizado por reforço de maneira estável, equilibrar dados de múltiplos domínios e expandir o desempenho multilíngue sem sacrificar a qualidade.</p>
<p>Lin também indicou que a equipe está mudando o foco para treinar agentes capazes de raciocínio de longo prazo para tarefas do mundo real.</p>
<h2 class="wp-block-heading" id="h-what-it-means-for-enterprise-decision-makers">O que isso significa para tomadores de decisão empresariais</h2>
<p>As equipes de engenharia podem apontar os endpoints compatíveis com OpenAI para o novo modelo em horas, em vez de semanas. Os pontos de verificação MoE (235 B de parâmetros com 22 B ativos e 30 B com 3 B ativos) oferecem raciocínio da classe GPT-4 a um custo de memória GPU semelhante ao de um modelo denso de 20 a 30 B.</p>
<p>Ganchos oficiais de LoRA e QLoRA permitem ajuste fino privado sem enviar dados proprietários a um fornecedor de terceiros.</p>
<p>As variantes densas de 0.6 B a 32 B facilitam a prototipagem em laptops e a escalabilidade para clusters de múltiplas GPUs sem reescrever prompts.</p>
<p>Executar os pesos localmente significa que todos os prompts e saídas podem ser registrados e inspecionados. A esparsidade de MoE reduz o número de parâmetros ativos por chamada, diminuindo a superfície de ataque de inferência.</p>
<p>A licença Apache-2.0 remove barreiras legais baseadas em uso, embora as organizações ainda devam revisar as implicações de controle de exportação e governança ao usar um modelo treinado por um fornecedor baseado na China.</p>
<p>No entanto, ao mesmo tempo, também oferece uma alternativa viável a outros players chineses, incluindo DeepSeek, Tencent e ByteDance — bem como a miríade e crescente número de modelos norte-americanos, como os mencionados OpenAI, Google, Microsoft, Anthropic, Amazon, Meta e outros. A licença permissiva Apache 2.0 — que permite uso comercial ilimitado — é também uma grande vantagem em relação a outros players de código aberto, como a Meta, cujas licenças são mais restritivas.</p>
<p>Isso indica, além disso, que a corrida entre provedores de IA para oferecer modelos cada vez mais poderosos e acessíveis continua extremamente competitiva, e organizações inteligentes que buscam cortar custos devem tentar permanecer flexíveis e abertas a avaliar esses novos modelos para seus agentes e fluxos de trabalho de IA.</p>
<h2 class="wp-block-heading" id="h-looking-ahead">Olhando para o futuro</h2>
<p>A equipe Qwen posiciona o Qwen3 não apenas como uma melhoria incremental, mas como um passo significativo em direção a metas futuras em Inteligência Geral Artificial (AGI) e Inteligência Artificial Superinteligente (ASI), uma IA significativamente mais inteligente que os humanos.</p>
<p>Os planos para a próxima fase do Qwen incluem aumentar ainda mais o tamanho dos dados e do modelo, estender os comprimentos de contexto, ampliar o suporte a modalidades e aprimorar o aprendizado por reforço com mecanismos de feedback ambiental.</p>
<p>À medida que o cenário da pesquisa em IA de grande escala continua a evoluir, o lançamento do peso aberto do Qwen3 sob uma licença acessível marca outro marco importante, diminuindo as barreiras para pesquisadores, desenvolvedores e organizações que buscam inovar com LLMs de ponta.</p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
<div class="Boilerplate__newsletter-container vb">
<div class="Boilerplate__newsletter-main">
<p><strong>Percepções diárias sobre casos de uso empresarial com VB Daily</strong></p>
<p class="copy">Se você quer impressionar seu chefe, o VB Daily tem o que você precisa. Oferecemos informações privilegiadas sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implantações práticas, para que você possa compartilhar insights para o máximo ROI.</p>
<p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
<p class="Form__success" id="boilerplateNewsletterConfirmation">
Obrigado por se inscrever. Confira mais boletins informativos da VB aqui.
</p>
<p class="Form__error">Ocorreu um erro.</p>
</div>
<div class="image-container">
<img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
</div>
</div>
<!-- /wp:shortcode --></div>
</div>
Conteúdo relacionado
CEO da Microsoft afirma que até 30% do código da empresa foi escrito por IA
[the_ad id="145565"] O CEO da Microsoft, Satya Nadella, afirmou que 20%-30% do código nos repositórios da empresa foi “escrito por software” — referindo-se à IA — durante uma…
Tripp lança Kōkua AI como coach de bem-estar mental em várias plataformas.
[the_ad id="145565"] Sure! Here's the rewritten content in Portuguese, maintaining the HTML tags: <div> <p><a target="_blank"…
Faltam 6 dias para economizar muito e trazer um amigo com 50% de desconto para as Sessões!
[the_ad id="145565"] A revolução da IA não está chegando — já está em andamento, e o prazo para garantir seu ingresso Early Bird termina em apenas 6 dias. Não perca a…