Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA de ponta. Saiba Mais
A OpenAI trouxe um novo paradigma de raciocínio em modelos de linguagem de grande porte (LLMs) com seu modelo o1, que recentemente recebeu uma grande atualização. No entanto, enquanto a OpenAI lidera fortemente neste setor, pode acabar perdendo terreno para concorrentes de código aberto que estão rapidamente surgindo.
Modelos como o o1, às vezes referidos como modelos de raciocínio de grande porte (LRMs), utilizam ciclos de computação adicionais em tempo de inferência para “pensar” mais, revisar suas respostas e corrigir seus erros. Isso permite que eles resolvam problemas complexos de raciocínio que LLMs clássicos têm dificuldade e os torna especialmente úteis para tarefas como programação, matemática e análise de dados.
No entanto, nos últimos dias, os desenvolvedores mostraram reações mistas ao o1, especialmente após o lançamento da atualização. Alguns postaram exemplos do o1 realizando tarefas incríveis, enquanto outros expressaram frustração sobre as respostas confusas do modelo. Os desenvolvedores têm enfrentado todo tipo de problemas, desde mudanças ilógicas no código até a ignorar instruções.
Segredos em torno dos detalhes do o1
Parte da confusão se deve à segredo da OpenAI e à recusa em mostrar os detalhes de como o o1 funciona. O “ingrediente secreto” por trás do sucesso dos LRMs são os tokens adicionais que o modelo gera ao chegar à resposta final, referidos como “pensamentos” ou “cadeia de raciocínio” do modelo. Por exemplo, se você solicitar a um LLM clássico que gere código para uma tarefa, ele gerará imediatamente o código. Em contraste, um LRM gerará tokens de raciocínio que examinamos o problema, planejarão a estrutura do código e gerarão múltiplas soluções antes de emitir a resposta final.
O o1 oculta o processo de pensamento e mostra apenas a resposta final juntamente com uma mensagem que exibe quanto tempo o modelo pensou e possivelmente uma visão geral do processo de raciocínio. Isso é parcialmente para evitar sobrecarregar a resposta e proporcionar uma experiência do usuário mais suave. Mas, mais importante, a OpenAI considera a cadeia de raciocínio um segredo comercial e deseja dificultar a replicação das capacidades do o1 por parte de concorrentes.
Os custos de treinamento de novos modelos continuam a crescer e as margens de lucro não estão acompanhando, o que está levando alguns laboratórios de IA a se tornarem mais secretos para estender sua vantagem. Mesmo a pesquisa Apollo, que fez o red-teaming do modelo, não teve acesso à sua cadeia de raciocínio.
Essa falta de transparência levou os usuários a fazer todo tipo de especulações, incluindo acusações de que a OpenAI teria degradado o modelo para reduzir custos de inferência.
Modelos de código aberto totalmente transparentes
Por outro lado, alternativas de código aberto, como o Qwen with Questions da Alibaba e o Marco-o1, mostram toda a cadeia de raciocínio de seus modelos. Outra alternativa é o DeepSeek R1, que não é open source, mas ainda revela os tokens de raciocínio. Ver a cadeia de raciocínio permite que os desenvolvedores solucionem problemas com suas solicitações e encontrem maneiras de melhorar as respostas do modelo, adicionando instruções adicionais ou exemplos em contexto.
A visibilidade no processo de raciocínio é especialmente importante quando se deseja integrar as respostas do modelo em aplicativos e ferramentas que esperam resultados consistentes. Além disso, ter controle sobre o modelo subjacente é importante em aplicações empresariais. Modelos privados e a estrutura que os suporta, como as salvaguardas e filtros que testam suas entradas e saídas, estão mudando constantemente. Embora isso possa resultar em um desempenho geral melhor, pode quebrar muitos prompts e aplicativos que foram construídos em cima deles. Em contrapartida, modelos de código aberto oferecem controle total ao desenvolvedor, o que pode ser uma opção mais robusta para aplicações empresariais, onde o desempenho em tarefas muito específicas é mais importante do que habilidades gerais.
O QwQ e o R1 ainda estão em versões de pré-visualização, e o o1 tem a liderança em termos de precisão e facilidade de uso. E para muitos usos, como fazer prompts gerais ou solicitações únicas, o o1 ainda pode ser uma opção melhor do que as alternativas de código aberto.
No entanto, a comunidade de código aberto está rapidamente alcançando os modelos privados, e podemos esperar que mais modelos surjam nos próximos meses. Eles podem se tornar uma alternativa adequada onde visibilidade e controle são cruciais.
VB Daily
Mantenha-se informado! Receba as últimas notícias na sua caixa de entrada diariamente
Ao se inscrever, você concorda com os Termos de Serviço da VentureBeat.
Obrigado por se inscrever. Confira mais newsletters da VB aqui.
Ocorreu um erro.
Conteúdo relacionado
Criações de IA editadas por humanos podem ser provavelmente protegidas por direitos autorais nos EUA, afirma agência
[the_ad id="145565"] Nos EUA, criações geradas por IA — livros, filmes e assim por diante — que foram editadas por um ser humano provavelmente podem ser protegidas por direitos…
Ai2 lança o Tülu 3, um modelo totalmente open-source que supera o DeepSeek v3 e o GPT-4o com uma nova abordagem de pós-treinamento.
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA de liderança no setor. Saiba…
Microsoft lança Surface Pro e Laptop PCs com foco em Copilot, disponíveis com opções Snapdragon e Intel.
[the_ad id="145565"] Na quinta-feira, durante um evento em Nova York, a Microsoft apresentou duas novidades na linha de PCs Surface. O novo Surface Pro e o Surface Laptop…