A OpenAI publicou um postmortem sobre os recentes problemas de bajulação com o modelo padrão que alimenta o ChatGPT, o GPT-4o — questões que forçaram a empresa a reverter uma atualização do modelo lançada na semana passada.
Durante o fim de semana, após a atualização do modelo GPT-4o, usuários nas redes sociais notaram que o ChatGPT começou a responder de maneira excessivamente válida e concordante. Isso logo se tornou um meme. Os usuários compartilharam capturas de tela do ChatGPT aplaudindo uma variedade de decisões problemáticas, perigosas e ideias.
Em um post no X no domingo, o CEO Sam Altman reconheceu o problema e disse que a OpenAI trabalharia em correções “o mais rápido possível.” Dois dias depois, Altman anunciou que a atualização do GPT-4o estava sendo revertida e que a OpenAI estava trabalhando em “correções adicionais” para a personalidade do modelo.
De acordo com a OpenAI, a atualização, que tinha como objetivo fazer com que a personalidade padrão do modelo “parecesse mais intuitiva e eficaz,” foi influenciada em excesso por “feedback de curto prazo” e “não levou totalmente em conta como as interações dos usuários com o ChatGPT evoluem ao longo do tempo.”
Revertamos a atualização do GPT-4o do ChatGPT da semana passada porque estava excessivamente lisonjeira e concordante. Agora você tem acesso a uma versão anterior com um comportamento mais equilibrado.
Mais sobre o que aconteceu, por que isso importa e como estamos abordando a bajulação: https://t.co/LOhOU7i7DC
— OpenAI (@OpenAI) 30 de abril de 2025
“Como resultado, o GPT‑4o tendia a respostas que eram excessivamente apoiadoras, mas desonestas,” escreveu a OpenAI em seu post no blog. “Interações bajuladoras podem ser desconfortáveis, inquietantes e causar angústia. Nós falhamos e estamos trabalhando para corrigir isso.”
A OpenAI afirma que está implementando várias correções, incluindo o refinamento de suas técnicas de treinamento do modelo principal e prompts de sistema para direcionar explicitamente o GPT-4o a evitar a bajulação. (Os prompts de sistema são as instruções iniciais que orientam o comportamento e o tom geral de um modelo nas interações.) A empresa também está construindo mais guardrails de segurança para “aumentar [a honestidade e transparência do modelo]” e continuar expandindo suas avaliações para “ajudar a identificar questões além da bajulação,” segundo a empresa.
Evento Techcrunch
Berkeley, CA
|
5 de junho
RESERVE AGORA
A OpenAI também afirma que está experimentando maneiras de permitir que os usuários forneçam “feedback em tempo real” para “influenciar diretamente suas interações” com o ChatGPT e escolher entre múltiplas personalidades do ChatGPT.
“Estamos explorando novas formas de incorporar feedback mais amplo e democrático nos comportamentos padrões do ChatGPT,” escreveu a empresa em seu post no blog. “Esperamos que o feedback nos ajude a refletir melhor os valores culturais diversos ao redor do mundo e a entender como você gostaria que o ChatGPT evoluísse… Também acreditamos que os usuários devem ter mais controle sobre como o ChatGPT se comporta e, na medida do possível, fazer ajustes se não concordarem com o comportamento padrão.”
Conteúdo relacionado
O chatbot Gemini do Google recebe ferramentas de criação de imagens aprimoradas.
[the_ad id="145565"] O aplicativo de chatbot Gemini do Google agora permite que você modifique tanto imagens geradas por IA quanto imagens enviadas do seu telefone ou…
OpenAI reverte a adulação do ChatGPT e explica o que deu errado.
[the_ad id="145565"] Participe de nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre as principais coberturas de IA. Saiba…
A Microsoft espera algumas limitações de capacidade de IA neste trimestre.
[the_ad id="145565"] Um executivo alertou durante a conferência de resultados da Microsoft na quarta-feira que os clientes podem enfrentar interrupções nos serviços de IA à…