A OpenAI publicou um postmortem sobre os recentes problemas de bajulação com o modelo padrão que alimenta o ChatGPT, o GPT-4o — questões que forçaram a empresa a reverter uma atualização do modelo lançada na semana passada.
Durante o fim de semana, após a atualização do modelo GPT-4o, usuários nas redes sociais notaram que o ChatGPT começou a responder de maneira excessivamente válida e concordante. Isso logo se tornou um meme. Os usuários compartilharam capturas de tela do ChatGPT aplaudindo uma variedade de decisões problemáticas, perigosas e ideias.
Em um post no X no domingo, o CEO Sam Altman reconheceu o problema e disse que a OpenAI trabalharia em correções “o mais rápido possível.” Dois dias depois, Altman anunciou que a atualização do GPT-4o estava sendo revertida e que a OpenAI estava trabalhando em “correções adicionais” para a personalidade do modelo.
De acordo com a OpenAI, a atualização, que tinha como objetivo fazer com que a personalidade padrão do modelo “parecesse mais intuitiva e eficaz,” foi influenciada em excesso por “feedback de curto prazo” e “não levou totalmente em conta como as interações dos usuários com o ChatGPT evoluem ao longo do tempo.”
Revertamos a atualização do GPT-4o do ChatGPT da semana passada porque estava excessivamente lisonjeira e concordante. Agora você tem acesso a uma versão anterior com um comportamento mais equilibrado.
Mais sobre o que aconteceu, por que isso importa e como estamos abordando a bajulação: https://t.co/LOhOU7i7DC
— OpenAI (@OpenAI) 30 de abril de 2025
“Como resultado, o GPT‑4o tendia a respostas que eram excessivamente apoiadoras, mas desonestas,” escreveu a OpenAI em seu post no blog. “Interações bajuladoras podem ser desconfortáveis, inquietantes e causar angústia. Nós falhamos e estamos trabalhando para corrigir isso.”
A OpenAI afirma que está implementando várias correções, incluindo o refinamento de suas técnicas de treinamento do modelo principal e prompts de sistema para direcionar explicitamente o GPT-4o a evitar a bajulação. (Os prompts de sistema são as instruções iniciais que orientam o comportamento e o tom geral de um modelo nas interações.) A empresa também está construindo mais guardrails de segurança para “aumentar [a honestidade e transparência do modelo]” e continuar expandindo suas avaliações para “ajudar a identificar questões além da bajulação,” segundo a empresa.
Evento Techcrunch
Berkeley, CA
|
5 de junho
RESERVE AGORA
A OpenAI também afirma que está experimentando maneiras de permitir que os usuários forneçam “feedback em tempo real” para “influenciar diretamente suas interações” com o ChatGPT e escolher entre múltiplas personalidades do ChatGPT.
“Estamos explorando novas formas de incorporar feedback mais amplo e democrático nos comportamentos padrões do ChatGPT,” escreveu a empresa em seu post no blog. “Esperamos que o feedback nos ajude a refletir melhor os valores culturais diversos ao redor do mundo e a entender como você gostaria que o ChatGPT evoluísse… Também acreditamos que os usuários devem ter mais controle sobre como o ChatGPT se comporta e, na medida do possível, fazer ajustes se não concordarem com o comportamento padrão.”
Conteúdo relacionado
JetBrains lança o Mellum, um modelo de IA de codificação ‘aberto’
[the_ad id="145565"] A JetBrains, a empresa por trás de uma variedade de ferramentas populares para desenvolvimento de aplicativos, lançou seu primeiro modelo de IA “aberto”…
Gruve.ai promete margens de software para consultoria em tecnologia de IA, revolucionando uma indústria com décadas de existência.
[the_ad id="145565"] Empresas de todos os tamanhos estão reconhecendo as possibilidades transformadoras da IA. Apesar da empolgação com a nova tecnologia, a maioria de seus…
Se você possui óculos Ray-Ban Meta, é importante revisar suas configurações de privacidade.
[the_ad id="145565"] A Meta atualizou a política de privacidade de seus óculos de IA, Ray-Ban Meta, concedendo à gigante da tecnologia mais controle sobre quais dados pode…