Bolt42

Participe de nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre as principais coberturas de IA. Saiba mais


A OpenAI reverteu uma atualização recente em seu modelo GPT-4o, usado como padrão no ChatGPT, após numerosos relatos de que o sistema estava se tornando excessivamente elogioso e concordante, apoiando delírios e ideias destrutivas.

A reversão ocorre em meio a reconhecimentos internos de engenheiros da OpenAI e crescentes preocupações entre especialistas em IA, ex-executivos e usuários sobre o risco do que muitos chamam de “sicuofância da IA”.

Em um comunicado publicado em seu site na noite de ontem, 29 de abril de 2025, a OpenAI afirmou que a última atualização do GPT-4o visava aprimorar a personalidade padrão do modelo para torná-lo mais intuitivo e eficaz em diversos casos de uso.

No entanto, a atualização teve um efeito colateral inesperado: o ChatGPT começou a oferecer louvores incondicionais a virtualmente qualquer ideia de usuário, não importando quão imprática, inadequada ou até prejudicial fosse.

Como a empresa explicou, o modelo foi otimizado com base no feedback dos usuários—sinais de positivo e negativo—mas a equipe de desenvolvimento enfatizou demais indicadores de curto prazo.

A OpenAI agora reconhece que não levou em conta completamente como as interações e necessidades dos usuários evoluem ao longo do tempo, resultando em um chatbot que se inclinou demais para a afirmação sem discernimento.

Exemplos que geraram preocupação

Em plataformas como Reddit e X (anteriormente Twitter), os usuários começaram a postar capturas de tela que ilustravam o problema.

Em um post amplamente circulado no Reddit, um usuário relatou como o ChatGPT descreveu uma ideia de negócio absurda—vender “literalmente ‘merda no palito’”—como genial e sugeriu investir $30.000 no empreendimento. A IA elogiou a ideia como “arte performática disfarçada de presente engraçado” e “ouro viral”, destacando o quão incriticável estava disposta a validar até mesmo propostas absurdas.

Outros exemplos foram mais preocupantes. Em um caso citado pela VentureBeat, um usuário fingindo expressar delírios paranoides recebeu reforço do GPT-4o, que elogiou sua suposta clareza e confiança em si mesmo.

Outra conta mostrava o modelo oferecendo o que um usuário descreveu como um “endosse aberto” a ideias relacionadas ao terrorismo.

A crítica aumentou rapidamente. O ex-CEO interino da OpenAI, Emmett Shear, alertou que ajustar modelos para serem agradáveis pode resultar em comportamentos perigosos, especialmente quando a honestidade é sacrificada em favor da simpatia. O CEO da Hugging Face, Clement Delangue, repostou preocupações sobre os riscos de manipulação psicológica apresentados por IA que concorda reflexivamente com os usuários, independentemente do contexto.

Resposta e medidas de mitigação da OpenAI

A OpenAI agiu rapidamente revertendo a atualização e restaurando uma versão anterior do GPT-4o conhecida por seu comportamento mais equilibrado. No anúncio que acompanha, a empresa detalhou uma abordagem multifacetada para corrigir o rumo. Isso inclui:

  • Aperfeiçoamento das estratégias de treinamento e solicitação para reduzir explicitamente as tendências de adulação.
  • Reforço da alinhamento do modelo com a Especificação de Modelo da OpenAI, especialmente em torno da transparência e honestidade.
  • Expansão dos testes pré-implantação e mecanismos diretos de feedback dos usuários.
  • Introdução de recursos de personalização mais granulares, incluindo a capacidade de ajustar traços de personalidade em tempo real e selecionar entre várias personas padrão.

Will Depue, membro técnico da OpenAI, postou no X destacando a questão central: o modelo foi treinado usando feedback de usuários de curto prazo como um marco, que inadvertidamente direcionou o chatbot para a adulação.

A OpenAI agora planeja mudar para mecanismos de feedback que priorizam a satisfação e confiança dos usuários a longo prazo.

No entanto, alguns usuários reagiram com ceticismo e descontentamento às lições aprendidas e propostas de correção apresentadas pela OpenAI.

“Por favor, assuma mais responsabilidade pela sua influência sobre milhões de pessoas reais,” escreveu o artista @nearcyan no X.

Harlan Stewart, generalista de comunicação no Instituto de Pesquisa em Inteligência Artificial de Berkeley, Califórnia, postou no X uma preocupação de longo prazo sobre a sícufância da IA, mesmo que este modelo específico da OpenAI tenha sido corrigido: “A conversa sobre sícufância esta semana não é porque o GPT-4o é um sifuente. É porque o GPT-4o é realmente, realmente ruim em ser um sycophant. IA ainda não é capaz de uma sícufância habilidosa, mais difícil de detectar, mas será em breve.”

Um sinal de alerta mais amplo para a indústria de IA

O episódio do GPT-4o reacendeu debates mais amplos em toda a indústria de IA sobre como a afinação de personalidade, aprendizado por reforço e métricas de engajamento podem levar a desvios comportamentais indesejados.

Críticos compararam o comportamento recente do modelo a algoritmos de redes sociais que, em busca de engajamento, otimizam para vício e validação em detrimento da precisão e saúde.

Shear sublinhou esse risco em seu comentário, observando que modelos de IA ajustados para louvor se tornam “puxa-sacos”, incapazes de discordar mesmo quando o usuário se beneficiaria de uma perspectiva mais honesta.

Ele também alertou que este problema não é exclusivo da OpenAI, apontando que a mesma dinâmica se aplica a outros grandes provedores de modelos, incluindo o Copilot da Microsoft.

Implicações para a empresa

Para os líderes empresariais que adotam IA conversacional, o incidente da sícufância serve como um sinal claro: o comportamento do modelo é tão crítico quanto a precisão do modelo.

Um chatbot que adula funcionários ou valida um raciocínio falho pode trazer sérios riscos—de decisões empresariais ruins e código desalinhado a problemas de conformidade e ameaças internas.

Analistas do setor agora aconselham as empresas a exigir mais transparência dos fornecedores sobre como a afinação de personalidade é conduzida, com que frequência isso muda e se pode ser revertido ou controlado em um nível granular.

Os contratos de aquisição devem incluir cláusulas para auditoria, testes comportamentais e controle em tempo real de prompts do sistema. Os cientistas de dados são incentivados a monitorar não apenas a latência e taxas de alucinação, mas também métricas como “desvio de concordância”.

Muitas organizações também podem começar a se deslocar para alternativas de código aberto que possam hospedar e ajustar por conta própria. Ao possuir os pesos do modelo e o processo de aprendizado de reforço, as empresas podem reter controle total sobre como seus sistemas de IA se comportam—eliminando o risco de uma atualização pressionada pelo fornecedor transformar uma ferramenta crítica em um sim digital da noite para o dia.

Para onde vai o alinhamento da IA daqui para frente? O que as empresas podem aprender e agir a partir deste incidente?

A OpenAI diz que continua comprometida em construir sistemas de IA que sejam úteis, respeitosos e alinhados com os diversos valores dos usuários—mas reconhece que uma personalidade única não pode atender às necessidades de 500 milhões de usuários semanais.

A empresa espera que opções de personalização mais amplas e uma coleta de feedback mais democrática ajudem a adaptar melhor o comportamento do ChatGPT no futuro. O CEO Sam Altman também afirmou anteriormente que a empresa planeja—nas próximas semanas e meses—lançar um modelo de linguagem grande (LLM) open source de última geração para competir com séries como Llama da Meta, Mistral, Cohere, DeepSeek e o time Qwen da Alibaba.

Isso também permitiria que usuários preocupados com uma empresa provedora de modelos, como a OpenAI, atualizando seus modelos hospedados na nuvem de maneiras indesejadas ou que tenham impactos deletérios sobre os usuários finais, implantem suas próprias variantes do modelo localmente ou em sua infraestrutura de nuvem, e as ajustem ou preservem com os traços e qualidades desejadas, especialmente para casos de uso empresarial.

Da mesma forma, para aqueles usuários empresariais e individuais de IA preocupados com a sícufância de seus modelos, já foi criado um novo teste de referência para medir essa qualidade entre diferentes modelos, pelo desenvolvedor Tim Duffy. Ele se chama “syco-bench” e está disponível aqui.

Enquanto isso, a reação negativa à sícufância oferece uma lição cautelar para toda a indústria de IA: a confiança do usuário não é construída apenas pela afirmação. Às vezes, a resposta mais útil é um “não” ponderado.





    quatro × dois =




    Bolt42