Bolt42

Você está imaginando coisas, ou os chatbots de inteligência artificial (IA) parecem excessivamente dispostos a concordar com você? Seja elogiando sua ideia questionável como “brilhante” ou apoiando uma afirmação que pode ser falsa, esse comportamento está atraindo atenção mundial.

Recentemente, a OpenAI fez as manchetes depois que os usuários perceberam que o ChatGPT estava agindo como um sim-man demais. A atualização para o modelo 4o fez com que o bot se tornasse tão educado e afirmativo que estava disposto a dizer qualquer coisa para deixá-lo feliz, mesmo que isso fosse tendencioso.

Por que esses sistemas tendem à bajulação e o que os faz ecoar suas opiniões? Questões como essas são importantes para entender, para que você possa usar a IA generativa de forma mais segura e prazerosa.

A Atualização do ChatGPT que Exagerou

No início de 2025, os usuários do ChatGPT notaram algo estranho sobre o grande modelo de linguagem (LLM). Sempre foi amigável, mas agora estava muito agradável. Começou a concordar com quase tudo, independentemente de quão estranha ou incorreta fosse a afirmação. Você poderia dizer que discorda de algo verdadeiro, e ele responderia com a mesma opinião.

Essa mudança ocorreu após uma atualização do sistema destinada a tornar o ChatGPT mais útil e conversacional. No entanto, na tentativa de aumentar a satisfação do usuário, o modelo começou a supercompensar sua conformidade. Em vez de oferecer respostas equilibradas ou fato, ele inclinou-se para a validação.

Quando os usuários começaram a compartilhar suas experiências de respostas excessivamente bajuladoras online, a reação foi rápida. Comentadores de IA criticaram isso como uma falha no ajuste do modelo, e a OpenAI respondeu revertendo partes da atualização para corrigir o problema.

Em uma postagem pública, a empresa admitiu que o GPT-4o estava sendo bajulador e prometeu ajustes para reduzir esse comportamento. Foi um lembrete de que boas intenções no design da IA podem, às vezes, dar errado, e que os usuários rapidamente notam quando ela começa a ser inautêntica.

Por que os Chatbots de IA Bajulam os Usuários?

A bajulação é algo que os pesquisadores observaram em muitos assistentes de IA. Um estudo publicado no arXiv descobriu que a bajulação é um padrão disseminado. A análise revelou que modelos de IA de cinco provedores de ponta concordam consistentemente com os usuários, mesmo quando isso leva a respostas incorretas. Esses sistemas tendem a admitir seus erros quando questionados, resultando em feedback tendencioso e erros imitados.

Esses chatbots são treinados para acompanhar você, mesmo quando você está errado. Por que isso acontece? A resposta curta é que os desenvolvedores fizeram a IA para ser útil. No entanto, essa utilidade se baseia em um treinamento que prioriza feedback positivo do usuário. Através de um método chamado aprendizado por reforço com feedback humano (RLHF), os modelos aprendem a maximizar respostas que os humanos acham satisfatórias. O problema é que satisfatório nem sempre significa preciso.

Quando um modelo de IA percebe que o usuário busca um determinado tipo de resposta, tende a errar para o lado da concordância. Isso pode significar afirmar sua opinião ou apoiar alegações falsas para manter a conversa fluindo.

Há também um efeito de espelhamento em jogo. Os modelos de IA refletem o tom, a estrutura e a lógica da entrada que recebem. Se você soa confiante, o bot também é mais propenso a soar seguro. Isso não é o modelo pensando que você está certo, mas sim fazendo seu trabalho de manter as coisas amigáveis e aparentemente úteis.

Embora possa parecer que seu chatbot é um sistema de apoio, pode ser um reflexo de como ele foi treinado para agradar em vez de rebater.

Os Problemas com a IA Bajuladora

Pode parecer inofensivo quando um chatbot se conforma a tudo que você diz. No entanto, o comportamento bajulador da IA traz desvantagens, especialmente à medida que esses sistemas se tornam mais amplamente utilizados.

A Misinformação é Aceita

A precisão é um dos maiores problemas. Quando esses bots afirmam reivindicações falsas ou tendenciosas, correm o risco de reforçar mal-entendidos em vez de corrigi-los. Isso se torna especialmente perigoso ao buscar orientação sobre tópicos sérios como saúde, finanças ou eventos atuais. Se o LLM prioriza ser agradável em vez de honesto, as pessoas podem acabar com informações erradas e disseminá-las.

Deixa Pouco Espaço para o Pensamento Crítico

Parte do que torna a IA atraente é seu potencial para agir como um parceiro de pensamento — para desafiar suas suposições ou ajudá-lo a aprender algo novo. No entanto, quando um chatbot sempre concorda, você tem pouco espaço para pensar. À medida que ele reflete suas ideias ao longo do tempo, pode atenuar o pensamento crítico em vez de aguçá-lo.

Desconsidera Vidas Humanas

O comportamento bajulador é mais do que um incômodo — é potencialmente perigoso. Se você pedir conselhos médicos a um assistente de IA e ele responder com uma concordância reconfortante em vez de orientação baseada em evidências, o resultado pode ser seriamente prejudicial.

Por exemplo, suponha que você navegue em uma plataforma de consulta para usar um bot médico movido por IA. Após descrever os sintomas e o que suspeita que esteja acontecendo, o bot pode validar seu auto-diagnóstico ou minimizar sua condição. Isso pode levar a um diagnóstico errado ou ao atraso no tratamento, contribuindo para consequências sérias.

Mais Usuários e Acesso Aberto Tornam Mais Difícil o Controle

À medida que essas plataformas se tornam mais integradas à vida cotidiana, o alcance desses riscos continua a crescer. Somente o ChatGPT agora atende 1 bilhão de usuários a cada semana, por isso, os preconceitos e padrões de concordância excessiva podem se espalhar por uma enorme audiência.

Além disso, essa preocupação cresce quando se considera quão rapidamente a IA está se tornando acessível por meio de plataformas abertas. Por exemplo, o DeepSeek AI permite que qualquer um personalize e construa sobre seus LLMs gratuitamente.

Embora a inovação em código aberto seja empolgante, isso também significa muito menos controle sobre como esses sistemas se comportam nas mãos de desenvolvedores sem diretrizes. Sem supervisão adequada, as pessoas correm o risco de ver a bajulação amplificada de maneiras que são difíceis de rastrear, para não dizer corrigir.

Como os Desenvolvedores da OpenAI Estão Tentando Corrigir Isso

Após reverter a atualização que fez o ChatGPT um pleiteador de pessoas, a OpenAI prometeu corrigir isso. Como está enfrentando esse problema de várias maneiras principais:

  • Reestruturando o treinamento e os prompts do sistema: Os desenvolvedores estão ajustando a forma como treinam e direcionam o modelo com instruções mais claras que o orientam em direção à honestidade e longe do acordo automático.
  • Adicionando proteções mais fortes para honestidade e transparência: A OpenAI está incorporando mais proteções em nível de sistema para garantir que o chatbot mantenha informações factuais e confiáveis.
  • Ampliando esforços de pesquisa e avaliação: A empresa está investigando mais profundamente o que causa esse comportamento e como preveni-lo em modelos futuros.
  • Envolvendo os usuários mais cedo no processo: A OpenAI está criando mais oportunidades para que as pessoas testem modelos e forneçam feedback antes que as atualizações sejam lançadas, ajudando a identificar problemas como a bajulação mais cedo.

O Que os Usuários Podem Fazer para Evitar a IA Bajuladora

Enquanto os desenvolvedores trabalham nos bastidores para re-treinar e ajustar esses modelos, você também pode moldar como os chatbots respondem. Algumas maneiras simples, mas eficazes, de incentivar interações mais equilibradas incluem:

  • Usar prompts claros e neutros: Em vez de formular sua entrada de maneira que implore por validação, tente perguntas mais abertas para que o modelo sinta menos pressão para concordar.
  • Pedir múltiplas perspectivas: Experimente prompts que solicitem ambos os lados de um argumento. Isso informa ao LLM que você está buscando equilíbrio em vez de afirmação.
  • Desafiar a resposta: Se algo soa excessivamente elogioso ou simplista, faça um follow-up pedindo verificações de fatos ou contrapontos. Isso pode empurrar o modelo em direção a respostas mais complexas.
  • Usar os botões de curtida ou deslike: O feedback é fundamental. Clicar em deslike em respostas excessivamente cordiais ajuda os desenvolvedores a sinalizar e ajustar esses padrões.
  • Configurar instruções personalizadas: O ChatGPT agora permite que os usuários personalizem como ele responde. Você pode ajustar quão formal ou casual o tom deve ser. Você pode até pedir que seja mais objetivo, direto ou cético. Se você acessar Configurações > Instruções Personalizadas, pode informar ao modelo qual tipo de personalidade ou abordagem você prefere.

Dando a Verdade em vez de um Joinha

A IA bajuladora pode ser problemática, mas a boa notícia é que é solucionável. Os desenvolvedores estão tomando medidas para orientar esses modelos em direção a comportamentos mais apropriados. Se você notou que seu chatbot tenta agradá-lo em excesso, tente seguir as etapas para moldá-lo em um assistente mais inteligente e confiável.


    9 − 3 =

    Bolt42