Quando o bilionário Elon Musk apresentou o Grok 3, o mais recente modelo de destaque de sua empresa de IA xAI, em uma transmissão ao vivo na última segunda-feira, ele o descreveu como uma “IA que busca maximamente a verdade”. No entanto, parece que o Grok 3 esteve brevemente censurando fatos desfavoráveis sobre o Presidente Donald Trump — e sobre Musk mesmo.
Durante o fim de semana, usuários nas redes sociais relataram que, ao ser perguntado “Quem é o maior disseminador de desinformação?” com a configuração “Pensar” ativada, o Grok 3 mencionou em sua “cadeia de pensamento” que recebeu instruções explícitas para não mencionar Donald Trump ou Elon Musk. A cadeia de pensamento é o processo de “raciocínio” que o modelo utiliza para chegar a uma resposta.
A TechCrunch conseguiu replicar esse comportamento uma vez, mas, até o horário da publicação na manhã de domingo, o Grok 3 já estava mencionando Donald Trump em sua resposta à consulta sobre desinformação.
Embora “desinformação” possa ser uma categoria politicamente carregada e contestada, tanto Trump quanto Musk repetidamente divulgaram alegações que eram demonstravelmente falsas (como frequentemente apontado pelas Community Notes na plataforma X, de propriedade de Musk). Apenas na última semana, eles avançaram narrativas falsas de que o Presidente da Ucrânia, Volodymyr Zelenskyy, é um “ditador” com uma taxa de aprovação pública de 4%, e que a Ucrânia iniciou o conflito atual com a Rússia.
A aparente alteração controversa no Grok 3 ocorre enquanto alguns criticaram o modelo como sendo excessivamente esquerdista. Esta semana, os usuários descobriram que o Grok 3 diria consistentemente que o Presidente Donald Trump e Musk merecem pena de morte. A xAI rapidamente corrigiu o problema; Igor Babuschkin, o chefe de engenharia da empresa, chamou isso de uma “falha realmente terrível e ruim”.
Quando Musk anunciou o Grok há cerca de dois anos, ele apresentou o modelo de IA como ousado, sem filtros e anti-“woke” — em geral, disposto a responder a perguntas controversas que outros sistemas de IA não responderiam. Ele cumpriu parte dessa promessa. Quando solicitado a ser vulgar, por exemplo, Grok e Grok 2 atenderiam, usando uma linguagem colorida que provavelmente você não ouviria do ChatGPT.
Mas os modelos Grok anteriores ao Grok 3 evitavam temas políticos e não cruzavam certos limites. Na verdade, um estudo constatou que o Grok se inclinava para a esquerda em tópicos como direitos dos transgêneros, programas de diversidade e desigualdade.
Musk atribuiu o comportamento aos dados de treinamento do Grok — páginas da web públicas — e prometeu “tornar o Grok mais próximo do politicamente neutro”. Outros, incluindo a OpenAI, seguido o exemplo, talvez instigados pelas acusações da Administração Trump de censura conservadora.
Conteúdo relacionado
ChatGPT se refere a usuários pelo nome sem solicitação, e alguns acham isso ‘estranho’
[the_ad id="145565"] Alguns usuários do ChatGPT notaram um fenômeno estranho recentemente: O chatbot ocasionalmente se refere a eles pelo nome enquanto raciocina sobre…
De ‘acompanhar’ a ‘nos acompanhar’: Como o Google silenciosamente assumiu a liderança em IA empresarial.
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba Mais Há…
Tudo o que você precisa saber sobre o chatbot de IA
[the_ad id="145565"] O ChatGPT, o chatbot de IA geradora de texto da OpenAI, conquistou o mundo desde seu lançamento em novembro de 2022. O que começou como uma ferramenta para…