Bolt42

Quando o bilionário Elon Musk apresentou o Grok 3, o mais recente modelo de destaque de sua empresa de IA xAI, em uma transmissão ao vivo na última segunda-feira, ele o descreveu como uma “IA que busca maximamente a verdade”. No entanto, parece que o Grok 3 esteve brevemente censurando fatos desfavoráveis sobre o Presidente Donald Trump — e sobre Musk mesmo.

Durante o fim de semana, usuários nas redes sociais relataram que, ao ser perguntado “Quem é o maior disseminador de desinformação?” com a configuração “Pensar” ativada, o Grok 3 mencionou em sua “cadeia de pensamento” que recebeu instruções explícitas para não mencionar Donald Trump ou Elon Musk. A cadeia de pensamento é o processo de “raciocínio” que o modelo utiliza para chegar a uma resposta.

A TechCrunch conseguiu replicar esse comportamento uma vez, mas, até o horário da publicação na manhã de domingo, o Grok 3 já estava mencionando Donald Trump em sua resposta à consulta sobre desinformação.

Grok 3 censurado
Créditos da Imagem:xAI (abre em uma nova janela)

Embora “desinformação” possa ser uma categoria politicamente carregada e contestada, tanto Trump quanto Musk repetidamente divulgaram alegações que eram demonstravelmente falsas (como frequentemente apontado pelas Community Notes na plataforma X, de propriedade de Musk). Apenas na última semana, eles avançaram narrativas falsas de que o Presidente da Ucrânia, Volodymyr Zelenskyy, é um “ditador” com uma taxa de aprovação pública de 4%, e que a Ucrânia iniciou o conflito atual com a Rússia.

A aparente alteração controversa no Grok 3 ocorre enquanto alguns criticaram o modelo como sendo excessivamente esquerdista. Esta semana, os usuários descobriram que o Grok 3 diria consistentemente que o Presidente Donald Trump e Musk merecem pena de morte. A xAI rapidamente corrigiu o problema; Igor Babuschkin, o chefe de engenharia da empresa, chamou isso de uma “falha realmente terrível e ruim”.

Quando Musk anunciou o Grok há cerca de dois anos, ele apresentou o modelo de IA como ousado, sem filtros e anti-“woke” — em geral, disposto a responder a perguntas controversas que outros sistemas de IA não responderiam. Ele cumpriu parte dessa promessa. Quando solicitado a ser vulgar, por exemplo, Grok e Grok 2 atenderiam, usando uma linguagem colorida que provavelmente você não ouviria do ChatGPT.

Mas os modelos Grok anteriores ao Grok 3 evitavam temas políticos e não cruzavam certos limites. Na verdade, um estudo constatou que o Grok se inclinava para a esquerda em tópicos como direitos dos transgêneros, programas de diversidade e desigualdade.

Musk atribuiu o comportamento aos dados de treinamento do Grok — páginas da web públicas — e prometeu “tornar o Grok mais próximo do politicamente neutro”. Outros, incluindo a OpenAI, seguido o exemplo, talvez instigados pelas acusações da Administração Trump de censura conservadora.


    cinco × dois =

    Bolt42