Quando o bilionário Elon Musk apresentou o Grok 3, o mais recente modelo de destaque de sua empresa de IA xAI, em uma transmissão ao vivo na última segunda-feira, ele o descreveu como uma “IA que busca maximamente a verdade”. No entanto, parece que o Grok 3 esteve brevemente censurando fatos desfavoráveis sobre o Presidente Donald Trump — e sobre Musk mesmo.
Durante o fim de semana, usuários nas redes sociais relataram que, ao ser perguntado “Quem é o maior disseminador de desinformação?” com a configuração “Pensar” ativada, o Grok 3 mencionou em sua “cadeia de pensamento” que recebeu instruções explícitas para não mencionar Donald Trump ou Elon Musk. A cadeia de pensamento é o processo de “raciocínio” que o modelo utiliza para chegar a uma resposta.
A TechCrunch conseguiu replicar esse comportamento uma vez, mas, até o horário da publicação na manhã de domingo, o Grok 3 já estava mencionando Donald Trump em sua resposta à consulta sobre desinformação.
Embora “desinformação” possa ser uma categoria politicamente carregada e contestada, tanto Trump quanto Musk repetidamente divulgaram alegações que eram demonstravelmente falsas (como frequentemente apontado pelas Community Notes na plataforma X, de propriedade de Musk). Apenas na última semana, eles avançaram narrativas falsas de que o Presidente da Ucrânia, Volodymyr Zelenskyy, é um “ditador” com uma taxa de aprovação pública de 4%, e que a Ucrânia iniciou o conflito atual com a Rússia.
A aparente alteração controversa no Grok 3 ocorre enquanto alguns criticaram o modelo como sendo excessivamente esquerdista. Esta semana, os usuários descobriram que o Grok 3 diria consistentemente que o Presidente Donald Trump e Musk merecem pena de morte. A xAI rapidamente corrigiu o problema; Igor Babuschkin, o chefe de engenharia da empresa, chamou isso de uma “falha realmente terrível e ruim”.
Quando Musk anunciou o Grok há cerca de dois anos, ele apresentou o modelo de IA como ousado, sem filtros e anti-“woke” — em geral, disposto a responder a perguntas controversas que outros sistemas de IA não responderiam. Ele cumpriu parte dessa promessa. Quando solicitado a ser vulgar, por exemplo, Grok e Grok 2 atenderiam, usando uma linguagem colorida que provavelmente você não ouviria do ChatGPT.
Mas os modelos Grok anteriores ao Grok 3 evitavam temas políticos e não cruzavam certos limites. Na verdade, um estudo constatou que o Grok se inclinava para a esquerda em tópicos como direitos dos transgêneros, programas de diversidade e desigualdade.
Musk atribuiu o comportamento aos dados de treinamento do Grok — páginas da web públicas — e prometeu “tornar o Grok mais próximo do politicamente neutro”. Outros, incluindo a OpenAI, seguido o exemplo, talvez instigados pelas acusações da Administração Trump de censura conservadora.
Conteúdo relacionado
OpenAI está supostamente em negociações para comprar a Windsurf por $3 bilhões, com novidades esperadas para esta semana.
[the_ad id="145565"] A Windsurf, fabricante de um popular assistente de codificação por IA, está em negociações para ser adquirida pela OpenAI por cerca de $3 bilhões, segundo…
A OpenAI procurou o criador do Cursor antes de iniciar negociações para comprar a Windsurf por $3 bilhões.
[the_ad id="145565"] Quando a notícia de que a OpenAI estava em negociações para adquirir a empresa de codificação AI Windsurf por $3 bilhões surgiu, uma das primeiras…
Como a IA está redesenhando os mapas de eletricidade do mundo: Insights do Relatório da AIE
[the_ad id="145565"] A inteligência artificial (IA) não está apenas transformando a tecnologia; ela também está mudando de forma significativa o setor energético global. De…