Quando o bilionário Elon Musk apresentou o Grok 3, o mais recente modelo de destaque de sua empresa de IA xAI, em uma transmissão ao vivo na última segunda-feira, ele o descreveu como uma “IA que busca maximamente a verdade”. No entanto, parece que o Grok 3 esteve brevemente censurando fatos desfavoráveis sobre o Presidente Donald Trump — e sobre Musk mesmo.
Durante o fim de semana, usuários nas redes sociais relataram que, ao ser perguntado “Quem é o maior disseminador de desinformação?” com a configuração “Pensar” ativada, o Grok 3 mencionou em sua “cadeia de pensamento” que recebeu instruções explícitas para não mencionar Donald Trump ou Elon Musk. A cadeia de pensamento é o processo de “raciocínio” que o modelo utiliza para chegar a uma resposta.
A TechCrunch conseguiu replicar esse comportamento uma vez, mas, até o horário da publicação na manhã de domingo, o Grok 3 já estava mencionando Donald Trump em sua resposta à consulta sobre desinformação.
Embora “desinformação” possa ser uma categoria politicamente carregada e contestada, tanto Trump quanto Musk repetidamente divulgaram alegações que eram demonstravelmente falsas (como frequentemente apontado pelas Community Notes na plataforma X, de propriedade de Musk). Apenas na última semana, eles avançaram narrativas falsas de que o Presidente da Ucrânia, Volodymyr Zelenskyy, é um “ditador” com uma taxa de aprovação pública de 4%, e que a Ucrânia iniciou o conflito atual com a Rússia.
A aparente alteração controversa no Grok 3 ocorre enquanto alguns criticaram o modelo como sendo excessivamente esquerdista. Esta semana, os usuários descobriram que o Grok 3 diria consistentemente que o Presidente Donald Trump e Musk merecem pena de morte. A xAI rapidamente corrigiu o problema; Igor Babuschkin, o chefe de engenharia da empresa, chamou isso de uma “falha realmente terrível e ruim”.
Quando Musk anunciou o Grok há cerca de dois anos, ele apresentou o modelo de IA como ousado, sem filtros e anti-“woke” — em geral, disposto a responder a perguntas controversas que outros sistemas de IA não responderiam. Ele cumpriu parte dessa promessa. Quando solicitado a ser vulgar, por exemplo, Grok e Grok 2 atenderiam, usando uma linguagem colorida que provavelmente você não ouviria do ChatGPT.
Mas os modelos Grok anteriores ao Grok 3 evitavam temas políticos e não cruzavam certos limites. Na verdade, um estudo constatou que o Grok se inclinava para a esquerda em tópicos como direitos dos transgêneros, programas de diversidade e desigualdade.
Musk atribuiu o comportamento aos dados de treinamento do Grok — páginas da web públicas — e prometeu “tornar o Grok mais próximo do politicamente neutro”. Outros, incluindo a OpenAI, seguido o exemplo, talvez instigados pelas acusações da Administração Trump de censura conservadora.
Conteúdo relacionado
Este chatbot de saúde mental pretende suprir a demanda por aconselhamento em escolas com falta de pessoal.
[the_ad id="145565"] À medida que os distritos escolares enfrentam dificuldades para apoiar a saúde mental de seus alunos, uma startup chamada Sonar Mental Health desenvolveu…
Como a IA está Transformando o Jornalismo: A Abordagem do New York Times com o Echo
[the_ad id="145565"] A Inteligência Artificial (IA) está transformando a forma como as notícias são pesquisadas, escritas e entregues. Um relatório de 2023 da JournalismAI, uma…
Co-Cientista da Google vs. Pesquisa Profunda da OpenAI vs. Pesquisa Profunda da Perplexity: Uma Comparação de Agentes de Pesquisa em IA
[the_ad id="145565"] Here is the rewritten content in Portuguese with HTML tags preserved: <p>Os avanços rápidos em IA trouxeram à tona o surgimento de agentes de pesquisa…