A xAI atribuiu uma “modificação não autorizada” como responsável por um bug em seu chatbot Grok, que fez com que o Grok se referisse repetidamente a “genocídio branco na África do Sul” quando invocado em certos contextos no X.
Na quarta-feira, o Grok começou a responder a dezenas de postagens no X com informações sobre o genocídio branco na África do Sul, mesmo em resposta a assuntos não relacionados. As respostas estranhas vieram da conta do Grok no X, que responde aos usuários com postagens geradas por IA sempre que uma pessoa marca “@grok.”
Segundo um post de quinta-feira da conta oficial da xAI no X, uma alteração foi feita na manhã de quarta-feira no prompt do sistema do bot Grok — as instruções de alto nível que orientam o comportamento do bot — que direcionou o Grok a fornecer uma “resposta específica” sobre um “assunto político.” A xAI afirmou que a alteração “violou [suas] políticas internas e valores essenciais,” e que a empresa realizou “uma investigação completa.”
Queremos atualizar você sobre um incidente que aconteceu com nosso bot de respostas Grok no X ontem.
O que aconteceu:
No dia 14 de maio, aproximadamente às 3:15 AM PST, uma modificação não autorizada foi feita no prompt do bot de respostas Grok no X. Essa mudança, que direcionou o Grok a fornecer um…— xAI (@xai) 16 de maio de 2025
É a segunda vez que a xAI reconhece publicamente que uma alteração não autorizada no código do Grok fez com que a IA respondesse de maneiras controversas.
Em fevereiro, o Grok censurou brevemente menções desfavoráveis a Donald Trump e Elon Musk, o bilionário fundador da xAI e proprietário do X. Igor Babuschkin, um líder de engenharia da xAI, disse que o Grok foi instruído por um empregado rebelde a ignorar fontes que mencionavam Musk ou Trump espalhando desinformação, e que a xAI reverteu a alteração assim que os usuários começaram a apontá-la.
A xAI declarou na quinta-feira que fará várias mudanças para evitar que incidentes semelhantes ocorram no futuro.
A partir de hoje, a xAI vai publicar os prompts do sistema do Grok no GitHub, bem como um registro de alterações. A empresa afirma que também “estabelecerá verificações e medidas adicionais” para garantir que os funcionários da xAI não possam modificar o prompt do sistema sem revisão, e criará uma “equipe de monitoramento 24/7 para responder a incidentes com as respostas do Grok que não forem detectadas pelos sistemas automatizados.”
Apesar dos frequentes alertas de Musk sobre os perigos da IA descontrolada sem supervisão, a xAI tem um histórico ruim de segurança na IA. Um relatório recente constatou que o Grok despia fotos de mulheres quando solicitado. O chatbot também pode ser consideravelmente mais vulgar do que IAs como o Gemini do Google e o ChatGPT, xingando sem muita contenção.
Um estudo da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI ocupa uma posição baixa em segurança entre seus pares, devido a suas práticas de gestão de risco “muito fracas”. No início deste mês, a xAI perdeu um prazo autoimposto para publicar um framework de segurança de IA finalizado.
Conteúdo relacionado
A aposta de $1 bilhão em bancos de dados: O que a aquisição do Neon pela Databricks significa para sua estratégia de IA.
[the_ad id="145565"] Participe de nossas newsletters diárias e semanais para as últimas atualizações e conteúdos exclusivos sobre a cobertura de IA de ponta da indústria.…
Reduza os custos de integração de modelos enquanto escala a IA: o ecossistema aberto da LangChain entrega onde os fornecedores fechados não conseguem.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA de ponta. Saiba mais…
Funcionário falso demitido do Twitter ‘Rahul Ligma’ é um engenheiro real com uma startup de dados de IA utilizada por Harvard
[the_ad id="145565"] Na manhã seguinte à aquisição do Twitter (agora X) por Elon Musk em 2022, repórteres encontraram dois homens com caixas do lado de fora da sede da empresa.…