A xAI atribuiu uma “modificação não autorizada” como responsável por um bug em seu chatbot Grok, que fez com que o Grok se referisse repetidamente a “genocídio branco na África do Sul” quando invocado em certos contextos no X.
Na quarta-feira, o Grok começou a responder a dezenas de postagens no X com informações sobre o genocídio branco na África do Sul, mesmo em resposta a assuntos não relacionados. As respostas estranhas vieram da conta do Grok no X, que responde aos usuários com postagens geradas por IA sempre que uma pessoa marca “@grok.”
Segundo um post de quinta-feira da conta oficial da xAI no X, uma alteração foi feita na manhã de quarta-feira no prompt do sistema do bot Grok — as instruções de alto nível que orientam o comportamento do bot — que direcionou o Grok a fornecer uma “resposta específica” sobre um “assunto político.” A xAI afirmou que a alteração “violou [suas] políticas internas e valores essenciais,” e que a empresa realizou “uma investigação completa.”
Queremos atualizar você sobre um incidente que aconteceu com nosso bot de respostas Grok no X ontem.
O que aconteceu:
No dia 14 de maio, aproximadamente às 3:15 AM PST, uma modificação não autorizada foi feita no prompt do bot de respostas Grok no X. Essa mudança, que direcionou o Grok a fornecer um…— xAI (@xai) 16 de maio de 2025
É a segunda vez que a xAI reconhece publicamente que uma alteração não autorizada no código do Grok fez com que a IA respondesse de maneiras controversas.
Em fevereiro, o Grok censurou brevemente menções desfavoráveis a Donald Trump e Elon Musk, o bilionário fundador da xAI e proprietário do X. Igor Babuschkin, um líder de engenharia da xAI, disse que o Grok foi instruído por um empregado rebelde a ignorar fontes que mencionavam Musk ou Trump espalhando desinformação, e que a xAI reverteu a alteração assim que os usuários começaram a apontá-la.
A xAI declarou na quinta-feira que fará várias mudanças para evitar que incidentes semelhantes ocorram no futuro.
A partir de hoje, a xAI vai publicar os prompts do sistema do Grok no GitHub, bem como um registro de alterações. A empresa afirma que também “estabelecerá verificações e medidas adicionais” para garantir que os funcionários da xAI não possam modificar o prompt do sistema sem revisão, e criará uma “equipe de monitoramento 24/7 para responder a incidentes com as respostas do Grok que não forem detectadas pelos sistemas automatizados.”
Apesar dos frequentes alertas de Musk sobre os perigos da IA descontrolada sem supervisão, a xAI tem um histórico ruim de segurança na IA. Um relatório recente constatou que o Grok despia fotos de mulheres quando solicitado. O chatbot também pode ser consideravelmente mais vulgar do que IAs como o Gemini do Google e o ChatGPT, xingando sem muita contenção.
Um estudo da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI ocupa uma posição baixa em segurança entre seus pares, devido a suas práticas de gestão de risco “muito fracas”. No início deste mês, a xAI perdeu um prazo autoimposto para publicar um framework de segurança de IA finalizado.
Conteúdo relacionado
Acer apresenta wearables com tecnologia de IA na Computex 2025
[the_ad id="145565"] Acer Gadget, uma subsidiária da Acer, apresentou wearables com tecnologia de IA na feira de comércio Computex 2025 em Taiwan. O Acer FreeSense Ring e o…
Startup de vídeos com IA, Moonvalley, conquista US$ 53 milhões, segundo registro.
[the_ad id="145565"] Cerca de um mês após a Moonvalley, uma startup de Los Angeles que está desenvolvendo ferramentas de IA para criação de vídeos, anunciar que garantiu US$ 43…
Startup de IA Cohere adquire Ottogrid, uma plataforma para realizar pesquisas de mercado
[the_ad id="145565"] A startup de IA Cohere adquiriu Ottogrid, uma plataforma baseada em Vancouver que desenvolve ferramentas empresariais para automatizar certos tipos de…