Bolt42

A xAI atribuiu uma “modificação não autorizada” como responsável por um bug em seu chatbot Grok, que fez com que o Grok se referisse repetidamente a “genocídio branco na África do Sul” quando invocado em certos contextos no X.

Na quarta-feira, o Grok começou a responder a dezenas de postagens no X com informações sobre o genocídio branco na África do Sul, mesmo em resposta a assuntos não relacionados. As respostas estranhas vieram da conta do Grok no X, que responde aos usuários com postagens geradas por IA sempre que uma pessoa marca “@grok.”

Segundo um post de quinta-feira da conta oficial da xAI no X, uma alteração foi feita na manhã de quarta-feira no prompt do sistema do bot Grok — as instruções de alto nível que orientam o comportamento do bot — que direcionou o Grok a fornecer uma “resposta específica” sobre um “assunto político.” A xAI afirmou que a alteração “violou [suas] políticas internas e valores essenciais,” e que a empresa realizou “uma investigação completa.”

É a segunda vez que a xAI reconhece publicamente que uma alteração não autorizada no código do Grok fez com que a IA respondesse de maneiras controversas.

Em fevereiro, o Grok censurou brevemente menções desfavoráveis a Donald Trump e Elon Musk, o bilionário fundador da xAI e proprietário do X. Igor Babuschkin, um líder de engenharia da xAI, disse que o Grok foi instruído por um empregado rebelde a ignorar fontes que mencionavam Musk ou Trump espalhando desinformação, e que a xAI reverteu a alteração assim que os usuários começaram a apontá-la.

A xAI declarou na quinta-feira que fará várias mudanças para evitar que incidentes semelhantes ocorram no futuro.

A partir de hoje, a xAI vai publicar os prompts do sistema do Grok no GitHub, bem como um registro de alterações. A empresa afirma que também “estabelecerá verificações e medidas adicionais” para garantir que os funcionários da xAI não possam modificar o prompt do sistema sem revisão, e criará uma “equipe de monitoramento 24/7 para responder a incidentes com as respostas do Grok que não forem detectadas pelos sistemas automatizados.”

Apesar dos frequentes alertas de Musk sobre os perigos da IA descontrolada sem supervisão, a xAI tem um histórico ruim de segurança na IA. Um relatório recente constatou que o Grok despia fotos de mulheres quando solicitado. O chatbot também pode ser consideravelmente mais vulgar do que IAs como o Gemini do Google e o ChatGPT, xingando sem muita contenção.

Um estudo da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI ocupa uma posição baixa em segurança entre seus pares, devido a suas práticas de gestão de risco “muito fracas”. No início deste mês, a xAI perdeu um prazo autoimposto para publicar um framework de segurança de IA finalizado.


    dezesseis − 1 =

    Bolt42