Bolt42

A empresa de IA de Elon Musk, xAI, perdeu um prazo autoimposto para publicar um framework de segurança de IA finalizado, conforme observado pelo grupo de vigilância The Midas Project.

A xAI não é exatamente conhecida por seus fortes compromissos com a segurança em IA, como comumente entendido. Um relatório recente revelou que o chatbot de IA da empresa, Grok, desnudaria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que chatbots como Gemini e ChatGPT, xingando sem muita restrição.

Apesar disso, em fevereiro, na Cúpula de IA em Seul, uma reunião global de líderes e partes interessadas em IA, a xAI publicou um documento preliminar delineando a abordagem da empresa para a segurança de IA. O documento de oito páginas expôs as prioridades e a filosofia de segurança da xAI, incluindo os protocolos de benchmark da empresa e considerações sobre a implementação de modelos de IA.

Como observado pelo The Midas Project em um post no blog na terça-feira, no entanto, o rascunho se aplicava apenas a modelos de IA futuros não especificados “que não estão atualmente em desenvolvimento”. Além disso, falhou em articular como a xAI identificaria e implementaria mitigação de riscos, um componente central de um documento que a empresa assinou na Cúpula de IA em Seul.

No rascunho, a xAI afirmou que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” — até 10 de maio. O prazo passou sem reconhecimento nos canais oficiais da xAI.

Apesar dos frequentes alertas de Musk sobre os perigos da IA descontrolada sem supervisão, a xAI tem um histórico fraco em segurança de IA. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI ocupa uma posição baixa entre seus pares, devido a suas práticas de gerenciamento de riscos “muito fracas”.

Isso não significa que outros laboratórios de IA estejam indo dramaticamente melhor. Nos últimos meses, concorrentes da xAI, incluindo Google e OpenAI, têm apurado testes de segurança e têm demorado para publicar relatórios de segurança de modelos (ou pularam a publicação de relatórios completamente). Alguns especialistas expressaram preocupação de que a aparente despriorização dos esforços de segurança esteja ocorrendo em um momento em que a IA é mais capaz — e, portanto, potencialmente perigosa — do que nunca.


    cinco − 3 =

    Bolt42