A empresa de IA de Elon Musk, xAI, perdeu um prazo autoimposto para publicar um framework de segurança de IA finalizado, conforme observado pelo grupo de vigilância The Midas Project.
A xAI não é exatamente conhecida por seus fortes compromissos com a segurança em IA, como comumente entendido. Um relatório recente revelou que o chatbot de IA da empresa, Grok, desnudaria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que chatbots como Gemini e ChatGPT, xingando sem muita restrição.
Apesar disso, em fevereiro, na Cúpula de IA em Seul, uma reunião global de líderes e partes interessadas em IA, a xAI publicou um documento preliminar delineando a abordagem da empresa para a segurança de IA. O documento de oito páginas expôs as prioridades e a filosofia de segurança da xAI, incluindo os protocolos de benchmark da empresa e considerações sobre a implementação de modelos de IA.
Como observado pelo The Midas Project em um post no blog na terça-feira, no entanto, o rascunho se aplicava apenas a modelos de IA futuros não especificados “que não estão atualmente em desenvolvimento”. Além disso, falhou em articular como a xAI identificaria e implementaria mitigação de riscos, um componente central de um documento que a empresa assinou na Cúpula de IA em Seul.
No rascunho, a xAI afirmou que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” — até 10 de maio. O prazo passou sem reconhecimento nos canais oficiais da xAI.
Apesar dos frequentes alertas de Musk sobre os perigos da IA descontrolada sem supervisão, a xAI tem um histórico fraco em segurança de IA. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilidade dos laboratórios de IA, descobriu que a xAI ocupa uma posição baixa entre seus pares, devido a suas práticas de gerenciamento de riscos “muito fracas”.
Isso não significa que outros laboratórios de IA estejam indo dramaticamente melhor. Nos últimos meses, concorrentes da xAI, incluindo Google e OpenAI, têm apurado testes de segurança e têm demorado para publicar relatórios de segurança de modelos (ou pularam a publicação de relatórios completamente). Alguns especialistas expressaram preocupação de que a aparente despriorização dos esforços de segurança esteja ocorrendo em um momento em que a IA é mais capaz — e, portanto, potencialmente perigosa — do que nunca.
Conteúdo relacionado
A administração Trump revoga oficialmente as regras de difusão de IA de Biden.
[the_ad id="145565"] Após uma semana de rumores, o Departamento de Comércio dos EUA (DOC) formalmente revogou a Regra de Difusão de Inteligência Artificial da administração…
O Google está trazendo o Gemini para smartwatches com Wear OS e Google TV
[the_ad id="145565"] Durante o Android Show na terça-feira, próximo ao Google I/O, o Google anunciou que está trazendo o Gemini para smartwatches Wear OS e Google TV. O anúncio…
O Google está levando o Gemini para o seu carro com o Android Auto.
[the_ad id="145565"] O Google está trazendo o Gemini, sua IA generativa, para todos os carros que suportam o Android Auto nos próximos meses, conforme foi anunciado na sua…