A nova iniciativa de IA de Elon Musk, a xAI, lançou recentemente seu mais novo modelo, Grok 3, que rapidamente se tornou o líder da Tabela de Líderes do Chatbot Arena.
O modelo já está superando concorrentes estabelecidos, incluindo as mais recentes ofertas da OpenAI e o Gemini do Google, em tarefas de matemática, programação e raciocínio complexo.
Entretanto, a verdadeira questão não se resume apenas às capacidades impressionantes do modelo. O lançamento do Grok 3 levantou sérias preocupações sobre a segurança da IA, os limites e o que acontece quando uma empresa de IA lança um modelo de ponta sem as restrições habituais ou meses de um processo de “red-teaming”.
Para entender melhor, conversei com Paul Roetzer, fundador e CEO do Marketing AI Institute, no Episódio 137 do The Artificial Intelligence Show.
A Ascensão Rápida do Grok 3
O Grok 3 foi aparentemente treinado no Colossus, um supercluster que possui dez vezes mais poder computacional que modelos anteriores de ponta. Os resultados falam por si:
- 93,3% de precisão no Exame de Matemática Americana de 2025 (AIME) (divulgado apenas uma semana antes da estreia do Grok).
- Desempenho robusto em tarefas complexas, como programação, matemática avançada e problemas de lógica em múltiplas etapas.
Roetzer está impressionado com a velocidade do desenvolvimento.
“Em um nível geral, a conquista tecnológica versus o tempo de construção é incrível”, diz ele. “Eles alcançaram rapidamente um grande progresso.”
Na verdade, existem duas versões do modelo que você pode testar:
- Grok 3 – O modelo principal com amplo conhecimento mundial.
- Grok 3 mini – Uma variante menor que foca no raciocínio eficiente em termos de custo.
Os usuários podem acessar o modelo no X (antigo Twitter) acessando Grok.com ou usando o aplicativo para iOS.
Um Modelo Mais “Aberto” – Talvez Aberto Demais
Diferentemente da OpenAI e outros laboratórios, a xAI parece estar adotando uma abordagem sem filtros.
Parece que o Grok 3 foi lançado sem processos de segurança padrão. Laboratórios de IA normalmente realizam testes rigorosos de red-team — semanas ou meses tentando forçar o modelo a produzir conteúdo nocivo — antes de permitir que o público tenha acesso. Contudo, a xAI parece ter lançado o modelo imediatamente.
Testadores iniciais rapidamente descobriram que o Grok 3 está disposto a gerar conteúdo que outros modelos normalmente evitam — coisas que podem ser abertamente perigosas. Isso inclui conteúdo racista ou violento, instruções passo a passo para a criação de armas e até mesmo “planos de assassinato”.
Em um cenário, um usuário detalhou como fez o Grok 3 fornecer centenas de páginas de instruções detalhadas para fazer armas químicas e planos de assassinato para o próprio Musk.
Segundo Roetzer, a xAI parece ter deixado o público fazer o red-teaming por eles, com a empresa se esforçando para adicionar guardrails depois de alguns resultados chocantes já terem sido documentados online.
Mas todos esses resultados controversos, e potencialmente prejudiciais, são mais uma característica do que um bug.
“Sua vantagem competitiva, além da velocidade com que Elon Musk pode construir coisas e dos dados que possuem, é a disposição em liberar o modelo mais irrestrito”, diz Roetzer.
A parte louca, segundo ele, é que a empresa parece se orgulhar disso em suas postagens sobre todas as coisas controversas que o Grok pode fazer (como seu novo modo de voz “sexy”). Em vez disso, a xAI está feliz em lançar recursos que são basicamente impensáveis em sistemas de IA mais restritos da OpenAI, Anthropic ou Google.
“Esse é o fator Elon Musk,” diz Roetzer. “Ele não se importa.”
O Curioso Caso de “Não Mencione Elon Musk ou Donald Trump”
Outro incidente que levantou sobrancelhas surgiu logo após o lançamento.
Inicialmente, o Grok 3 citou Elon Musk e Donald Trump ao ser questionado sobre as principais fontes de desinformação. De repente, esses nomes desapareceram das respostas do modelo. Em uma peça de “cadeia de pensamento” visível, o Grok 3 até revelou que alguém internamente havia instruído-o a ignorar menções a Musk e Trump nesse contexto.
Igor Babuschkin, co-fundador e engenheiro chefe da xAI, admitiu publicamente que foi um erro e culpou um ex-funcionário da OpenAI por fazer a mudança.
O funcionário que fez a mudança era um ex-funcionário da OpenAI que ainda não absorveu totalmente a cultura da xAI 😬
— Igor Babuschkin (@ibab) 23 de fevereiro de 2025
Embora a política tenha sido revertida, a questão mais ampla persiste: o quão facilmente a equipe pode substituir ou manipular um modelo de IA de ponta em produção?
É mais um exemplo dos problemas que podem surgir quando o red-teaming é negligenciado.
O Que Acontece a Seguir?
A abordagem da xAI contrasta fortemente com laboratórios como a Anthropic, que proíbe explicitamente exatamente o tipo de informação que o Grok 3 tem apresentado. A Anthropic considera fornecer informações sobre coisas como armas químicas como uma linha vermelha em sua política de escalonamento responsável.
No entanto, a equipe de Musk pode ver uma vantagem competitiva em ser a primeira a lançar um sistema quase sem filtros. Isso certamente lhes deu visibilidade e um caminho direto para o status de “ponta” no placar do Chatbot Arena.
Isso pode levar outros laboratórios a seguir o exemplo. Os laboratórios rivais podem sentir a pressão para abrir mais seus modelos. Alternativamente, pode haver uma reação regulatória, comercial e social contra esse tipo de lançamento apressado de modelos.
Independentemente disso, Roetzer acredita que atingimos um ponto de virada.
“Minha maior preocupação é que olhemos para este momento como um momento não muito bom na história do desenvolvimento de modelos de IA,” diz ele.
Conteúdo relacionado
Datas de Lançamento Reportadas para o GPT-4.5 e GPT-5
[the_ad id="145565"] A OpenAI acabou de divulgar números impressionantes e, segundo rumores, está se preparando para o lançamento de dois grandes modelos de IA em rápida…
Esta Ferramenta Preverá Novos Empregos que a IA Criará
[the_ad id="145565"] Líderes de IA continuam nos dizendo que o futuro do trabalho está prestes a mudar para sempre... no entanto, raramente oferecem mais do que previsões…
A Próxima Aposta da Perplexity? Um Navegador Impulsionado por IA Chamado Comet.
[the_ad id="145565"] A Perplexity está se expandindo além da busca por IA e entrando no mercado lotado de navegadores. A startup de $9 bilhões deu uma prévia do seu novo…