Uma startup com sede na China, Sand AI, lançou um modelo de IA gerador de vídeo com licença aberta que tem sido elogiado por empreendedores como o diretor fundador da Microsoft Research Asia, Kai-Fu Lee. No entanto, a Sand AI parece estar censurando imagens que poderiam irritar os reguladores chineses na versão hospedada do modelo, de acordo com os testes realizados pela TechCrunch.
No início desta semana, a Sand AI anunciou o Magi-1, um modelo que gera vídeos prevendo sequências de quadros de forma “autoregressiva”. A empresa alega que o modelo pode gerar filmagens de alta qualidade e controláveis que capturam a física de maneira mais precisa do que modelos abertos rivais.
👀 Você não vai acreditar que isso é gerado por IA
🧠 Você não vai acreditar que é código aberto
🎬 Você não vai acreditar que é GRÁTISO modelo de vídeo Magi-1 acabou de humilhar ferramentas de vídeo comerciais
Detalhes e exemplos abaixo: 👇 pic.twitter.com/zlXRecWeqH
— Farhan (@mhdfaran) 21 de abril de 2025
O Magi-1 é pouco prático para ser executado na maioria dos hardwares de consumo. Ele possui 24 bilhões de parâmetros e requer entre quatro e oito GPUs Nvidia H100 para funcionar. (Parâmetros são as variáveis internas que os modelos usam para fazer previsões.) Para muitos usuários — incluindo este repórter — a plataforma da Sand AI é o único lugar onde podem experimentar o Magi-1.
A plataforma precisa de uma imagem “prompt” para iniciar a geração de vídeo. Nem todos os prompts são permitidos, como a TechCrunch descobriu rapidamente. A Sand AI bloqueia o upload de imagens de Xi Jinping, da Praça Tiananmen e do Homem do Tanque, da bandeira de Taiwan e de insígnias que apoiam a libertação de Hong Kong. A filtragem parece ocorrer no nível da imagem; renomear arquivos de imagem não contornou o bloqueio.

A Sand AI não é a única startup chinesa a impedir o upload de imagens politicamente sensíveis em sua ferramenta de geração de vídeo. A Hailuo AI, plataforma de mídia generativa da MiniMax, com sede em Xangai, também bloqueia fotos de Xi Jinping. No entanto, a filtragem da Sand AI parece ser particularmente agressiva; a Hailuo permite imagens da Praça Tiananmen.
Como a Wired explicou em um artigo de janeiro, os modelos na China são obrigados a seguir estritos controles de informação. Uma lei de 2023 proíbe modelos de gerar conteúdo que “destrua a unidade do país e a harmonia social” — ou seja, que contradiga as narrativas históricas e políticas do governo. Para cumprir, startups chinesas frequentemente censuram seus modelos, seja através de filtros em nível de prompt ou afinamento fino.
Curiosamente, enquanto os modelos chineses tendem a bloquear discursos políticos, eles geralmente têm menos filtros do que seus homólogos americanos para conteúdo pornográfico. A 404 relatou recentemente que vários geradores de vídeo lançados por empresas chinesas carecem de barreiras básicas que impeçam as pessoas de gerar nudez não consensual.
Conteúdo relacionado
O modelo Phi 4 da Microsoft, o mais avançado, rivaliza com o desempenho de sistemas muito maiores.
[the_ad id="145565"] Na quarta-feira, a Microsoft lançou vários novos modelos de IA "abertos", sendo o mais avançado deles competitivo com o o3-mini da OpenAI em pelo menos um…
Enfrentando a lacuna de habilidades dos desenvolvedores: o papel da IA na eficiência e capacitação
[the_ad id="145565"] Apresentado pela SAP As empresas enfrentam um desafio significativo em relação ao talento de desenvolvedores em dois aspectos. Por um lado, a IDC relata…
O Google estaria exibindo anúncios em conversas com alguns chatbots de IA de terceiros.
[the_ad id="145565"] A rede de publicidade AdSense do Google começou a suportar anúncios dentro das conversas dos usuários com alguns chatbots de IA de terceiros no início…