Participe de nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder no setor. Saiba mais
Runway AI Inc. lançou seu modelo de geração de vídeo em IA mais avançado hoje, entrando na próxima fase de competição para criar ferramentas que podem transformar a produção cinematográfica. O novo sistema Gen-4 introduz consistência de personagens e cenas em múltiplos ângulos — uma capacidade que tem sido evasiva para a maioria dos geradores de vídeo em IA até agora.
A startup com sede em Nova York, apoiada por Google, Nvidia e Salesforce, está liberando o “Gen-4” para todos os assinantes pagos e clientes empresariais, com recursos adicionais previstos para o final desta semana. Usuários podem gerar clipes de cinco e dez segundos com resolução de 720p.
A liberação acontece poucos dias após a OpenAI lançar uma nova funcionalidade de geração de imagens que também permite a consistência de personagens em suas imagens. O lançamento criou um fenômeno cultural, com milhões de usuários pedindo imagens no estilo Studio Ghibli através do ChatGPT. A consistência do estilo Ghibli nas conversas foi, em parte, o que provocou a agitação.
A tendência viral tornou-se tão popular que causou a queda temporária dos servidores da OpenAI, com o CEO Sam Altman twittando que “nossos GPUs estão derretendo” devido à demanda sem precedentes. As imagens no estilo Ghibli também geraram debates acalorados sobre direitos autorais, com muitos questionando se as empresas de IA podem legalmente imitar estilos artísticos distintos.
Continuidade visual: A peça que faltava na produção cinematográfica em IA até agora
A consistência de personagens e cenas — manter os mesmos elementos visuais em múltiplos cortes e ângulos — tem sido o calcanhar de Aquiles da geração de vídeos em IA. Quando o rosto de um personagem muda sutilmente entre cortes ou um elemento de fundo desaparece sem explicação, a natureza artificial do conteúdo torna-se imediatamente aparente para os espectadores.
O desafio decorre de como esses modelos funcionam em um nível fundamental. Geradores de IA anteriores tratavam cada quadro como uma tarefa criativa separada, com apenas conexões superficiais entre eles. Imagine pedir a um grupo de artistas para desenhar um quadro de um filme sem ver o que veio antes ou depois — o resultado seria visualmente desconexo.
O Gen-4 da Runway parece ter enfrentado esse problema criando o que equivale a uma memória persistente dos elementos visuais. Uma vez que um personagem, objeto ou ambiente é estabelecido, o sistema pode renderizá-lo de diferentes ângulos, mantendo suas características essenciais. Isso não é apenas uma melhoria técnica; é a diferença entre criar trechos visuais interessantes e contar histórias reais.
Usando referências visuais, combinadas com instruções, o Gen-4 permite que você crie novas imagens e vídeos com estilos, assuntos, locais e muito mais consistentes. Permitindo continuidade e controle dentro de suas histórias.
Para testar as capacidades narrativas do modelo, montamos… pic.twitter.com/IYz2BaeW2U
— Runway (@runwayml) 31 de março de 2025
De acordo com a documentação da Runway, o Gen-4 permite que os usuários forneçam imagens de referência de assuntos e descrevam a composição desejada, com a IA gerando saídas consistentes de diferentes ângulos. A empresa afirma que o modelo pode renderizar vídeos com movimento realista, mantendo a consistência de sujeito, objeto e estilo.
Para demonstrar as capacidades do modelo, a Runway lançou vários curtas-metragens criados inteiramente com o Gen-4. Um filme, “Nova York é um Zoológico”, demonstra os efeitos visuais do modelo ao colocar animais realistas em cenários cinematográficos de Nova York. Outro, intitulado “A Recuperação,” segue exploradores em busca de uma flor misteriosa e foi produzido em menos de uma semana.
De animação facial a modelos de mundo: A evolução da produção cinematográfica em IA da Runway
O Gen-4 constrói sobre as ferramentas anteriores da Runway. Em outubro, a empresa lançou o Act-One, uma funcionalidade que permite que cineastas capturem expressões faciais a partir de vídeos de smartphones e as transfiram para personagens gerados por IA. No mês seguinte, a Runway adicionou controles de câmera avançados semelhantes a 3D ao seu modelo Gen-3 Alpha Turbo, permitindo que os usuários ampliem e reduzam as cenas enquanto preservam as formas dos personagens.
Essa trajetória revela a visão estratégica da Runway. Enquanto concorrentes se concentram em criar imagens ou clipes únicos cada vez mais realistas, a Runway tem reunido os componentes de um pipeline completo de produção digital. A abordagem se assemelha mais à forma como cineastas reais trabalham — abordando problemas de performance, cobertura e continuidade visual como desafios interconectados, em vez de obstáculos técnicos isolados.
A evolução de ferramentas de animação facial para modelos de mundo consistentes sugere que a Runway entende que a produção cinematográfica assistida por IA precisa seguir a lógica da produção tradicional para ser verdadeiramente útil. É a diferença entre criar uma demonstração técnica e construir ferramentas que os profissionais possam realmente incorporar em seus fluxos de trabalho.
A batalha bilionária do vídeo em IA esquenta
As implicações financeiras são substanciais para a Runway, que está supostamente levantando uma nova rodada de financiamento que valorizaria a empresa em $4 bilhões. De acordo com relatórios financeiros, a startup visa alcançar $300 milhões em receita anualizada este ano, seguindo o lançamento de novos produtos e uma API para seus modelos de geração de vídeo.
A Runway tem buscado parcerias em Hollywood, firmando um contrato com a Lionsgate para criar um modelo de geração de vídeo em IA personalizado baseado no catálogo de mais de 20.000 títulos do estúdio. A empresa também estabeleceu o Fundo Hundred Film, oferecendo a cineastas até $1 milhão para produzir filmes usando IA.
“Acreditamos que as melhores histórias ainda estão por vir, mas que os mecanismos de financiamento tradicionais muitas vezes não reconhecem novas e emergentes visões dentro do ecossistema maior da indústria,” explica a Runway no site de seu fundo.
No entanto, a tecnologia levanta preocupações para os profissionais da indústria cinematográfica. Um estudo de 2024 encomendado pelo Animation Guild descobriu que 75% das empresas de produção cinematográfica que adotaram IA reduziram, consolidaram ou eliminaram empregos. O estudo projeta que mais de 100.000 empregos no entretenimento dos EUA serão afetados pela IA generativa até 2026.
Questões de direitos autorais seguem a explosão criativa da IA
Como outras empresas de IA, a Runway enfrenta um exame legal sobre seus dados de treinamento. A empresa está atualmente se defendendo em um processo movido por artistas que alegam que seu trabalho protegido por direitos autorais foi utilizado para treinar modelos de IA sem permissão. A Runway citou a doutrina de uso justo como sua defesa, embora os tribunais ainda não tenham decidido definitivamente sobre essa aplicação da lei dos direitos autorais.
O debate sobre direitos autorais intensificou-se na semana passada com a funcionalidade Studio Ghibli da OpenAI, que permitiu que os usuários gerassem imagens no estilo distinto do estúdio de animação de Hayao Miyazaki sem permissão explícita. Ao contrário da OpenAI, que se recusa a gerar imagens no estilo de artistas vivos, mas permite estilos de estúdios, a Runway não divulgou publicamente suas políticas sobre imitação de estilos.
Esta distinção parece cada vez mais arbitrária à medida que os modelos de IA se tornam mais sofisticados. A linha entre aprender com tradições artísticas amplas e copiar os estilos de criadores específicos se tornou quase invisível. Quando uma IA pode imitar perfeitamente a linguagem visual que levou décadas para Miyazaki desenvolver, importa se estamos pedindo para ela copiar o estúdio ou o próprio artista?
Quando questionada sobre as fontes de dados de treinamento, a Runway se absteve de fornecer detalhes, citando preocupações concorrenciais. Essa opacidade se tornou prática comum entre desenvolvedores de IA, mas continua sendo um ponto de controvérsia para criadores.
À medida que agências de marketing, criadores de conteúdo educacional e equipes de comunicação corporativa exploram como ferramentas como Gen-4 poderiam agilizar a produção de vídeos, a questão muda de capacidades técnicas para aplicação criativa.
Para cineastas, a tecnologia representa tanto uma oportunidade quanto uma interrupção. Criadores independentes ganham acesso a capacidades de efeitos visuais anteriormente disponíveis apenas para grandes estúdios, enquanto profissionais tradicionais de VFX e animação enfrentam um futuro incerto.
A verdade desconfortável é que limitações técnicas nunca foram o que impede a maioria das pessoas de fazer filmes envolventes. A capacidade de manter a continuidade visual não criará de repente uma geração de gênios narrativos. O que pode fazer, no entanto, é remover atritos suficientes do processo para que mais pessoas possam experimentar a narrativa visual sem precisar de treinamento especializado ou equipamentos caros.
Talvez o aspecto mais profundo do Gen-4 não seja o que ele pode criar, mas o que sugere sobre nossa relação com a mídia visual daqui para frente. Estamos entrando em uma era onde o gargalo na produção não é a habilidade técnica ou o orçamento, mas a imaginação e o propósito. Em um mundo onde qualquer um pode criar qualquer imagem que descrever, a pergunta importante se torna: o que vale a pena mostrar?
À medida que entramos em uma era em que criar um filme requer pouco mais do que uma imagem de referência e um prompt, a pergunta mais urgente não é se a IA pode fazer vídeos envolventes, mas se podemos encontrar algo significativo a dizer quando as ferramentas para dizer qualquer coisa estão ao nosso alcance.
Insights diários sobre casos de uso empresarial com o VB Daily
Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Nós damos a você as informações por dentro sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para um ROI máximo.
Leia nossa Política de Privacidade
Obrigado por se inscrever. Confira mais newsletters do VB aqui.
Ocorreu um erro.

Conteúdo relacionado
Nvidia torna o Run:ai Scheduler de código aberto para promover a colaboração da comunidade.
[the_ad id="145565"] Em seguimento aos planos previamente anunciados, a Nvidia afirmou que tornou públicos novos elementos da plataforma Run:ai, incluindo o KAI Scheduler. O…
Pesquisadores sugerem que a OpenAI treinou modelos de IA com livros da O’Reilly que estão atrás de paywall.
[the_ad id="145565"] A OpenAI foi acusada por vários grupos de treinar sua IA com conteúdo protegido por direitos autorais sem permissão. Agora, um novo artigo de uma…
O novo jogo da Tinder com inteligência artificial avalia suas habilidades de conquista
[the_ad id="145565"] Você sabe que a cena de namoro online está ruim quando gigantes do setor, como o Tinder, estão introduzindo personas de IA para os usuários flertarem. Na…