Bolt42

A era do conteúdo sintético chegou. E se você passou algum tempo esta semana no X, TikTok ou YouTube, pode não saber mais o que é real.

No Episódio 151 do The Artificial Intelligence Show, conversei com o fundador e CEO do Marketing AI Institute, Paul Roetzer, sobre uma preocupação crescente: a ascensão explosiva de vídeos gerados por IA hiper-realistas, especialmente aqueles criados com o novo modelo Veo 3 do Google.

Com as plataformas sociais apressando-se para implementar políticas de transparência, uma dura verdade está se tornando clara:

A tecnologia está ultrapassando as ferramentas destinadas a contê-la.

O Veo 3 Mudou o Jogo

O Veo 3 da Google DeepMind não é apenas impressionante. É assustadoramente bom. Já estamos vendo vídeos inundando as redes sociais que são praticamente indistinguíveis de filmagens reais. E na maioria dos casos? Não há rótulo, nenhuma advertência e nenhum modo óbvio para o espectador médio perceber a diferença.

“Quando comecei a ver os vídeos do Veo 3, pensei: não há como as pessoas saberem que isso é IA”, diz Roetzer.

E enquanto algumas plataformas como TikTok e YouTube lançaram novos sistemas de divulgação para conteúdo gerado por IA, Roetzer afirma que a infraestrutura atual está longe de estar pronta.

Plataforma por Plataforma: O Estado da Divulgação

Revisamos o que as principais plataformas estão fazendo, e a situação é inconsistente, para dizer o mínimo:

  • TikTok: Usa auto-rotulação via Content Credentials da Coalition for Content Provenance and Authenticity (C2PA). Mas a adoção é limitada e inconsistente. Se o TikTok determinar que seu conteúdo é IA, pode aplicar a etiqueta automaticamente—e você não pode contestar ou removê-la.
  • YouTube: Exige que os criadores se auto-robotem se seu conteúdo tiver sido alterado sinteticamente de maneiras que poderiam enganar. No entanto, há poucas evidências de que ferramentas como o SynthID da DeepMind estejam sendo utilizadas diretamente na plataforma, apesar de ambas serem de propriedade do Google.
  • Meta: Oferece orientações para rotulagem, mas não exige ou aplica auto-rotulação na maioria dos casos. O sistema depende muito da conformidade dos usuários.
  • X: Possui uma política vaga sobre conteúdo inautêntico e mídia sintética, mas não oferece um sistema de rotulação confiável. Roetzer observou que o conteúdo gerado por IA mais convincente que ele viu está surgindo no X—e raramente é rotulado.

Enquanto isso, as iniciativas de marca d’água do C2PA e do SynthID parecem promissoras em teoria. Na prática? Roetzer diz que não são amplamente adotadas, especialmente pelos laboratórios de IA que produzem o conteúdo mais avançado. E a menos que as plataformas integrem essas ferramentas de detecção diretamente, elas não ajudarão os usuários comuns.

Uma Crescente Desconfiança

O resultado? Os espectadores estão entrando em um mundo onde tudo parece real e nada pode ser confiável.

Roetzer compartilhou como agora ele é automaticamente cético em relação a qualquer vídeo que vê online—até mesmo aqueles postados por fontes verificadas. Depois de ver um vídeo de ataque de drone da Ucrânia, seu primeiro instinto foi de ceticismo. Apenas após verificar com meios de comunicação confiáveis é que ele acreditou que era autêntico.

“Eu cheguei a um ponto em que simplesmente duvido de tudo até verificar que é real”, diz ele.

Esse nível de desconfiança padrão pode se tornar a norma.

O Problema Maior

Mesmo que as plataformas eventualmente implementem capacidades completas de detecção e rotulação, ainda enfrentamos um problema estrutural:

Os criadores desses modelos não estão consistentemente incorporando a detecção em suas ferramentas.

O Google tem o SynthID. Mas a menos que seja totalmente integrado em plataformas como YouTube e X, não está ajudando tanto quanto poderia. A C2PA tem objetivos admiráveis, mas sem a adesão de laboratórios importantes como OpenAI ou Runway, seu impacto permanece limitado.

Até que isso mude, as plataformas sociais continuarão a ser reativas. E o usuário médio ficará jogando um jogo perdido tentando determinar o que é real e o que não é.

O Que Precisa Acontecer Agora

Isso não é apenas uma questão de transparência. Como Roetzer apontou, essas plataformas são onde bilhões de pessoas obtêm suas notícias, formam opiniões e se envolvem com o mundo.

Se não conseguirmos marcar clara e consistentemente o que é real e o que é gerado por IA, corremos o risco de minar a fundação da realidade compartilhada.

As soluções não são simples. Mas a urgência é.

Como Roetzer escreveu no X:

“Parece irresponsável neste ponto não marcá-los publicamente nas redes sociais.”



Bolt42