Bolt42

Pesquisadores da ByteDance, proprietária do TikTok, demonstraram um novo sistema de IA, OmniHuman-1, que pode gerar talvez os vídeos deepfake mais realistas até hoje.

A IA de deepfake se tornou algo comum. Não faltam aplicativos que conseguem inserir alguém em uma foto ou fazer uma pessoa parecer dizer algo que na verdade não disse. No entanto, a maioria dos deepfakes — especialmente os de vídeo — falham em cruzar o vale da estranheza. Normalmente, há algum indício ou sinal óbvio de que a IA foi utilizada em algum momento.

Isso não acontece com o OmniHuman-1 — pelo menos, com base nos exemplos selecionados que a equipe da ByteDance liberou.

Aqui está uma performance fictícia de Taylor Swift:

Aqui está uma TED Talk que nunca ocorreu:

E aqui está uma palestra de Einstein deepfake:

De acordo com os pesquisadores da ByteDance, o OmniHuman-1 precisa apenas de uma única imagem de referência e áudio, como fala ou vocais, para gerar um clipe de comprimento arbitrário. A proporção do vídeo de saída é ajustável, assim como a “proporção do corpo” do sujeito — ou seja, quão grande de seu corpo é mostrado na filmagem falsa.

Treinado com 19.000 horas de conteúdo de vídeo de fontes não divulgadas, o OmniHuman-1 também é capaz de editar vídeos existentes — até mesmo modificando os movimentos dos membros de uma pessoa. É realmente impressionante como o resultado pode ser convincente.

Contudo, o OmniHuman-1 não é perfeito. A equipe da ByteDance afirma que imagens de referência “de baixa qualidade” não produzirão os melhores vídeos, e o sistema parece ter dificuldade com certas poses. Note os gestos estranhos com a taça de vinho neste vídeo:

Ainda assim, o OmniHuman-1 está claramente acima das técnicas de deepfake anteriores, e pode ser um sinal do que está por vir. Embora a ByteDance não tenha liberado o sistema, a comunidade de IA tende a não demorar a reverter engenharia modelos como esses.

As implicações são preocupantes.

No ano passado, deepfakes políticos se espalharam como fogo pelo mundo. No dia da eleição em Taiwan, um grupo afiliado ao Partido Comunista Chinês postou um áudio gerado por IA e enganoso de um político apoiando um candidato pró-China. Na Moldávia, vídeos deepfake mostravam a presidente do país, Maia Sandu, resignando-se. E na África do Sul, um deepfake do rapper Eminem apoiando um partido da oposição sul-africana circulou antes das eleições do país.

Os deepfakes também estão sendo cada vez mais usados para cometer crimes financeiros. Consumidores estão sendo enganados por deepfakes de celebridades que oferecem oportunidades de investimento fraudulentas, enquanto corporações estão sendo fraudadas em milhões devido a imitadores deepfake. Segundo a Deloitte, o conteúdo gerado por IA contribuiu para mais de $12 bilhões em perdas por fraude em 2023, e pode chegar a $40 bilhões nos EUA até 2027.

Em fevereiro passado, centenas da comunidade de IA assinaram uma carta aberta pedindo uma regulamentação rigorosa de deepfakes. Na ausência de uma lei federal criminalizando deepfakes nos EUA, mais de 10 estados aprovaram estatutos contra a imitação assistida por IA. A lei da Califórnia — atualmente em andamento — seria a primeira a permitir que juízes ordenem que os responsáveis por deepfakes os removam ou enfrentem penalidades monetárias.

Infelizmente, os deepfakes são difíceis de detectar. Embora algumas redes sociais e mecanismos de busca tenham tomado medidas para limitar sua disseminação, o volume de conteúdo deepfake na internet continua a crescer a uma taxa alarmante.

Em uma pesquisa de maio de 2024 da empresa de verificação de identidade Jumio, 60% das pessoas afirmaram que encontraram um deepfake no ano passado. Setenta e dois por cento dos entrevistados na pesquisa disseram estar preocupados em serem enganados por deepfakes diariamente, enquanto a maioria apoiou a legislação para abordar a proliferação de falsificações geradas por IA.

A TechCrunch tem um boletim informativo focado em IA! Assine aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.


    dois × 1 =

    Bolt42