Bolt42

A IA agora pode falsificar perfeitamente tudo, desde endossos de celebridades até filmagens “ao vivo” de eventos catastróficos. E a parte mais assustadora?

Está apenas começando.

Na verdade, distinguir o que é real e o que não é está se tornando cada vez mais difícil no mundo atual de deepfakes hiper-realistas e conteúdo sintético.

Mas algumas das principais empresas de IA — e concorrentes — estão tentando resolver o problema.

Nas últimas semanas, Meta, OpenAI, e Google anunciaram que vão se juntar à Microsoft, Adobe e outros na adoção do Content Credentials, um padrão técnico para a proveniência de mídias do C2PA.

O C2PA é uma organização de padrões (o nome significa Coalizão para Proveniência e Autenticidade de Conteúdo) e está trabalhando em maneiras, em parceria com mais de 100 empresas, para identificar de onde o conteúdo veio online.

O padrão C2PA (nomeado em homenagem à organização) permite que publicadores e empresas integrem metadados nas mídias para verificar a origem da mídia. Esses metadados podem ser usados para conferir se uma imagem, por exemplo, foi criada com uma ferramenta de IA.

(Por exemplo, agora você pode visualizar metadados adicionais em qualquer imagem gerada pelas capacidades do DALL-E 3 do ChatGPT ou pela API da OpenAI e ver as ferramentas de IA usadas para gerá-las.)

E a Meta está indo ainda mais longe.

A empresa afirma que está “desenvolvendo ferramentas líderes de mercado que podem identificar marcadores invisíveis em escala – especificamente, as informações de “geradas por IA” nos padrões técnicos C2PA e IPTC – para que possamos rotular imagens do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock à medida que implementam seus planos para adicionar metadados às imagens criadas por suas ferramentas.”

Essa iniciativa pode resolver o problema dos deepfakes?

Essa é a pergunta que fiz ao fundador/CEO do Marketing AI Institute, Paul Roetzer, no Episódio 84 do The Artificial Intelligence Show.

Os deepfakes serão um grande problema este ano.

“Minha maior preocupação com o uso indevido da IA a curto prazo é a desinformação, a desinformação e o conteúdo sintético,” diz Roetzer. “Porque o cidadão average não tem a menor ideia de que a IA é capaz de fazer essas coisas.”

Quanto mais avançados se tornam os deepfakes, maior a probabilidade de que se tornem um grande problema social — especialmente à medida que muitas partes do mundo entram em período eleitoral em 2024.

Mas essa abordagem tem limitações significativas.

A união dos líderes da IA é importante, diz Roetzer. Mas existem algumas questões.

“É fundamental que eles estejam fazendo algo de forma unificada, tentando encontrar maneiras de abordar isso. Mas parece que mesmo essa abordagem unificada tem limitações massivas.”

Os metadados usados para identificar conteúdo gerado por IA podem ser aplicados de forma inconsistente ou facilmente removidos. As pessoas podem facilmente capturar screenshots ou gravar a tela de conteúdos gerados por IA. E as redes sociais precisam estar dispostas a detectar, sinalizar e remover esse conteúdo.

Sem mencionar que ferramentas de código aberto geralmente não ficam muito atrás das comercialmente disponíveis. E as ferramentas de código aberto provavelmente não virão com proteções ou rótulos.

Há apenas uma maneira de realmente lidar com isso.

É bom que as empresas estejam trabalhando nisso, diz Roetzer. Mas ele não acredita que qualquer um de seus esforços solucionará o problema de forma uniforme.

“A única maneira verdadeira de abordar isso é através da alfabetização em IA que torna as pessoas cientes de que essas coisas existem e que é possível desenvolver vídeos, imagens e áudios muito realistas,” diz ele.

Essa é uma tarefa monumental. Vivemos em uma sociedade onde as pessoas querem acreditar em tudo que se encaixa em sua visão de mundo.

Precisamos aceitar que vivemos agora em um mundo repleto de desinformação, desinformação e mídias sintéticas daqui para frente…

E precisamos aceitar que não podemos mais confiar em nada do que vemos online sem verificação.



Bolt42