Na quarta-feira, o YouTube anunciou uma expansão de seu programa piloto criado para identificar e gerenciar conteúdo gerado por IA que apresenta a “imagem”, incluindo o rosto, de criadores, artistas e outras figuras famosas ou influentes. A empresa também está declarando publicamente seu apoio à legislação conhecida como NO FAKES ACT, que visa enfrentar o problema das réplicas geradas por IA que simulam a imagem ou a voz de alguém para enganar outras pessoas e criar conteúdo prejudicial.
A empresa afirma que colaborou na elaboração do projeto de lei com seus patrocinadores, os senadores Chris Coons (D-DE) e Marsha Blackburn (R-TN), e outros players da indústria, incluindo a Recording Industry Association of America (RIAA) e a Motion Picture Association (MPA). Coons e Blackburn anunciarão a reintrodução da legislação em uma coletiva de imprensa na quarta-feira.
Em um post no blog, o YouTube explica a razão de seu apoio contínuo, dizendo que, embora compreenda o potencial da IA para “revolucionar a expressão criativa”, também vem com desvantagens.
“Também sabemos que há riscos com conteúdo gerado por IA, incluindo o potencial de abuso ou de criação de conteúdo prejudicial. As plataformas têm a responsabilidade de enfrentar esses desafios de forma proativa,” segundo o post.
“O NO FAKES Act oferece um caminho inteligente a seguir porque foca na melhor maneira de equilibrar
proteção com inovação: colocando o poder diretamente nas mãos dos indivíduos para notificar as plataformas sobre
imitações geradas por IA que eles acreditam que devem ser removidas. Este processo de notificação é crítico, pois possibilita que as plataformas distinguam entre conteúdo autorizado e imitações prejudiciais — sem isso,
as plataformas simplesmente não conseguem tomar decisões informadas,” afirma o YouTube.
A empresa apresentou seu sistema de detecção de semelhança em parceria com a Creative Artists Agency (CAA) em dezembro de 2024.
A nova tecnologia se baseia nos esforços do YouTube com seu sistema existente de Content ID, que detecta material protegido por direitos autorais nos vídeos enviados pelos usuários. Semelhante ao Content ID, o programa trabalha para detectar automaticamente conteúdo violador — neste caso, rostos ou vozes simulados feitos com ferramentas de IA, como o YouTube explicou no início deste ano.
Pela primeira vez, o YouTube também está compartilhando uma lista dos testadores iniciais do programa piloto. Esses incluem criadores de destaque do YouTube, como MrBeast, Mark Rober, Doctor Mike, o Flow Podcast, Marques Brownlee, e Estude Matemática.
Durante o período de testes, o YouTube trabalhará com os criadores para escalar a tecnologia e refinar seus controles. O programa se expandirá para alcançar mais criadores no próximo ano, também afirmou a empresa. No entanto, o YouTube não informou quando espera que o sistema de detecção de semelhança seja lançado de forma mais pública.
Além da tecnologia de detecção de semelhança piloto, a empresa também atualizou seu processo de privacidade para permitir que as pessoas solicitem a remoção de conteúdo alterado ou sintético que simule sua semelhança. Ela também adicionou ferramentas de gerenciamento de semelhança que permitem que as pessoas detectem e gerenciem como a IA é usada para representá-las no YouTube.
Conteúdo relacionado
ChatGPT se refere a usuários pelo nome sem solicitação, e alguns acham isso ‘estranho’
[the_ad id="145565"] Alguns usuários do ChatGPT notaram um fenômeno estranho recentemente: O chatbot ocasionalmente se refere a eles pelo nome enquanto raciocina sobre…
De ‘acompanhar’ a ‘nos acompanhar’: Como o Google silenciosamente assumiu a liderança em IA empresarial.
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba Mais Há…
Tudo o que você precisa saber sobre o chatbot de IA
[the_ad id="145565"] O ChatGPT, o chatbot de IA geradora de texto da OpenAI, conquistou o mundo desde seu lançamento em novembro de 2022. O que começou como uma ferramenta para…