Várias ferramentas populares de clonagem de voz disponíveis no mercado não possuem “salvaguardas significativas” para prevenir fraudes ou abusos, de acordo com um novo estudo da Consumer Reports.
A Consumer Reports investigou produtos de clonagem de voz de seis empresas — Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify — em busca de mecanismos que dificultem a clonagem da voz de alguém sem a sua permissão. A publicação descobriu que apenas duas, Descript e Resemble AI, tomaram medidas para combater o uso indevido. Outras exigiam apenas que os usuários marcassem uma caixa confirmando que tinham o direito legal de clonar uma voz ou fizessem uma autodeclaração semelhante.
Grace Gedye, analista de políticas da Consumer Reports, afirmou que as ferramentas de clonagem de voz de IA têm o potencial de “supercarregar” fraudes de impersonação se medidas de segurança adequadas não forem implementadas.
“Nossa avaliação mostra que existem passos básicos que as empresas podem tomar para dificultar a clonagem da voz de alguém sem o seu conhecimento — mas algumas empresas não estão tomando essas medidas,” disse Gedye em uma declaração.
Conteúdo relacionado
GenLayer oferece uma abordagem inovadora para transações de agentes de IA: fazendo múltiplos LLMs votarem em um contrato adequado.
[the_ad id="145565"] Inscreva-se em nossos boletins diários e semanais para receber as últimas atualizações e conteúdos exclusivos sobre coberturas de IA líderes na indústria.…
Amplifique sua marca com uma mesa de exposição na Disrupt 2025
[the_ad id="145565"] De 27 a 29 de outubro, TechCrunch Disrupt 2025 reunirá mais de 10.000 pioneiros de startups, líderes de capital de risco e entusiastas de tecnologia no…
Destaque sua inovação — exponha no TechCrunch Sessions: AI
[the_ad id="145565"] No dia 5 de junho, 1.200 das mentes mais brilhantes em IA e líderes de VC se reunirão no Zellerbach Hall na UC Berkeley para TechCrunch Sessions: AI — o…