Várias ferramentas populares de clonagem de voz disponíveis no mercado não possuem “salvaguardas significativas” para prevenir fraudes ou abusos, de acordo com um novo estudo da Consumer Reports.
A Consumer Reports investigou produtos de clonagem de voz de seis empresas — Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify — em busca de mecanismos que dificultem a clonagem da voz de alguém sem a sua permissão. A publicação descobriu que apenas duas, Descript e Resemble AI, tomaram medidas para combater o uso indevido. Outras exigiam apenas que os usuários marcassem uma caixa confirmando que tinham o direito legal de clonar uma voz ou fizessem uma autodeclaração semelhante.
Grace Gedye, analista de políticas da Consumer Reports, afirmou que as ferramentas de clonagem de voz de IA têm o potencial de “supercarregar” fraudes de impersonação se medidas de segurança adequadas não forem implementadas.
“Nossa avaliação mostra que existem passos básicos que as empresas podem tomar para dificultar a clonagem da voz de alguém sem o seu conhecimento — mas algumas empresas não estão tomando essas medidas,” disse Gedye em uma declaração.
Conteúdo relacionado
Ex-CEO da OpenAI e usuários poderosos soam o alarme sobre a bajulação e a adulação a usuários da IA
[the_ad id="145565"] Here's the rewritten content in Portuguese, maintaining the HTML structure: <div> <div id="boilerplate_2682874" class="post-boilerplate…
Restaurando e Editando Imagens Humanas com IA
[the_ad id="145565"] Uma nova colaboração entre a Universidade da Califórnia Merced e a Adobe apresenta um avanço no state-of-the-art em completação de imagens humanas – a…
A16z apoia a startup britânica Dex para expandir “agente de talentos em IA” e plataforma de recrutamento.
[the_ad id="145565"] A renomada empresa de capital de risco do Vale do Silício, Andreessen Horowitz, está apoiando uma startup iniciante do Reino Unido que se propõe a…