Várias ferramentas populares de clonagem de voz disponíveis no mercado não possuem “salvaguardas significativas” para prevenir fraudes ou abusos, de acordo com um novo estudo da Consumer Reports.
A Consumer Reports investigou produtos de clonagem de voz de seis empresas — Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify — em busca de mecanismos que dificultem a clonagem da voz de alguém sem a sua permissão. A publicação descobriu que apenas duas, Descript e Resemble AI, tomaram medidas para combater o uso indevido. Outras exigiam apenas que os usuários marcassem uma caixa confirmando que tinham o direito legal de clonar uma voz ou fizessem uma autodeclaração semelhante.
Grace Gedye, analista de políticas da Consumer Reports, afirmou que as ferramentas de clonagem de voz de IA têm o potencial de “supercarregar” fraudes de impersonação se medidas de segurança adequadas não forem implementadas.
“Nossa avaliação mostra que existem passos básicos que as empresas podem tomar para dificultar a clonagem da voz de alguém sem o seu conhecimento — mas algumas empresas não estão tomando essas medidas,” disse Gedye em uma declaração.
Conteúdo relacionado
Grouphug é uma startup em modo furtivo que planeja usar IA em grupos do WhatsApp.
[the_ad id="145565"] Veteranos da cena de startups europeias, que já lançaram diversos aplicativos voltados ao consumidor anteriormente, estão parcialmente saindo do modo…
Alibaba apresenta o Qwen3, uma família de modelos de raciocínio “híbridos” de IA.
[the_ad id="145565"] A empresa chinesa de tecnologia Alibaba anunciou na segunda-feira o lançamento do Qwen3, uma família de modelos de IA que a empresa afirma igualar e, em…
OpenAI Addresses Issue That Allowed Minors to Create Erotic Conversations in Portuguese
[the_ad id="145565"] Um erro no ChatGPT da OpenAI permitiu que o chatbot gerasse erotismo gráfico para contas de usuários registrados como menores de idade, com menos de 18…