Bolt42

A OpenAI está enfrentando sérias críticas após alegações de que usou a voz da atriz Scarlett Johansson sem permissão para uma das vozes atualizadas em seu novo modelo GPT-4o.

A polêmica é a mais recente em uma série de erros que minam a confiança na líder de IA.

O que aconteceu e por que isso é importante?

Consegui as respostas com o fundador e CEO do Marketing AI Institute, Paul Roetzer, no episódio 99 do Show de Inteligência Artificial.

Como tudo começou

O drama começou na segunda-feira, 13 de maio, quando a OpenAI demonstrou as novas capacidades vocais do GPT-4o durante o evento de lançamento deste novo modelo.

Entre as vozes apresentadas estava “Sky”, que muitos ouvintes imediatamente notaram que soava estranhamente similar à voz de Scarlett Johansson.

A própria atriz estava entre aqueles que perceberam a semelhança.

Em uma declaração, ela revelou que o CEO da OpenAI, Sam Altman, a abordou em setembro passado sobre a possibilidade de dublar o sistema.

Ela afirma que ele disse que sua voz poderia “conectar as empresas de tecnologia e os criativos” e ajudar os consumidores a se sentirem confortáveis com a mudança da IA.

Johansson rejeitou a oferta. No entanto, quando o GPT-4o foi lançado com a voz “Sky”, parecida com a sua, Altman atiçou a polêmica ao tuitar simplesmente “Ela” — uma referência ao filme no qual Johansson dá voz a um assistente de IA.

Como tudo (aparentemente) terminou

Altman e a OpenAI negaram que a voz seja de Johansson, que nunca foi pretendida para ser a dela, e afirmaram que veio de um dublador que contrataram antes de entrar em contato com Johansson.

A empresa continuou dizendo:

“Por respeito a Sra. Johansson, pausamos o uso da voz de Sky em nossos produtos. Pedimos desculpas à Sra. Johansson por não termos nos comunicado melhor.”

Desde 22 de maio, o Washington Post está relatando que uma dubladora foi realmente contratada em junho para criar a voz de Sky “meses antes de Altman entrar em contato com Johansson, de acordo com documentos, gravações, diretores de elenco e o agente da atriz.”

Assim, parece que a OpenAI não estava errada. Mas a repercussão foi rápida e severa.

“Ilegal ou não, é uma péssima aparência para a OpenAI”, diz Roetzer. “Eles tiveram uma série de erros não forçados ultimamente. Isso é ou incompetência ou arrogância. E eu não acho que eles sejam incompetentes.”

Roetzer aponta para outros erros recentes:

“A grande questão aqui não é criticar um único problema,” diz Roetzer. “Eles estão tomando um conjunto de escolhas de RP e de negócios realmente ruins que simplesmente não auguram bem para uma empresa que está pedindo tanta confiança da sociedade.”

Por que tudo isso importa

Essas repetidas falhas de julgamento podem ter consequências sérias para a OpenAI — e para o desenvolvimento da IA como um todo.

“Devemos confiar neles,” diz Roetzer. “Mas o potencial de represálias de funcionários, reações sociais e intervenções governamentais se torna cada vez maior quanto menos confiamos nas organizações que estão [construindo] IA.”

Já existem sinais de que o sentimento público pode estar começando a se voltar contra a OpenAI e outras empresas de IA que são vistas como se movendo rápido demais e quebrando muitas coisas. Um post no LinkedIn de Roetzer sobre a polêmica Johansson recebeu uma enxurrada de comentários negativos sobre a OpenAI.

“Há uma espécie de sensação de invencibilidade agora com as empresas de IA, onde elas simplesmente fazem o que são necessárias para acelerar a inovação,” diz Roetzer. “Eles acham que podem se safar com isso.”



Bolt42