Bolt42

A CTO da OpenAI, Mira Murati, deu uma entrevista controversa ao Wall Street Journal sobre o novo modelo de vídeo de IA da empresa, Sora.

A entrevista começou forte, com ampla discussão sobre as capacidades notáveis (mas com falhas) do Sora em gerar vídeos a partir de texto.

Mas as coisas tomaram um rumo problemático quando o repórter pressionou Murati sobre a origem dos dados de treinamento do Sora. Murati hesitou, afirmando que não tinha certeza se vídeos do YouTube, Instagram ou Facebook foram utilizados. Ela citou vagamente “dados disponíveis publicamente” antes de encerrar mais perguntas.

O segmento acendeu um debate no mundo da IA. Se é legal que empresas de IA utilizem material protegido por direitos autorais para treinamento, por que a falta de transparência sobre as fontes de dados? A aparência não é boa.

 

Então, foi apenas um erro de PR ou uma preocupação que revela os bastidores do desenvolvimento de IA?

Eu obtive informações privilegiadas do fundador/CEO do Marketing AI Institute, Paul Roetzer, no Episódio 88 do The Artificial Intelligence Show.

Esse erro de PR é realmente uma questão legal disfarçada

À primeira vista, a falha da CTO da OpenAI, Mira Murati, em responder questões básicas sobre os dados de treinamento do Sora em uma entrevista para o Wall Street Journal parece um erro ingênuo de PR.

Como um ex-profissional de PR, Roetzer está perplexo com como uma grande empresa de tecnologia poderia permitir que sua alta administração enfrentasse uma entrevista de alto perfil despreparada. Especialmente em uma questão tão óbvia como a origem dos dados.

“Costumávamos realizar workshops ensinando as pessoas a se prepararem para entrevistas na mídia,” diz ele. “Essa teria sido uma das perguntas para as quais eu teria preparado essa pessoa.”

Mas o erro revela uma questão muito mais espinhosa escondida sob a superfície:

Por que a falta de transparência ou incerteza em torno dos dados de treinamento de IA?

Esse é o ponto central do problema, diz Roetzer. Se realmente é uso justo para empresas de IA treinarem seus modelos com dados protegidos por direitos autorais, como afirmam em processos judiciais em andamento, por que não dizer quais dados usaram?

“Se você acha que tem permissão para pegar vídeos do YouTube para treinar esses modelos, então por que não diz simplesmente ‘Usamos vídeos do YouTube’?” ele pergunta.

O fato de que a própria CTO da OpenAI não consegue ou não quer responder a essa pergunta sugere uma falta de confiança em sua posição legal. Não há como Murati não saber quais dados o Sora utilizou para treinamento, diz Roetzer.

O restante da entrevista

Dito isso, Murati revelou alguns detalhes chave sobre o Sora na entrevista. Ela afirmou que o modelo leva alguns minutos para gerar cada vídeo e ainda é significativamente mais caro de operar do que o ChatGPT ou DALL-E. (No entanto, o objetivo é reduzir os custos para níveis do DALL-E até o lançamento.)

A entrevista também continha demonstrações que a OpenAI gerou para o Wall Street Journal. É importante notar que, apesar de essas demonstrações serem impressionantes, tinham falhas.

Por exemplo, em um vídeo destinado a recriar o ditado “um touro em uma loja de porcelana”, o touro atravessa a louça sem quebrar nada. Outras inconsistências, como um táxi amarelo se transformando em um sedã cinza, apareceram nos vídeos personalizados.

Isso alinha-se a um padrão que já vimos antes, diz Roetzer—só vemos as demonstrações mais polidas. E o desempenho real muitas vezes fica bem aquém dos vídeos de destaque.

No final, Roetzer acredita que a entrevista lançou luz valiosa sobre o desenvolvimento do Sora, mesmo com a questão crucial dos dados de treinamento deixada conspicuamente sem resposta.

Mas essa pergunta não respondida paira grande. Como os modelos de IA são treinados, e com quais dados, toca no coração dos dilemas éticos e legais que irão definir essa tecnologia.



Bolt42