Bolt42

A empresa de geração de vídeo com IA Runway se encontra em apuros após o vazamento de uma planilha interna que revelou que a empresa está utilizando vídeos do YouTube para treinamento de IA.

O documento, obtido pela 404 Media, mostra que a Runway treinou seu novo modelo Gen-3 ao vasculhar milhares de vídeos sem permissão de várias fontes, incluindo criadores populares do YouTube, marcas e até mesmo filmes piratas.

Essa revelação gerou um intenso debate sobre a ética e a legalidade da coleta de dados para treinamento de IA.

A Runway, um dos principais players no espaço de vídeo com IA, avaliada em $1,5 bilhões e com apoio de gigantes da tecnologia como Google e NVIDIA, não está sozinha nessa prática. Relatórios recentes implicaram outros líderes tecnológicos, como Apple, Salesforce e Anthropic, em uso não autorizado de vídeos do YouTube para treinamento de IA.

O que isso significa para o uso responsável e a adoção da IA?

Obtive a resposta do fundador e CEO do Marketing AI Institute, Paul Roetzer, no episódio 107 do The Artificial Intelligence Show.

A verdade desconfortável sobre o treinamento de IA

Essa situação é “a parte desconfortável” do desenvolvimento da IA, diz Roetzer. Embora os usuários adorem ferramentas como a Runway, os métodos usados para criá-las estão levantando sérias preocupações éticas.

“Essas não são nem mesmo as partes feias. Essa é a base. Todos estão fazendo isso.”

O processo, como detalhado no documento vazado, envolve a busca por tipos específicos de conteúdo em plataformas como o YouTube, e então o uso desses vídeos protegidos por direitos autorais para treinar modelos de IA.

Isso permite que a IA replique estilos ou técnicas altamente específicas, às vezes até imitando criadores de conteúdo individuais.

“É assim que isso funciona. Esses modelos precisam aprender com algo, então eles aprendem com a criatividade humana,” diz Roetzer.

Áreas cinzentas legais

O panorama legal em torno dessas práticas é obscuro, no melhor dos casos.

Sharon Torek, uma advogada de propriedade intelectual, sugere em resposta a um dos posts de Roetzer no LinkedIn que grandes empresas de IA estão “jogando dados” de que serão grandes demais para falir quando algum tribunal decidir sobre a legalidade de suas práticas de treinamento, escrevendo:

“‘Big AI’ está apostando que será grande demais para falir até que um tribunal superior determine que o uso de obras protegidas para treinar seus modelos é ilegal, se isso ocorrer.”

“Para mim, a falta de transparência sobre suas práticas de treinamento é reveladora. É claro que são entidades de propriedade privada que estão protegendo seus ativos e acionistas. E desacelerar não é uma opção prática para eles.”

“Minha opinião é que eles estão avançando até que os proprietários de propriedade intelectual provavelmente terão que fechar acordos de licenciamento com eles para proteger e monetizar suas obras.”

À medida que a indústria de IA enfrenta esses desafios éticos e legais, alguns potenciais desfechos emergem:

  1. Confronto Legal: Uma entidade bem-resourced pode decidir processar a indústria de IA, potencialmente remodelando o cenário.
  2. Acordos de Licenciamento: Principais criadores de conteúdo e empresas de IA podem firmar acordos de licenciamento, semelhante a como a indústria da música se adaptou ao streaming.
  3. Status Quo: As práticas atuais podem continuar sem contestação, deixando criadores menores de fora de qualquer compensação potencial.
  4. Intervenção Regulamentar: Governos podem intervir para criar novas estruturas para o uso de dados de treinamento de IA.

Esse estado desconfortável de coisas também pode levar a algumas soluções incómodas.

“Todos sabemos que é antiético,” diz Roetzer. “Todos sabemos que é provavelmente ilegal. Mas, no final das contas, será uma decisão de negócios melhor para essas grandes empresas apenas aceitar que isso foi feito e isso é o que acontece e apenas fazer um acordo e tentar ganhar dinheiro no processo, ao invés de tentar processá-los e provar danos.”

Bolt42