Bolt42

Algumas pequenas mudanças nos termos de serviço da Adobe geraram uma enorme repercussão entre criadores—e destacaram a crescente desconfiança em relação ao uso de dados de clientes pelas empresas para impulsionar a IA.

A controvérsia começou quando a Adobe atualizou seus termos de serviço e exigiu que os usuários consentissem em dar acesso à empresa ao seu conteúdo por meio de “métodos automatizados e manuais” para continuar usando seu software.

O Verge explica:

“Especificamente, a notificação informava que a Adobe ‘esclareceu que podemos acessar seu conteúdo através de métodos automatizados e manuais’ dentro de seus TOS, direcionando os usuários para uma seção que afirma que ‘técnicas como aprendizagem de máquina’ podem ser usadas para analisar conteúdo, a fim de melhorar serviços, software e experiências dos usuários. A atualização se tornou viral após os criativos interpretarem a linguagem vaga da Adobe como uma indicação de que usaria seu trabalho para treinar Firefly — o modelo de IA generativa da empresa — ou acessar projetos sensíveis que poderiam estar sob NDA.”

A Adobe rapidamente recuou, publicando um post no blog caracterizando a controvérsia como um “mal-entendido”. A empresa esclareceu que não treina modelos de IA com o conteúdo dos clientes nem assume a propriedade do trabalho dos usuários.

Mas o dano já estava feito.

O que podemos aprender com o erro da Adobe?

Obti a informação do fundador e CEO do Marketing AI Institute, Paul Roetzer, no episódio 102 do The Artificial Intelligence Show.

A transparência importa mais do que nunca

“Foi um erro evitável,” diz Roetzer. “Foi uma má impressão.”

Mesmo com a explicação fornecida pela Adobe, os termos ainda estão em uma linguagem jurídica confusa que, compreensivelmente, assustou os usuários.

“Eu li e pensei: ‘Não sei o que isso significa,'” diz Roetzer. “E eu e você temos um conhecimento razoável sobre isso.”

O incidente segue um padrão semelhante a uma controvérsia que afetou a Zoom no ano passado. O gigante das videoconferências teve que recuar em termos de serviço que faziam parecer que as conversas dos usuários poderiam ser usadas para treinamento de IA.

Em ambos os casos, a falta de transparência gerou uma forte percepção de que as empresas estavam tentando “enganar” os clientes, diz Roetzer. E no clima atual, isso é um grande problema.

“Acho que haverá um aumento no nível de desconfiança,” diz ele.

“Precisamos esperar mais dessas empresas—para serem muito transparentes e claras e não dar a impressão de que estão tentando nos enganar.”

As apostas estão aumentando

À medida que mais empresas correm para desenvolver IA, o acesso a dados de treinamento de qualidade está se tornando um fator decisivo. O conteúdo dos clientes representa uma mina de ouro potencial para alimentar modelos famintos por dados.

Mas, como a Adobe acabou de aprender, explorar essa mina de ouro sem verdadeira transparência e consentimento é um jogo perigoso. Os usuários estão cada vez mais sensíveis sobre como seus dados e criações estão sendo usados pelas ferramentas de IA das quais dependem.

As empresas que não anteciparem essas preocupações com uma comunicação clara e direta correm o risco de enfrentar uma séria repercussão e perda de confiança.

“Muitas empresas querem acesso aos seus dados para usar de alguma forma em sua IA, e isso vai se tornar realmente confuso como elas estão fazendo isso,” diz Roetzer.

A linha de fundo? Os construtores de IA que priorizam comunicação clara, consentimento informado e práticas responsáveis de uso de dados terão uma grande vantagem à medida que o escrutínio público se intensifica.



Bolt42