Algumas pequenas mudanças nos termos de serviço da Adobe geraram uma enorme repercussão entre criadores—e destacaram a crescente desconfiança em relação ao uso de dados de clientes pelas empresas para impulsionar a IA.
A controvérsia começou quando a Adobe atualizou seus termos de serviço e exigiu que os usuários consentissem em dar acesso à empresa ao seu conteúdo por meio de “métodos automatizados e manuais” para continuar usando seu software.
“Especificamente, a notificação informava que a Adobe ‘esclareceu que podemos acessar seu conteúdo através de métodos automatizados e manuais’ dentro de seus TOS, direcionando os usuários para uma seção que afirma que ‘técnicas como aprendizagem de máquina’ podem ser usadas para analisar conteúdo, a fim de melhorar serviços, software e experiências dos usuários. A atualização se tornou viral após os criativos interpretarem a linguagem vaga da Adobe como uma indicação de que usaria seu trabalho para treinar Firefly — o modelo de IA generativa da empresa — ou acessar projetos sensíveis que poderiam estar sob NDA.”
A Adobe rapidamente recuou, publicando um post no blog caracterizando a controvérsia como um “mal-entendido”. A empresa esclareceu que não treina modelos de IA com o conteúdo dos clientes nem assume a propriedade do trabalho dos usuários.
Mas o dano já estava feito.
O que podemos aprender com o erro da Adobe?
Obti a informação do fundador e CEO do Marketing AI Institute, Paul Roetzer, no episódio 102 do The Artificial Intelligence Show.
A transparência importa mais do que nunca
“Foi um erro evitável,” diz Roetzer. “Foi uma má impressão.”
Mesmo com a explicação fornecida pela Adobe, os termos ainda estão em uma linguagem jurídica confusa que, compreensivelmente, assustou os usuários.
“Eu li e pensei: ‘Não sei o que isso significa,'” diz Roetzer. “E eu e você temos um conhecimento razoável sobre isso.”
O incidente segue um padrão semelhante a uma controvérsia que afetou a Zoom no ano passado. O gigante das videoconferências teve que recuar em termos de serviço que faziam parecer que as conversas dos usuários poderiam ser usadas para treinamento de IA.
Em ambos os casos, a falta de transparência gerou uma forte percepção de que as empresas estavam tentando “enganar” os clientes, diz Roetzer. E no clima atual, isso é um grande problema.
“Acho que haverá um aumento no nível de desconfiança,” diz ele.
“Precisamos esperar mais dessas empresas—para serem muito transparentes e claras e não dar a impressão de que estão tentando nos enganar.”
As apostas estão aumentando
À medida que mais empresas correm para desenvolver IA, o acesso a dados de treinamento de qualidade está se tornando um fator decisivo. O conteúdo dos clientes representa uma mina de ouro potencial para alimentar modelos famintos por dados.
Mas, como a Adobe acabou de aprender, explorar essa mina de ouro sem verdadeira transparência e consentimento é um jogo perigoso. Os usuários estão cada vez mais sensíveis sobre como seus dados e criações estão sendo usados pelas ferramentas de IA das quais dependem.
As empresas que não anteciparem essas preocupações com uma comunicação clara e direta correm o risco de enfrentar uma séria repercussão e perda de confiança.
“Muitas empresas querem acesso aos seus dados para usar de alguma forma em sua IA, e isso vai se tornar realmente confuso como elas estão fazendo isso,” diz Roetzer.
A linha de fundo? Os construtores de IA que priorizam comunicação clara, consentimento informado e práticas responsáveis de uso de dados terão uma grande vantagem à medida que o escrutínio público se intensifica.
Conteúdo relacionado
Namoro, Ética e a Escala de Intimidade Tecnológica
[the_ad id="145565"] No episódio de TechMagic, a anfitriã Cathy Hackl se junta a Samantha G. Wolfe, fundadora da PitchFWD e professora adjunta da NYU, para explorar como a IA e…
Em Meio a Orçamentos Apertados e Pessimismo na Indústria, a Publicis Quer Fazer Valer a Cannes para os Clientes
[the_ad id="145565"] O que acontece em Cannes não deve ficar em Cannes. Deve ir direto para o deck do Q3. Essa é a mentalidade do CEO do Publicis Groupe, Arthur Sadoun,…
A Falsificação de Domínios é uma Crise de Confiança
[the_ad id="145565"] A capacidade da IA de gerar textos, imagens e websites hiper-realistas representa uma ameaça crescente — e em grande parte invisível — para as marcas,…