Algumas pequenas mudanças nos termos de serviço da Adobe geraram uma enorme repercussão entre criadores—e destacaram a crescente desconfiança em relação ao uso de dados de clientes pelas empresas para impulsionar a IA.
A controvérsia começou quando a Adobe atualizou seus termos de serviço e exigiu que os usuários consentissem em dar acesso à empresa ao seu conteúdo por meio de “métodos automatizados e manuais” para continuar usando seu software.
“Especificamente, a notificação informava que a Adobe ‘esclareceu que podemos acessar seu conteúdo através de métodos automatizados e manuais’ dentro de seus TOS, direcionando os usuários para uma seção que afirma que ‘técnicas como aprendizagem de máquina’ podem ser usadas para analisar conteúdo, a fim de melhorar serviços, software e experiências dos usuários. A atualização se tornou viral após os criativos interpretarem a linguagem vaga da Adobe como uma indicação de que usaria seu trabalho para treinar Firefly — o modelo de IA generativa da empresa — ou acessar projetos sensíveis que poderiam estar sob NDA.”
A Adobe rapidamente recuou, publicando um post no blog caracterizando a controvérsia como um “mal-entendido”. A empresa esclareceu que não treina modelos de IA com o conteúdo dos clientes nem assume a propriedade do trabalho dos usuários.
Mas o dano já estava feito.
O que podemos aprender com o erro da Adobe?
Obti a informação do fundador e CEO do Marketing AI Institute, Paul Roetzer, no episódio 102 do The Artificial Intelligence Show.
A transparência importa mais do que nunca
“Foi um erro evitável,” diz Roetzer. “Foi uma má impressão.”
Mesmo com a explicação fornecida pela Adobe, os termos ainda estão em uma linguagem jurídica confusa que, compreensivelmente, assustou os usuários.
“Eu li e pensei: ‘Não sei o que isso significa,'” diz Roetzer. “E eu e você temos um conhecimento razoável sobre isso.”
O incidente segue um padrão semelhante a uma controvérsia que afetou a Zoom no ano passado. O gigante das videoconferências teve que recuar em termos de serviço que faziam parecer que as conversas dos usuários poderiam ser usadas para treinamento de IA.
Em ambos os casos, a falta de transparência gerou uma forte percepção de que as empresas estavam tentando “enganar” os clientes, diz Roetzer. E no clima atual, isso é um grande problema.
“Acho que haverá um aumento no nível de desconfiança,” diz ele.
“Precisamos esperar mais dessas empresas—para serem muito transparentes e claras e não dar a impressão de que estão tentando nos enganar.”
As apostas estão aumentando
À medida que mais empresas correm para desenvolver IA, o acesso a dados de treinamento de qualidade está se tornando um fator decisivo. O conteúdo dos clientes representa uma mina de ouro potencial para alimentar modelos famintos por dados.
Mas, como a Adobe acabou de aprender, explorar essa mina de ouro sem verdadeira transparência e consentimento é um jogo perigoso. Os usuários estão cada vez mais sensíveis sobre como seus dados e criações estão sendo usados pelas ferramentas de IA das quais dependem.
As empresas que não anteciparem essas preocupações com uma comunicação clara e direta correm o risco de enfrentar uma séria repercussão e perda de confiança.
“Muitas empresas querem acesso aos seus dados para usar de alguma forma em sua IA, e isso vai se tornar realmente confuso como elas estão fazendo isso,” diz Roetzer.
A linha de fundo? Os construtores de IA que priorizam comunicação clara, consentimento informado e práticas responsáveis de uso de dados terão uma grande vantagem à medida que o escrutínio público se intensifica.
Conteúdo relacionado
40% das Compras Pmax de uma Marca de E-commerce Foram Exibidas em Sites MFA Criados por IA e Domínios Inativos
[the_ad id="145565"] A crescente presença de sites gerados por inteligência artificial voltados para a publicidade está dificultando a tarefa dos anunciantes em garantir que…
Como o Anúncio de Fim de Ano da Coca-Cola com IA Passou de Elogios a Raiva
[the_ad id="145565"] Inicialmente, o remake da Coca-Cola de seu comercial de 1995, “As Férias Estão Chegando,” alimentado por IA, parecia ser bem recebido. A System1, que testa…
Dentro da Estratégia de Dados Focada no Cliente de Chris Marino no Google
[the_ad id="145565"] No episódio deste podcast The Speed of Culture, o fundador e apresentador da Suzy, Matt Britton, conversa com Chris Marino, chefe de agência da Google…