“Movimente-se com cautela e faça red-team” infelizmente não é tão cativante quanto “movimente-se rápido e quebre coisas.” Mas três defensores da segurança da IA deixaram claro para os fundadores de startups que avançar muito rapidamente pode levar a questões éticas a longo prazo.
“Estamos em um ponto de inflexão onde muitos recursos estão sendo direcionados para este espaço,” disse Sarah Myers West, co-diretora do AI Now Institute, no palco do TechCrunch Disrupt 2024. “Estou realmente preocupada que, neste momento, haja uma pressa em lançar produtos no mundo, sem pensar na questão legado de qual é o mundo que realmente queremos viver e de que maneira a tecnologia que está sendo produzida está servindo a esse mundo ou prejudicando-o ativamente.”
A conversa ocorre em um momento em que a questão da segurança da IA parece mais urgente do que nunca. Em outubro, a família de uma criança que cometeu suicídio processou a empresa de chatbot Character.AI por seu papel alegado na morte da criança.
“Esta história realmente demonstra as profundas implicações do rápido lançamento que temos visto das tecnologias baseadas em IA,” disse Myers West. “Alguns desses problemas são de longa data, quase intratáveis, como moderação de conteúdo e abuso online.
Mas além dessas questões que envolvem vida ou morte, os riscos da IA continuam altos, variando de desinformação a violação de direitos autorais.
“Estamos construindo algo que possui muito poder e a capacidade de realmente impactar a vida das pessoas,” disse Jingna Zhang, fundadora da plataforma social orientada para artistas Cara. “Quando se fala sobre algo como o Character.AI, que realmente engaja emocionalmente alguém, faz sentido que haja barreiras ao redor de como o produto é construído.”
A plataforma Cara de Zhang disparou após a Meta deixar claro que poderia usar as postagens públicas de qualquer usuário para treinar sua IA. Para artistas como Zhang, essa política é um tapa na cara. Artistas precisam postar seu trabalho online para construir uma audiência e garantir clientes potenciais, mas ao fazer isso, seu trabalho pode ser usado para moldar os próprios modelos de IA que poderiam, um dia, desempregá-los.
“O direito autoral é o que nos protege e nos permite ganhar a vida,” disse Zhang. Se uma obra está disponível online, isso não significa que seja gratuita, por exemplo — publicações de notícias digitais precisam licenciar imagens de fotógrafos para usá-las. “Quando a IA generativa começou a se tornar muito mais comum, o que estamos vendo é que isso não funciona com o que estamos tipicamente acostumados e que foi estabelecido em lei. E se eles quisessem usar nosso trabalho, deveriam pagá-lo.”
Os artistas também podem ser impactados por produtos como a ElevenLabs, uma empresa de clonagem de voz com IA que vale mais de um bilhão de dólares. Como responsável pela segurança da ElevenLabs, cabe a Aleksandra Pedraszewska garantir que a sofisticada tecnologia da empresa não seja utilizada para deepfakes não consensuais, entre outras coisas.
“Acredito que red-teaming modelos, entender comportamentos indesejáveis e consequências não intencionais de qualquer novo lançamento que uma empresa de IA generativa faça é novamente uma prioridade,” disse ela. “A ElevenLabs possui 33 milhões de usuários hoje. Esta é uma comunidade massiva que é impactada por qualquer mudança que fazemos em nosso produto.”
Pedraszewska disse que uma maneira de as pessoas em sua função serem mais proativas em manter as plataformas seguras é ter um relacionamento mais próximo com a comunidade de usuários.
“Não podemos operar apenas entre dois extremos, sendo um totalmente anti-IA e anti-GenAI, e o outro, efetivamente tentando persuadir a ausência de regulamentação do espaço. Acredito que precisamos encontrar um meio-termo quando se trata de regulamentação,” disse ela.
A TechCrunch tem um boletim informativo focado em IA!Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.
Conteúdo relacionado
OpenAI apagou acidentalmente evidências potenciais no processo de copyright do NY Times (atualizado)
[the_ad id="145565"] Advogados do The New York Times e do Daily News, que processam a OpenAI por supostamente coletar seus trabalhos para treinar seus modelos de IA sem…
Salesforce lança o Centro de Testes Agentforce para avaliar o desempenho dos agentes
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saiba mais…
Startup de chips de IA MatX, fundada por ex-funcionários do Google, levanta Série A com avaliação de mais de $300 milhões, dizem fontes.
[the_ad id="145565"] A MatX, uma startup que desenvolve chips para suportar modelos de linguagem grandes, levantou uma rodada de investimentos Série A de aproximadamente 80…