Bolt42

“Movimente-se com cautela e faça red-team” infelizmente não é tão cativante quanto “movimente-se rápido e quebre coisas.” Mas três defensores da segurança da IA deixaram claro para os fundadores de startups que avançar muito rapidamente pode levar a questões éticas a longo prazo.

“Estamos em um ponto de inflexão onde muitos recursos estão sendo direcionados para este espaço,” disse Sarah Myers West, co-diretora do AI Now Institute, no palco do TechCrunch Disrupt 2024. “Estou realmente preocupada que, neste momento, haja uma pressa em lançar produtos no mundo, sem pensar na questão legado de qual é o mundo que realmente queremos viver e de que maneira a tecnologia que está sendo produzida está servindo a esse mundo ou prejudicando-o ativamente.”

A conversa ocorre em um momento em que a questão da segurança da IA parece mais urgente do que nunca. Em outubro, a família de uma criança que cometeu suicídio processou a empresa de chatbot Character.AI por seu papel alegado na morte da criança.

“Esta história realmente demonstra as profundas implicações do rápido lançamento que temos visto das tecnologias baseadas em IA,” disse Myers West. “Alguns desses problemas são de longa data, quase intratáveis, como moderação de conteúdo e abuso online.

Mas além dessas questões que envolvem vida ou morte, os riscos da IA continuam altos, variando de desinformação a violação de direitos autorais.

“Estamos construindo algo que possui muito poder e a capacidade de realmente impactar a vida das pessoas,” disse Jingna Zhang, fundadora da plataforma social orientada para artistas Cara. “Quando se fala sobre algo como o Character.AI, que realmente engaja emocionalmente alguém, faz sentido que haja barreiras ao redor de como o produto é construído.”

A plataforma Cara de Zhang disparou após a Meta deixar claro que poderia usar as postagens públicas de qualquer usuário para treinar sua IA. Para artistas como Zhang, essa política é um tapa na cara. Artistas precisam postar seu trabalho online para construir uma audiência e garantir clientes potenciais, mas ao fazer isso, seu trabalho pode ser usado para moldar os próprios modelos de IA que poderiam, um dia, desempregá-los.

“O direito autoral é o que nos protege e nos permite ganhar a vida,” disse Zhang. Se uma obra está disponível online, isso não significa que seja gratuita, por exemplo — publicações de notícias digitais precisam licenciar imagens de fotógrafos para usá-las. “Quando a IA generativa começou a se tornar muito mais comum, o que estamos vendo é que isso não funciona com o que estamos tipicamente acostumados e que foi estabelecido em lei. E se eles quisessem usar nosso trabalho, deveriam pagá-lo.”

Aleksandra Pedraszewska AI Safety ElevenLabs, Sarah Myers West Executive Director AI Now Institute, e Jingna Zhang Founder & CEO Cara no TechCrunch Disrupt 2024 na quarta-feira, 30 de outubro de 2024. (Foto por Katelyn Tucker/ Slava Blazer Photography)
Aleksandra Pedraszewska, AI Safety, ElevenLabs; Sarah Myers West, Diretora Executiva, AI Now Institute; e Jingna Zhang, Fundadora & CEO, Cara no TechCrunch Disrupt 2024 na quarta-feira, 30 de outubro de 2024.Créditos da Imagem: Katelyn Tucker/ Slava Blazer Photography

Os artistas também podem ser impactados por produtos como a ElevenLabs, uma empresa de clonagem de voz com IA que vale mais de um bilhão de dólares. Como responsável pela segurança da ElevenLabs, cabe a Aleksandra Pedraszewska garantir que a sofisticada tecnologia da empresa não seja utilizada para deepfakes não consensuais, entre outras coisas.

“Acredito que red-teaming modelos, entender comportamentos indesejáveis e consequências não intencionais de qualquer novo lançamento que uma empresa de IA generativa faça é novamente uma prioridade,” disse ela. “A ElevenLabs possui 33 milhões de usuários hoje. Esta é uma comunidade massiva que é impactada por qualquer mudança que fazemos em nosso produto.”

Pedraszewska disse que uma maneira de as pessoas em sua função serem mais proativas em manter as plataformas seguras é ter um relacionamento mais próximo com a comunidade de usuários.

“Não podemos operar apenas entre dois extremos, sendo um totalmente anti-IA e anti-GenAI, e o outro, efetivamente tentando persuadir a ausência de regulamentação do espaço. Acredito que precisamos encontrar um meio-termo quando se trata de regulamentação,” disse ela.

A TechCrunch tem um boletim informativo focado em IA!Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.

    dezessete + 16 =

    Bolt42