Muitos temiam que a eleição de 2024 fosse afetada, e talvez decidida, pela desinformação gerada por IA. Embora tenha havido um pouco, foi bem menos do que o antecipado. Mas não se deixe enganar: a ameaça da desinformação é real — você apenas não é o alvo.
É o que diz Oren Etzioni, um pesquisador de IA veterano, cuja organização sem fins lucrativos TrueMedia está atenta ao pulso da desinformação gerada.
“Há, para o bem ou para o mal, uma diversidade de deepfakes,” ele disse ao TechCrunch em uma entrevista recente. “Cada um serve a seu propósito, e alguns nós estamos mais cientes do que outros. Deixe-me colocar desta forma: para cada coisa da qual você realmente ouve falar, há centenas que não são direcionadas a você. Talvez até mil. É realmente apenas a ponta do iceberg que chega à imprensa mainstream.”
O fato é que a maioria das pessoas, e os americanos mais do que muitos, tendem a pensar que o que eles vivenciam é o mesmo que outros vivenciam. Isso não é verdade por várias razões. Mas, no caso das campanhas de desinformação, a América é, na verdade, um alvo difícil, dada uma população relativamente bem informada, informações factuais prontamente disponíveis e uma imprensa que é confiável pelo menos na maior parte do tempo (apesar de todo o ruído em contrário).
Tendemos a pensar em deepfakes como algo como um vídeo da Taylor Swift fazendo ou dizendo algo que ela não faria. Mas os deepfakes realmente perigosos não são aqueles de celebridades ou políticos, mas de situações e pessoas que não podem ser tão facilmente identificadas e combatidas.
“A maior coisa que as pessoas não entendem é a variedade. Vi um hoje de aviões iranianos sobre Israel,” ele observou — algo que não aconteceu, mas que não pode ser facilmente desmentido por alguém que não está lá embaixo. “Você não vê isso porque não está no canal do Telegram, ou em certos grupos do WhatsApp — mas milhões estão.”
A TrueMedia oferece um serviço gratuito (via web e API) para identificar imagens, vídeos, áudios e outros itens como falsos ou reais. Não é uma tarefa simples, e não pode ser totalmente automatizada, mas eles estão lentamente construindo uma base de material de verdade que alimenta o processo.
“Nossa missão principal é a detecção. Os benchmarks acadêmicos [para avaliar mídias falsas] há muito tempo foram superados,” explicou Etzioni. “Treinamos com coisas carregadas por pessoas de todo o mundo; vemos o que os diferentes fornecedores dizem sobre isso, o que nossos modelos dizem sobre isso, e geramos uma conclusão. Como acompanhamento, temos uma equipe forense fazendo uma investigação mais profunda que é mais extensa e lenta, não sobre todos os itens, mas uma fração significativa, para que tenhamos uma verdade fundamentada. Não atribuímos um valor de verdade a menos que tenhamos certeza; ainda podemos estar errados, mas somos substancialmente melhores do que qualquer outra solução única.”
A missão principal é servir para quantificar o problema de três maneiras principais que Etzioni delineou:
- Quanto há por aí? “Não sabemos, não há um Google para isso. Você vê várias indicações de que é comum, mas é extremamente difícil, talvez até impossível, medir com precisão.”
- Quantas pessoas veem isso? “Isso é mais fácil porque, quando Elon Musk compartilha algo, você vê, ‘10 milhões de pessoas viram isso.’ Então, o número de pessoas alcançadas está facilmente na casa das centenas de milhões. Vejo itens toda semana que foram visualizados milhões de vezes.”
- Qual foi o impacto disso? “Esse talvez seja o mais importante. Quantos eleitores não foram às urnas por causa das falsas ligações do Biden? Simplesmente não estamos preparados para medir isso. O caso da Eslováquia [uma campanha de desinformação visando um candidato presidencial lá em fevereiro] foi de última hora, e ele acabou perdendo. Isso pode muito bem ter desequilibrado essa eleição.”
Todos esses são trabalhos em andamento, alguns apenas começando, ele enfatizou. Mas você tem que começar em algum lugar.
“Deixe-me fazer uma previsão ousada: nos próximos 4 anos, vamos nos tornar muito mais hábeis em medir isso,” disse ele. “Porque precisamos. Neste momento, estamos apenas tentando lidar com a situação.”
Quanto às tentativas da indústria e da tecnologia para tornar a mídia gerada mais óbvia, como a utilização de marcas d’água em imagens e textos, elas são inócuas e talvez benéficas, mas não começam a resolver o problema, disse ele.
“A maneira como eu colocaria isso é: não leve uma marca d’água para uma luta de armas.” Esses padrões voluntários são úteis em ecossistemas colaborativos onde todos têm uma razão para usá-los, mas oferecem pouca proteção contra atores maliciosos que desejam evitar a detecção.
Tudo isso soa bastante sombrio, e é, mas a eleição mais consequente da história recente acabou de acontecer sem muito do tipo de truques de IA. Isso não é porque a desinformação gerada não é comum, mas porque seus propagadores não se sentiram necessários para participar. Se isso te assusta mais ou menos do que a alternativa, depende de você.
Conteúdo relacionado
Tudo o que você precisa saber sobre o chatbot de IA
[the_ad id="145565"] O ChatGPT, o chatbot gerador de texto da OpenAI, rapidamente ganhou popularidade desde seu lançamento em novembro de 2022. O que começou como uma…
A Nous Research está treinando um modelo de IA utilizando máquinas distribuídas pela internet.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA líder de mercado. Saiba mais…
Meta afirma que conteúdo gerado por IA representou menos de 1% das desinformações relacionadas às eleições em seus aplicativos.
[the_ad id="145565"] No início do ano, havia grandes preocupações sobre como IA generativa poderia ser usada para interferir nas eleições globais, espalhando propaganda e…