No início do ano, havia grandes preocupações sobre como IA generativa poderia ser usada para interferir nas eleições globais, espalhando propaganda e desinformação. Avançando para o final do ano, a Meta afirma que esses temores não se concretizaram, pelo menos em suas plataformas, pois compartilhou que a tecnologia teve impacto limitado no Facebook, Instagram e Threads.
A empresa afirma que suas descobertas são baseadas em conteúdos relacionados a grandes eleições nos EUA, Bangladesh, Indonésia, Índia, Paquistão, Parlamento da UE, França, Reino Unido, África do Sul, México e Brasil.
“Embora tenha havido casos de uso confirmado ou suspeito de IA dessa forma, os volumes permaneceram baixos e nossas políticas e processos existentes se mostraram suficientes para reduzir o risco relacionado ao conteúdo gerado por IA,” escreveu a empresa em um postagem no blog. “Durante o período eleitoral nas principais eleições listadas acima, as avaliações de conteúdo de IA relacionadas a eleições, política e temas sociais representaram menos de 1% de todas as desinformações verificadas.”
A Meta observa que seu gerador de imagens Imagine AI rejeitou 590.000 solicitações para criar imagens do presidente eleito Trump, do vice-presidente eleito Vance, da vice-presidente Harris, do governador Walz e do presidente Biden no mês que antecedeu o dia da eleição, a fim de evitar que as pessoas criassem deepfakes relacionados às eleições.
A empresa também descobriu que redes coordenadas de contas que buscavam espalhar propaganda ou desinformação “apenas obtiveram ganhos incrementais de produtividade e geração de conteúdo usando IA generativa.”
A Meta afirma que o uso de IA não impediu sua capacidade de desmontar essas campanhas de influência encobertas, pois concentra-se no comportamento dessas contas e não no conteúdo que publicam, independentemente de terem sido criados com IA.
O gigante da tecnologia também revelou que desmantelou cerca de 20 novas operações de influência encobertas ao redor do mundo para prevenir interferências estrangeiras. A Meta diz que a maioria das redes que desmantelou não tinha públicos autênticos e que algumas delas utilizaram curtidas e seguidores falsos para aparentar ser mais populares do que realmente eram.
A Meta apontou, ainda, para outras plataformas, observando que vídeos falsos sobre a eleição dos EUA ligados a operações de influência baseadas na Rússia foram frequentemente postados no X e no Telegram.
“À medida que avaliamos o que aprendemos durante este ano notável, manteremos nossas políticas sob revisão e anunciamos quaisquer mudanças nos próximos meses,” escreveu a Meta.
Conteúdo relacionado
O Estúdio Ghibli não comentou sobre a avalanche de cópias de IA da OpenAI, mas o subreddit de fãs se manifestou.
[the_ad id="145565"] Quando a OpenAI lançou sua ferramenta de geração de imagens no ChatGPT na semana passada, as redes sociais explodiram quando os usuários perceberam que…
Tudo o que você precisa saber sobre a Amazon Nova Act: o novo SDK de agente de IA que desafia OpenAI, Microsoft e Salesforce.
[the_ad id="145565"] Inscreva-se em nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder no setor. Saiba Mais…
A Microsoft supostamente reduz seus planos de data center
[the_ad id="145565"] A Microsoft reduziu seus projetos de data centers ao redor do mundo, segundo a Bloomberg, sugerindo que a empresa está cautelosa em expandir sua…