Bolt42

A desinformação está se espalhando em um ritmo alarmante, graças em grande parte às ferramentas de IA disponíveis abertamente. Em uma recente pesquisa, 85% das pessoas afirmaram estar preocupadas com a desinformação online, e o Fórum Econômico Mundial nomeou a desinformação gerada por IA como um dos principais riscos globais.

Alguns exemplos de alto perfil de campanhas de desinformação este ano incluem uma rede de robôs no X visando as eleições federais dos EUA, além de um deepfake de voz do presidente Joe Biden desencorajando certos moradores a votarem. No exterior, candidatos de vários países do Sul da Ásia encheram a internet com vídeos falsos, imagens e artigos de notícias. Um deepfake do prefeito de Londres, Sadiq Khan, ainda incitou a violência em uma marcha pró-Palestina.

Então, o que pode ser feito?

Bem, a IA pode ajudar a combater a desinformação, assim como a criá-la, afirma Pamela San Martín, co-presidente do Conselho de Supervisão do Meta. Criado em 2020, o Conselho é uma organização semi-autônoma que analisa reclamações sobre as políticas de moderação do Meta e emite recomendações sobre suas políticas de conteúdo.

San Martín reconhece que a IA não é perfeita. Por exemplo, o produto de IA do Meta marcou erroneamente posts do Museu de Auschwitz como ofensivos e classificou erroneamente sites de notícias independentes como spam. Mas ela está convencida de que isso melhorará com o tempo.

“A maior parte do conteúdo nas redes sociais é moderada por automação, e a automação usa IA para sinalizar certos conteúdos para revisão humana ou para ‘tomar uma atitude’ — adicionando uma tela de aviso, removendo-o, classificando-o pior nos algoritmos, etc.,” disse San Martín na semana passada durante um painel sobre desinformação gerada por IA no TechCrunch Disrupt 2024. “É esperado que os [modelos de moderação de IA] melhorem, e se eles realmente melhorarem, podem se tornar muito úteis para lidar com [desinformação].”

Claro, com o custo de semear desinformação diminuindo graças à IA, é possível que até mesmo modelos de moderação aprimorados não consigam acompanhar.

Outro participante do painel, Imran Ahmed, CEO do Center for Countering Digital Hate, também observou que os feeds sociais amplificando a desinformação agravam seus danos. Plataformas como o X efetivamente incentivam a desinformação por meio de programas de compartilhamento de receita — o BBC relata que o X está pagando a usuários milhares de dólares por postagens bem-sucedidas que incluem teorias da conspiração e imagens geradas por IA.

“Você tem uma máquina de desinformação perpetuamente alimentada,” disse Ahmed. “Isso é bastante preocupante. Não tenho certeza se devemos criar isso dentro de democracias que dependem de algum grau de verdade.”

San Martín argumentou que o Conselho de Supervisão já teve um impacto positivo aqui, por exemplo, ao incentivar o Meta a rotular conteúdos gerados por IA que são enganadores. O Conselho também sugeriu que o Meta facilitasse a identificação de casos de imagens deepfake de natureza sexual não consensual, um problema crescente.

Mas tanto Ahmed quanto a painelista Brandie Nonnecke, professora da UC Berkeley que estuda a interseção da tecnologia emergente e direitos humanos, contestaram a noção de que o Conselho de Supervisão e a auto-regulamentação, de maneira geral, podem sozinhos conter a onda de desinformação.

“Fundamentalmente, a auto-regulação não é regulação, porque o próprio Conselho de Supervisão não pode responder às cinco questões fundamentais que você deve sempre fazer a alguém que tem poder,” disse Ahmed. “Que poder você tem, quem lhe deu esse poder, em benefício de quem você exerce esse poder, a quem você é responsável, e como nos livramos de você se você não estiver fazendo um bom trabalho. Se a resposta a cada uma dessas perguntas for [Meta], então você não é nenhum tipo de checagem ou equilíbrio. Você é apenas uma estratégia de marketing.”

A opinião de Ahmed e Nonnecke não é uma visão marginal. Em uma análise realizada em junho, o Brennan Center da NYU escreveu que o Conselho de Supervisão está confinado a influenciar apenas uma fração das decisões do Meta porque a empresa controla se mudanças de políticas serão implementadas e não fornece acesso aos seus algoritmos.

A Meta também ameaçou privadamente puxar o apoio ao Conselho de Supervisão, destacando a natureza precária das operações do conselho. Embora o Conselho de Supervisão seja financiado por um fundo irrevogável, a Meta é o único contribuinte desse fundo.

Em vez de auto-regulação — que plataformas como o X provavelmente não adotarão em primeiro lugar — Ahmed e Nonnecke veem a regulação como a solução para o dilema da desinformação. Nonnecke acredita que a responsabilidade civil do produto é uma maneira de responsabilizar as plataformas, já que a doutrina mantém as empresas responsáveis por lesões ou danos causados por seus produtos “defeituosos”.

Nonnecke também apoiou a ideia de contenção de conteúdo gerado por IA, para que seja mais fácil identificar qual conteúdo foi gerado por IA. (A marca d’água tem seus próprios desafios, é claro.) Ela sugeriu que prestadores de serviços de pagamento poderiam bloquear compras de desinformação de natureza sexual e que anfitriões de sites poderiam dificultar a inscrição de maus atores nos planos.

Os legisladores que tentam trazer a indústria para a responsabilidade sofreram retrocessos recentemente nos EUA. Em outubro, um juiz federal bloqueou uma lei da Califórnia que obrigaria os autores de deepfakes de IA a removê-los sob a possibilidade de enfrentar penalidades monetárias.

Mas Ahmed acredita que há motivos para otimismo. Ele citou recentes iniciativas de empresas de IA como a OpenAI para marcar suas imagens geradas por IA e a necessidade de leis de moderação de conteúdo, como a Online Safety Act no Reino Unido.

“É inevitável que haja alguma regulação para algo que pode causar tanto dano às nossas democracias — à nossa saúde, às nossas sociedades, a nós como indivíduos,” disse Ahmed. “Acredito que há enormes razões para esperança.”

    12 + onze =

    Bolt42