Bolt42

Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder na indústria. Saiba mais


O criador do Facebook e CEO da Meta, Mark “Zuck” Zuckerberg, abalou o mundo novamente hoje ao anunciar mudanças abrangentes na forma como sua empresa modera e lida com publicações geradas por usuários e conteúdo nos EUA.

Citando as “recentes eleições” como um “ponto de inflexão cultural”, Zuck explicou em um vídeo de aproximadamente cinco minutos postado em suas contas do Facebook e Instagram na manhã de terça-feira, 7 de janeiro, que a Meta deixará de usar verificadores de fatos e organizações de verificação independentes para ajudar a moderar e adicionar notas a postagens de usuários compartilhadas em toda a suíte de aplicativos de redes sociais e mensagens da empresa, incluindo Facebook, Instagram, WhatsApp e Threads.

Em vez disso, Zuck afirmou que a Meta se baseará em uma abordagem inspirada em “Notas da Comunidade”, crowdsourcing informações dos usuários através dos aplicativos da Meta para dar contexto e veracidade às postagens, semelhante ao que (e Zuck reconheceu isso em seu vídeo) a rede social rival X (anteriormente Twitter) já faz.

Zuck apresentou as mudanças como um retorno às “raízes” do Facebook em termos de livre expressão e uma diminuição da “censura excessiva”. Veja a transcrição completa de suas declarações no final deste artigo.

Por que essa mudança de política é importante para os negócios

Com mais de 3 bilhões de usuários em seus serviços e produtos em todo o mundo, a Meta continua sendo a maior rede social até hoje. Além disso, em 2022, mais de 200 milhões de empresas em todo o mundo, a maioria delas pequenas, usaram os aplicativos e serviços da empresa — e 10 milhões eram anunciantes pagantes ativos na plataforma, segundo um executivo.

O novo diretor de assuntos globais da Meta, Joe Kaplan, ex-chefe de gabinete do presidente republicano George W. Bush — que recentemente assumiu o cargo em uma demonstração de disposição da Meta em trabalhar com o Congresso e a Casa Branca liderados pelo GOP após as eleições de 2024 — também publicou uma nota no site corporativo da Meta descrevendo algumas das mudanças em maior detalhe.

Executivos de negócios, como o CEO da Shopify, Tobi Lutke, aparentemente já abraçaram o anúncio. Como escreveu Lutke no X hoje: “Mudança enorme e importante.”

O diretor de marketing do Founders Fund e influenciador da tecnologia, Mike Solana, também elogiou a mudança, escrevendo em uma postagem no X: “Já houve uma diminuição dramática na censura nas plataformas [M]eta. Mas uma declaração pública desse tipo, falando abertamente a verdade (os ‘verificadores de fatos’ eram tendenciosos, e a política era imoral), é realmente e finalmente o fim de uma era dourada para as piores pessoas vivas.”

Entretanto, outros são menos otimistas e receptivos às mudanças, vendo-as menos como uma questão de liberdade de expressão e mais como uma tentativa de conquistar o favor com a administração recém-eleita do presidente Donald J. Trump (em seu segundo mandato não consecutivo) e o Congresso liderado pelo GOP, assim como outras empresas e executivos parecem ter feito.

“Mais liberdade de expressão nas redes sociais é algo bom”, escreveu a fundação sem fins lucrativos Freedom of the Press Foundation na rede social BlueSky (divulgação: minha esposa é membro do conselho da organização sem fins lucrativos). “Mas com base no histórico da Meta, parece mais provável que isso seja uma tentativa de agradar a Donald Trump do que realmente sobre liberdade de expressão.”

O professor de comunicação política da George Washington University, Dave Karpf, pareceu concordar, escrevendo no BlueSky: “Dois fatos importantes sobre o Facebook substituir seu programa de verificação de fatos por notas comunitárias: (1) notas comunitárias são mais baratas. (2) o regime político recém-chegado não gosta de verificação de fatos. Portanto, notas comunitárias são menos problemáticas. O resto é apenas uma apresentação. O único princípio de Zuck é fazer o que é melhor para Zuck.”

E Kate Starbird, professora da Universidade de Washington e cofundadora do UW Center for an Informed Public, escreveu no BlueSky: “A Meta está abandonando seu apoio à verificação de fatos, o que, além de degradar a capacidade dos usuários de verificar conteúdo, essencialmente desfinanciará todas as pequenas empresas que trabalhavam para identificar conteúdo falso online. Mas nossos feeds do FB estão basicamente apenas com conteúdo aleatório gerado por IA neste ponto, então?”

Em contato por e-mail, Damian Rollison, Diretor de Insights de Mercado da empresa de marketing de IA SOCi, também observou que Zuck e a Meta pareciam estar imitando uma abordagem mais libertária em relação à moderação de conteúdo online, defendida pelo proprietário do X, Elon Musk:

“Acho que é seguro dizer que ninguém previu que a tomada de controle caótica de Elon Musk no Twitter se tornaria uma tendência que outras plataformas de tecnologia seguiriam, e ainda assim aqui estamos. Podemos ver agora em retrospecto que Musk estabeleceu um padrão para uma abordagem conservadora recém-emergente para o afrouxamento da moderação de conteúdo online, que a Meta agora adotou em antecipação à administração de Trump que está por vir. O que isso provavelmente significará é que o Facebook e o Instagram verão um aumento no discurso político e postagens sobre tópicos controversos. Assim como no X de Musk, onde a receita de anúncios caiu pela metade, essa mudança pode tornar a plataforma menos atraente para anunciantes. Isso também pode cimentar uma tendência em que o Facebook está se tornando a rede social para usuários mais velhos e conservadores, enquanto cede o Gen Z ao TikTok, com o Instagram ocupando um espaço intermediário entre eles.”

Quando as mudanças ocorrerão?

Tanto Zuck quanto Kaplan afirmaram em seus respectivos vídeos e postagens que as mudanças nas políticas e práticas de moderação de conteúdo da Meta chegariam aos EUA em “nos próximos meses”.

A Meta irá descontinuar seu programa de verificação de fatos independente nos Estados Unidos, lançado em 2016, em favor de um modelo de notas comunitárias inspirado no X (anteriormente Twitter). Este sistema dependerá dos usuários para escrever e avaliar notas, exigindo concordância entre diferentes perspectivas para garantir equilíbrio e prevenir viés.

De acordo com seu site, a Meta estava trabalhando com uma variedade de organizações “certificadas pela Rede Internacional de Verificação de Fatos (IFCN) ou Rede de Padrões de Verificação de Fatos da Europa (EFCSN) para identificar, revisar e tomar providências” sobre conteúdo considerado “desinformação.”

No entanto, como Zuck opinou em seu vídeo, “depois que Trump foi eleito pela primeira vez em 2016, a mídia tradicional escreveu incessantemente sobre como a desinformação era uma ameaça à democracia. Tentamos, de boa fé, abordar essas preocupações sem nos tornarmos os árbitros da verdade, mas os verificadores de fatos foram muito politicamente tendenciosos e destruíram mais confiança do que criaram, especialmente nos EUA.”

Zuck também acrescentou que: “Houve um debate generalizado sobre os potenciais danos do conteúdo online. Os governos e as mídias tradicionais pressionaram para censurar cada vez mais. Muito disso é claramente político.”

De acordo com Kaplan, o objetivo da mudança é reduzir a percepção de censura que surgiu do programa de verificação de fatos anterior, que muitas vezes aplicava rótulos intrusivos a falas políticas legítimas.

Afrouxando as restrições sobre tópicos políticos e sensíveis

A Meta está revisando suas políticas de conteúdo para permitir mais discussões sobre tópicos politicamente sensíveis, como imigração e identidade de gênero. Kaplan apontou que é inconsistente que tais tópicos sejam debatidos em fóruns públicos como o Congresso ou na televisão, mas restritos nas plataformas da Meta.

Sistemas automatizados, que anteriormente foram usados para aplicar políticas em uma ampla gama de questões, agora se concentrarão principalmente em abordar violações legais e graves, como terrorismo e exploração infantil.

Para questões de menor gravidade, a plataforma confiará mais em relatórios de usuários e revisores humanos. A Meta também reduzirá a desclassificação de conteúdo marcado como potencialmente problemático, a menos que haja fortes evidências de violação.

No entanto, a redução dos sistemas automatizados parece contradizer a promoção da IA pela Meta como uma ferramenta valiosa em suas próprias ofertas comerciais — por que alguém deveria confiar nos modelos de IA da Meta, como a família Llama, se a própria Meta não está disposta a usá-los para moderar conteúdo?

Uma redução nas remoções de conteúdo está a caminho?

Como Zuck colocou, um grande problema com os sistemas automatizados do Facebook é a censura excessiva.

Ele declarou em sua mensagem em vídeo: “Nós construímos muitos sistemas complexos para moderar conteúdo, mas o problema com sistemas complexos é que eles cometem erros. Mesmo que acidentalmente censurem apenas 1% [de] postagens, isso significa milhões de pessoas, e chegamos a um ponto em que é apenas muitos erros e muita censura.”

A Meta reconhece que os erros na moderação de conteúdo têm sido um problema persistente. Kaplan observou que, embora menos de 1% do conteúdo diário seja removido, uma estimativa de 10-20% dessas ações pode ser erro. Para lidar com isso, a Meta planeja:

• Publicar relatórios de transparência detalhando erros de moderação e progresso.

• Exigir que múltiplos revisores confirmem as decisões antes que o conteúdo seja removido.

• Usar sistemas de IA avançados, incluindo grandes modelos de linguagem, para opiniões de segunda instância sobre ações de fiscalização.

Além disso, a empresa está relocando suas equipes de confiança e segurança da Califórnia para outros locais dos EUA, incluindo o Texas, para abordar percepções de viés — uma mudança que alguns já zombaram em várias redes sociais: As pessoas no Texas realmente são menos tendenciosas do que aquelas na Califórnia?

O retorno do conteúdo político — e das ‘fake news’?

Desde 2021, a Meta limitou a visibilidade de conteúdo cívico e político em suas plataformas em resposta ao feedback dos usuários.

No entanto, a empresa agora planeja reintroduzir esse conteúdo de uma maneira mais personalizada.

Usuários que desejam ver mais conteúdo político terão maior controle sobre seus feeds, com a Meta usando sinais explícitos, como curtidas, e comportamentos implícitos, como visualizações de postagens, para determinar preferências.

No entanto, essa reintegração de conteúdo político pode correr o risco de permitir novamente a propagação de desinformação politicamente carregada por adversários dos EUA — como vimos na véspera das eleições de 2016, quando várias páginas do Facebook difundiram desinformação e teorias da conspiração que favoreceram os republicanos e desfavoreceram candidatos e políticas democratas.

Um criador de “fake news” admitido disse à NPR que, embora tenham tentado criar conteúdo para públicos liberais e conservadores, o segundo era mais interessado e ingênuo em compartilhar e compartilhar novamente conteúdo falso que se alinhava com suas visões.

Tais “fake news” eram tão onipresentes que foram até mesmo alvo de piadas nas redes sociais e em The Onion.

Minha análise do que isso significa para empresas e páginas de marca

Nunca tive uma empresa, mas já gerenciei várias contas no Facebook e Instagram em nome de grandes organizações corporativas e de startups/ONGs menores, então conheço de perto o trabalho que envolve mantê-las, postar e crescer seus públicos/seguidores.

Acho que, embora o compromisso declarado da Meta em restaurar mais liberdade de expressão em seus produtos seja louvável, o veredicto ainda está em como essa mudança afetará efetivamente o desejo das empresas de se comunicar com seus fãs e clientes usando esses produtos.

No melhor dos casos, será uma espada de dois gumes: políticas de moderação de conteúdo menos rígidas darão às marcas e empresas a chance de postar conteúdo mais controverso, experimental e ousado — e aquelas que aproveitarem isso podem ver suas mensagens alcançando públicos mais amplos, ou seja, “viralizando”.

Por outro lado, marcas e empresas podem agora ter dificuldades para que suas postagens sejam vistas e comentadas frente a outras páginas postando conteúdos mais controversos e politicamente carregados.

Além disso, as mudanças podem facilitar para os usuários criticarem as marcas ou implicá-las em conspirações, e pode ser mais difícil para as marcas forçarem remoções de tal conteúdo desfavorável sobre elas — mesmo quando não é verdade.

O que vem a seguir?

A implementação de notas comunitárias e ajustes nas políticas deve começar nos próximos meses nos EUA. A Meta planeja melhorar e refinar esses sistemas ao longo do ano.

Essas iniciativas, segundo Kaplan, visam equilibrar a necessidade de segurança e precisão com o valor central da empresa de permitir a livre expressão.

Kaplan disse que a Meta está focada em criar uma plataforma onde os indivíduos possam se expressar livremente. Ele também reconheceu os desafios de gerenciar conteúdo em grande escala, descrevendo o processo como “bagunçado”, mas essencial para a missão da Meta.

Para os usuários, essas mudanças prometem menos intervenções intrusivas e uma maior oportunidade de moldar a conversa nas plataformas da Meta.

Se a nova abordagem terá sucesso em reduzir a frustração e fomentar um diálogo aberto, permanece a ser visto.

Oi, pessoal. Quero falar sobre algo importante hoje, porque é hora de voltarmos às nossas raízes em torno da livre expressão no Facebook e Instagram. Comecei a construir redes sociais para dar às pessoas uma voz. Fiz um discurso em Georgetown cinco anos atrás sobre a importância de proteger a livre expressão, e ainda acredito nisso hoje, mas muitas coisas aconteceram nos últimos anos.

Houve um debate generalizado sobre os potenciais danos do conteúdo online. Os governos e a mídia tradicional pressionaram para censurar cada vez mais. Muito disso é claramente político, mas também há muitas coisas que são realmente ruins: drogas, terrorismo, exploração infantil. Essas são coisas que levamos muito a sério e quero garantir que tratamos de forma responsável. Então, construímos muitos sistemas complexos para moderar o conteúdo, mas o problema com sistemas complexos é que eles cometem erros. Mesmo que eles acidentalmente censurem apenas 1% das postagens, isso significa milhões de pessoas, e chegamos a um ponto onde é apenas muitos erros e muita censura.

As eleições recentes também parecem um ponto de inflexão cultural em direção, mais uma vez, à priorização da fala. Então, vamos voltar às nossas raízes e nos concentrar em reduzir erros, simplificar nossas políticas e restaurar a livre expressão em nossas plataformas. Mais especificamente, aqui está o que vamos fazer.

Primeiro, vamos nos livrar dos verificadores de fatos e substituí-los por notas da comunidade, semelhante ao X, começando nos EUA. Depois que Trump foi eleito pela primeira vez em 2016, a mídia tradicional escreveu sem parar sobre como a desinformação era uma ameaça à democracia. Tentamos, de boa fé, abordar essas preocupações sem nos tornarmos os árbitros da verdade, mas os verificadores de fatos foram muito tendenciosos e destruíram mais confiança do que criaram, especialmente nos EUA. Então, nos próximos meses, vamos implementar um sistema de notas comunitárias mais abrangente.

Segundo, vamos simplificar nossas políticas de conteúdo e eliminar um monte de restrições em tópicos como imigração e gênero que estão apenas fora de sintonia com o discurso mainstream. O que começou como um movimento para ser mais inclusivo tem sido cada vez mais usado para silenciar opiniões e excluir pessoas com ideias diferentes, e isso foi longe demais. Portanto, quero garantir que as pessoas possam compartilhar suas crenças e experiências em nossas plataformas.

Terceiro, estamos mudando como aplicamos nossas políticas para reduzir os erros que representam a maior parte da censura em nossas plataformas. Antes, tínhamos filtros que pesquisavam qualquer violação de política. Agora, vamos focar esses filtros em combater violações ilegais e de alta gravidade, e para violações de menor gravidade, vamos confiar que alguém relatará um problema antes de tomarmos medidas. O problema é que os filtros cometem erros e removem uma quantidade considerável de conteúdo que não deveriam. Portanto, ao reduzi-los, vamos diminuir drasticamente a quantidade de censura em nossas plataformas. Também vamos ajustar nossos filtros de conteúdo para exigir uma confiança muito maior antes de remover conteúdo. A realidade é que esse é um trade-off. Isso significa que vamos pegar menos conteúdo ruim, mas também vamos reduzir o número de postagens e contas inocentes que removemos acidentalmente.

Quarto, estamos trazendo de volta o conteúdo cívico. Por um tempo, a comunidade pediu para ver menos política porque isso estava estressando as pessoas, então paramos de recomendar essas postagens. Mas parece que estamos em uma nova era agora, e estamos começando a receber feedback de que as pessoas querem ver esse conteúdo novamente. Portanto, vamos começar a reintegrar isso ao Facebook, Instagram e Threads, enquanto trabalhamos para manter as comunidades amistosas e positivas.

Quinto, vamos mover nossas equipes de confiança e segurança e moderação de conteúdo para fora da Califórnia, e nossas avaliações de conteúdo baseadas nos EUA serão realizadas no Texas. Como trabalhamos para promover a livre expressão, acho que isso nos ajudará a construir confiança para fazer esse trabalho em lugares onde há menos preocupações sobre o viés de nossas equipes.

Finalmente, vamos trabalhar com o presidente Trump para enfrentar governos ao redor do mundo que estão atacando empresas americanas e pressionando por mais censura. Os EUA têm as mais fortes proteções constitucionais para a livre expressão do mundo. A Europa tem um número cada vez maior de leis institucionalizando a censura e dificultando a construção de algo inovador lá. Países da América Latina têm tribunais secretos que podem ordenar que as empresas removam coisas silenciosamente. A China censurou nossos aplicativos, a ponto de nem funcionarem no país. A única maneira de enfrentarmos essa tendência global é com o apoio do governo dos EUA, e é por isso que tem sido tão difícil nos últimos quatro anos. Quando até mesmo o governo dos EUA pressionou pela censura atacando a nós e outras empresas americanas, isso encorajou outros governos a ir ainda mais longe. Mas agora temos a oportunidade de restaurar a livre expressão, e estou animado para aproveitá-la.

Levará tempo para acertar isso, e esses são sistemas complexos. Eles nunca serão perfeitos. Também há muitas coisas ilegais que ainda precisamos trabalhar muito para remover. Mas o ponto principal é que, após anos em que nosso trabalho de moderação de conteúdo se concentrou principalmente em remover conteúdo, é hora de focar em reduzir erros, simplificar nossos sistemas e voltar às nossas raízes em dar às pessoas voz.

Estou ansioso para este próximo capítulo. Fiquem bem por aí e mais novidades em breve.





    quatro × três =




    Bolt42