Conheça o novo checador de fatos da Meta: você

há 23 horas 1

A Meta gostaria de apresentar seu próximo checador de fatos —aquele que identificará falsidades, escreverá correções convincentes e alertará os outros sobre conteúdos enganosos.

É você.

Mark Zuckerberg, CEO da Meta, anunciou na terça-feira (7) que estava encerrando grande parte dos esforços de moderação da empresa, como a verificação por terceiros e restrições de conteúdo.

Em vez disso, ele disse que a empresa transferirá as responsabilidades de verificação de fatos para os usuários comuns sob um modelo chamado Community Notes (notas de contexto), que foi popularizado pelo X (antigo Twitter) e permite que os usuários deixem uma checagem de informação ou correção em uma postagem de mídia social.

O anúncio sinaliza o fim de uma era na moderação de conteúdo e uma aceitação de diretrizes mais flexíveis que até mesmo Zuckerberg reconheceu que aumentariam a quantidade de conteúdo falso e enganoso na maior rede social do mundo.

"Acho que vai ser um fracasso espetacular", disse Alex Mahadevan, diretor de um programa de alfabetização midiática no Instituto Poynter chamado MediaWise, que estudou o Community Notes no X. "A plataforma agora não tem responsabilidade por realmente nada do que é dito. Eles podem transferir a responsabilidade para os próprios usuários."

Tal mudança teria sido inimaginável após as eleições presidenciais de 2016 ou mesmo 2020, quando as empresas de mídia social se viam como guerreiros relutantes na linha de frente de uma guerra de desinformação. Falsidades generalizadas durante a eleição presidencial de 2016 desencadearam uma reação pública e um debate interno nas empresas de mídia social sobre seu papel na disseminação das chamadas fake news.

As empresas responderam investindo milhões em esforços de moderação de conteúdo, pagando verificadores de fatos terceirizados, criando algoritmos complexos para restringir conteúdo tóxico e lançando uma enxurrada de rótulos de aviso para desacelerar a propagação de falsidades —medidas vistas como necessárias para restaurar a confiança pública.

Os esforços funcionaram, até certo ponto —rótulos de verificação de fatos foram eficazes em reduzir a crença em falsidades, descobriram os pesquisadores, embora fossem menos eficazes entre os norte-americanos conservadores.

Mas os esforços também transformaram as plataformas —e Zuckerberg em particular— em alvos políticos do então presidente eleito Donald Trump e seus aliados, que disseram que a moderação de conteúdo era nada menos que censura.

Agora, o ambiente político mudou. Com Trump prestes a assumir o controle da Casa Branca e dos órgãos reguladores que supervisionam a Meta, Zuckerberg mudou para reparar seu relacionamento com Trump, jantando em Mar-a-Lago, adicionando um aliado de Trump ao conselho de diretores da Meta e doando US$ 1 milhão para o fundo de inauguração de Trump.

"As eleições recentes também parecem um ponto de inflexão cultural para mais uma vez priorizar a liberdade de expressão", disse Zuckerberg em um vídeo anunciando as mudanças na moderação.

A aposta de Zuckerberg em usar o Community Notes para substituir profissionais que checam os fatos foi inspirada por um experimento semelhante no X que permitiu a Elon Musk, seu proprietário bilionário, terceirizar a verificação de fatos da empresa para os usuários.

O X agora pede aos usuários comuns que identifiquem falsidades e escrevam correções ou adicionem informações extras às postagens de mídia social. Os detalhes exatos do programa da Meta não são conhecidos, mas no X, as notas são inicialmente visíveis apenas para usuários que se registram no programa Community Notes. Uma vez que uma nota recebe votos suficientes considerando-a valiosa, ela é anexada à postagem de mídia social para que todos possam ver.

"O sonho de uma plataforma de mídia social é uma moderação completamente automatizada que, primeiro, eles não têm que assumir responsabilidade e, segundo, não têm que pagar ninguém por isso", disse Mahadevan. "Então, o Community Notes é o sonho absoluto dessas pessoas —eles basicamente tentaram criar um sistema que automatizaria a verificação de fatos."

Musk, outro aliado de Trump, foi um dos primeiros defensores do Community Notes. Ele rapidamente elevou o programa após demitir a maior parte da equipe de confiança e segurança da empresa.

Estudos mostraram que o Community Notes funciona para dissipar algumas falsidades virais. A abordagem funciona melhor para tópicos sobre os quais há um consenso amplo, descobriram os pesquisadores, como desinformação sobre vacinas contra a Covid-19.

Nesse caso, as notas "surgiram como uma solução inovadora, reagindo com informações de saúde precisas e credíveis", disse John W. Ayers, vice-chefe de inovação na divisão de doenças infecciosas e saúde pública global da Escola de Medicina da Universidade da Califórnia, que escreveu um relatório em abril sobre o tema.

Mas os usuários com pontos de vista políticos diferentes precisam concordar em uma verificação de fatos antes que ela seja publicamente anexada a uma postagem, o que significa que postagens enganosas sobre assuntos politicamente divisivos muitas vezes ficam sem verificação.

O MediaWise descobriu que menos de 10% das Community Notes elaboradas por usuários acabaram sendo publicadas em postagens ofensivas. Os números são ainda menores para tópicos sensíveis como imigração e aborto.

Os pesquisadores descobriram que a maioria das postagens no X recebe a maior parte de seu tráfego nas primeiras horas, mas pode levar dias para que uma Community Note seja aprovada para que todos possam vê-la.

Desde sua estreia em 2021, o programa despertou interesse de outras plataformas. O YouTube anunciou no ano passado que estava iniciando um projeto-piloto permitindo que os usuários enviassem notas para aparecer abaixo de vídeos enganosos. A utilidade dessas checagens ainda é avaliada por avaliadores terceirizados, disse o YouTube em uma postagem no blog.

As ferramentas de moderação de conteúdo existentes da Meta parecem sobrecarregadas pelo dilúvio de falsidades e conteúdo enganoso, mas as intervenções foram vistas pelos pesquisadores como bastante eficazes.

Folha Mercado

Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.

Um estudo publicado no ano passado na revista Nature Human Behavior mostrou que rótulos de aviso, como os usados pelo Facebook para alertar os usuários sobre informações falsas, reduziram a crença em falsidades em 28% e reduziram a frequência com que o conteúdo era compartilhado em 25%. Os pesquisadores descobriram que os usuários de direita eram muito mais desconfiados das verificações de fatos, mas que as intervenções ainda eram eficazes em reduzir sua crença em conteúdo falso.

"Todas as pesquisas mostram que quanto mais obstáculos, essencialmente, quanto mais barreiras há em uma plataforma, você tem menos disseminação de informações de baixa qualidade", avaliou Claire Wardle, professora de comunicação na Universidade Cornell.

Os pesquisadores acreditam que a checagem feita pelo usuário é eficaz quando combinada com esforços de moderação de conteúdo internos. Mas a abordagem de não-intervenção da Meta pode se mostrar arriscada.

"A abordagem baseada na comunidade é uma peça do quebra-cabeça", disse Valerie Wirtschafter, pesquisadora do Brookings Institution que estudou o Community Notes. "Mas não pode ser a única coisa, e certamente não pode ser simplesmente implementada como uma solução completa e sem ajustes."

Leia o artigo completo