O Google anunciou medidas para educação midiática e checagem de fatos nesta segunda-feira (5), em evento da empresa sobre iniciativas para combater desinformação nas eleições municipais brasileiras.
Outro foco continuará sendo, assim como em outros anos, a apresentação com destaque de informações oficiais aos eleitores.
A plataforma não forneceu, no entanto, informações concretas e detalhadas quanto a moderação de conteúdo.
"A gente tem equipes trabalhando 24/7 ao redor do mundo. A gente não tem dados específicos para compartilhar com vocês com relação ao número de moderadores", disse Alana Rizzo, gerente de políticas públicas do YouTube, plataforma de vídeos do Google.
Ela acrescentou que haveria 50 vagas abertas na área.
Também nas eleições de 2022 o Google e as principais plataformas também não divulgaram informações sobre suas equipes de moderação. Esse foi um dos focos de atenção nos pleitos mais recentes.
O dado é considerado relevante, pois é um dos indicadores que ajuda a compreender em que medida as empresas estão investindo no combate à desinformação e ao discurso de ódio.
Devido ao volume de dados que circula nas plataformas, as big techs recorrem a sistemas automatizados, combinados a moderação humana e a denúncias de usuários, para avaliar que conteúdos violam suas regras.
Segundo a empresa, já estão sendo observados benefícios da utilização de sistemas de inteligência artificial mais avançados na área de moderação de conteúdo.
Entre os anúncios feitos nesta segunda-feira (5), estão o apoio financeiro a um programa de educação midiática do Instituto Palavra Aberta e a projetos voltados ao combate à desinformação eleitoral das agências de checagem Lupa e do Aos Fatos.
No evento, também foi confirmado que o Google participará do Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde), iniciativa lançada em março pelo TSE (Tribunal Superior Eleitoral), então sob a presidência do ministro Alexandre de Moraes.
Segundo Flávia Annenberg, gerente de políticas públicas e assuntos governamentais do Google Brasil, a empresa está empenhada em colaborar com os sistemas do centro, e as equipes estão avisadas para reagir ao que for reportado por meio do sistema.
Dicas do Editor
Receba no seu email a seleção de notícias feita pelo diretor de Redação da Folha, Sérgio Dávila
Os acordos de cooperação entre o tribunal e as diferentes plataformas para as eleições deste ano ainda serão assinados.
O evento contou com a participação do presidente do Google Brasil, Fabio Coelho, e do ministro do TSE Floriano Azevedo Marques.
Nesta segunda-feira (5), a empresa também reiterou sua decisão de não permitir anúncios políticos. A medida foi tomada em abril, após a aprovação de novas regras sobre transparência pelo TSE.
Com isso, a biblioteca de anúncios políticos da empresa deixou de existir desde de 1º de maio.
A mudança inclui tanto anúncios exibidos no YouTube quanto os exibidos junto aos resultados da busca, além dos demais tipos de publicidades contratadas pela ferramenta da empresa.
Relatório lançado pela empresa no Brasil em 2022 afirmava incluir anúncios referentes a partidos políticos, a candidatos a cargos no nível federal e estadual ou ainda a ocupantes destes cargos.
A nova resolução do TSE, no entanto, previu rol mais amplo ao tratar do tema.
Tornou obrigatória a existência de bibliotecas de anúncios de conteúdo político eleitoral pelas plataformas de modo permanente e determinou que elas deveriam conter publicidade contratada não apenas sobre "pessoas detentoras de cargos eletivos, pessoas candidatas", mas também sobre "propostas de governo, projetos de lei, exercício do direito ao voto e de outros direitos políticos ou matérias relacionadas ao processo eleitoral".
O Google disse não ser possível responder se a proibição de anúncios políticos será mantida no pleito de 2026.
De modo geral, a resolução aprovada pelo TSE neste ano previu regras mais duras contra as plataformas.
Entre outros itens, estabeleceu que é dever das empresas a adoção de medidas para "impedir ou diminuir a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral".
Nesse rol, estão, por exemplo, a elaboração e aplicação de regras de modo compatível com tal objetivo, canais de denúncia eficazes e o aprimoramento dos sistemas de recomendação de conteúdo.
Outro trecho da resolução do TSE, criticado à época da aprovação, diz que as empresas podem ser responsabilizadas caso não removam "imediatamente" certas categorias de conteúdo, como discurso de ódio e desinformação contra o processo eleitoral.