Apple é processada acusada de falhar em evitar propagação de material sexual infantil no iCloud

há 2 semanas 1

O abuso começou quando ela ainda era um bebê. Um parente a molestou, tirou fotografias e enviou online as imagens para outras pessoas. Ele permitiu que outro homem passasse tempo com ela, multiplicando o abuso.

Quase todos os dias, a mulher, agora com 27 anos e que mora na região Nordeste dos EUA, volta a ser lembrada desse abuso ao ser alertada pelas autoridades de que alguém foi acusado de possuir essas imagens.

Uma dessas notificações, que ela recebeu no final de 2021, dizia que as fotografias haviam sido encontradas no MacBook de um homem em Vermont. Posteriormente, o advogado da vítima confirmou com as autoridades que as imagens também haviam sido armazenadas no iCloud da Apple.

O aviso chegou meses depois de a Apple ter revelado uma ferramenta que permitia escanear imagens ilegais de abuso sexual. Mas rapidamente abandonou esse recurso após ser criticada por especialistas em cibersegurança, que disseram que poderia abrir caminho para outros pedidos de vigilância governamental.

Agora, a mulher, usando um pseudônimo, está processando a Apple afirmando que a empresa quebrou sua promessa de proteger vítimas como ela. Segundo o processo, a big tech deixou de usar as ferramentas que criou para identificar, remover e relatar imagens de seu abuso, permitindo que esse material proliferasse, forçando as vítimas de abuso sexual infantil a reviver o trauma que moldou suas vidas.

A ação judicial foi apresentada no sábado (7) no Tribunal Distrital dos EUA no Norte da Califórnia. Afirma que as falhas da Apple significam que ela tem vendido produtos defeituosos que prejudicaram clientes que foram vítimas de abuso sexual infantil, porque brevemente introduziu "um serviço amplamente divulgado para proteger crianças", mas "falhou em implementá-los ou tomar quaisquer medidas para detectar e limitar" o material de abuso sexual infantil.

O processo busca mudar as práticas da Apple e compensar um grupo que pode chegar a 2.680 vítimas que são elegíveis para fazer parte do caso, disse James Marsh, um dos advogados envolvidos.

Por lei, as vítimas de abuso sexual infantil têm direito a um mínimo de US$ 150 mil (R$ 907,66 mil) em danos, o que significa que o valor total pode ultrapassar US$ 1,2 bilhão (R$ 7,26 bilhões) se um júri considerar a Apple culpada.

"NÃO É SÓ VOCÊ"

O New York Times concedeu anonimato à mulher de 27 anos que está processando a Apple para que ela pudesse contar sua história. Ela falou anonimamente porque as pessoas são conhecidas por procurar vítimas e buscar seu material de abuso sexual infantil na internet.

O abuso que ela sofreu começou pouco depois de ela nascer. Um adulto da família realizava atos sexuais com ela e os fotografava. Ele foi preso após entrar em uma sala de bate-papo e oferecer uma troca de fotos da menina com outros homens. Ele foi preso e considerado culpado de vários crimes.

O que ela conseguia lembrar do abuso vinha em fragmentos. Uma noite, enquanto sua mãe assistia a um episódio da série "Law & Order: Special Victims Unit" sobre abuso sexual infantil, a história parecia estranhamente familiar. Ela gritou e assustou sua mãe, que percebeu que ela pensava que o episódio era sobre ela.

"Não é só você", ouviu da mãe. "Há milhares de outras crianças."

À medida que suas imagens eram encontradas online, as autoridades notificavam sua mãe. Elas comumente receberam dezenas de notificações diariamente por mais de uma década. O que mais a incomodava era saber que pedófilos compartilhavam algumas de suas fotos com crianças para normalizar o abuso, um processo chamado "grooming".

"Era difícil acreditar que havia tantos por aí", disse a vítima. "Eles não paravam".

A internet potencializou a disseminação de material de abuso sexual infantil. Imagens físicas que antes eram difíceis de encontrar e compartilhar tornaram-se fotos e vídeos digitais que poderiam ser armazenados em computadores e servidores e compartilhados facilmente.

SISTEMA CRIADO PARA CONTER PROPAGAÇÃO

Em 2009, a Microsoft trabalhou com Hany Farid, atual professor na Universidade de Berkeley, na Califórnia, para criar um sistema de software para reconhecer fotos, mesmo alteradas, e compará-las com um banco de dados de imagens ilegais conhecidas. O sistema, chamado PhotoDNA, foi adotado por várias empresas de tecnologia, incluindo Google e Facebook.

A Apple recusou-se a usar o PhotoDNA ou fazer escaneamento em larga escala como seus pares. A indústria de tecnologia relatou 36 milhões de relatórios de fotos e vídeos ao Centro Nacional para Crianças Desaparecidas e Exploradas, o centro federal para material suspeito de abuso sexual. Google e Facebook apresentaram mais de 1 milhão de relatórios cada, enquanto a Apple fez apenas 267.

Em 2019, uma investigação do New York Times expôs que as empresas de tecnologia falharam em conter o material abusivo. Um gráfico de barras publicado pelo jornal detalhando as práticas de relatórios das empresas públicas levou Eric Friedman, um executivo da Apple responsável pela proteção contra fraudes, a enviar uma mensagem a um colega sênior dizendo que achava que a empresa poderia estar subnotificando material de abuso sexual infantil.

"Somos a maior plataforma para distribuição de pornografia infantil", avaliou Friedman na troca de mensagens em 2020. Ele disse que isso era causado pela Apple dar prioridade à privacidade sobre confiança e segurança.

Um ano depois, a Apple anunciou um sistema para escanear abuso sexual infantil. Disse que seus iPhones armazenariam um banco de dados de assinaturas digitais distintas, conhecidas como hashes, associadas a material de abuso sexual infantil identificado por grupos como o Centro Nacional para Crianças Desaparecidas e Exploradas.

A companhia disse que compararia essas assinaturas digitais com fotos no serviço de armazenamento iCloud de um usuário. A técnica, que chamou de NeuralHash, sinalizaria correspondências e as encaminharia para o centro federal de material suspeito de abuso sexual.

Folha Mercado

Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.

Mas depois que especialistas em cibersegurança alertaram que isso criaria uma abertura para iPhones que poderia dar acesso a governos, a empresa abandonou seu plano. Disse que era quase impossível escanear fotos do iCloud sem "comprometer a segurança e a privacidade de nossos usuários."

No início deste ano, Sarah Gardner, fundadora de um grupo de defesa infantil chamado Heat Initiative, começou a procurar escritórios de advocacia com experiência em representar vítimas de abuso sexual infantil.

Em março, a equipe do grupo de defesa perguntou ao Marsh Law, um escritório de 17 anos que se concentra em representar vítimas de abuso sexual infantil, se poderia entrar com um processo contra a Apple. O Heat ofereceu-se para fornecer US$ 75 mil para apoiar o que poderia ser uma ação de litígio caro. Foi uma estratégia emprestada de outras campanhas de defesa contra empresas.

Margaret Mabie, sócia do Marsh Law, assumiu o caso. O escritório representou milhares de vítimas de abuso sexual infantil.

Mabie vasculhou relatórios das autoridades e outros documentos para encontrar casos relacionados às imagens de seus clientes e aos produtos da Apple, eventualmente construindo uma lista de mais de 80 exemplos, incluindo a de um homem da Bay Area que as autoridades encontraram com mais de 2.000 imagens e vídeos ilegais no iCloud.

FALSAS ESPERANÇAS ÀS VÍTIMAS

A mulher de 27 anos ouvida pela reportagem é representada pelo Marsh e concordou em processar a Apple porque acredita que a Apple deu falsas esperanças às vítimas de abuso sexual infantil ao introduzir e abandonar seu sistema NeuralHash. Usuária de iPhone, ela afirmou que a empresa escolheu privacidade e lucro em vez de pessoas.

O processo é o segundo do tipo contra a Apple, mas seu escopo e impacto financeiro potencial poderiam forçar a empresa a um processo de litígio de anos sobre uma questão que tentou deixar para trás. E aponta para a crescente preocupação de que a privacidade do iCloud da Apple permite que material ilegal circule sem ser tão facilmente detectado como seria em serviços de mídia social como o Facebook.

Por anos, a Apple relatou menos material abusivo do que seus pares, capturando e relatando uma pequena fração do que é encontrado pelo Google e Facebook. Defendeu sua prática dizendo que está protegendo a privacidade do usuário, mas grupos de segurança infantil a criticaram por não fazer mais para parar a disseminação desse material.

O caso é o exemplo mais recente de uma estratégia legal emergente contra empresas de tecnologia. Por décadas, a Seção 230 da Lei de Decência nas Comunicações protegeu as big techs de responsabilidade legal pelo que os usuários postam em suas plataformas. Mas decisões recentes do Tribunal de Apelações dos EUA determinaram que essas proteções podem ser aplicadas apenas à moderação de conteúdo e não fornecem proteção de responsabilidade abrangente.

As decisões aumentaram a esperança entre os advogados dos autores dos processos de que as empresas de tecnologia poderiam ser desafiadas no tribunal. Em agosto, uma menina de 9 anos processou a Apple na Carolina do Norte depois que estranhos enviaram vídeos de abuso sexual infantil através de links do iCloud e a encorajaram a filmar e encaminhar seus próprios vídeos nus.

A Apple entrou com uma moção para rejeitar o caso da Carolina do Norte, dizendo que a Seção 230 a protege de responsabilidade pelo material postado no iCloud por outra pessoa. Também argumentou que o iCloud não poderia ser sujeito a uma reclamação de responsabilidade do produto porque não era um produto, como um pneu defeituoso.

"O material de abuso sexual infantil é abominável e estamos comprometidos em combater as maneiras como os predadores colocam as crianças em risco. Estamos urgentemente e ativamente inovando para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários", disse o porta-voz da Apple, Fred Sainz.

O porta-voz elencou ferramentas de segurança que a empresa introduziu para conter a disseminação de imagens ilegais recém-criadas, incluindo recursos em seu aplicativo de mensagens que alertam crianças sobre conteúdo de nudez e permitem que as pessoas relatem material prejudicial à Apple.

Riana Pfefferkorn, advogada e pesquisadora de políticas no Instituto de Inteligência Artificial Centrada no Humano de Stanford, afirmou que há obstáculos significativos para qualquer processo sobre as políticas da Apple em relação ao material de abuso sexual infantil.

Ela reiterou que uma vitória para os demandantes poderia sair pela culatra porque poderia levantar questões sobre se o governo está forçando a Apple a escanear material ilegal em violação da Quarta Emenda da Constituição dos EUA.

Leia o artigo completo