O vídeo diz tudo ao contrário do que Tânia Carvalho defende. O rosto é o dela, o quarto é o dela, as pernas são a dela, a voz parece ser a dela, mas a mensagem é algo que ela nunca promoveria.
"Eu tenho lipedema, e eu já estava no grau dois. E eu vou te contar como eu saí disso aqui, para esse resultado aqui em apenas sete dias", diz o vídeo disponível como anúncios no Instagram. Nas imagens, um antes e depois das pernas de Tânia.
Lipedema é uma doença que vem sendo "descoberta" nos últimos anos. Ela causa acúmulo de gordura nas pernas e braços de aproximadamente 10% das mulheres em todo o mundo. Os nódulos se assemelham a celulite e podem causar dor.
O vídeo falso continua até começar a promover um milagroso "chá especial".
"Eu só precisava tomar ele toda manhã durante sete dias", diz no vídeo a falsa Tânia.
"O chá vai agir na sua corrente sanguínea, liberando toda a gordura adiposa, tecidos inflamados e retenção de líquidos."
Não há qualquer comprovação de que um chá possa fazer tal efeito. E Tânia sabe bem disso.
Há menos de um ano, a carioca de 31 anos começou a compartilhar sua rotina após ser diagnosticada com lipedema, com a intenção de reunir mulheres que sofrem com o mesmo problema.
Ela estava se preparando para fazer uma cirurgia de lipoaspiração específica para retirar as células de gordura afetadas pela doença e queria compartilhar seu pós-operatório.
No processo de descoberta e cuidado, a carioca aprendeu que o tratamento de lipedema é um processo multidisciplinar, envolvendo exercícios, alimentação, tratamentos.
Ou seja, nada de um chá milagroso.
No vídeo verdadeiro, inclusive, Tânia justamente defende que não é "só fazer alguma coisa que vai ter resultado", contando que seu tratamento envolveu a intervenção cirúrgica.
"Tudo é muito mais complexo do que malhar um ano, tem muitos fatores, como hormonal, idade. A doença não é tão simples quanto parece", explicou no vídeo para as seguidoras.
Os vídeos de Tânia chamaram a atenção no Instagram e acabaram reunindo uma pequena comunidade de mulheres. No Instagram, em março de 2025, eram pouco mais de 6 mil seguidoras.
Mas o tamanho da conta não impediu que Tânia acabasse sendo vítima do chamado deepfake, um vídeo com sua imagem criado por uma IA (inteligência artificial) baseado em sua voz, gestos e expressões faciais.
Há plataformas on-line que oferecem com facilidade a criação desse tipo de conteúdo, também conhecido como mídia sintética.
Pessoas famosas já têm sido vítimas desse tipo de vídeo há algum tempo. A imagem do médico Drauzio Varella, por exemplo, tem sido usada em vídeos que promovem tratamentos especiais ou medicamentos para resolver problemas de saúde. Todos falsos.
Celebridades como a cantora Ivete Sangalo e as apresentadoras Ana Maria Braga e Xuxa também já foram vítimas
Mas o caso como o de Tânia chama atenção por ser de uma pessoa com pouca visibilidade. Ou seja, a maioria das pessoas que viu o anúncio provavelmente não sabe reconhecer como ela fala originalmente ou como ela pensa.
Também é sinal de que muitas pessoas podem estar tendo suas imagens usadas sem nem saber.
Até a publicação dessa reportagem, o anúncio seguia disponível, apesar da denúncia de Tânia ao Instagram. A usuária recebeu uma mensagem que diz que o vídeo "segue os padrões da comunidade".
Em nota à BBC News Brasil, a Meta, dona do Instagram, apenas afirmou que "atividades que tenham como objetivo enganar, fraudar ou explorar terceiros não são permitidas", orientando pessoas a denunciarem na plataforma - algo que Tânia diz já ter feito. A empresa não disse se vai tirar o conteúdo do ar.
Tânia diz ainda não saber se vai prosseguir com alguma ação judicial, já que isso demandaria "energia e dinheiro".
'ATÉ AGORA SEM ACREDITAR'
Essa não foi a primeira vez que a imagem de Tânia foi usada num vídeo para promover algum produto on-line. Há alguns meses, imagens das pernas dela apareceram numa montagem junto ao depoimento de um médico para vender um "protocolo de desinflamação" de combate ao lipedema.
Dessa vez, porém, a tecnologia foi mais sofisticada, com a própria imagem dela falando do chá milagroso.
"No primeiro vídeo, achei que era o máximo que podiam me atingir. Quando me mandaram isso (o deepfake), eu fiquei muito chocada e até agora estou sem acreditar", diz Tânia.
"O fato de ver os dentes que não são meus, naquela boca que não é minha, me ouvindo falar algo que é absurdo, me fez pensar 'meu Deus, eu posso realmente ser vítima de algo muito pior'."
Foram duas amigas que alertaram Tânia sobre o golpe com o vídeo, já que conheciam o conteúdo original e sabiam que ela não postaria aquilo que estavam vendo.
Por seguirem páginas relacionadas ao lipedema, provavelmente as amigas entraram como um público-alvo do anúncio falso.
O vídeo está vinculado a uma página do Facebook, de uma suposta médica sem posts ou seguidores. A foto usada nesse perfil pode ser rastreada a outras páginas de saúde e até a um blog da Costa do Marfim que alerta que essa é uma imagem frequentemente usada em sites por golpistas.
Ao final do vídeo deepfake, há um link que leva a um site com uma pesquisa sobre sintomas do lipedema, para se chegar ao "método caseiro que mulheres estão eliminando a gordura de forma natural em sete dias".
Na medida em que se avança nas perguntas, há relatos de celebridades como a modelo Yasmin Brunet, que recentemente divulgou ter a doença.
Ao final, é vendido por R$ 37 um pacote de "produtos". Entre eles, a "receita secreta do chá detox anti-inflamatório de lipedema" e um "acompanhamento personalizado via WhatsApp".
Tânia não chegou a ser procurada por alguém que tenha de fato caído no golpe.
Mas, após saber que estavam usando sua imagem, a carioca postou um vídeo reagindo ao deepfake. Foi aí que ela ficou assustada. Muitas pessoas comentaram que demoraram para perceber a diferença entre a "Tânia fake" e ela.
Folha Mercado
Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.
"Porque uma coisa são as pessoas que me conhecem, sabem o que eu falo, minha voz, o vídeo original. Mas as pessoas que não me conhecem vendo aquele vídeo, no desespero, podem cair", diz.
Essa busca por soluções ao lipedema vem aumentando nos últimos anos devido a mais conhecimento sobre o assunto.
Em 2019, a Organização Mundial da Saúde (OMS) reconheceu o lipedema como uma doença distinta. Em 2022, o quadro foi incluído na Classificação Internacional de Doenças (CID-11), um manual amplamente utilizado como referência global para identificação e registro de condições de saúde.
No Brasil, entretanto, a adoção da CID-11, prevista inicialmente para 2025, foi adiada para 2027 pelo Ministério da Saúde, que justificou a decisão com a necessidade de treinar profissionais e atualizar os sistemas.
O lipedema é considerado "novo" não só pela falta de familiaridade de profissionais de saúde com o quadro - que ainda persiste mesmo após 85 anos da primeira descrição - mas também porque faltam respostas importantes sobre o mecanismo da doença.
"Ainda falta entender o mecanismo do acúmulo diferenciado da gordura do lipedema e suas vias metabólicas, ou seja, os processos bioquímicos responsáveis pela produção, armazenamento e mobilização dessa gordura no organismo", explicou à BBC o cirurgião vascular Mauro de Andrade.
'PRECISAMOS NOS ACOSTUMAR A NÃO ACREDITAR', DIZ ADVOGADA
Para Tânia, o que preocupa não é apenas o caso em que ela foi vítima.
"Eu sou uma 'Zé ninguém' e usaram minha imagem. E eu fico imaginando crianças sendo expostas, mulheres que têm a imagem delas usada para coisas piores. É algo bem preocupante", diz.
Na avaliação da advogada Andressa Bizutti, mestre na Universidade Harvard, nos EUA, e pesquisadora de mídia sintética na USP (Universidade de São Paulo), esse avanço na tecnologia com a IA, na verdade, escancara problemas sociais anteriores, como golpes, informações falsas ou até o uso do corpo da mulher em casos de deepfakes pornô que se espalham pela internet.
A advogada defende que o que aconteceu com deepfake é que a tecnologia mexeu em um lugar que a sociedade ainda não sabia que era possível: o vídeo. Já estávamos acostumados a lidar com montagem de fotos, por exemplo, sabendo que nem tudo o que vemos é verdade.
"Vídeo sempre teve um consenso na filosofia de transparência: você via e achava que estava vendo a realidade", diz Bizutti, sócia do escritório b/luz.
"A mídia sintética dá um passo adicional por conta desse aspecto cultural que a gente ainda não se acostumou como sociedade."
Apesar dos avançados deepfakes, Bizutti explica que casos como o de Tânia já são contemplados na legislação vigente sobre direitos à personalidade (imagem, nome e voz).
"Esses direitos estão protegidos no Brasil, estão presentes na Constituição Federal, no Código Civil e são inalienáveis [não se pode transferir]", conta.
A lei já diz que não se pode usar a imagem de uma pessoa "se o uso for atingir a honra, a boa fama, a respeitabilidade ou se destinarem a fins comerciais".
Há um projeto de lei avançando no Congresso, o PL 2338, que trata sobre Inteligência Artificial. A respeito de deepfake, ele diz, ainda sem dar detalhes, que vídeos alterados precisariam ser identificados de alguma forma. Ou seja, trata mais sobre a transparência do uso de IA do que regula o que pode ou não fazer com a imagem das pessoas.
Para a advogada especializada no tema, os passos que a sociedade e o direito precisam dar é "mais uma questão sobre como vamos lidar com esses usos do que necessariamente uma regulamentação".
"O problema não é a IA ou deepfake. O problema é você ver um vídeo e ser enganado por esse vídeo. A gente tem que se acostumar com o fato que a gente não pode acreditar no que a gente está vendo".
Para Bizutti, com o aprimoramento da tecnologia, vai adiantar cada vez menos a busca por "sinais" de que o vídeo é falso, como uma voz robótica ou uma boca que mexe de maneira esquisita.
"Você tem saber de onde o vídeo vem, a fonte. Da mesma forma, quando começamos a usar internet nas pesquisas da escola, a gente aprendeu que não podia pegar informação de qualquer lugar no Google, de um site aleatório. O mesmo passo a gente vai precisar dar com os vídeos", conta.
Caso a vítima se sentir lesada, o ideal procurar os mecanismos judiciais. O Marco Civil da Internet, por exemplo, tem mecanismos para o usuário pedir a identificação de quem realizou as postagens e requerer indenização, por exemplo. O Judiciário também pode determinar que as plataformas tirem o conteúdo do ar.
Texto publicado originalmente aqui