Saltar para o conteúdo

Deepfakes em alta: Mais de 80% das pessoas notam a manipulação tarde demais e perdem controlo sobre a sua imagem online.

Pessoa a olhar para o ecrã do telemóvel e do computador com expressão de surpresa sentada numa secretária.

Ela fixa o olhar no telemóvel, faz zoom até à zona dos próprios olhos.

No vídeo que está a circular, ela aparece a rir, a dizer frases que nunca pronunciou, e as mãos desenham gestos inequívocos. O link passa de mão em mão: no grupo de WhatsApp, no chat de trabalho, num fórum com milhares de desconhecidos. “És mesmo tu?”, pergunta uma mensagem. Outra pessoa responde apenas com uma reacção sugestiva. Ela sente o estômago gelar. O rosto é o dela. Tudo o resto, não.

Conhecemos bem aquele instante em que surge online uma imagem nossa cuja existência desconhecíamos. Quase sempre é só uma fotografia menos feliz de uma festa. Com deepfakes, esse mesmo momento inclina-se para algo muito mais sombrio: de repente, o nosso próprio rosto deixa de nos pertencer. E enquanto ainda tentamos compreender, já há um algoritmo a trabalhar a toda a velocidade.

O que soava a ficção científica transformou-se numa ameaça quotidiana.

Quando o teu rosto se torna um corpo estranho

Há números que parecem frios, mas acertam em cheio: mais de 80% das pessoas afectadas apercebem-se tarde demais de que foram alvo de um deepfake. Só identificam a manipulação quando o clip já foi partilhado, comentado e guardado - quando a situação já saiu do controlo. O que fica é uma sensação difícil de descrever, como se alguém arrancasse a nossa identidade e a distribuísse livremente pela internet.

E isto deixou de ser um fenómeno exótico de fóruns de hackers. Hoje, os deepfakes aparecem no trabalho, em chats de família, em aplicações de encontros, nos grupos da escola dos miúdos. Quem passa por isso relata, vezes sem conta, o mesmo choque: vê-se a si próprio, ouve uma voz familiar, reconhece a expressão - e, ao mesmo tempo, sabe que aquilo nunca aconteceu. A confiança na própria imagem parte-se.

Uma estudante de 23 anos da Renânia do Norte-Vestefália contou que tudo começou com uma selfie no Instagram. Alguém pegou na fotografia e, com IA, colocou-lhe a cara num vídeo pornográfico. O ficheiro foi parar a um canal de Telegram e, depois, a um grupo da universidade. Quando ela descobriu, o vídeo já somava milhares de visualizações. Tentou denunciar links, contactar contas, insistir com plataformas. Enquanto lutava para remover, iam surgindo novas versões. Quem entra nesse tipo de circuitos raramente sai depressa.

Relatórios de cibersegurança confirmam o que as vítimas sentem na pele: em certos contextos, o número de deepfakes identificados duplica de ano para ano. E muitos casos nem entram nas estatísticas, porque a vergonha e o medo pesam. Em documentos internos de grandes plataformas fala-se, há muito, num “problema de volume”. A tecnologia ficou mais barata, mais rápida e mais acessível. Hoje, com poucos minutos de vídeo do TikTok ou do YouTube, cria-se uma cópia muito convincente de um rosto - mesmo sem formação técnica.

Porque é que quase ninguém dá por isso a tempo

Uma parte da resposta é simples: velocidade. Ferramentas que há três anos pareciam experimentais estão agora disponíveis como serviços online com modelos prontos a usar. Para exercer violência digital, já não é preciso grande conhecimento - basta tempo e má intenção.

A própria arquitectura das plataformas amplifica o dano. Os algoritmos tendem a empurrar para cima conteúdos emocionalmente carregados; os clips circulam em vagas, muito antes de alguém conseguir confirmar se são autênticos.

Há ainda um factor psicológico: fomos treinados a confiar nos nossos olhos. Durante décadas, o senso comum foi “um vídeo não mente”. Essa crença está enraizada. A nossa “sirene interna” não foi feita para um mundo em que caras são recortadas e coladas como se fossem moldes. Quando uma pessoa se vê num vídeo, precisa de alguns segundos para processar a dissonância. E esses segundos chegam para a internet transformar um falso em avalanche.

Deepfakes: como recuperar o controlo - ou não o perder

É duro dizê-lo, mas ajuda a começar pelo real: controlo total sobre a nossa imagem online já não existe. O que existe é uma margem de manobra pequena, mas valiosa - e começa mais cedo do que imaginamos.

Se hoje tens alguma visibilidade (LinkedIn, TikTok, um blogue de uma associação local), faz sentido criar um arquivo pessoal de imagem intencional e bem organizado. Não por vaidade. Por prova.

Pode ser tão simples como uma pasta com fotografias e vídeos originais, com datas de captura, e, se possível, com metadados preservados; nalguns casos, também com marcas de água discretas. Quem precisar de demonstrar que um clip foi manipulado vai necessitar de material comparativo. A perícia digital trabalha por referência; sem referência, tudo fica mais difícil.

Ao mesmo tempo, muitos profissionais de segurança já sugerem uma espécie de “jejum de dados”: publicar menos conteúdos íntimos, reduzir grandes planos do rosto, evitar situações facilmente exploráveis. Ninguém consegue cumprir isto todos os dias, mas cada fragmento de dados que deixas de expor é uma pequena redução de risco.

Se já foste alvo, as perguntas mudam: o que fazer primeiro quando a tua cara aparece num vídeo falso? A reacção instintiva é correr em todas as direcções - avisar amigos, escrever para plataformas, procurar advogado, tentar identificar o autor. Muitas vezes, isso gera mais caos do que clareza. Um plano de emergência parece excessivamente metódico… até ao dia em que faz falta.

Um bom primeiro passo é documentar de forma sistemática: - capturas de ecrã com data e hora; - links exactos; - nomes de contas; - grupos ou canais onde apareceu; - possíveis testemunhas.

Em paralelo, vale a pena mapear aliados. Algumas universidades, entidades patronais, sindicatos e organizações de apoio a mulheres já têm pontos de contacto para situações de assédio e violência digital. Quem pede ajuda recebe, pelo menos, orientação; por vezes, apoio jurídico inicial; por vezes, acompanhamento psicossocial. O impacto emocional destes falsos é frequentemente subestimado por quem está de fora. Ainda assim, muitas vítimas dizem que ouvir “sim, isto é violência” é o primeiro momento em que voltam a sentir chão.

Uma especialista em perícia digital resumiu assim:

“Os deepfakes não destroem apenas a confiança nos conteúdos; atacam a confiança na nossa própria percepção. Quem é alvo precisa de apoio técnico - e de retaguarda humana.”

Medidas práticas para não ficar desprotegido

  • Criar uma rotina de detecção precoce: procurar regularmente o teu nome e usar pesquisa inversa de imagens (Google Imagens e ferramentas dedicadas).
  • Preparar a tua comunidade: explicar a amigos, colegas e família como pode ser um cenário de emergência - e pedir explicitamente que não reenviem clips suspeitos.
  • Definir e comunicar limites: indicar publicamente quais são os teus canais oficiais e onde nunca publicarias certos conteúdos.
  • Avaliar caminhos legais: guardar provas (capturas e links) e contactar um/a advogado/a ou serviços de apoio a cyberbullying e violência digital.
  • Aceitar apoio emocional: procurar terapia, grupos de suporte ou pessoas de confiança, em vez de reduzir tudo a “é só internet”.

O que está em jogo - e porque precisamos de reaprender a ver

A conversa pública sobre deepfakes foca-se muitas vezes em política e figuras conhecidas: manipulação eleitoral, discursos falsos, entrevistas fabricadas. Mas a onda mais silenciosa - e muito mais ampla - rebenta no quotidiano. Alunas com o rosto em montagens de nudez. Gestores de pequenas e médias empresas a “promoverem” negócios duvidosos em vídeos forjados. Profissionais de saúde com excertos deepfake a circular em grupos conspirativos. A fronteira entre “pessoa privada” e “figura pública” desaparece no instante em que um vídeo se torna viral.

Um paradoxo importante: falar abertamente da própria vulnerabilidade pode tornar-nos mais fortes. Quando alguém verbaliza que a sua imagem pode ser abusada, retira aos agressores parte do poder da surpresa. A literacia parece aborrecida até ao dia em que é pessoal. Famílias que conversam com os filhos sobre deepfakes criam um terreno em que um pedido de ajuda não afunda na vergonha. Equipas que combinam procedimentos de segurança e canais de denúncia reagem mais depressa quando acontece.

Há também um ângulo que raramente entra nesta discussão: a proteção de reputação e carreira. Um vídeo falso pode influenciar recrutamento, avaliações internas, contratos com clientes, ou a simples confiança de colegas. Ter um conjunto básico de provas, um contacto de apoio jurídico e uma mensagem curta preparada (para esclarecer sem amplificar) pode reduzir danos em horas que, de outra forma, se tornam dias.

E importa não esquecer o lado tecnológico do futuro próximo: detectores automáticos e marcas de autenticidade (como assinaturas criptográficas em conteúdos captados por determinadas câmaras) estão a evoluir, mas não são uma bala de prata. Entre ferramentas de detecção e ferramentas de geração, continua uma corrida. Por isso, além da tecnologia, o que mais protege é uma cultura colectiva de prudência.

No fim, trata-se de instaurar uma nova cultura de dúvida. Não no sentido cínico de “já não se pode acreditar em nada”, mas no sentido atento de “um vídeo é um indício, não uma prova”. Isso exige pequenas mudanças: perguntar mais uma vez, partilhar menos uma vez, respirar fundo antes de comentar com indignação. Caso contrário, quem é alvo de um deepfake paga o preço da nossa impaciência colectiva. Talvez a saída esteja precisamente aqui: em comunidades que deixam de ser arrastadas pelo próximo clip escandaloso.

Talvez, daqui a alguns anos, nos lembremos de como em 2024 éramos ingénuos com imagens e vídeos. Não com gozo, mas com alguma indulgência. Estávamos num ponto de viragem: rostos tornaram-se dados e a verdade virou tema negociável. Se um dia poderemos dizer que aprendemos, depende de decisões pequenas e repetidas - do clique em “Partilhar”, daquele segundo de hesitação, e da coragem de defender quem viu a sua imagem ser-lhe arrancada das mãos.

Ponto-chave Detalhe Benefício para quem lê
Muitas pessoas só detectam deepfakes quando já é tarde Mais de 80% apercebem-se do abuso apenas quando o conteúdo já se tornou viral Aumenta a consciência do risco e reforça a urgência da prevenção
Proteger activamente a soberania da própria imagem Arquivo pessoal, menos publicações íntimas, pesquisa inversa, canais oficiais claros Passos concretos para reunir provas e detectar abusos mais cedo
Plano de emergência e rede de apoio Documentação, denúncias, aconselhamento jurídico, apoio psicossocial e comunidade informada Um guião para sair da impotência e reduzir sobrecarga emocional

FAQ

  • Como posso, sem ser especialista, suspeitar de um deepfake?
    Sinais comuns incluem detalhes mal “limpos”: piscar de olhos pouco natural, bordas do rosto a tremelicar, iluminação incoerente, e movimentos dos lábios ligeiramente desencontrados do áudio. Também é suspeito quando o clip surge do nada, com forte carga emocional, sobretudo em canais duvidosos.

  • O que devo fazer primeiro se eu for a vítima?
    Manter a calma e documentar tudo: capturas de ecrã, links, momento em que apareceu e contas envolvidas. Depois, usar as ferramentas de denúncia das plataformas, envolver pessoas de confiança e procurar serviços locais de apoio a violência digital. Só a seguir ponderar uma resposta pública.

  • Posso agir legalmente contra deepfakes?
    Em muitos casos, sim - especialmente em deepfakes de teor sexual, difamação ou usurpação de identidade. Direitos de personalidade, direitos de autor e normas penais podem ser aplicáveis. Uma primeira consulta jurídica ou uma entidade especializada ajuda a avaliar o que é realista.

  • Como me protejo preventivamente sem desaparecer da internet?
    Escolher com cuidado o que publicas, reduzir grandes planos e cenas íntimas, ajustar definições de privacidade, identificar claramente os teus canais oficiais e fazer pesquisas inversas regulares das tuas imagens. Protecção perfeita não existe, mas é possível aumentar a barreira ao abuso.

  • Devo avisar um/a amigo/a se vir um possível deepfake dele/a?
    Sim, com cuidado e sem amplificar: não reenviar o clip. Contactar em privado, explicar o que viste e porque desconfias, e oferecer ajuda para denunciar e procurar apoio. Só mostrar o conteúdo se a pessoa pedir explicitamente.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário