Saltar para o conteúdo

Deepfakes espalham-se rapidamente: qualquer pessoa pode ser alvo e muitos só percebem quando já sofreram danos na sua reputação.

Duas pessoas a fazer videoconferência com jovem num tablet numa mesa com smartphone e caneca.

Alguém abriu um vídeo explícito a meio da reunião, com toda a gente a ver. Risos nervosos, olhares incrédulos, um silêncio embaraçoso. Só horas mais tarde se percebeu a verdade: o rosto no vídeo era o dela - mas ela nunca tinha estado ali. Nenhuma tatuagem coincide, nenhuma cicatriz bate certo, mas, naquele instante, isso já pouco importava. A gravação já tinha passado para o grupo de WhatsApp da empresa, para o chat da equipa e para duas clientes.

É assim que se sente a impotência digital. Percebes que há ali qualquer coisa errada, mas o corpo já entrou em modo de alarme. Quando, de repente, uma falsificação parece mais convincente do que a tua própria memória.

A nova paranoia do quotidiano: os deepfakes como nova normalidade

Há poucos anos, os deepfakes eram uma brincadeira de entusiastas, escondida nos cantos mais obscuros da internet, algures entre fóruns do Reddit e canais duvidosos do Telegram. Hoje basta uma aplicação, uma selfie e alguns toques no ecrã. A tecnologia saiu do laboratório e foi parar ao bolso, quase sem aviso. Fazemos scroll, deslizamos o dedo, carregamos em reproduzir - e o cérebro decide em milésimos de segundo: “Parece real, deve ser verdade.”

É precisamente aqui que nasce o problema: a nossa confiança no que vemos vem ainda da era analógica. Antigamente, as fotografias eram prova; os vídeos, verdade. Esse reflexo está profundamente enraizado. E agora está a ser usado contra nós.

Um exemplo que se espalhou por vários países: mulheres na política cujos rostos são montados em vídeos pornográficos. Professores e professoras descredibilizados em conversas de alunos através de clips manipulados. Em Portugal e noutros países europeus, também começaram a circular vídeos falsos de figuras públicas a promover alegados produtos financeiros duvidosos - com expressão facial perfeita, frases aparentemente espontâneas e uma voz muito convincente. Segundo um estudo do Instituto Fraunhofer, mais de 60% das pessoas inquiridas admitiram não conseguir identificar com segurança um vídeo deepfake quando o viam.

O mais perverso é isto: a maioria das vítimas só descobre a existência do material quando ele já foi partilhado, comentado e julgado. Talvez tenha sido um ex-parceiro, um cliente irritado ou um colega aborrecido a passar horas numa aplicação. O vídeo precisa de segundos para se tornar viral - o prejuízo pode durar anos. A difamação passou a ser escalável como um meme.

Porque é que tudo isto parece tão credível? A nossa perceção adora padrões. Se os tons de pele, as sombras e a sincronização labial estiverem minimamente corretos, o cérebro trata de preencher as falhas com generosidade. Muitas ferramentas de deepfake recorrem a modelos de aprendizagem automática treinados com milhares de rostos, aprendendo como os músculos se movem, como a luz incide e como a boca forma cada palavra. Quanto mais material de uma pessoa existir online - selfies, reels, entrevistas, histórias de férias - mais fácil é criar uma cópia. Alimentamos muitas vezes, por vontade própria e todos os dias, o avatar que um dia nos pode destruir.

Ao mesmo tempo, o nosso quotidiano continua apressado. Ninguém faz pausa num vídeo do feed para ampliar as pupilas, procurar artefactos junto às orelhas ou testar as sombras. Sejamos francos: ninguém faz isso todos os dias. Consumimos conteúdos a correr - e esse ritmo é o melhor aliado de qualquer falsificação convincente.

Há ainda outro fator que torna estas fraudes mais fáceis: a quantidade de imagem pública que deixamos espalhada. Perfis abertos, fotografias antigas, vídeos de aniversário, stories arquivadas e publicações em que marcamos o local fornecem matéria-prima abundante. Quanto menor for a tua pegada visual disponível, mais trabalho terá quem quiser copiar-te. Rever definições de privacidade e limpar conteúdos desnecessários não elimina o risco, mas reduz a superfície de ataque.

O que podes fazer, na prática, antes que tudo escale

Um passo desconfortável, mas necessário: finge por momentos que já foste vítima. Imagina que amanhã aparece um vídeo falso teu. Que cinco pessoas precisam de o saber primeiro - pela tua voz, antes de o encontrarem na internet? Parceiro ou parceira, chefia, amigos próximos, alguém de confiança na empresa. Escreve essa lista. Não é um manifesto; são apenas nomes. Numa crise, a rapidez decide quem controla a narrativa.

Segundo passo: cria uma pequena rotina de higiene digital. Pesquisa regularmente o teu nome no Google, juntamente com palavras como “vídeo”, “escândalo” ou “fuga de informação”. Pode parecer paranoia, mas funciona como radar de proteção. Com ferramentas como o Google Alerts ou o Talkwalker Alerts, podes receber notificações automáticas quando o teu nome surgir em novos conteúdos. Ninguém precisa de vigilância permanente, mas uma verificação mensal pode poupar semanas de contenção de danos mais tarde.

Se trabalhas numa equipa ou geres uma empresa, vale a pena ensaiar este cenário uma vez por ano, como se fosse um simulacro. Quem fala com a comunicação? Quem contacta a plataforma? Quem reúne as provas? Quando a crise realmente acontece, uma resposta já treinada evita improvisos desajeitados e ajuda a manter a calma.

Se de repente te enviarem um vídeo estranho em que apareces, respira primeiro. Não reajas de imediato, nem entres em modo automático a avisar metade da tua lista de contactos. Guarda o material localmente e regista de onde veio o link. Faz capturas de ecrã dos comentários, dos metadados e das horas. Depois procura apoio profissional: advogado especializado em media, defesa do consumidor, contacto de emergência do empregador. Quando respondes com método em vez de pânico, recuperas uma parte do controlo.

Muita gente, no primeiro choque, reage como se a culpa fosse sua. Envergonha-se, cala-se e espera que tudo desapareça por si. Mas o silêncio é muitas vezes o som mais alto que podes produzir. Quem não diz nada deixa espaço para que outros contem a história - e, nesse vazio, os boatos florescem.

Um erro frequente é confiar numa única resposta. Só avançar por via jurídica. Ou apenas tentar apagar o vídeo. Ou falar apenas com o círculo mais próximo. Na prática, o mais realista é combinar várias frentes: ação legal, denúncias técnicas nas plataformas e comunicação direta com as pessoas certas. Quem te conhece precisa de ouvir de ti uma explicação clara, calma e sem rodeios sobre o que aconteceu. Sem drama, sem excesso de justificações, antes algo como: “Está a circular um vídeo falso meu, manipulado com IA. Já estou a tratar do assunto com advogados e a denunciar onde for necessário. Se vires alguma coisa, envia-ma e, por favor, não partilhes.”

Também é importante criares amortecedores emocionais para ti próprio. Um deepfake pode soar a um ataque à identidade. Fala com pessoas que te conhecem para lá de uma fotografia de perfil. Às vezes, uma frase honesta de uma amiga - “Eu sei quem tu és, não me deixo convencer por lixo destes” - é suficiente para sustentar-te quando a caixa de comentários começa a arder.

Um jurista de media com quem falei para esta reportagem resumiu-o assim:

“Estamos a viver uma fase em que a tecnologia anda mais depressa do que a consciência coletiva. As leis estão a acompanhar, mas, até lá, precisamos de um reflexo social: pensar primeiro, partilhar depois.”

O que significa isto no dia a dia? Algumas regras simples, mas exigentes, podem ajudar:

  • Não envies por vídeo ou fotografia material íntimo que lamentarias numa discussão, mesmo que seja para pessoas em quem confias.
  • Nos chats e grupos, pergunta de forma explícita: “Quem foi a primeira pessoa a partilhar isto?” - a transparência trava a fome de escândalo.
  • Perante qualquer vídeo polémico, seja de quem for, pára um instante e pergunta: “E se isto estiver falsificado?”
  • As empresas devem criar regras internas claras sobre deepfakes, incluindo planos de emergência e contactos responsáveis.
  • Com crianças e adolescentes, fala cedo e com naturalidade sobre conteúdos manipulados - sem alarmismo, mas com exemplos próximos da sua realidade.

Quanto mais normal for falar sobre falsificações, mais difícil se torna a vida de quem as usa como arma.

Entre realidade e ficção: deepfakes e a forma como temos de repensar a reputação

Talvez a verdade desconfortável seja esta: não existe proteção perfeita contra deepfakes. Qualquer solução técnica, qualquer filtro, qualquer tecnologia de marca de água acabará, mais tarde ou mais cedo, por ser quebrada, contornada ou enganada. Vivemos numa época em que o nosso espelho digital pode ser sequestrado a qualquer momento. Isto soa sombrio, mas também abre outra perspetiva: a nossa reputação depende cada vez menos de uma imagem isolada, de um vídeo único ou de uma “prova” instantânea. Depende, acima de tudo, do que as pessoas associam a nós ao longo do tempo.

Imagina a tua reputação como um histórico de conversa longo. Uma mistura de encontros reais, chamadas perdidas, mensagens de voz embaraçosas e memórias calorosas. Um deepfake é uma mensagem alheia inserida nesse percurso. Se o restante historial for sólido, credível e humano, essa mensagem isolada perde força. Quem te conhece - online ou offline - deve ter material real suficiente para poder dizer: “Isto não combina com ela; isto parece-me falso.”

Todos reconhecemos aquele momento em que um vídeo encaixa perfeitamente nos nossos preconceitos. O chefe irritadiço, a colega “sempre esquisita”, o político a quem já se atribui tudo. É precisamente aí que começa a responsabilidade. Não apenas como possível vítima, mas como testemunha, como pessoa que reenviou, como cúmplice silenciosa. A questão deixa de ser: “Como é que evito ser vítima?” e passa a ser: “Como contribuo para que os deepfakes tenham menos poder sobre todos nós?”

Talvez um dia apareça um deepfake teu. Talvez nunca aconteça. O certo é que vivemos numa era em que a confiança está a ser renegociada - nas relações, nas empresas e na política. Cada pequeno gesto de desconfiança perante o escândalo perfeito, cada momento em que não carregamos em “partilhar”, é uma resposta discreta ao problema. E, por vezes, a proteção da própria reputação começa exatamente aí: na forma como tratamos a reputação dos outros.

Ponto essencial Detalhe Valor para o leitor
Os deepfakes chegaram ao dia a dia Aplicações simples, muito material visual público e elevada capacidade de engano Perceber porque é que praticamente qualquer pessoa pode ser afetada
Responder cedo protege a narrativa Lista de contactos, preservação de provas, estratégia combinada de direito, tecnologia e comunicação Ter um plano concreto para o pior cenário, em vez de pânico impotente
A forma como a sociedade reage é decisiva Consumo cético, não partilhar de imediato e conversar sobre falsificações Assumir um papel ativo na redução de danos reputacionais, para si e para os outros

Perguntas frequentes

  • Pergunta 1 - Como posso, enquanto leigo, reconhecer um deepfake?
    Observa piscadelas pouco naturais, reflexos estranhos na pele, contornos imprecisos na linha do cabelo ou nas orelhas e movimentos ligeiramente “flutuantes” no fundo da imagem. Desconfia sobretudo de vídeos que tentam provocar uma reação emocional muito forte.
  • Pergunta 2 - O que faço se surgir um deepfake meu?
    Guarda o material, documenta as fontes, avisa pessoas de confiança, denuncia o conteúdo de imediato na plataforma e procura aconselhamento jurídico. Depois decide, de forma consciente, com quem deves falar proativamente, em vez de te limitares a reagir.
  • Pergunta 3 - As empresas conseguem proteger-se?
    Sim. Podem promover formações de prevenção, criar canais de denúncia, definir planos de crise e sensibilizar as equipas. Ferramentas técnicas de monitorização ajudam a detetar conteúdos suspeitos mais cedo.
  • Pergunta 4 - Crianças e adolescentes estão mais expostos?
    Sim, porque circula muito material visual e os grupos de pares reagem fortemente ao estatuto e à vergonha. Conversas abertas, regras claras sobre partilha de imagens e acesso simples a ajuda são fundamentais.
  • Pergunta 5 - Existem soluções tecnológicas promissoras contra os deepfakes?
    Estão a ser desenvolvidas marcas de água digitais, algoritmos de deteção e cadeias verificadas de meios. Estas abordagens podem ajudar, mas não são uma solução milagrosa - sem um público crítico, continuam a ser apenas uma parte da resposta.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário