Saltar para o conteúdo

Collien Fernandes e o pesadelo dos deepfakes

Mulher preocupada em videoconferência, com mãos na cabeça, sentada numa mesa com laptop, telemóvel e documentos.

No instante em que Collien Fernandes percebe que está a circular um vídeo dela que nunca gravou, a sensação é a de um autêntico pesadelo digital.

Não há cenário, não há argumento, não há filmagem real - apenas o rosto, o corpo e a voz dela a fazerem coisas que nunca aconteceram. Amigos enviam-lhe ligações, desconhecidos comentam o suposto “escândalo”, os meios de comunicação entram em roda-viva. De repente, deixa de ser apresentadora e atriz para se tornar o alvo de uma projeção fabricada por uma máquina. Um falso com sofrimento verdadeiro por trás. Todos nós passamos por vídeos destes ao fazer scroll, carregamos em reproduzir e seguimos em frente. Mas, desta vez, acontece com alguém que conhecemos da televisão - e isso muda tudo.

Quando um deepfake parece mais real do que a realidade

Quem acompanha Collien Fernandes desde os tempos da Viva associa-a a estúdios coloridos, cultura pop e entretenimento leve. Ninguém espera vê-la associada, de forma abrupta, a conteúdos pornográficos gerados por deepfake. E é precisamente esse choque que dá força ao caso.

Na internet, o que conta muitas vezes não é a veracidade, mas sim o potencial para gerar cliques. O nome “Collien Fernandes” atrai atenção, o rosto é reconhecido por muita gente e a história parece “boa demais” para não ser consumida. Por isso, espalha-se. Passa de grupos no Telegram para páginas duvidosas e chega a mensagens privadas que ela nunca quis abrir. Hoje, o abismo parece estar a um clique de distância.

Um pormenor torna este caso ainda mais inquietante: à primeira vista, o deepfake parece plausível. As expressões faciais encaixam de forma razoável, o corpo parece coerente e a qualidade da imagem chega para enganar quem não esteja atento. Ao mesmo tempo, há uma frieza artificial que se sente quando se observa com mais cuidado - mas quem é que dedica esse tempo? Estudos realizados nos Estados Unidos indicam que uma grande parte dos utilizadores vê vídeos apenas durante alguns segundos e, mesmo assim, tira conclusões. É precisamente nesse curto intervalo que o abuso tecnológico se transforma num problema social. Quem olha depressa acredita. Quem é atingido perde.

Do ponto de vista jurídico, trata-se de uma zona cinzenta estranha, que cresce mais depressa do que a legislação consegue acompanhar. Em muitos países existem direitos de personalidade, mas os deepfakes escapam frequentemente pelas falhas do sistema. O abuso é global, mas a proteção legal continua confinada a fronteiras nacionais. Para pessoas como Fernandes, isto significa que, enquanto os advogados ainda analisam como agir contra cada plataforma, o material já se multiplicou em zonas obscuras da rede. A lógica da economia das plataformas choca de frente com a dignidade das pessoas reais. E, na maior parte das vezes, o algoritmo vence.

O que podemos fazer na prática - e o que já não é possível desfazer

Não existe um botão mágico que faça desaparecer todos estes falsos. Mas existem medidas que transformam raiva impotente em resposta concreta. Quem vive sob os holofotes - e hoje isso já inclui influenciadores com alguns milhares de seguidores - precisa de um plano de emergência digital. Guardar capturas de ecrã, registar endereços de ligação, envolver cedo advogados e entidades de apoio especializadas. E afirmar de forma clara e pública: “Não sou eu.” Porque o silêncio costuma ser interpretado por trolls como uma admissão. No caos das linhas temporais, a transparência é muitas vezes a única moeda estável.

Para quem não é famoso, a situação parece ainda mais injusta. Quem é que leva a sério uma estudante anónima, um enfermeiro ou uma professora quando surgem falsos nus? Muitas vítimas envergonham-se, apesar de não terem feito nada de errado. E é aqui que está o núcleo emocional do problema: os deepfakes atacam não só a imagem, mas também a perceção que a pessoa tem de si própria. Todos conhecemos essa sensação - o momento em que aparece uma fotografia embaraçosa da escola e o primeiro pensamento é: “Meu Deus, toda a gente vai ver isto.” Agora imagina que essa imagem é pornográfica. E ainda por cima foi tecnicamente fabricada com perfeição. Sejamos honestos: ninguém está preparado para isso.

Para que alguma coisa mude, são precisas três coisas: coragem para falar, solidariedade coletiva e limites claros sobre o que vemos e partilhamos. Quando alguém como Collien Fernandes diz: “Não sou eu, fui vítima de abuso”, isso não é apenas uma declaração de uma figura pública; é um sinal para todas as pessoas que têm menos visibilidade.

O que os deepfakes exigem das plataformas e da literacia digital

As plataformas que alojam ou recomendam este tipo de conteúdo não podem continuar a agir como se fossem meros intermediários neutros. Quando um vídeo manipulado circula em massa, a rapidez da remoção, a capacidade de sinalização e a cooperação com autoridades e equipas legais deixam de ser detalhes técnicos - passam a ser responsabilidade social. Sem mecanismos eficazes, o sistema acaba por recompensar a viralidade do abuso.

Ao mesmo tempo, a literacia digital tornou-se uma competência de sobrevivência. Saber identificar fontes duvidosas, desconfiar de publicações sensacionalistas e perceber que “muita partilha” não significa “muita verdade” são hábitos cada vez mais necessários. A proteção começa antes do dano, no modo como consumimos informação, no tipo de conteúdos que validamos e na cultura de atenção que alimentamos todos os dias.

“Não são apenas imagens ou vídeos que são manipulados. São biografias, carreiras, relações. No fim, há sempre uma pessoa real, com uma história real, ligada a isto.”

  • Não reenviar: nada de “só para espreitar”, nada de partilhas em conversas, mesmo por curiosidade.
  • Guardar provas: data, hora, ligações e capturas de ecrã - sem histeria, mas com rigor.
  • Procurar aliados: amigos, colegas, serviços de apoio - ninguém deve tentar enfrentar sozinho uma rede inteira.

O que o caso Fernandes revela sobre todos nós

O caso de Collien Fernandes não é apenas um episódio estranho; é uma espécie de teste de resistência à nossa moral digital. Com que rapidez viramos costas quando uma mulher fica no centro de uma onda de ódio tóxica? Com que facilidade fingimos que isto é “só a internet”? Na verdade, o que aqui se mostra é até que ponto levamos a sério o direito à autodeterminação no espaço digital. Consumimos rostos como se fossem conteúdo, mas esquecemo-nos de que por trás de cada rosto está uma pessoa que leva tudo isto para casa. Para a cozinha, para o quarto, para o próprio espelho.

A tecnologia dos deepfakes continua a evoluir. As ferramentas de inteligência artificial que hoje ainda apresentam falhas provavelmente parecerão quase invisíveis dentro de dois ou três anos. A verdadeira questão é outra: nós também crescemos interiormente ao ritmo desta tecnologia, ou apenas a seguimos de forma passiva? Talvez a responsabilidade comece num ponto discreto: naquele instante entre “reproduzir” e “seguir em frente”. No reflexo de denunciar em vez de gozar. Na pequena decisão de não acreditar em tudo só porque aparece em ecrã inteiro.

Collien Fernandes decidiu não se calar. Isso é incómodo e também arriscado, porque quem resiste na internet depressa se torna alvo. Ao mesmo tempo, é precisamente essa abertura que oferece a muitas outras pessoas uma linguagem para algo que elas próprias não conseguem exprimir. Talvez esse seja o progresso silencioso desta história: os deepfakes obrigam-nos a renegociar a forma como pensamos dignidade, verdade e esfera pública. E levam-nos a começar a admirar menos a tecnologia e a proteger mais as pessoas que ela atinge.

Resumo prático

Ponto central Detalhe Valor para o leitor
Deepfakes como ataque pessoal O caso de Collien Fernandes mostra como conteúdos manipulados podem danificar carreiras e vida privada em pouco tempo Melhor compreensão de por que razão “é só um vídeo” pode ter consequências reais graves
Reagir em vez de ficar paralisado Documentar, avançar com medidas legais, esclarecer publicamente e mobilizar redes solidárias como estratégia de defesa Pontos de partida concretos sobre o que fazer numa situação destas, para si ou para alguém próximo
A nossa ética de clique Uso consciente do que vemos, acreditamos e partilhamos Sensação de controlo: cada clique tem peso e pode aumentar ou travar o abuso

Perguntas frequentes

  • Pergunta 1 O que é exatamente um deepfake no contexto do caso de Collien Fernandes?
    Um deepfake é um vídeo ou imagem alterado com inteligência artificial, no qual o rosto ou o corpo de uma pessoa real é colocado numa cena diferente. No caso de Collien Fernandes, trata-se de conteúdos pornográficos nos quais o seu rosto foi inserido tecnologicamente, sem qualquer participação da sua parte.

  • Pergunta 2 Como é que uma pessoa sem experiência pode reconhecer um deepfake?
    Não é fácil ter certeza absoluta, mas há sinais de alerta: expressões faciais ligeiramente artificiais, transições imperfeitas no pescoço, sombras estranhas, fontes de luz incoerentes ou olhos demasiado rígidos. Muitas vezes, o contexto também denuncia a fraude: vídeos de “escândalo” surgidos do nada, sem origem credível, merecem desconfiança.

  • Pergunta 3 O que devo fazer se for eu a ser vítima de um deepfake?
    Deve guardar provas, evitar apagar tudo precipitadamente, contactar advogados com experiência em media ou tecnologias de informação e procurar entidades de apoio especializadas. Em paralelo, informe pessoas de confiança e, se possível, faça uma declaração pública clara a desmarcar-se do conteúdo.

  • Pergunta 4 Partilhar um deepfake é crime?
    Depende do país e do conteúdo concreto. Quando se trata de material sexualizado, a partilha pode constituir uma violação dos direitos de personalidade e ter consequências legais. Mesmo que não configure crime em todos os casos, continua a ser uma infração ética muito grave.

  • Pergunta 5 Como posso proteger-me de forma preventiva?
    Não existe proteção total. Porém, usar os próprios vídeos e fotografias com mais cuidado, reforçar as definições de privacidade e ter atenção a conteúdos íntimos ajuda a reduzir o risco. O mais importante, contudo, é cultivar uma cultura em que estes falsos sejam socialmente rejeitados e não tenham audiência.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário