Saltar para o conteúdo

Deepfakes estão a aumentar: milhões de conteúdos circulam online e quase ninguém percebe que são totalmente falsos.

Homem em videochamada no portátil e telemóvel sentado à mesa com mesa de trabalho organizada.

A mulher no vídeo parece exausta.

Está sentada numa cama de hotel, sussurra para a câmara frontal e descreve um alegado escândalo na empresa onde trabalha. As mãos tremem ligeiramente, o áudio soa abafado, a iluminação é péssima - tem exactamente o ar caótico que associamos a “fugas” reais. Numa conversa de WhatsApp, o clip está a tornar-se viral. Alguém pergunta: “Já viste isto? Isto é verdadeiro, não é?”

Olhas melhor. Um micro-espasmo no canto da boca, uma sombra que não acompanha bem o movimento da cabeça, uma voz com a qualidade típica de auscultadores baratos. E, ainda assim, a tua primeira reacção instintiva é acreditar. Afinal, a cara dela vê-se com clareza - e nós continuamos a confiar em rostos. Por enquanto.

A explosão silenciosa: deepfakes por todo o lado

Com fotografias, já aprendemos a desconfiar. Filtros, Photoshop, efeitos de beleza - tudo isso faz parte do quotidiano digital há muito tempo. O vídeo, porém, foi durante anos a última fortaleza: “Se eu vejo a pessoa a dizer aquilo, então deve ser verdade.” Essa sensação de segurança está a desfazer-se lentamente, quase sem darmos por isso. E, em paralelo, o número de deepfakes não cresce de forma linear: dispara como um foguetão. Cresce de forma exponencial.

Hoje, novos programas conseguem montar, em poucos minutos, um vídeo falso extremamente convincente a partir de meia dúzia de selfies. Muitas vezes, custa 0 €. O que começa como experiências inofensivas transforma-se, de um momento para o outro, em clips onde políticas fazem ameaças de guerra, celebridades “confessam” coisas que nunca aconteceram, ou colegas “aparecem” em pornografia não consentida - totalmente gerada por computador. Uma parte enorme desse conteúdo circula discretamente por canais de Telegram, timelines no X (antigo Twitter) e feeds no TikTok. A maioria das pessoas passa à frente - mas guarda, lá no fundo, a impressão de que “se calhar é mesmo verdade”.

Uma análise citada pela plataforma de monitorização Sensity referia já em 2023 mais de 145.000 vídeos deepfake detectados - e com forte subnotificação, porque muitas redes e comunidades não são transparentes. Em 2018, falávamos apenas de alguns milhares. Em poucos anos, aquilo que era um fenómeno de nicho tornou-se uma verdadeira indústria subterrânea, sobretudo na pornografia não consentida e na destruição de reputações. Um cenário recorrente: uma jovem descobre que o seu rosto está viral num portal pornográfico - mas ela nunca gravou nada daquilo. A remoção demora, e o estrago fica: no círculo social, no trabalho, na família. A internet não esquece - e, pior, raramente verifica.

A lógica por detrás disto é cruelmente simples: os modelos de IA melhoram porque são alimentados com quantidades cada vez maiores de dados. Cada discurso público, cada selfie, cada vídeo de stories serve de material de treino. Quanto mais material, mais realista se torna a falsificação. Ao mesmo tempo, a barreira técnica cai a pique: antes era preciso conhecimento especializado; hoje basta uma app com um botão do género Upload Face – Generate. E como estamos habituados a consumir entretenimento rápido e leve, clicamos, rimo-nos, reenviamos. Quem é que, na correria do dia-a-dia, pára mesmo dez minutos para confirmar a fonte de um clip viral? O ritmo favorece o falso, não a correcção.

O que os deepfakes fazem às pessoas (e porque isto já não é só “tecnologia”)

Os deepfakes não são apenas um tema para entusiastas de informática. Eles atacam algo muito mais íntimo: a confiança no que vemos e ouvimos. Se até as lágrimas num vídeo podem ser sintéticas, isso altera, aos poucos, a forma como interpretamos emoções reais no quotidiano. Quem é exposto a falsificações repetidamente começa a erguer uma espécie de muralha de protecção - primeiro perante estranhos, depois (e isto é o mais perigoso) talvez também perante pessoas que precisam de ajuda a sério.

Além disso, o impacto não é igual para todos. Pessoas famosas podem contratar advogados; empresas montam equipas de crise. Quem sofre mais são alunas, activistas, pessoas em regimes autoritários ou simplesmente quem não tem alcance nem recursos. Um único vídeo pornográfico sintético ou uma “confissão” manipulada pode desviar trajectórias de vida, rebentar amizades, bloquear carreiras. A tecnologia não democratiza apenas a criatividade - democratiza também a humilhação dirigida.

Há ainda um efeito social subtil: quando “tudo pode ser falso”, surge a tentação de usar a dúvida como arma. Mesmo provas reais passam a ser descartadas com um “isso deve ser IA”. Este “ruído” beneficia tanto quem fabrica desinformação como quem quer fugir a responsabilidades.

Deepfakes: como os identificar no dia-a-dia (sem curso de informática)

A parte positiva é que não tens de ser especialista para ficar muito mais atento no “mato” dos vídeos. O primeiro hábito útil é focares-te em microdetalhes que ainda são difíceis de imitar - mesmo com IA avançada.

Repara, em particular, nos olhos e na boca: - A pessoa pisca de forma estranhamente rara ou mecânica? - O olhar parece fixo, como se estivesse ligeiramente “ao lado” de ti? - O movimento dos lábios coincide mesmo com as sílabas ou há micro-atrasos? Esse pequeno desencaixe entre som e expressão facial denuncia muitos falsos.

O segundo teste é a iluminação. Observa as sombras no queixo, no nariz e nas orelhas: - A face está demasiado lisa (como se tivesse um “desfocador”), enquanto o fundo tem grão natural? - Ou acontece o contrário: fundo nítido, mas brincos, pontas do cabelo e contornos dos óculos ficam esbatidos? Estas “bordas” continuam a ser um ponto fraco em muitos sistemas de deepfake.

Depois, vem o óbvio que quase ninguém faz: a fonte. - Quem publicou primeiro? - É uma conta noticiosa credível e verificável, ou um canal anónimo com 13 seguidores e nome cheio de emojis? Uma verificação de 30 segundos no Google e em sites de fact-checking parece pouco glamorosa, mas muitas vezes é a diferença entre pânico e tranquilidade.

E há um aspecto humano incontornável: somos puxados pelo conteúdo. Políticos furiosos, influenciadoras a chorar, “leaks” de reuniões supostamente secretas - estes clips disparam directamente no nosso cérebro emocional, não na parte racional. Aqui ajuda um micro-intervalo: se um vídeo te deixar muito zangado, muito assustado ou muito entusiasmado, faz uma pausa mental e pergunta: quem ganha com eu reagir agora desta forma? Ninguém vai verificar tudo. Mas um segundo de dúvida antes de partilhar já é um início poderoso.

Protecção na cabeça: literacia mediática como prática diária contra deepfakes

Uma resposta eficaz aos deepfakes começa onde tens mais controlo: nos teus hábitos. Uma técnica simples é a “regra das 3 perguntas” antes de reencaminhar:

  1. Conheço a fonte original deste vídeo/imagem?
  2. Existe pelo menos uma confirmação independente por um meio que eu considere minimamente fiável?
  3. O que acontece se isto for falso e eu ajudar a espalhar?

Mesmo que uses estas perguntas apenas quando o conteúdo vem carregado de emoção, reduzes muito a tua vulnerabilidade - e, de quebra, travas o alcance das falsificações.

Também vale a pena incorporar pequenas rotinas técnicas, sem dramatizar: - Para imagens, faz pesquisa inversa com o Google Lens (ou alternativas como o Yandex). - Para vídeos, desliga o som durante alguns segundos e observa apenas a sincronização labial. - Pára frame a frame e procura artefactos estranhos: brincos a “piscar”, dentes distorcidos, linhas do cabelo que mudam, pele a derreter nos contornos.

Muita gente ouve isto e pensa que é preciso um certificado em forense digital. Na prática, é mais realista escolher duas ou três verificações e repeti-las sempre, do que acumular dez teorias que nunca aplicas.

E sim: todos erramos. Quase toda a gente já partilhou links ou clips que depois se revelaram falsos, exagerados ou fora de contexto. O maior problema não é enganar-nos - é a vergonha de admitir. Um ambiente mais saudável soa assim: “Também caí nessa, obrigado por corrigires.” ou “Que absurdo, afinal era manipulado - vou apagar.” Isso cria um clima em que corrigir não é atacar, é arrumar em conjunto. Uma frase de um especialista em forense de dados ficou-me na cabeça:

“A nossa melhor protecção contra deepfakes não é a tecnologia. É a vontade de desconfiar do nosso primeiro reflexo.”

Na prática, isso traduz-se em hábitos concretos como: - Em cada “vídeo de escândalo”, procurar a data e o contexto alegado da cena. - Confirmar pelo menos uma fonte séria antes de reenviar clips politicamente sensíveis. - Em conversas de família, pedir fontes com simpatia e firmeza, em vez de encolher os ombros em silêncio.

Uma nota extra: leis, plataformas e “prova de origem” (o que pode mudar em breve)

Há outra frente relevante além dos hábitos individuais: a resposta colectiva. Na União Europeia, o debate regulatório (incluindo regras sobre IA e obrigações de transparência) tem vindo a apertar, e as plataformas são cada vez mais pressionadas a reagir com maior rapidez a conteúdos manipulados - sobretudo em casos de pornografia não consentida, burla e difamação. Em Portugal, além de mecanismos de denúncia nas próprias plataformas, pode fazer sentido procurar apoio jurídico e, em situações de violência digital, recorrer a entidades e linhas de apoio especializadas.

Ao mesmo tempo, está a ganhar força uma ideia complementar à “detecção”: a proveniência do conteúdo. Em vez de tentar adivinhar se algo é falso, tenta-se provar se algo é verdadeiro através de metadados e assinaturas (por exemplo, padrões do tipo C2PA) que registam quando e como uma imagem/vídeo foi captado e editado. Ainda não é uma solução universal - e pode ser contornada -, mas aponta para um futuro em que “de onde vem” será tão importante quanto “o que mostra”.

Porque temos mesmo de falar disto agora

Este tema já não pode ficar confinado a nichos de blogs tecnológicos e conferências. Tal como aprendemos a viver com spam e chamadas de burla, vamos ter de conviver com deepfakes. A questão é se o faremos em silêncio, resignados, ou se criaremos novas regras sociais. Talvez comece com uma mudança pequena nas conversas: em vez de “Já viste isto?”, perguntar mais vezes “Achas que isto é verdadeiro - e porquê?”


Resumo em tabela

Ponto-chave Detalhe Valor para o leitor
Disseminação exponencial de deepfakes Crescimento acelerado de vídeos falsos, barreiras técnicas baixas, pouca fiscalização Consciência da escala com que conteúdos manipulados já afectam o quotidiano
Sinais concretos para detecção Olhos e sincronização labial, luz e sombras, contornos em cabelo/joalharia, verificação da fonte Ferramentas práticas para avaliar conteúdos suspeitos no dia-a-dia
Protecção por rotinas e atitude Regra das 3 perguntas, pausa emocional, abertura para correcções Reforço da literacia mediática e redução da partilha de falsificações

FAQ

  • Pergunta 1 - Como é que eu, sem software especializado, identifico um deepfake?
    Observa sinais como olhar demasiado rígido, poucos pestanejos, pequenas falhas entre áudio e lábios, sombras incoerentes e contornos esbatidos no cabelo, óculos ou brincos. Confirma também se algum meio credível pegou no tema ou se o clip só existe em canais anónimos.

  • Pergunta 2 - Todos os deepfakes são automaticamente ilegais?
    Não. Existem deepfakes artísticos, satíricos ou experimentais, desde que estejam claramente assinalados. O problema surge quando alguém é colocado, sem consentimento, em situações comprometedoras, quando há difamação ou quando se espalha desinformação política. Aí podem aplicar-se, consoante o caso, direitos de personalidade, direitos de autor e normas penais.

  • Pergunta 3 - O que devo fazer se aparecer um deepfake meu online?
    Primeiro, guarda provas: capturas de ecrã com URL, data e, se possível, gravação do ecrã. Depois, usa as ferramentas de denúncia da plataforma e pede remoção. Dependendo da gravidade, considera contactar apoio especializado em violência digital e/ou um advogado. No plano pessoal, costuma ajudar comunicar activamente que é uma falsificação, em vez de ficar em silêncio.

  • Pergunta 4 - Estados e serviços secretos usam deepfakes para desinformação?
    Existem casos documentados em que actores alegadamente apoiados por Estados usaram deepfakes para enfraquecer adversários políticos. Muitas vezes, basta um único vídeo bem colocado para semear dúvidas sobre narrativas oficiais. Em paralelo, governos e agências de segurança investem em tecnologia de detecção - uma corrida digital que está longe de estar resolvida.

  • Pergunta 5 - Como preparar crianças e adolescentes para os deepfakes?
    Mais do que assustar, funciona melhor experimentar em conjunto: comparar vídeos reais e falsos, falar sobre sinais típicos e praticar verificação de fontes. As escolas podem integrar literacia mediática em várias disciplinas, e em casa ajuda fazer perguntas simples em conversas normais: “Porque é que achas que este vídeo é verdadeiro?” Assim, o olhar crítico torna-se um hábito, não um teste.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário