Saltar para o conteúdo

Deepfakes a crescer rapidamente: esta evolução mostra como a verdade pode perder todo o significado na internet.

Jovem a trabalhar em edição de vídeo no computador numa sala com luz natural e TV ligada ao fundo.

Um vídeo tem apenas 14 segundos. Um político berra para o microfone, atira insultos a minorias, e a sala explode em aplausos. Alguém envia-te o vídeo para o grupo às 00h30, com uma única frase: “Viste isto?!”

Estás na cama e voltas atrás, avançar, parar - fotograma a fotograma. A leitura labial parece bater certo. A linguagem corporal também. O som soa a directo televisivo. Há uma parte de ti que ainda pensa: “Isto não pode ser verdadeiro.”

E, no entanto, outra parte repara noutra coisa: o teu corpo reage como se fosse.

Na manhã seguinte vem a confirmação: deepfake. Gerado com uma perfeição assustadora. E, entretanto, já com milhões de visualizações.

Aquilo que ontem era visto como uma brincadeira tecnológica está hoje, discretamente, a infiltrar-se no nosso quotidiano - e a forçar uma pergunta desconfortável que andámos a adiar demasiado tempo.

Quando os vídeos começam a mentir (deepfakes)

Crescemos com a sensação de que um vídeo era a prova final. “Tenho isto em vídeo” equivalia, durante anos, a: assunto encerrado.

Essa certeza está a desfazer-se à frente dos nossos olhos. Enquanto lês estas linhas, há servidores algures a treinar modelos novos capazes de reconstruir vozes, rostos e gestos com uma familiaridade quase íntima - como se tivessem assistido à tua vida desde criança.

Entretanto, percorremos feeds que parecem uma cronologia do mundo real, quando na verdade já são uma mistura de realidade, simulação e desejo. A fronteira esbate-se mais depressa do que o nosso cérebro consegue acompanhar.

E é aqui que nasce o problema central: não é apenas a tecnologia em si - é o que ela faz ao nosso sentido de confiança.

Um caso típico: o “áudio” perfeito que nunca existiu

Há exemplos que parecem escritos para um guião. Em 2024, circulou um áudio impecavelmente falsificado de um líder político europeu que, alegadamente, estava a “confessar” um escândalo.
A voz soava autêntica. O ambiente parecia real. A indignação apareceu de imediato.

Em poucas horas, há mercados a oscilar, tendências a inverterem-se, hashtags a disparar. Dias depois chega o desmentido: análises independentes mostram que era totalmente sintético, montado a partir de fragmentos e treinado com discursos públicos disponíveis online.

A rectificação até chega aos meios de comunicação - mas não com a mesma força. Muita gente só apanha o primeiro “clip do escândalo”, não a correcção posterior. E o estrago fica como um ruído persistente na memória: “Havia qualquer coisa, não era?”

É assim que se fabricam opiniões: não a partir de factos, mas de pedaços que parecem verdade.

Como funciona: menos magia, mais matemática

À primeira vista, tudo isto parece feitiçaria. Na prática, é matemática aplicada a grande escala. Os deepfakes são criados por redes neuronais que aprendem padrões em milhões de imagens e ficheiros de áudio, até conseguirem produzir variações quase indistinguíveis do original.

E ficam melhores a um ritmo irregular: durante meses parecem apenas truques para redes sociais; de repente, aparecem vídeos capazes de baralhar até pessoas experientes.

A evolução é exponencial: mais capacidade de computação, algoritmos mais eficientes, e uma avalanche contínua de dados - de cada selfie, de cada mensagem de voz, de cada livestream. A curva, na prática, só aponta numa direcção.

Sejamos francos: quase ninguém passa cada vídeo por ferramentas de análise forense antes de reagir. Nós vemos, partilhamos, comentamos. E esse tempo acelerado é o melhor aliado da falsificação.

Como manter a lucidez no dia a dia

A resposta menos simpática é também a mais honesta: já não existe segurança total. Mas há formas de reduzir danos.

Começa por ti - não pela tecnologia. Sempre que um vídeo ou áudio te acerta em cheio nas emoções (raiva, nojo, triunfo), faz uma pausa deliberada. Respira, pousa o telemóvel por uns segundos.

Depois, pergunta: - Quem está a partilhar isto? - Qual é a fonte original? - Existe algum órgão de comunicação credível a publicar o mesmo, com responsabilidade editorial e algo a perder se for falso?

Não precisas de te transformar num perito. Basta criares um pequeno ritual mental antes de reencaminhar conteúdo. Em 2026, dois ou três segundos de cepticismo valem tanto como uma palavra-passe forte.

O verdadeiro ponto fraco: nós, não “eles”

O erro mais grave raramente acontece do lado de quem cria o deepfake; acontece do lado de quem assiste. No impulso, deixamo-nos levar porque a raiva e o choque dão a sensação de estarmos “bem vivos”.

E todos reconhecemos aquele instante perigoso: quando um clip encaixa tão bem na nossa opinião que parece perfeito demais para ser falso.

É precisamente aí que o risco dispara. Conteúdos manipulados agarram-se aos nossos preconceitos e reforçam aquilo que, no fundo, já estávamos inclinados a acreditar.

Há ainda um segundo obstáculo: a vergonha. Quando alguém cai num deepfake, tende a calar-se. E, sem conversa, não há aprendizagem colectiva - cada pessoa volta a tropeçar, sozinha, nas mesmas armadilhas.

Uma frase útil para manter a cabeça fria pode ser: “É normal que eu também seja enganado - a diferença está em quanto tempo demoro a perceber.” Essa postura reduz a pressão e dá espaço para perguntar, verificar e corrigir.

Nem credulidade total, nem cinismo total

À medida que os falsos aumentam, torna-se tentador adoptar a atitude: “Então não acredito em nada.” Soa sofisticado, mas é perigoso.

Uma sociedade que não acredita em nada é tão fácil de manipular como uma sociedade que acredita em tudo. No vazio, vencem os mais ruidosos - não os mais verdadeiros.

Um investigador em media resumiu isto de forma certeira:

“O poder real dos deepfakes não está em aceitarmos mentiras como verdades; está em começarmos a tratar a própria verdade como apenas mais uma hipótese entre muitas.”

Hábitos simples que travam o estrago

  • Em temas sensíveis (eleições, guerras, saúde), procura sempre pelo menos duas fontes independentes
  • Não partilhes clips quando estás no pico da raiva, euforia ou susto
  • Avisa amigos sobre possíveis falsos sem humilhar - é melhor perguntar do que acusar
  • Apoia meios de comunicação que sejam transparentes a corrigir erros
  • Sê mais selectivo com a tua pegada digital: não testes todas as apps com “clonagem de voz” e evita publicar amostras desnecessárias de voz e rosto

Quando “verdade” vira um processo, não um estado

Talvez a parte mais incómoda seja esta: a verdade já não está simplesmente “na Internet” à espera de ser encontrada. Vai exigir trabalho outra vez.

Os deepfakes são um teste de stress à nossa cultura de informação. Expõem o quanto nos habituámos a impressões rápidas, vídeos curtos e frases sonantes.

E a tecnologia não vai desaparecer. Vai tornar-se mais barata, mais acessível e integrada em ferramentas que usamos diariamente. Por isso, a pergunta útil já não é “Como travar os deepfakes?”, mas sim: “Que atitude precisamos de construir para que as falsificações não nos desloquem a percepção por completo?”

“Isto vi com os meus próprios olhos” deixou de ser suficiente.
A verdade passa cada vez mais a nascer de processos: conversa, confirmação, correcções, contraditório, contexto.

Dá mais trabalho do que fazer scroll, sim. Mas há um efeito secundário inesperado: quando procuramos clareza de forma activa, a informação volta a ser valiosa - em vez de mero ruído de fundo.

E, por paradoxal que pareça, num mundo de falsificações perfeitas, a nossa imperfeição - a capacidade de duvidar, admitir e aprender - pode ser o melhor escudo.

Dois temas que vão pesar cada vez mais: rotulagem e proveniência

Nos próximos anos, vai ganhar importância a proveniência de conteúdos: saber de onde veio um vídeo, quem o publicou primeiro e se há registos de edição. Iniciativas de credenciais de conteúdo e assinaturas digitais (cada vez mais discutidas por plataformas e meios) podem não resolver tudo, mas ajudam a reconstruir uma cadeia de confiança.

Em paralelo, a rotulagem vai tornar-se um campo de disputa. Marcar algo como “gerado por IA” pode proteger o público - mas também pode ser usado como arma para descredibilizar conteúdos reais. Por isso, o foco não deve ser apenas o rótulo; deve ser o conjunto: fonte, contexto, consistência e verificação.

Em casa e no trabalho: preparar-se antes da crise

Para além do uso pessoal, organizações (empresas, escolas, autarquias) precisam de planos simples: como confirmar mensagens de voz do “director”, que canal usar para validações, e quem decide quando um conteúdo é suficientemente credível para circular internamente. Um procedimento claro de confirmação - por exemplo, uma chamada de retorno para um número conhecido - evita que um deepfake se transforme numa fraude financeira ou num alarme social.


Ponto-chave Detalhe Valor para o leitor
Os deepfakes desvalorizam a “prova visual” Vídeos e áudios podem ser gerados com realismo suficiente para destruir a confiança em “provas” Percebes porque os reflexos antigos de verificação já não chegam e ganhas prudência nova
As emoções são a porta de entrada Funcionam melhor quando provocam raiva, medo ou triunfo Reconheces a tua vulnerabilidade e aprendes a lidar com momentos de gatilho
É preciso atitude, não omniscência técnica Rotinas pequenas: comparar fontes, pausar antes de partilhar e admitir erros sem dramatizar Ficas com estratégias práticas para o dia a dia sem cair no cinismo total

FAQ

  • Como é que eu, leigo, identifico um deepfake?
    Raramente terás 100% de certeza. Procura sinais como pestanejar estranho, pele demasiado “lisa”, sombras incoerentes, reflexos de luz que não batem certo ou movimentos labiais ligeiramente fora de tempo. E junta sempre a pergunta: quem está a difundir isto - e com que interesse?

  • Os deepfakes são sempre mal-intencionados?
    Não. Há usos criativos e satíricos, por exemplo em cinema ou efeitos visuais. O problema surge quando são publicados sem contexto, sem aviso e sem enquadramento, prejudicando pessoas reais ou manipulando o clima político.

  • O que podem os Estados fazer contra deepfakes?
    Criar enquadramentos legais que punam falsificações maliciosas, exigir às plataformas respostas mais rápidas na sinalização e investir em equipas de análise forense. Em paralelo, é essencial literacia mediática em escolas, serviços públicos e redacções.

  • Ainda devo acreditar em alguma coisa online?
    Sim, mas com expectativas diferentes. Confia mais em fontes que assumem e corrigem erros de forma transparente, cruza informação entre várias origens e aceita que o conhecimento é, muitas vezes, provisório. O descrédito total serve sobretudo quem quer caos.

  • Como protejo a minha voz e o meu rosto?
    Evita publicar amostras de voz e vídeos em grande plano sem necessidade, sobretudo em plataformas duvidosas. Revê permissões de apps (especialmente as que pedem acesso a microfone e câmara) e pensa duas vezes antes de usar filtros de troca de rosto e ferramentas de clonagem de voz.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário