Saltar para o conteúdo

Deepfakes estão a aumentar: especialistas alertam para uma onda de fraudes digitais quase impossíveis de detetar, mesmo por profissionais.

Pessoa a utilizar reconhecimento facial no portátil durante videochamada, com smartphone e tablet sobre a mesa.

O clip tem apenas 23 segundos.

Vê-se uma pivô de informação conhecida, maquilhagem impecável, luz de estúdio, a mesma voz de sempre. Anuncia um suposto atentado terrorista numa capital europeia, avança números, e ao fundo passa um vídeo tremido, filmado por telemóvel. Na redacção onde estou, levantam-se cabeças, há quem pegue logo no telemóvel, um colega larga um palavrão em voz baixa. Minutos depois percebemos: o ataque nunca aconteceu. O estúdio era sintético. A pivô também. Era tudo um deepfake, gerado do nada, credível ao ponto de enganar. Ninguém apanhou à primeira - nem o colega que costuma analisar tudo ao nível do pixel.

A nova incerteza: quando ver já não chega (Deepfakes)

Crescemos com uma regra antiga: “acredita apenas no que vês com os teus próprios olhos”. De repente, essa ideia deixa de ser uma bússola fiável. O olhar hesita, e o instinto também. Deepfakes - vídeos falsos e vozes criados por IA - já não são apenas uma brincadeira de TikTok. Aparecem no feed de notícias, entram em campanhas eleitorais, circulam em grupos internos de empresas.

Quem passa o dia a fazer scroll nas redes sabe, no fundo, que qualquer clip pode ter sido mexido. E, mesmo assim, continuamos a reagir por impulso: choque, indignação, convicção. O cérebro gosta de imagens limpas e narrativas fechadas - e os deepfakes conseguem entregá-las com uma nitidez assustadora. É aqui que a ameaça realmente começa.

Em 2024, empresas de cibersegurança descrevem um salto exponencial. Ferramentas que, há um ano, exigiam horas de trabalho e conhecimentos técnicos, hoje funcionam como uma app no navegador. Basta carregar uma selfie e fornecer 30 segundos de voz verdadeira: a máquina monta um vídeo onde “confessas” algo que nunca fizeste. Ou “validas” contratos que nunca chegaste a ver.

Um impacto extra que raramente se discute: reputação e confiança em cadeia

Há um efeito colateral silencioso: quando um deepfake se espalha, a primeira vítima não é só a pessoa visada - é a confiança colectiva. Em equipas e famílias, instala-se a dúvida (“será mesmo ele/ela?”), e a desconfiança passa a contaminar conversas normais, pedidos urgentes e até chamadas legítimas.

E, num mercado como o português - com muitas PME, processos informais e decisões rápidas “por mensagem” - esta fragilidade pode ser explorada com facilidade, sobretudo quando não existem rotinas de validação e quando a pressão do “é urgente” manda mais do que o bom senso.

Deepfakes no dia a dia: da campanha eleitoral ao telefonema do chefe

Há um caso, repetido há muito em círculos de segurança, que parece enredo de thriller. Um funcionário da área financeira de uma empresa asiática recebe um videochamada. No ecrã: o CEO, a voz familiar, o cenário de escritório habitual. Pede uma transferência urgente de vários milhões, supostamente ligada a um acordo confidencial. O dinheiro segue. Mais tarde descobre-se: o CEO era um deepfake e toda a chamada foi encenada.

Situações deste género já aparecem também em processos de investigação na Europa, incluindo relatos associados à Alemanha. Autoridades policiais descrevem vídeos de extorsão onde adolescentes “surgem” em cenas comprometedoras - tudo fabricado, montado a partir de selfies inocentes de festas. As famílias entram em pânico antes sequer de se confirmar se as imagens podem ser reais. Os criminosos contam com essa reacção. Muitas vezes, passam apenas poucas horas entre a primeira mensagem de ameaça e o primeiro pagamento.

Entretanto, investigadores em universidades e equipas de plataformas passam horas diante de paredes de monitores a testar ferramentas de detecção. Procuram detalhes que a maioria dos utilizadores já não consegue distinguir: artefactos microscópicos, sombras que não fazem sentido, pequenas falhas no pestanejar. Só que os modelos evoluem depressa. O que hoje denuncia, amanhã já foi corrigido. Um trecho seco de um relatório recente soa quase como sirene: “Num futuro próximo, mesmo especialistas treinados irão falhar com frequência sem apoio técnico.”

O que a Europa está a tentar fazer - e porque não chega por si só

Do ponto de vista regulatório, a União Europeia tem vindo a apertar o cerco à desinformação e a estabelecer obrigações e responsabilidades (incluindo regras ligadas à IA). Ainda assim, nenhuma lei impede que um clip falso circule primeiro e cause danos imediatos. Na prática, a resposta continua a depender de três peças: rapidez na verificação, processos claros (pessoais e nas organizações) e literacia mediática para reduzir o impacto do “vídeo-prova” que afinal não prova nada.

O que podemos fazer, de forma prática - mesmo sem um laboratório de alta tecnologia

Como é que alguém se protege num mundo em que até profissionais tropeçam? O primeiro passo, surpreendentemente eficaz, é simples: ganhar tempo. Não acreditar de imediato em clips “explosivos”, não reenviar mensagens de voz no calor do momento. Parar, respirar, confirmar fontes, fazer perguntas. Um segundo separador no navegador, por vezes, dá mais segurança do que uma firewall topo de gama.

Em casa e entre amigos, ajuda criar uma rotina básica: em temas sensíveis, usar sempre um segundo canal. Se o “chefe” pede dinheiro via WhatsApp, telefonar. Se um amigo “envia” algo absurdo, fazer uma chamada de voz. Muitos esquemas com deepfakes vivem do facto de ninguém querer fazer esta volta extra, chata e demorada. E sejamos realistas: quase ninguém cumpre isto todos os dias. É precisamente por isso que o golpe funciona tão bem.

No trabalho, sobretudo quando há dados sensíveis ou dinheiro envolvido, é essencial formalizar regras. Códigos internos que não fiquem registados no histórico de e-mail. Limites de valores que nunca são aprovados apenas por chat. E uma cultura onde desconfiar não é falta de lealdade - é profissionalismo.

“Estamos a aproximar-nos de um ponto em que já não será a autenticidade de um vídeo a ter de ser provada, mas sim a sua falsidade. Isso inverte o ónus da prova - com consequências drásticas para o jornalismo, a justiça e o nosso dia a dia”, afirma a especialista em ética dos media e perita em IA, Prof. Lena Hartwig.

Para não perder o chão neste cenário, uma checklist pessoal ajuda. Não substitui análise forense, mas trava o impulso de tomar tudo como verdade imediata:

  • Fazer uma “segundo de pausa” antes de reagir
  • Procurar pelo menos uma fonte independente
  • Verificar o contexto: quem partilha, e quem ganha com isso?
  • Usar um segundo canal de comunicação (telefonema, pergunta directa)
  • Registar a própria emoção: raiva, medo, satisfação - quase sempre são sinais de alarme

Quando a realidade fica “mole”: o que vem aí

Os deepfakes não vão desaparecer. Vão tornar-se mais discretos, mais refinados e mais omnipresentes. Um dia, talvez nem reparemos quantas vezes já nos cruzámos com eles. Um pouco como aconteceu com o Photoshop: no início, capas retocadas chocavam toda a gente; hoje mal levantamos a sobrancelha.

A diferença é simples: uma foto de férias manipulada fere o ego; um vídeo falso de “confissão” pode arruinar uma vida. Políticas, activistas e também trabalhadores comuns podem acabar a “aparecer” numa cena inventada. Não por serem famosos, mas porque incomodam alguém - ou porque o rosto, por acaso, encaixa bem no padrão de uma ferramenta de fraude.

Ao mesmo tempo, nasce uma reacção paradoxal: as pessoas deixam de acreditar em qualquer prova visual. Até evidências reais passam a ser contestadas. “Não sou eu, é um deepfake” tende a tornar-se uma frase habitual em escritórios de advogados. A verdade vira algo negociável, difuso, cansativo. Talvez tenhamos de reaprender em quem confiamos - e porquê. E talvez esta nova competência mediática não comece numa app, mas numa pergunta desconfortável que cada um tem de fazer: quando é que eu quero acreditar no que estou a ver?

Ponto-chave Detalhe Valor para o leitor
Salto exponencial nos deepfakes Ferramentas fáceis de usar criam vídeos e vozes altamente convincentes em minutos Percebe por que razão o “instinto” já não chega para avaliar autenticidade
Novos cenários de fraude e extorsão Chamadas falsas de CEO, chantagem com nudez falsa, clips noticiosos manipulados Identifica padrões de ataque e interpreta sinais de alerta mais depressa
Rotinas concretas de protecção Segundo canal, segundo de pausa, códigos internos, cepticismo consciente sem paranoia constante Fica com medidas práticas para se proteger e proteger quem o rodeia

FAQ

  • Pergunta 1: Como é que eu, como leigo, ainda consigo identificar um deepfake?
    Muitas vezes, não consegues com segurança. Alguns indícios podem ser: expressões faciais pouco naturais, transições estranhas junto à linha do cabelo, mãos ou orelhas ligeiramente deformadas, reflexos de luz inconsistentes. Ainda assim, só é realmente fiável quando confirmas a fonte, o contexto e verificas relatos independentes.

  • Pergunta 2: Os deepfakes são ilegais em Portugal?
    A tecnologia, por si só, não é automaticamente proibida. Torna-se ilegal quando viola direitos de personalidade, é usada para extorsão, difamação, burla ou causa danos comerciais. Nesses casos, aplicam-se leis já existentes, do direito de autor ao direito penal.

  • Pergunta 3: O que devo fazer se surgir um deepfake meu?
    Guardar tudo (capturas de ecrã, links, carimbos de data/hora), não decidir sozinho e procurar aconselhamento jurídico rapidamente. Denunciar na plataforma e, se fizer sentido, apresentar queixa às autoridades. Em paralelo, pedir apoio a familiares ou amigos para não lidar sozinho com a carga emocional.

  • Pergunta 4: As plataformas não conseguem simplesmente apagar todos os deepfakes automaticamente?
    Estão a desenvolver sistemas de detecção, mas isto é uma corrida ao armamento. Muitos falsos são tão bons que passam no meio de enormes volumes de conteúdo real. Além disso, alguns deepfakes têm intenção satírica ou artística, o que torna a moderação mais complexa.

  • Pergunta 5: Como explico este tema a crianças e adolescentes?
    Sem alarmismo, mas com clareza. Ver exemplos em conjunto, conversar sobre cenários do tipo “e se fosse contigo?”, e combinar regras simples: não enviar nudes, em caso de ameaças falar imediatamente com um adulto, e perante clips sensacionais perguntar sempre: “Quem quer que eu acredite nisto - e porquê?”

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário