Saltar para o conteúdo

Unidade especial da polícia: Esta equipa pode ser crucial no combate ao abuso de deepfakes.

Polícias analisam imagens de rosto real e deepfake num ecrã de computador numa sala de operações digitais.

O gabinete está frio, e há um silêncio quase desconfortável para um lugar onde se caça crime.

Três monitores iluminam a penumbra com um brilho intermitente. Num deles, corre um vídeo: um presidente de câmara conhecido surge, alegadamente, a receber dinheiro de um suborno. A boca parece acompanhar cada palavra, as sombras caem no sítio certo, o piscar de olhos parece espontâneo. Um investigador jovem amplia a imagem e prende a respiração por um instante. Ao lado, alguém estala os dedos, nervoso. Todos ali percebem o que está em jogo: se for verdadeiro, uma cidade pode incendiar-se em horas. Se for um deepfake, o efeito dominó pode atingir um país inteiro.

Em cima da secretária, um papel com uma pergunta simples - e brutal: “Autêntico ou falsificado?”

A nascente silenciosa de uma nova unidade especial anti-deepfake da polícia

Longe do imaginário habitual das sirenes e das rusgas, começa a ganhar forma uma unidade especial que quase ninguém conhece. Não há passamontanhas nem sub-metralhadoras; há hoodies, headsets e canecas de café com piadas secas de informática. Aqui não se persegue o assaltante na esquina: persegue-se o manipulador invisível do outro lado do ecrã.

Nos próximos anos, este tipo de equipa pode tornar-se decisivo para travar chantagem com deepfakes, discursos políticos adulterados e imagens íntimas sintéticas usadas para humilhar adolescentes. É um grupo onde ciberpolícias, peritos de forense digital e analistas de dados aprendem a ler, em milésimos de segundo, aquilo que ao olhar humano parece impecavelmente real.

Quem os vê trabalhar percebe rapidamente: isto não é ficção científica. É uma corrida para impedir que a nossa perceção - e a confiança no que vemos - se desfaça por completo.

Um caso que parecia óbvio - até um detalhe virar tudo do avesso

Uma história repetida muitas vezes internamente começa de forma aparentemente “simples”. Uma jovem de 17 anos chega à esquadra com os pais, telemóvel a tremer-lhe nas mãos. Num grupo de chat da turma circula um vídeo onde ela aparece nua numa casa de banho, como se tivesse sido filmada às escondidas por uma câmara colocada junto ao espelho. A voz é dela, o rosto coincide, até as marcas na pele parecem bater certo. Os pais ficam em choque; a direção da escola entra em pressão total.

O caso é encaminhado para a nova unidade. À primeira vista, o ficheiro parece uma gravação clandestina. Depois, o ambiente na sala muda quando um dos especialistas aponta um pormenor minúsculo: “O reflexo no cromado da torneira não corresponde aos reflexos de luz no resto da divisão.” De repente, aquela pequena inconsistência passa a sustentar toda a verdade.

Na conversa seguinte com a jovem, a rigidez começa a ceder. Não houve “traição”, nem vídeo real roubado. Houve, sim, um ataque direcionado com uma aplicação de deepfake de acesso fácil, feita para produzir humilhação - e pânico.

A nova vaga de crime: extorsão, fraude e rutura familiar com “provas” fabricadas por IA

Casos destes já não são raridades. Em várias regiões, as autoridades reportam internamente aumentos expressivos de ocorrências com sinais claros de inteligência artificial: tentativas de extorsão com falsos vídeos sexuais, chamadas de “chefia” hipercredíveis para forçar transferências de elevado valor (CEO fraud com voz sintética), e áudios manipulados concebidos para criar conflitos dentro de famílias.

Neste cenário, a unidade especial passa a funcionar como um filtro de veracidade: separa, no meio da avalanche de “provas” digitais, o que é sustentado por factos - do que é pura encenação.

A conclusão, por mais desconfortável que seja, é simples: quanto mais perfeitos forem os deepfakes, menos serve o instinto.

Porque a polícia precisa de um “contra-ferramenta” para a IA

A lógica por trás desta unidade é dura e direta: se os criminosos usam IA como ferramenta, a polícia precisa de uma ferramenta de resposta. Um agente de patrulha não pode, ao mesmo tempo, registar um acidente de viação, mediar um conflito de vizinhança e analisar artefactos de compressão num vídeo. Para isso, são necessários profissionais que entendam, de forma fluente, a linguagem dos algoritmos.

Esta equipa trabalha com padrões, não com opiniões. Procura microdessincronizações na mímica, sombras incoerentes, contornos estranhamente desfocados, artefactos de compressão, cintilações em brincos e detalhes que num vídeo normal seriam irrelevantes - mas num deepfake podem ser o erro que denuncia tudo. Usam software forense que disseca o conteúdo fotograma a fotograma, e um olhar treinado em centenas de exemplos.

Ao mesmo tempo, há um risco que cresce: se ninguém souber dizer com confiança se um vídeo é real, instala-se o chamado “bónus do mentiroso” - tudo se torna contestável. Uma unidade que diga oficialmente “isto é autêntico” ou “isto é falso” transforma-se, na prática, numa instância de verdade. É precisamente por isso que o seu trabalho é tão sensível - e tão urgente.

Como a unidade especial faz a verificação - e o que qualquer pessoa pode aprender com o método

O coração do trabalho pode parecer pouco glamoroso: duvidar de forma metódica. Vídeos que começam a circular em massa entram por canais dedicados. A equipa separa o conteúdo em fotogramas, passa-o por ferramentas que verificam direção do olhar, movimentos da pupila, pistas no áudio e metadados. Um investigador descreve assim: “Nós analisamos um vídeo como um mecânico analisa um motor - não como um bloco, mas peça a peça.”

Em paralelo, há um “teste de realidade” baseado em contexto:

  • A alegada intervenção ocorreu mesmo naquela sala?
  • A roupa condiz com a cerimónia e com as imagens públicas do evento?
  • A hora indicada faz sentido com a posição do sol e as sombras?
  • Há registos independentes (agenda pública, transmissões, testemunhos) que confirmem o momento?

Desta triangulação nasce uma checklist que é cumprida passo a passo. Não é espetacular - mas é eficaz. E é plausível que este tipo de protocolo se torne procedimento-padrão em investigações de maior dimensão ligadas a cibercrime.

O mais interessante é que vários destes pontos podem ser aplicados por qualquer pessoa no dia a dia quando um vídeo “soa” estranho - apenas com mais lentidão e com maior margem de dúvida.

A corrida tecnológica e o desgaste do nosso olhar

Quem conversa com pessoas desta unidade sente, cedo, um cansaço contido. Eles sabem que estão a correr atrás de uma onda. As ferramentas de deepfake ficam todos os meses melhores, mais baratas e mais simples de usar. Onde antes eram necessárias placas gráficas de topo, hoje um portátil comum e uma noite de processamento podem chegar para produzir algo convincente.

É o mesmo dilema que todos já sentimos: chega ao chat da família um “vídeo inacreditável” e surge aquele segundo de hesitação antes de o reenviar.

Muitos investigadores admitem que também eles se tornaram, por reflexo, mais desconfiados. Revêem vídeos de conferências de imprensa, de zonas de guerra, de escândalos mediáticos - mesmo quando não há motivo concreto. A confiança na imagem digital ficou rachada. E, sendo honestos, ninguém percorre todos os dias a sua timeline a verificar tudo. É nessa falha humana que os autores destes ataques entram.

Por isso, a unidade tenta integrar o fator psicológico na estratégia. Cria ações de formação para escolas, empresas e entidades públicas:

  • como reconhecer padrões típicos de fraude,
  • que sinais devem levantar suspeitas,
  • a quem pedir ajuda antes de reagir de forma precipitada,
  • e como preservar prova sem agravar danos.

Os polícias acabam por desempenhar um papel inesperado: professores improvisados para uma sociedade que está a aprender, em tempo real, o que significa viver com “realidade sintética”.

“Os deepfakes não atingem apenas vítimas individuais. Eles atacam a nossa ideia comum do que ainda é comprovável.”

É com esta premissa que a unidade organiza o trabalho em três frentes:

  • Defesa imediata: verificar rapidamente se um vídeo que circula é verdadeiro, para evitar pânico, danos reputacionais ou decisões erradas.
  • Prevenção e literacia: sensibilizar escolas, autarquias e empresas antes de o prejuízo acontecer.
  • Ofensiva técnica: desenvolver ou adquirir ferramentas que procurem automaticamente vestígios de deepfake em grandes volumes de dados.

Eles sabem que não existe uma muralha perfeita. Mas podem retirar aos atacantes a certeza confortável de que ninguém os conseguirá desmascarar.

O que acontece quando já não podemos confiar em imagens?

No fim desta trajetória há uma pergunta incómoda: como se vive num mundo onde qualquer imagem pode ser manipulada? A existência desta unidade é uma tentativa de não cair no cinismo. É uma mensagem silenciosa: o espaço digital não será abandonado sem resposta.

Ao mesmo tempo, fica evidente que isto não se resolve apenas com polícia. Plataformas têm de rotular conteúdos manipulados e reduzir a viralidade de material suspeito; redações precisam de reforçar equipas de verificação; escolas devem tratar literacia mediática como competência central, não como tema lateral. E nós, individualmente, precisamos de micro-rotinas simples: pesquisar antes de partilhar, procurar confirmação em fontes credíveis, desconfiar de detalhes inconsistentes e resistir ao impulso de acreditar só porque a narrativa encaixa nas nossas opiniões.

Um capítulo novo: provas digitais, tribunais e regras do jogo em Portugal e na União Europeia

À medida que deepfakes se tornam comuns, cresce também a pressão sobre a forma como prova digital é recolhida, preservada e apresentada. Em Portugal - tal como no resto da União Europeia - ganha importância a cadeia de custódia, a documentação da origem do ficheiro e a validação técnica por peritos, especialmente quando uma gravação pode destruir reputações, influenciar eleições locais ou sustentar decisões judiciais.

Em paralelo, iniciativas europeias de regulação e transparência em IA e a aplicação consistente de regras de proteção de dados tornam-se peças do mesmo puzzle: não para “impedir” tecnologia, mas para tornar mais claro quem cria, distribui e beneficia de conteúdos manipulados.

A próxima linha de defesa: “proveniência” e marcas de autenticidade

Além da análise forense, começam a ganhar espaço soluções de proveniência de conteúdo: assinaturas criptográficas na captura, registos de edição e mecanismos de verificação na publicação. Se câmaras, telemóveis e meios de comunicação conseguirem anexar sinais verificáveis de origem e integridade, a pergunta “E se for falso?” deixa de depender apenas de intuição - e passa a ter, pelo menos em parte, um caminho técnico para resposta.

Nada disto elimina o risco. Mas pode devolver previsibilidade ao ecossistema: menos boatos com aparência de prova e mais responsabilidade na cadeia de publicação.

A unidade especial pode vir a ser uma base de cooperação europeia, ajudando a definir padrões comuns e a repensar o que significa “prova em vídeo” em 2030. Talvez um dia a expressão “está provado porque está em vídeo” soe tão ingénua como “mas deu na televisão”. Até lá, algures numa sala escura, há pessoas diante de monitores a tentar devolver-nos um pouco de certeza.

Se vão ganhar esta corrida? Ninguém sabe. Mas sem estas equipas, o combate ao abuso de deepfakes provavelmente já teria sido abandonado há muito.

Ponto-chave Detalhe Benefício para o leitor
Unidade especial como “filtro de verdade” Análise de vídeos, áudios e imagens com ferramentas forenses e observação treinada Perceber porque a polícia precisa de novas estruturas contra deepfakes
Novas formas de criminalidade Extorsão, difamação, discursos falsos, nudez sintética, fraude ao estilo “chamada do chefe” com voz gerada por IA Ter uma noção concreta dos riscos no quotidiano
Responsabilidade partilhada Cooperação entre polícia, plataformas, meios de comunicação, escolas e utilizadores Abordagem prática: o que a sociedade e cada pessoa podem fazer

FAQ

  • Pergunta 1: Como posso, como leigo, suspeitar que um vídeo pode ser um deepfake?
    Repara em piscadelas pouco naturais, sombras incoerentes, contornos desfocados à volta do rosto, pequenos “soluços” em movimentos rápidos e, sobretudo, ouve com atenção: o áudio e o movimento dos lábios coincidem mesmo de forma perfeita?

  • Pergunta 2: Posso ir diretamente à polícia com um caso suspeito?
    Sim - especialmente se estiveres a ser ameaçado, extorquido ou exposto de forma grave. Guarda o material, faz capturas de ecrã das conversas e anota quando e onde encontraste o conteúdo.

  • Pergunta 3: Já existem estas unidades especiais em todo o lado?
    Ainda não de forma generalizada. Muitos países e várias regiões estão a criar equipas especializadas de cibercrime, onde a forense de deepfakes tende a tornar-se uma prioridade.

  • Pergunta 4: Os deepfakes são sempre ilegais?
    Não. Há usos legítimos no cinema, na publicidade ou em comunicação acessível. Torna-se ilegal quando envolve engano para obter vantagens, extorsão, difamação, dano reputacional ou exploração sexual.

  • Pergunta 5: O que posso fazer, na prática, para me proteger no dia a dia?
    Evita publicar imagens e vídeos pessoais sem critério, não envies conteúdos sensíveis, mantém ceticismo perante “vídeos-prova” demasiado convenientes, não partilhes por impulso e, em caso de dúvida, pede ajuda a alguém de confiança ou a entidades oficiais.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário