Saltar para o conteúdo

Usar IA no dia a dia não basta para detectar imagens deepfakes: a ciência já provou

Pessoa a analisar retratos no portátil enquanto faz desenhos de rostos num caderno à mesa de madeira.

Um comboio é travado de emergência em Inglaterra.

Uma fotografia de um suposto desastre torna-se viral. Só mais tarde alguém se apercebe: aquela cena nunca aconteceu.

À medida que a inteligência artificial (IA) consegue gerar imagens cada vez mais verosímeis, governos, empresas e utilizadores comuns procuram formas de distinguir o que é autêntico do que foi fabricado. Um estudo recente, no entanto, vem travar o optimismo de que “educar o olhar” ou conviver diariamente com IA seja suficiente para resolver o problema dos deepfakes.

Quando uma fotografia inventada consegue parar comboios reais

Na madrugada de 3 de Dezembro de 2025, um sismo atinge Lancaster, no noroeste de Inglaterra. Pouco depois, começa a circular nas redes sociais a imagem de uma ponte ferroviária destruída. O retrato é tão convincente que a operadora britânica opta por interromper o tráfego, por precaução.

O efeito é imediato: 32 comboios ficam imobilizados. Há passageiros retidos em estações e ligações desorganizadas. As perdas somam milhares de libras. Horas depois surge a confirmação: a ponte não sofreu danos - estava intacta. A fotografia era sintética, gerada por IA.

À primeira vista, poderia parecer apenas uma falha de decisão num contexto de stress. Mas o caso revela algo mais estrutural: uma única imagem falsa, rica em pormenores e com aparência credível, bastou para influenciar escolhas críticas em tempo real.

As linhas que separavam o real da simulação tornaram-se tão ténues que uma só imagem plausível já consegue mexer com rotas, orçamentos e decisões de segurança.

O que a ciência apurou sobre identificar rostos falsos (deepfakes) gerados por IA

Situações como a de Lancaster levaram investigadores do Departamento de Psicologia da Universidade Vanderbilt, nos Estados Unidos, a perguntar por que motivo algumas pessoas detectam deepfakes com relativa facilidade, enquanto outras são enganadas repetidamente por armadilhas visuais.

Para isso, desenvolveram um teste dedicado, o “AI Face Test”. A lógica era directa: avaliar a capacidade de voluntários em separar rostos reais de rostos gerados por IA e, depois, relacionar esse desempenho com outras competências cognitivas.

Usar IA todos os dias não significa estar mais protegido

Os resultados contrariam o que muita gente assume. A utilização frequente de ferramentas de IA não tornou os participantes mais eficazes a reconhecer imagens falsas. Um QI elevado também não foi decisivo. E nem a experiência profissional em reconhecimento facial se destacou como factor determinante.

O melhor indicador de sucesso foi outro: a competência de reconhecer objectos em geral. Quem é muito bom neste tipo de tarefas tende a detectar pequenas incoerências em imagens sintéticas - “ruído visual” subtil, artefactos e irregularidades que raramente aparecem numa fotografia verdadeira.

De acordo com o estudo, a aptidão para reparar em diferenças mínimas em qualquer tipo de objecto está fortemente associada à capacidade de assinalar rostos criados por IA.

Na prática, os autores salientaram três pontos centrais:

  • A capacidade geral de reconhecimento de objectos foi o melhor preditor do desempenho na detecção de faces falsas.
  • Quem teve bons resultados manteve-os em avaliações posteriores, o que sugere um traço estável e repetível.
  • Treinos técnicos curtos não produziram melhorias relevantes na performance média.

Uma competência mais próxima de “talento visual” do que de formação técnica

Os investigadores descrevem esta aptidão como uma competência visual ampla, em grande parte inata. Não é algo que se obtenha apenas com cursos de tecnologia, nem apenas por “habituar os olhos” a deepfakes.

Aliás, trabalhos anteriores já tinham ligado esta competência a tarefas muito diferentes entre si, onde a precisão visual faz a diferença:

Tarefa Como a competência visual entra em jogo
Identificação de nódulos em radiografias ao tórax Distinguir padrões muito subtis nos tecidos pulmonares
Classificação de células sanguíneas como cancerígenas Detectar alterações mínimas em formas e texturas celulares
Leitura de notação musical complexa Reconhecer símbolos variados e as suas relações em pouco tempo
Determinar o sexo a partir de imagens da retina Interpretar detalhes visuais pouco evidentes para um leigo

Em todos estes contextos, quem consegue discriminar objectos com grande exactidão tende a destacar-se. O estudo sobre deepfakes faciais encaixa no mesmo padrão.

Nem toda a gente enfrenta o mesmo risco perante a desinformação visual

Os investigadores sublinham um aspecto delicado: as capacidades variam muito de pessoa para pessoa. Há indivíduos que quase não conseguem distinguir um rosto real de um rosto sintético. Outros acertam com uma consistência surpreendente. E existe ainda um grande grupo intermédio que acerta muitas vezes, mas falha noutras.

Isto conduz a uma conclusão incómoda: duas pessoas com o mesmo grau de escolaridade, acesso às mesmas notícias e às mesmas aplicações podem ter níveis de vulnerabilidade muito diferentes quando confrontadas com desinformação visual.

Uma parte da população - mesmo informada e instruída - tende a confiar repetidamente em imagens falsas por limitações na percepção de pormenores.

Para políticas públicas e para plataformas digitais, isto implica que campanhas genéricas de “literacia mediática” podem ter impacto limitado se ignorarem diferenças individuais de percepção.

IA não é, por si só, um antídoto automático contra IA

Há quem aposte que a resposta estará em usar tecnologia para vigiar tecnologia: filtros automáticos, detectores de deepfake e verificação em larga escala. Estas soluções ajudam, mas o estudo aponta para um limite desconfortável dessa expectativa.

Mesmo quem trabalha diariamente com IA não fica automaticamente mais apto a identificar imagens enganadoras. A familiaridade com aplicações de geração de imagem, por exemplo, não se revelou um “escudo” fiável.

Isto sugere que delegar a validação apenas em utilizadores “muito tecnológicos” pode ser frágil. Pode haver especialistas brilhantes em dados que não têm o mesmo “olho” que um bom patologista ou um músico com treino visual apurado.

Riscos práticos: da política ao atendimento clínico

Se uma parte da população é mais vulnerável a nível visual, alguns sectores ficam sob maior pressão. Em períodos eleitorais, fotografias fabricadas de candidatos em situações comprometedoras podem ganhar tracção em grupos onde a maioria não detecta sinais de manipulação. Em crises climáticas ou desastres, imagens de pontes a ruir ou edifícios em chamas podem gerar pânico e desencadear decisões precipitadas.

Na saúde, o risco é ainda mais sensível. A IA já é usada para criar imagens médicas sintéticas com o objectivo de treinar algoritmos. Misturar por engano - ou por intenção maliciosa - imagens reais e artificiais em contextos clínicos pode abrir espaço a diagnósticos equivocados. Profissionais com maior acuidade visual tendem a identificar discrepâncias; outros poderão não o conseguir.

Conceitos que vale a pena esclarecer

Há dois termos muito presentes nestas discussões e que frequentemente geram confusão.

O que é, na prática, um deepfake de imagem

Um deepfake é conteúdo visual ou áudio criado ou alterado com técnicas avançadas de IA, normalmente com redes neuronais profundas. No caso das fotografias, o objectivo é construir rostos e cenas que parecem captados por uma câmara, mas que nunca ocorreram. Actualmente, os geradores conseguem produzir expressões faciais credíveis, textura de pele realista e cenários com iluminação coerente.

Os indícios de falsificação tornaram-se mais discretos: falhas em reflexos, detalhes estranhos em jóias, transições pouco naturais entre cabelo e fundo, ou artefactos em zonas menos óbvias da imagem. Quem tem forte capacidade de reconhecimento de objectos tende a reparar mais depressa nesses deslizes.

O que significa “reconhecimento de objectos” neste contexto

No estudo, “reconhecimento de objectos” não é uma funcionalidade de uma aplicação, mas sim uma capacidade humana: identificar rapidamente formas, padrões, texturas e relações espaciais em imagens variadas. Um exemplo simples seria distinguir várias espécies de aves ao ver fotografias rápidas, ou detectar defeitos pequenos em placas electrónicas.

Esta aptidão combina percepção visual fina, atenção ao detalhe e velocidade de análise. Pessoas com desempenho elevado frequentemente sentem que “há algo errado” numa imagem, mesmo antes de conseguirem explicar exactamente o quê.

Cenários futuros: testes de visão digital, equipas mistas e prova de autenticidade

Com a disseminação de deepfakes, é plausível que empresas e entidades públicas venham a adoptar algo semelhante a um “teste de visão digital”. Se determinadas decisões dependem de avaliar imagens ou vídeos suspeitos, pode fazer sentido criar equipas com pessoas cuja aptidão tenha sido medida de forma objectiva.

Outra via é usar resultados de testes como o AI Face Test para melhorar detectores automáticos: perceber que padrões são identificados por humanos com alto desempenho e tentar convertê-los em critérios computacionais úteis.

Também é provável que ganhe peso uma abordagem complementar: proveniência e contexto, e não apenas “olhar para a imagem”. Soluções como metadados verificáveis, assinaturas criptográficas e padrões de credenciais de conteúdo (cada vez mais discutidos por indústria e reguladores) podem ajudar a confirmar onde e quando um ficheiro foi criado e se foi alterado.

Para o público em geral, a resposta mais realista passa por combinar hábitos: desconfiar de imagens demasiado convenientes, procurar confirmação em várias fontes, dar prioridade a conteúdos com contexto verificável e, sempre que possível, evitar decisões baseadas numa única fotografia “explosiva”. Num mundo em que nem todos detectam as mesmas falhas, criar camadas de verificação torna-se uma prática de rotina - não um exagero.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário