Saltar para o conteúdo

Deepfakes em crescimento: Esta nova IA transforma qualquer rosto em vítima e espalha-se mais rápido do que nunca.

Pessoa a usar portátil com imagens de várias caras na tela e smartphone com videochamada numa mesa branca.

Pouco depois da meia-noite, o ecrã pisca e, no TikTok, aparece um vídeo de um conhecido apresentador alemão.

Ele está, aparentemente, sentado na sua cozinha, a falar para a câmara, e jura que subornou uma política muito famosa. Os comentários disparam, o clip é partilhado milhares de vezes, alguém faz uma captura de ecrã e envia para o grupo da família. Quase ninguém pára para pensar se aquilo pode sequer ser verdadeiro. No vídeo, o homem pisca os olhos, respira, solta uma gargalhada - tudo parece assustadoramente autêntico. Só na manhã seguinte se descobre a verdade: era um deepfake. Um gerador online, duas ou três fotografias, um pouco de texto. Feito. E é precisamente aí que começa o problema a sério.

Quando qualquer rosto passa a ser uma arma: o risco dos deepfakes

Todos reconhecemos aquele impulso imediato ao ver um vídeo e pensar: “Uau, isto tem de ser verdade, vê-se mesmo.” A nova vaga de ferramentas de deepfake foi desenhada para explorar exactamente esse reflexo. Hoje, basta-lhe muito pouco material - muitas vezes, um único selfie chega. O software trata do resto: ajusta rostos, replica vozes, encena emoções. A fasquia para “raptar” alguém no digital desceu praticamente a zero.

Há poucos anos, os deepfakes eram mais um passatempo de nicho em fóruns online. Agora, existem sites e aplicações onde se carrega uma cara e, em segundos, se obtém um vídeo quase indistinguível do real. Um conhecido start-up gabou-se recentemente de que a sua IA cria 500.000 avatares por dia. E um estudo nos EUA concluiu que o número de vídeos deepfake detectados na internet mais do que duplicou num único ano. Isto não é apenas estatística: são rostos, carreiras e relações que, no pior cenário, podem ficar em jogo.

A lógica é tão implacável quanto simples: quanto menor o esforço, mais rápida é a propagação. Quem quiser criar hoje um vídeo de vingança sexual (o chamado “pornografia de vingança”), um discurso falso de um político ou uma chamada fraudulenta em nome de um CEO já não precisa de software caro nem de experiência à Hollywood. Um portátil normal, uma ligação minimamente estável e um tutorial no YouTube bastam. E os modelos estão a evoluir de forma exponencial: quanto mais conteúdo “engolem”, melhor ficam; e quanto melhores ficam, mais pessoas os usam. É um ciclo que se acelera sozinho - sem travão.

Como te protegeres na era do deepfake (e reduzires a tua exposição)

A realidade, fria e directa, é esta: do ponto de vista técnico, não vais conseguir parar a onda. O que podes fazer, de forma activa, é diminuir a tua superfície de ataque. Vale a pena rever com atenção onde colocas o teu rosto em alta resolução. Fotografias de perfil públicas, imagens de férias com muita nitidez, retratos profissionais espalhados por várias plataformas - tudo isso pode servir de matéria-prima para geradores de deepfake. Um passo simples e eficaz: colocar perfis de redes sociais em “privado”, apagar imagens desnecessárias e rever álbuns antigos. Não por paranoia, mas por autoprotecção básica.

Sendo honestos: quase ninguém faz isto de forma consistente. Muitos de nós arrastamos pela internet contas antigas, com uma década, semi-esquecidas, e já nem sabemos com que e-mail foram criadas. É exactamente nesses cantos que as novas IAs de deepfake se “agarram”. Quem tem nome, em regra, tem fotografias acessíveis algures. E quem é visível torna-se um alvo mais fácil. Isso não significa que tenhas de desaparecer - significa, sim, que compensa seres mais consciente sobre que imagens tuas circulam e quão perto chegam da tua vida privada.

Além da gestão de fotografias, há um ponto frequentemente ignorado: a tua voz. Fraudes por chamada (ou mensagens de áudio) com “voz clonada” estão a crescer, e a melhor defesa é combinar antecipadamente regras simples com pessoas próximas e com o trabalho - por exemplo, confirmar pagamentos e pedidos urgentes por um segundo canal (telefonema para número conhecido, e-mail corporativo, ou confirmação presencial quando possível).

“Os deepfakes não são apenas um fenómeno técnico - são uma ferramenta de poder. Quem controla a tua cara, controla uma parte da tua identidade.” - investigadora fictícia de cibercrime, em conversa comigo

  • Verificar contas antigas e encerrar as que já não usas há anos
  • Partilhar fotografias com crianças ou momentos muito privados apenas em grupos fechados
  • Desconfiar quando surgem vídeos teus ou de conhecidos que “não batem certo” com o contexto
  • Combinar com família e amigos como agir perante conteúdos suspeitos
  • Manter a calma se fores afectado: não apagar tudo em pânico - guardar provas e procurar apoio

Um detalhe útil, sobretudo em Portugal: se fores alvo, documenta tudo e reporta rapidamente às plataformas. Em situações graves, pode fazer sentido pedir orientação jurídica e, quando aplicável, apresentar queixa. Mesmo quando o dano já circulou, a rapidez a recolher provas (links, data/hora, perfis, capturas de ecrã) pode fazer a diferença.

A grande questão por trás da próxima vaga de deepfakes

Quando qualquer rosto pode tornar-se um alvo, muda algo estrutural no dia-a-dia: a confiança naquilo que vemos. A geração dos nossos pais cresceu com a ideia de que “um vídeo não mente”. Estamos a entrar no inverso. Amanhã, um político faz um discurso verdadeiro; depois de amanhã, pode alegar que era deepfake. Uma influencer pode surgir num vídeo de escândalo e a comunidade vai ficar presa à dúvida: real ou falso? A verdade torna-se negociável, dependendo de quem grita mais alto ou tem mais alcance.

É aqui que a tecnologia ganha uma perigosidade nova. Não apenas porque pode destruir pessoas de forma directa - desde imagens íntimas falsas até vídeos usados para chantagem - mas porque corrói a nossa realidade partilhada. Se tudo puder ser manipulado, nada parece totalmente seguro. Quem sai a ganhar? Sobretudo quem precisa de confusão: grupos radicais, campanhas de desinformação, certas correntes políticas. E, claro, criminosos que transformam a incerteza em dinheiro. A tecnologia avança a grande velocidade enquanto leis, escolas e instituições ainda estão a tentar sair do ponto de partida.

Talvez seja exactamente agora que precisamos de reactivar uma competência aparentemente antiquada: dúvida saudável. Não acreditar por impulso. Confirmar fontes. Perguntar directamente: “És mesmo tu?” Parece básico, quase ingénuo. Mas, na rotina entre estados de WhatsApp, Reels do Instagram e fóruns no Telegram, isso acontece pouco. Vivemos depressa, estamos sempre ligados, partilhamos sem parar. Abrandar pode ser o gesto mais radical - porque quem acredita mais devagar é mais difícil de manipular.

Ponto central Detalhe Valor para o leitor
Os deepfakes melhoram de forma exponencial Novos modelos de IA precisam de poucas fotos e aprendem a partir de milhares de milhões de imagens Compreender por que razão hoje é mais fácil abusar do teu rosto do que há poucos anos
Cada rasto público é matéria-prima Perfis abertos, contas antigas e imagens em alta resolução fornecem dados de treino ideais Motivação concreta para rever a tua presença online e geri-la com mais intenção
A confiança torna-se um recurso escasso A verdade na internet torna-se negociável e vídeos reais e falsos misturam-se Pistas práticas para reagir com cepticismo saudável e regras claras no teu círculo

Perguntas frequentes (FAQ)

  • Como reconheço um deepfake no dia-a-dia?
    Muitas falsificações deixam pequenas pistas: pestanejar estranho, sombras incoerentes, contornos do rosto mal recortados, dentes ou orelhas “esquisitos”. O áudio também pode parecer ligeiramente fora de sincronização. Se o vídeo for altamente emocional, escandaloso e vier apenas de uma fonte, compensa fazer uma pesquisa rápida antes de acreditar - ou de partilhar.

  • Dá para criar um deepfake a partir de um único selfie?
    Com ferramentas actuais, sim, em muitos casos. Quanto melhor a iluminação e maior a resolução do selfie, mais fácil é o abuso. Para falsos especialmente convincentes, ajuda ter várias imagens ou pequenos clips, mas a barreira de entrada já é surpreendentemente baixa mesmo com pouco material.

  • O que faço se aparecer um deepfake meu?
    Guarda provas (capturas de ecrã, links, data e hora) e evita apagar tudo de forma precipitada. Depois, procura aconselhamento jurídico - por exemplo, através de um advogado ou serviços de apoio especializados. As plataformas podem ser instadas a remover conteúdos e, nos casos mais sérios, pode haver lugar a queixa por ofensa à honra, difamação ou violação de direitos de personalidade.

  • Todos os vídeos gerados por IA são perigosos?
    Não. Esta tecnologia também é usada de forma criativa e útil: cinema, publicidade, dobragens, acessibilidade. O problema surge quando pessoas reais são usadas sem consentimento - sobretudo em contextos sexualizados ou políticos. É o contexto que decide se algo inocente se transforma numa arma.

  • Como sensibilizo a minha família sem criar pânico?
    Fala abertamente, mostra exemplos e explica que os falsos podem ser muito convincentes. Combinem regras simples: não reenviar “vídeos de escândalo” de imediato, confirmar suspeitas contactando directamente a pessoa, e incentivar crianças e adolescentes a dizerem algo se virem conteúdo estranho. Informação protege mais do que medo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário