A sala está fria, quase demasiado silenciosa para um lugar onde se caça o crime.
Três monitores tremeluzem na penumbra; num deles passa um vídeo: um presidente de câmara conhecido, supostamente a receber dinheiro de um suborno. Os lábios acompanham as palavras com precisão, as sombras caem no sítio certo, o piscar de olhos parece casual. Um jovem investigador faz zoom na imagem e sustém a respiração por um instante. Ao lado, alguém estala os dedos com nervosismo. Todos ali percebem o que está em jogo: se o vídeo fosse autêntico, uma cidade podia incendiar-se. Se for um deepfake, talvez seja um país inteiro.
Em cima da secretária há um papel com uma pergunta simples: “Verdadeiro ou falso?”
A discreta criação de uma unidade especial contra deepfakes
Num canto do comando, longe da estética habitual de luzes azuis e perseguições, está a ganhar forma uma unidade especial de que quase ninguém ouviu falar. Nada de balaclavas nem MP5: aqui há hoodies, headsets e canecas de café com piadas secas de informática. Não se persegue o ladrão do banco da esquina, mas o manipulador invisível do outro lado do ecrã.
Nos próximos anos, esta unidade pode tornar-se determinante no combate à extorsão por deepfake, a discursos de políticos adulterados e a imagens íntimas falsas de adolescentes. É uma equipa de “cybercops”, peritos forenses e analistas de dados que aprende a detetar, em milissegundos, sinais que ao olho humano parecem totalmente reais.
Quem os observa a trabalhar percebe depressa: isto não é ficção científica. É uma corrida contra o risco de a nossa perceção se partir de vez.
Há um caso que se conta repetidamente, dentro de portas, e que começa de forma aparentemente banal. Uma rapariga de 17 anos entra na esquadra com os pais, com o telemóvel a tremer-lhe na mão. Num grupo de chat da turma circula um vídeo que a mostra nua na casa de banho, filmada pela câmara que está ao lado do espelho. A voz, o rosto, as marcas na pele - tudo parece coincidir. Os pais ficam sem palavras; a direção da escola sente a pressão.
O processo vai parar a esta nova unidade. À primeira vista, o ficheiro parece uma gravação clandestina. Depois, o ambiente muda quando um especialista repara: “O reflexo na torneira não bate certo com os brilhos da luz.” De repente, toda a verdade depende de um pormenor minúsculo. Ao falar com a jovem, a rigidez vai cedendo devagar. Não houve “strip” às escondidas, nem traição. Foi um ataque deliberado com uma app de deepfake disponível para qualquer pessoa.
E histórias destas já não são exceção. Em várias regiões, forças policiais reportam internamente crescimentos a dois dígitos em ocorrências com ligação evidente a IA: tentativas de extorsão com falsos vídeos sexuais, “chamadas do chefe” extremamente convincentes para transferências de milhões, áudios forjados destinados a destruir famílias. A unidade especial transforma-se num filtro que separa, numa enxurrada de supostas provas, aquilo que se sustenta do que é pura encenação.
A verdade, dita sem dramatismo, é esta: quanto mais perfeitos ficam os deepfakes, menos vale o instinto.
A lógica por trás da unidade é implacavelmente simples: se os criminosos usam IA como ferramenta, a polícia precisa de uma ferramenta de resposta. Um agente de patrulha não pode, ao mesmo tempo, registar acidentes de viação, mediar conflitos de vizinhança e analisar artefactos de píxeis em vídeo. É preciso gente que fale a linguagem dos algoritmos com fluência.
Esta equipa trabalha com padrões, não com opiniões. Procura microdesfasamentos na expressão facial, sombras incoerentes, artefactos de compressão estranhos, brincos que “piscam”. Num vídeo normal, isso é irrelevante; num deepfake, pode ser precisamente o erro que denuncia tudo. Usam software forense que disseca imagem a imagem, frame a frame, e também um olhar treinado com centenas de exemplos.
Ao mesmo tempo, há um risco que não desaparece: se ninguém souber se um vídeo é real, surge o chamado “bónus do mentiroso” - tudo passa a poder ser posto em causa. Uma unidade que, de forma oficial, diz “este vídeo é autêntico, este não é”, torna-se uma espécie de instância da verdade. É isso que torna o trabalho tão sensível - e tão urgentemente necessário.
Como trabalha esta unidade especial de deepfakes - e o que podemos aprender com ela
No centro do dia a dia da equipa está uma rotina pouco glamorosa: duvidar de forma metódica. Vídeos novos que se tornam virais entram por canais de triagem dedicados. Os investigadores partem-nos em frames e fazem-nos passar por ferramentas que verificam direção do olhar, movimentos da pupila, faixas de áudio e metadados. Um colega explica assim: “Nós olhamos para um vídeo como um mecânico olha para um motor - não como um todo, mas peça a peça.”
Em paralelo, fazem um “teste de realidade”: a alegada intervenção aconteceu mesmo naquela sala? A roupa condiz com o evento? A hora indicada é compatível com a posição do sol? Daqui nasce uma lista de verificação que se vai cumprindo ponto por ponto. Não impressiona, mas funciona. E é provável que este tipo de procedimento estruturado se torne padrão em crimes cibernéticos de maior escala.
O curioso é que muitos destes pontos também podem ser usados por qualquer pessoa no quotidiano quando um vídeo “não bate certo” - apenas com mais lentidão e mais margem de dúvida.
Ao falar com quem está na unidade, percebe-se rapidamente um cansaço discreto. Eles sabem que correm atrás de uma onda. As ferramentas de deepfake melhoram todos os meses: ficam mais potentes, mais baratas, mais fáceis de operar. Onde antes eram precisas placas gráficas topo de gama, hoje chega um portátil comum e uma noite de processamento. Todos conhecemos aquele instante em que, num chat de família, aparece um “vídeo inacreditável” e hesitamos antes de o reenviar.
Vários investigadores admitem, sem rodeios, que se tornaram desconfiados por reflexo. Verificam vídeos de conferências de imprensa, de zonas de guerra, de escândalos de celebridades - mesmo quando não há motivo concreto. A confiança nas imagens digitais ficou rachada. E sejamos honestos: ninguém passa o dia inteiro a rever a sua timeline e a pôr tudo em causa. É precisamente nessa falha humana que os autores destes ataques entram.
A unidade tenta incorporar também este efeito psicológico. Por isso, desenvolve ações de formação para escolas, empresas e organismos públicos: como identificar padrões típicos de fraude? Que sinais devem acender alarmes? Onde se pode pedir verificação antes de reagir em excesso? Estes polícias acabam por ser professores improváveis para uma sociedade que ainda está a aprender o que significa “realidade sintética”.
Num workshop interno, um analista experiente resume assim:
“Os deepfakes não ameaçam apenas vítimas individuais. Eles atacam a nossa ideia comum do que ainda é possível provar.”
É exatamente aí que assenta a estratégia desta unidade, organizada em três níveis:
- Defesa imediata: verificar rapidamente se um vídeo em circulação é genuíno, evitando pânico, danos reputacionais ou decisões erradas.
- Esclarecimento a longo prazo: sensibilizar escolas, autarquias e empresas antes de existir prejuízo.
- Ofensiva técnica: desenvolver ou adquirir ferramentas próprias que procurem, de forma automatizada, vestígios de deepfake em grandes volumes de dados.
Os agentes sabem que, sozinhos, não vão erguer uma muralha perfeita. Mas podem garantir que os autores deixem de planear com a certeza silenciosa de que ninguém os vai desmascarar.
O que sobra quando já não podemos confiar em imagens?
No fim desta trajetória fica uma pergunta desconfortável: como se vive num mundo em que qualquer imagem pode ter sido manipulada? A unidade especial é uma tentativa de não cair no cinismo. A sua existência transmite uma mensagem discreta: não vamos abandonar o espaço digital sem resistência.
Ao mesmo tempo, torna-se evidente que isto não se resolve apenas com polícia. As plataformas têm de assinalar conteúdos deepfake, os meios de comunicação precisam de reforçar equipas próprias de verificação, e as escolas devem deixar de tratar a literacia mediática como assunto secundário. E nós, enquanto indivíduos, precisamos de “micro-rotinas” pessoais: pesquisar rapidamente antes de partilhar, confirmar se meios credíveis falaram do tema, reparar em detalhes estranhos, não acreditar em tudo só porque encaixa na nossa opinião.
A unidade pode vir a servir de modelo: para cooperação europeia, para normas comuns, para uma nova noção do que será uma prova em 2030. Talvez a expressão “prova em vídeo” acabe por soar tão ingénua como “mas deu na televisão”. Até lá, algures numa sala escura, há pessoas diante de monitores a tentar devolver-nos um pouco de certeza.
Se vão ganhar esta corrida? Ninguém sabe. Mas sem eles, no combate ao abuso de deepfakes, provavelmente já teríamos desistido há muito.
| Ponto-chave | Detalhe | Mais-valia para o leitor |
|---|---|---|
| Unidade especial como “filtro de verdade” | Análise de vídeos, áudios e imagens com ferramentas forenses e olhar treinado | Perceber por que razão a polícia precisa de novas estruturas para enfrentar deepfakes |
| Novas formas de criminalidade | Extorsão, difamação, discursos falsos, imagens íntimas sintéticas, fraude ao CEO com voz gerada por IA | Ter uma noção concreta dos riscos no dia a dia |
| Responsabilidade partilhada | Cooperação entre polícia, plataformas, media, escolas e utilizadores | Abordagem prática: o que a sociedade e cada pessoa pode fazer |
FAQ: Unidade especial e deepfakes
Pergunta 1 Como consigo, sendo leigo, perceber se um vídeo pode ser um deepfake?
Repara em padrões de pestanejo pouco naturais, sombras estranhas, contornos desfocados à volta do rosto, pequenos “glitches” em movimentos rápidos e ouve com atenção se áudio e movimentos dos lábios estão mesmo perfeitamente sincronizados.Pergunta 2 Posso ir diretamente à polícia com um caso suspeito?
Sim, sobretudo se estiveres a ser ameaçado, extorquido ou exposto de forma grave por causa de um vídeo. Guarda o material, faz capturas de ecrã da conversa e aponta quando e onde o encontraste.Pergunta 3 Já existem unidades especiais destas em todo o lado?
Ainda não de forma generalizada. Muitos países e regiões estão apenas agora a criar equipas especializadas em cibercrime, onde a forense de deepfakes deverá tornar-se uma prioridade.Pergunta 4 Os deepfakes são sempre ilegais?
Não. Existem usos legítimos, por exemplo no cinema, na publicidade ou em comunicação acessível. Torna-se ilegal quando há engano, extorsão, dano reputacional ou exploração sexual.Pergunta 5 O que posso fazer, de forma concreta, no dia a dia, para me proteger?
Não publiques fotos e vídeos teus sem critério, não envies imagens sensíveis, mantém ceticismo perante “vídeos-prova” bizarros, evita partilhas impulsivas e, em caso de dúvida, pede opinião a alguém de confiança ou a entidades oficiais.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário