Um comboio é imobilizado de emergência em Inglaterra.
A fotografia de um alegado desastre espalha-se e torna-se viral. Só mais tarde alguém repara no essencial: aquela cena nunca aconteceu.
À medida que a inteligência artificial (IA) consegue produzir imagens cada vez mais plausíveis, governos, empresas e utilizadores comuns procuram formas de distinguir o que é autêntico do que foi fabricado. Um estudo recente, no entanto, arrefece a expectativa de que “treinar o olhar” - ou simplesmente usar IA todos os dias - seja suficiente para resolver o problema dos deepfakes.
Quando uma fotografia falsa manda parar comboios reais
Na madrugada de 3 de dezembro de 2025, um sismo atinge Lancaster, no noroeste de Inglaterra. Pouco depois, começa a circular nas redes sociais uma imagem de uma ponte ferroviária destruída. A fotografia é tão credível que a operadora britânica opta por suspender a circulação por precaução.
O resultado é imediato: 32 comboios ficam parados, passageiros retidos em estações e um impacto financeiro de milhares de libras. Horas mais tarde, confirma-se o erro: a ponte estava intacta. A imagem era sintética, gerada por IA.
O caso podia ser reduzido a uma falha operacional. Mas revela algo mais estrutural: bastou uma imagem falsa, com pormenores bem “renderizados”, para influenciar decisões críticas em tempo real.
As fronteiras entre o real e a simulação tornaram-se tão ténues que uma única imagem convincente já consegue mudar rotas, orçamentos e decisões de segurança.
O que a ciência apurou sobre detetar rostos falsos (deepfakes) com o AI Face Test
Situações como esta levaram investigadores do Departamento de Psicologia da Universidade Vanderbilt (EUA) a perguntar por que motivo algumas pessoas parecem identificar deepfakes com facilidade, enquanto outras falham repetidamente perante armadilhas visuais.
Para testar isso, criaram uma prova específica, o AI Face Test. A ideia foi direta: medir a capacidade de voluntários para distinguir rostos reais de rostos gerados por IA e relacionar esse desempenho com outras competências cognitivas.
Usar IA no quotidiano não o torna automaticamente mais “imune”
Os resultados contrariam a intuição popular. A utilização frequente de ferramentas de IA não melhorou, por si só, o desempenho na identificação de imagens falsas. Um QI mais elevado também não foi decisivo. Nem mesmo a experiência profissional em tarefas de reconhecimento facial se destacou como fator determinante.
O melhor preditor foi outro: a aptidão para reconhecimento de objetos em geral. Pessoas fortes neste tipo de tarefas tendem a apanhar microincoerências em imagens sintéticas - pequenos “ruídos visuais” e irregularidades que raramente surgem em fotografias reais.
Segundo o estudo, a capacidade de reparar em detalhes subtis em qualquer tipo de objeto está, de forma robusta, associada à aptidão para apontar rostos gerados por IA.
Na prática, os investigadores sublinharam três pontos:
- A competência geral de reconhecimento de objetos foi o indicador mais consistente de bom desempenho na deteção de faces falsas.
- Quem teve bons resultados manteve-os quando voltou a ser testado, sugerindo um traço relativamente estável.
- Formações técnicas curtas não produziram melhorias expressivas na performance média.
Mais “talento visual” do que certificado técnico
Os autores descrevem esta capacidade como uma competência visual ampla e, em grande medida, inata. Não é algo que se adquira apenas com cursos de tecnologia, nem apenas por exposição repetida a deepfakes - como se bastasse habituar o olhar.
Essa mesma competência visual já tinha sido associada, em estudos anteriores, a tarefas bastante diferentes entre si:
| Tarefa | Como a competência visual influencia |
|---|---|
| Identificação de nódulos em radiografias ao tórax | Distinguir padrões muito subtis nos tecidos pulmonares |
| Classificação de células do sangue como cancerígenas | Detetar alterações minúsculas em formas e texturas celulares |
| Leitura de notação musical complexa | Reconhecer rapidamente símbolos diversos e as suas relações |
| Determinar o sexo a partir de imagens da retina | Interpretar detalhes visuais pouco evidentes para leigos |
Em todas estas áreas, destaca-se quem consegue discriminar objetos com grande precisão. A deteção de deepfakes faciais parece seguir a mesma lógica.
Nem toda a gente enfrenta o mesmo risco de desinformação visual
Um ponto sensível do estudo é a variabilidade entre pessoas. Há quem tenha enorme dificuldade em notar diferenças entre um rosto real e um sintético. No extremo oposto, há quem acerte com consistência notável. Entre ambos, existe uma larga faixa de pessoas que acerta muitas vezes, mas falha noutras.
Isto conduz a uma conclusão desconfortável: duas pessoas com o mesmo grau de escolaridade, acesso às mesmas notícias e às mesmas aplicações podem ter vulnerabilidades muito diferentes perante desinformação visual.
Uma parte da população, mesmo instruída, tende a confiar repetidamente em imagens falsas, simplesmente por limitações na perceção de detalhes visuais.
Para políticas públicas e plataformas digitais, a implicação é clara: campanhas genéricas de “literacia mediática” podem ficar aquém se ignorarem diferenças individuais de perceção.
IA não é, por definição, antídoto automático contra IA
É comum assumir-se que a solução passará por “mais tecnologia” a vigiar a própria tecnologia: filtros automáticos, detetores de deepfakes, verificação em massa. Estas ferramentas ajudam - mas o estudo expõe um limite importante dessa esperança.
Mesmo quem trabalha com IA diariamente não é, por isso, melhor a reconhecer imagens enganadoras. A familiaridade com aplicações de geração de imagem, por exemplo, não se mostrou um escudo fiável.
Isto sugere que delegar a validação apenas em utilizadores “muito tecnológicos” pode ser frágil. Pode haver especialistas de dados brilhantes que, ainda assim, não têm o mesmo “olho” que um patologista experiente ou um músico treinado, por exemplo.
Riscos práticos: da política à medicina
Se uma parte da população é mais vulnerável a este tipo de ilusão visual, alguns setores ficam sob pressão acrescida. Em eleições, fotografias fabricadas de candidatos em contextos comprometores podem circular com força em grupos onde poucos detetam sinais de manipulação. Em crises climáticas ou catástrofes, imagens de pontes a colapsar ou edifícios em chamas podem gerar pânico e decisões precipitadas.
Na saúde, o cenário é ainda mais delicado. A IA já é usada para criar imagens médicas sintéticas com fins de treino de algoritmos. Se, por erro ou má-fé, imagens reais e artificiais forem misturadas em contextos clínicos, abre-se espaço para diagnósticos confusos. Profissionais com maior capacidade de reconhecimento de objetos podem detetar inconsistências; outros, nem por isso.
Um risco adicional, frequentemente subestimado, é o efeito “primeira impressão”: quando uma imagem forte chega primeiro, tende a fixar-se na memória, mesmo após desmentidos. Por isso, a mitigação não depende só de detetar falsos - depende também de reduzir a velocidade de propagação e de introduzir fricção (por exemplo, avisos, contexto e pausas antes de partilhar).
Conceitos importantes para acompanhar o debate
Dois termos surgem repetidamente e nem sempre são claros.
O que é, na prática, um deepfake de imagem
Deepfake é conteúdo visual (ou áudio) criado ou alterado com técnicas avançadas de IA, tipicamente redes neuronais profundas. No caso das fotografias, o objetivo é gerar rostos e cenas que pareçam captados por uma câmara, embora nunca tenham existido. Hoje, os geradores conseguem produzir expressões faciais convincentes, texturas realistas de pele e cenários com iluminação coerente.
Os sinais de falsificação tornaram-se mais discretos: falhas em reflexos, pormenores estranhos em joias, transições esquisitas entre cabelo e fundo, ou artefactos em zonas pouco evidentes da imagem. Quem tem forte reconhecimento de objetos costuma apanhar estes deslizes mais depressa.
O que significa “reconhecimento de objetos” neste contexto
No estudo, reconhecimento de objetos não é uma função de uma aplicação - é uma capacidade humana. Consiste em identificar rapidamente formas, padrões, texturas e relações espaciais em imagens variadas. Um exemplo simples seria distinguir espécies semelhantes de aves em fotografias rápidas, ou encontrar defeitos minúsculos em placas eletrónicas.
Esta competência combina perceção visual fina, atenção ao detalhe e rapidez de análise. Muitas vezes, pessoas com alto desempenho “sentem que há algo errado” numa imagem antes de conseguirem explicar exatamente o quê.
Cenários futuros: “visão digital”, equipas mistas e proveniência de conteúdos
Com a proliferação de deepfakes, é plausível que empresas e entidades públicas adotem algo semelhante a um “teste de visão digital” para tarefas sensíveis: equipas dedicadas a avaliar imagens e vídeos suspeitos podem beneficiar de pessoas cuja aptidão seja medida de forma objetiva (por exemplo, com instrumentos como o AI Face Test).
Outra via promissora é reforçar a proveniência do conteúdo: metadados verificáveis, assinaturas criptográficas e padrões como credenciais de autenticidade (quando disponíveis) podem ajudar a provar a origem de uma imagem e a detetar edições. Isto não elimina a falsificação, mas cria uma camada adicional de evidência - especialmente útil quando o “olho humano” falha.
Para o público em geral, a estratégia mais realista é combinada: desconfiar de imagens demasiado convenientes, procurar confirmação em múltiplas fontes, favorecer conteúdos com contexto verificável e evitar tomar decisões importantes com base numa única fotografia “bombástica”. Num mundo em que nem todos veem as mesmas falhas, criar camadas de verificação passa a ser rotina - não paranoia.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário