2 horas atrás 2

Regra dos 3 dedos funciona? Truque viral promete detectar deepfake

Um vídeo viralizou nas redes sociais mostrando como um simples gesto, levantar três dedos na frente do rosto (chamado de regra dos três dedos), seria capaz de expor um golpista usando deepfake em uma videochamada. A lógica é sedutora pela simplicidade: se a imagem distorcer ou falhar ao cobrir parte do rosto, o vídeo seria gerado por inteligência artificial. O post acumulou mais de 40 mil visualizações no X (antigo Twitter) em poucos dias. Mas o truque realmente funciona? A resposta curta é: depende, e cada vez menos.

Para entender como a regra dos três dedos funciona na prática e quais são seus impactos no uso cotidiano das ferramentas de inteligência artificial, o TechTudo os especialistas André Franco, sócio da consultoria EloGroup e especialista em IA, e Denilson Alexandre da Silva, CEO da Codrix. Confira, a seguir, mais detalhes.

Regra dos 3 dedos funciona? Truque viral promete detectar deepfake — Foto: Reprodução/X editada por Késya Holanda Regra dos 3 dedos funciona? Truque viral promete detectar deepfake — Foto: Reprodução/X editada por Késya Holanda

O que é o teste dos 3 dedos?

A técnica consiste em pedir, durante uma videochamada suspeita, que a outra pessoa erga três dedos na frente do rosto. Se a imagem apresentar distorções, borrões ou qualquer comportamento estranho ao cobrir parte da face, isso seria um indício de que o vídeo é gerado por IA.

A lógica por trás da ideia tem fundamento técnico. Denilson Alexandre da Silva, especialista em inteligência artificial e CEO da Codrix, explica:

"Quando você coloca algo na frente do rosto, dedos, uma caneca, você obstrui o campo de visão da IA ao rosto da pessoa, fazendo com que ela perca a referência de pontos faciais como olhos, nariz, boca e maxilar. Esses são pontos que a IA usa como âncora para rastrear e mapear o rosto."

André Franco, sócio da consultoria EloGroup e especialista em IA, complementa que:

"Nos primeiros modelos de deepfake, especialmente os baseados em GANs, o foco estava na geração da face. Regiões como mãos e dedos recebiam menos atenção, o que gerava erros visíveis, dedos extras, deformações ou movimentos pouco naturais. O teste explorava exatamente essa fragilidade."

Teste dos 3 dedos funciona?

Funciona. No entanto, o problema é o tempo verbal. "O método foi razoável na época, mas com o avanço das IAs já perdeu sua eficácia", resume Denilson Alexandre.

Segundo André Franco, a evolução recente dos modelos de difusão melhorou de forma significativa a qualidade da geração, inclusive em detalhes finos como mãos e movimentos. Além disso, os erros deixaram de ser consistentes. Um artefato que aparece em um frame pode não se repetir em outro, o que torna esse tipo de validação muito menos confiável.

Denilson explica a mudança técnica por trás disso:

"A velocidade de processamento e a melhoria dos modelos, como a modelagem de dados 3D e o uso de dados temporais, permitem inferir a aparência do rosto mesmo quando coberto. Estamos entrando numa geração de ferramentas que já resolveram os problemas que as pessoas aprenderam a associar ao deepfake."

Essa dinâmica já está documentada no mercado de segurança: em 2025, as perdas relacionadas a fraudes com deepfakes atingiram US$ 1,1 bilhão, ante US$ 360 milhões em 2024, segundo análise da Surfshark. Um salto que reflete diretamente a sofisticação crescente das ferramentas de geração.

 Reprodução/DW Modelos antigos de imagens geradas por IA apresentavam distorções visíveis em mãos e dedos; os modelos atuais corrigiram essas falhas — Foto: Reprodução/DW

Por que o teste pode dar errado?

De acordo com Denilson Alexandre, um deepfake de alta qualidade pode passar pelo teste tranquilamente, dando ao usuário uma sensação falsa de segurança. Da mesma forma, uma conexão ruim de internet pode levar ao entendimento de um falso positivo. Assim, o risco para de ser apenas de o teste falhar, e começa e envolver questões mais sérias.

André Franco aponta uma dinâmica estrutural do problema:

"Existe uma corrida constante entre quem gera e quem detecta. Sempre que um método de detecção se populariza, ele passa a ser rapidamente incorporado como vulnerabilidade a ser corrigida pelos modelos."

Em outras palavras: ao viralizar, o teste dos 3 dedos acelerou sua própria obsolescência. Novas tecnologias já não reproduzem os mesmos erros, e até especialistas acostumados a identificar deepfakes rotineiramente já erram nessa percepção, sendo o maior risco comportamental. A crença de que um único teste garante autenticidade cria uma falsa sensação de segurança, e essa ilusão é mais perigosa do que não ter método nenhum.

Como identificar deepfakes de forma mais segura?

Como não existe um método único confiável, especialistas recomendam combinar múltiplos sinais. Denilson e Franco listam os principais indícios visuais e comportamentais que ainda ajudam na detecção:

Sinais visuais a observar:

  • Movimentos oculares não naturais;
  • Iluminação do rosto que não combina com o ambiente;
  • Áudio fora de sincronia;
  • Dessincronização entre áudio e movimento labial, piscadas ou movimentos oculares pouco naturais;
  • Pequenas assimetrias ou instabilidades na imagem ainda são pistas relevantes.

Testes alternativos que ainda funcionam:

Denilson sugere dois métodos mais robustos que o dos dedos. O primeiro: solicitar movimentos bruscos de cabeça de forma horizontal, virar de repente de um lado para o outro, pode comprometer a latência do deepfake e expor alguma falha, já que os modelos são treinados principalmente com vídeos frontais.

O segundo é mais elaborado: uma vez que o deepfake está entre uma fonte de luz e você, mova a mão em sinal de 'tchau' para projetar uma sombra em movimento no rosto da pessoa. Deepfakes em tempo real têm dificuldade em renderizar naturalmente uma sombra móvel sobre um rosto gerado, isso pode quebrar o padrão e aumentar a percepção de fraude.

O contexto vale mais do que o visual:

Os especialistas reforçam que compreender o contexto da conversa é ainda a melhor ferramenta para entender se há algo de estranho. Checar a origem do vídeo, comparar com outras aparições da mesma pessoa e avaliar se o conteúdo faz sentido naquele contexto costuma ser ainda mais importante do que os sinais visuais.

 Reprodução/Royal Astronomical Society Irregularidades físicas no reflexo dos globos oculares são outro meio de identificar Deep Fake. — Foto: Reprodução/Royal Astronomical Society

Uma pesquisa apresentada na Reunião Nacional de Astronomia da Sociedade Real de Astronomia em Hull sugere que falsificações geradas por IA podem ser detectadas analisando os olhos humanos da mesma forma que os astrônomos estudam imagens de galáxias.

O ponto central do trabalho da estudante de mestrado da Universidade de Hull Adejumoke Owolabi gira em torno do reflexo nos globos oculares de uma pessoa. Se os reflexos coincidirem, a imagem provavelmente é de uma pessoa real. Caso contrário, provavelmente é um deepfake.

Ferramentas e métodos mais eficientes

Para quem quer ir além dos testes visuais, já existem ferramentas especializadas. Denilson aponta uma opção acessível ao público comum: "A Universidade de Buffalo oferece uma ferramenta online gratuita chamada DeepFake-o-meter (zinc.cse.buffalo.edu/ubmdfl/deep-o-meter), que permite analisar vídeos suspeitos." Além disso, ele menciona que outras empresas de segurança já possuem produtos que se integram com sistemas de videochamada como Teams, Zoom e Google Meet para identificar possíveis fraudes em tempo real.

Para André Franco, nenhuma ferramenta isolada é suficiente:

"Abordagens de análise multimodal, cruzando áudio, vídeo e metadados, além de identificação de artefatos e autenticação por assinatura digital são as mais promissoras. Mas nenhuma delas, isoladamente, é definitiva."

Se basear em apenas um método de verificação pode trazer uma falsa sensação de confiança. Quando um truque de identificação viraliza como o dos três dedos, é bem provável que essa vulnerabilidade já esteja sendo contornada no dia seguinte.

A orientação dos dois especialistas converge: desconfie de pedidos urgentes ou inesperados em videochamadas, verifique a fonte por outro canal (como uma ligação telefônica convencional) e não compartilhe conteúdos suspeitos antes de confirmar sua autenticidade.

Sobre o futuro próximo, Denilson afirma que "atualmente já estamos num cenário em que o olho humano não é mais confiável para vídeos de alta qualidade gerados por IA. E a tendência é a disparidade do que ainda é detectável aumentar. A educação digital da população é primordial, e uma postura de ceticismo saudável diante dos conteúdos online é necessária."

André Franco conclui com a síntese mais precisa do problema: "O teste dos 3 dedos não está exatamente errado. Ele é apenas insuficiente, e cada vez mais obsoleto."

Veja também: TROQUEI o SPOTIFY pelo YOUTUBE PREMIUM! Vale a pena? Veja o comparativo!

TROQUEI o SPOTIFY pelo YOUTUBE PREMIUM! Vale a pena? Veja o comparativo!

TROQUEI o SPOTIFY pelo YOUTUBE PREMIUM! Vale a pena? Veja o comparativo!

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro