As atuais guerras entre países como Ucrânia e Rússia ou Irã, Israel e Estados Unidos favorecem o aumento de deepfakes na Internet. Tratam-se de vídeos falsos, criados com ajuda de ferramentas de inteligência artificial, que costumam usar imagens de locais famosos ou pessoas públicas, como políticos, empresários e celebridades, para manipular discursos e ações. Ou seja, os fakes conseguem mostrar situações que nunca aconteceram na realidade. Assim, esses materiais fraudulentos podem alcançar milhões de visualizações ao redor do mundo em pouco tempo, o que amplia o cenário de desinformação. Nas próximas linhas, saiba mais sobre os deepfakes e veja dicas de especialista para identificar vídeos falsos.
Exemplos de vídeos falsos, gerados por IA, sobre a guerra no Irã — Foto: Reprodução/X (Twitter)/Euronews Deepfakes são vídeos falsos, gerados por inteligência artificial (IA), capazes de reproduzir rostos, vozes e gestos humanos com alto nível de realismo. Eles podem fazer com que pessoas públicas - como políticos, artistas, empresários e influenciadores - falem ou façam coisas que jamais ocorreram. Esses materiais fraudulentos conseguem se espalhar rapidamente pelas redes sociais, alcançar milhões de visualizações, curtidas e comentários, e enganar até mesmo os usuários mais atentos e experientes.
Segundo estudo da DeepStrike, a quantidade de deepfakes na Internet passou de aproximadamente 500 mil em 2023 para mais de 8 milhões em 2025, sendo que as fraudes envolvendo essa tecnologia cresceram 3.000% no mesmo período. O levantamento ainda revela um dado alarmante: apenas 24,5% das pessoas conseguem identificar vídeos falsos que possuem alta qualidade - o que facilita a expansão da desinformação pela Internet.
Deepfake é uma tecnologia que usa IA para gerar vídeos falsos, especialmente de pessoas famosas — Foto: Divulgação/Getty Images Conflitos recentes entre diferentes países podem favorecer o surgimento de deepfakes que visam distorcer fatos e manipular a opinião pública. Circulou na Internet, por exemplo, um vídeo falso a respeito da guerra entre Rússia e Ucrânia, no qual o presidente ucraniano Volodymyr Zelensky aparecia supostamente pedindo rendição aos soldados. Outros vídeos manipulados colocaram atores dos EUA pedindo que líderes da União Europeia forcem a Ucrânia a aceitar um acordo de paz da Rússia.
A guerra entre Irã, Israel e Estados Unidos também foi alvo de deepfakes, que ajudam a alimentar narrativas políticas e manipular situações. Vídeos de bombardeios falsos circularam no X (antigo Twitter), que estipulou uma nova regra: criadores de conteúdo que publicarem vídeos de guerra criados por IA e sem rotulação explícita serão banidos do programa de monetização da plataforma por 90 dias. Nikita Bier, chefe de produto do X, afirmou: "Em tempos de guerra, é crucial que as pessoas tenham acesso a informações autênticas. Com as tecnologias de IA atuais, é trivial criar conteúdo que possa enganar as pessoas".
Segundo Náthan Ximenes, fundador da NTX Group, a evolução da tecnologia exige que o público tenha uma nova postura diante das imagens que circulam na web: “Durante muito tempo acreditamos que vídeo era prova. Com a inteligência artificial, isso mudou. Hoje, a imagem pode ser produzida com facilidade e circular antes de qualquer verificação”. Por isso, o especialista destaca que é fundamental aprender a reconhecer sinais de manipulação que podem ajudar a identificar vídeos gerados por IA.
Guerra dos EUA e Israel contra o Irã favoreceu o surgimento de vídeos falsos na Internet — Foto: Reprodução/Gemini 3. Dicas do especialista para identificar fakes
Ximenes aponta algumas características importantes, que os internautas devem prestar atenção ao acessar um vídeo na Internet. O especialista revela os seguintes sinais de alerta:
- Falta de sincronização entre voz e movimento da boca: é comum que, nos deepfakes, os lábios não consigam acompanhar perfeitamente as palavras que a pessoa supostamente está falando, o que gera um movimento desordenado ou com pequenos atrasos.
- Expressões rígidas: os vídeos falsos também costumam apresentar olhos e expressões faciais com aspecto rígido ou repetitivo, afinal, as ferramentas de inteligência artificial ainda possuem dificuldades para reproduzir microexpressões humanas.
- Detalhes distorcidos no ambiente: outro forte sinal de fraude são os detalhes manipulados no ambiente do vídeo, incluindo mudanças sutis de iluminação no rosto, bordas do cabelo levemente distorcidas e sombras que não correspondem ao cenário.
- Vozes não naturais: a IA também enfrenta um desafio em relação às vozes, que tendem a apresentar entonação uniforme e poucas pausas naturais, como respiração ou variações emocionais, além de terem baixa qualidade do áudio.
- Origem do conteúdo desconhecida: desconfie de conteúdos com origem duvidosa, como vídeos divulgados por perfis desconhecidos, sem referência de data, local ou fonte confiável. Sempre faça uma busca rápida por notícias e canais oficiais da pessoa que aparece no vídeo para comprovar se aquela informação ou situação é verdadeira.
Ferramentas de IA podem gerar vídeos falsos ou manipulados; saiba reconhecer sinais de deepfake — Foto: Reprodução/Júlia Silveira Náthan relembra que os internautas devem desenvolver um olhar mais crítico diante do conteúdo digital, já que as imagens e vídeos podem ser manipulados facilmente.“A tecnologia evoluiu muito rápido e tornou possível produzir vídeos extremamente convincentes em poucos minutos. Por isso, a checagem da fonte e do contexto se torna tão importante quanto observar os detalhes técnicos do vídeo. A inteligência artificial abriu possibilidades incríveis para a produção audiovisual, mas também trouxe um novo desafio. Hoje, antes de acreditar em um vídeo, precisamos aprender a perguntar se ele realmente aconteceu", finaliza.
Veja também: Perigo nas redes; saiba AGORA como se proteger!
Perigo nas redes; saiba AGORA como se proteger!

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
4 dias atrás
1
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2023/u/W/oxdhcoQUOlAmByRLJGvA/techtudo-108-m.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/d/Z/7wwCoHS8aqdheLB6jMIQ/o-chamado.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/C/q/umuBNCTUGnQdGb3hFOWw/pecadores-filme.webp)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/H/4/2oqJVpRkCuCESWN0FZkg/design-sem-nome-2026-03-04t191402.219.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)


:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)







Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro