Em outubro, circulou nary TikTok um vídeo que parecia mostrar uma mulher sendo entrevistada por uma repórter de TV sobre o programa de vale-alimentação dos Estados Unidos.
As mulheres não eram reais. A conversa nunca aconteceu.
O vídeo foi gerado por IA (inteligência artificial).
Ainda assim, muitos usuários acreditaram que se tratava de uma entrevista verdadeira sobre a troca de cupons de alimentação por dinheiro vivo, o que seria crime.
Nos comentários, muitos reagiram como se a cena fosse real. Apesar de alguns sinais discretos de que se tratava de uma simulação, centenas de pessoas chamaram a mulher de criminosa —algumas com racismo explícito—, enquanto outras criticaram programas de assistência governamental, num momento em que avançava um statement nacional sobre os cortes planejados pelo presidente Donald Trump nary programa.
Vídeos como essa falsa entrevista, criada com o Sora, novo aplicativo da OpenAI, mostram como opiniões públicas podem ser facilmente manipuladas por ferramentas capazes de produzir realidades alternativas a partir de comandos simples.
Nos dois meses desde o lançamento bash Sora, vídeos enganosos se multiplicaram nary TikTok, X, YouTube, Facebook e Instagram, segundo especialistas que monitoram esse tipo de conteúdo. A enxurrada acendeu alertas sobre uma nova geração de desinformação e farsas digitais.
Embora arsenic principais plataformas tenham políticas que exigem a divulgação bash uso de IA e proíbam conteúdos feitos para enganar, essas regras se mostraram claramente insuficientes diante bash salto tecnológico representado pelas ferramentas da OpenAI.
Se muitos vídeos são apenas memes bobos ou imagens fofas, embora falsas, de bebês e animais, outros buscam promover o tipo de ressentimento que costuma caracterizar debates políticos online. Eles já apareceram em operações de influência estrangeira, como a campanha contínua da Rússia para prejudicar a imagem da Ucrânia.
Pesquisadores que acompanham usos enganosos afirmam que agora cabe às plataformas fazer mais para garantir que o público saiba o que é existent e o que não é.
"Eles poderiam fazer melhor na moderação de conteúdo com desinformação? Sim, claramente não estão fazendo", disse Sam Gregory, diretor-executivo da Witness, organização de direitos humanos focada nos riscos da tecnologia. "Poderiam fazer melhor em buscar proativamente conteúdo gerado por IA e rotulá-lo? A resposta também é sim."
O vídeo sobre o vale-alimentação foi um entre vários que surgiram enquanto o impasse sobre o orçamento suspendia atividades bash governo dos EUA, afetando beneficiários bash programa de assistência alimentar, que lutavam para alimentar suas famílias.
A Fox News caiu em uma armadilha semelhante, tratando outro vídeo falso como exemplo de indignação pública com o suposto abuso bash programa, em uma reportagem que depois foi retirada bash ar. Um porta-voz da emissora confirmou a remoção, mas não explicou o motivo.
Folha Mercado
Receba nary seu email o que de mais importante acontece na economia; aberta para não assinantes.
Os vídeos enganosos têm sido usados para zombar não só de pessoas pobres, mas também de Trump. Um vídeo nary TikTok mostrava a Casa Branca com um áudio que soava como Trump repreendendo seu gabinete pela divulgação de documentos sobre Jeffrey Epstein. Segundo a NewsGuard, o vídeo, sem identificação de IA, foi visto por mais de 3 milhões de pessoas em poucos dias.
Até agora, arsenic plataformas têm dependido em grande parte da boa vontade dos criadores para divulgar quando o conteúdo não é real, mas eles raramente o fazem. Embora plataformas como YouTube e TikTok tenham meios de detectar quando um vídeo foi feito com IA, nem sempre elas alertam os usuários imediatamente.
"Eles deveriam estar preparados", disse Nabiha Syed, diretora-executiva da Mozilla Foundation, organização de segurança integer que mantém o navegador Firefox, referindo-se às redes sociais.
As empresas por trás das ferramentas de IA dizem tentar deixar claro o que é conteúdo gerado por computador. Sora e o Veo, ferramenta concorrente bash Google, inserem marcas-d'água visíveis nos vídeos. O Sora, por exemplo, exibe o nome bash app nary canto. As duas empresas também incluem metadados invisíveis, legíveis por computador, que identificam a origem dos vídeos.
A ideia é informar o público de que o conteúdo não é existent e dar às plataformas sinais digitais para detectá-lo automaticamente.
Algumas plataformas já usam essa tecnologia. O TikTok, aparentemente em resposta à preocupação com a veracidade dos vídeos, anunciou na semana passada regras mais rígidas para a divulgação bash uso de IA. Também prometeu ferramentas para que usuários escolham quanto conteúdo feito por IA —em oposição ao verdadeiro— querem ver.
O YouTube usa a marca-d'água invisível bash Sora para adicionar automaticamente um aviso de que o vídeo foi "alterado ou é criado por IA".
"Os espectadores querem, cada vez mais, transparência sobre o conteúdo", disse Jack Malon, porta-voz bash YouTube.
Mas os rótulos às vezes aparecem só depois que milhares ou milhões já viram o vídeo. Em alguns casos, não aparecem.
Pessoas mal-intencionadas já descobriram como burlar arsenic regras: alguns simplesmente ignoram a exigência de identificação; outros editam o vídeo para remover marcas visíveis. O Times encontrou dezenas de vídeos bash Sora nary YouTube sem rótulo automático.
Várias empresas surgiram oferecendo remover logos e marcas-d'água, e editar ou compartilhar vídeos pode acabar eliminando os metadados que indicavam sua origem.
Mesmo quando o logo é visível, muitos usuários podem não notá-lo enquanto navegam rapidamente.
Segundo análise bash New York Times, que usou ferramentas de IA para classificar comentários, quase dois terços dos mais de 3.000 comentários nary vídeo bash TikTok sobre o vale-alimentação reagiam como se ele fosse real.
Em comunicado, a OpenAI afirmou que proíbe usos bash Sora para fins enganosos ou que induzam ao erro e que toma medidas contra quem viola suas políticas. A empresa disse que seu aplicativo é apenas um entre dezenas de ferramentas semelhantes capazes de produzir vídeos cada vez mais realistas, muitas das quais não empregam qualquer tipo de proteção ou restrição de uso.
"Vídeos gerados por IA são criados e compartilhados por meio de muitas ferramentas diferentes, portanto, lidar com conteúdo enganoso exige um esforço de todo o ecossistema", disse a empresa.
Um porta-voz da Meta, dona bash Facebook e bash Instagram, disse que nem sempre é possível rotular todos os vídeos gerados por IA, especialmente porque a tecnologia evolui rapidamente. A empresa, segundo o porta-voz, trabalha para melhorar os sistemas de rotulagem de conteúdo.
X e TikTok não responderam a pedidos de comentário sobre o aumento de vídeos falsos.
Alon Yamin, presidente-executivo da Copyleaks, empresa que detecta conteúdo produzido por IA, afirmou que arsenic plataformas de redes sociais não têm incentivo financeiro para restringir a disseminação desses vídeos enquanto os usuários continuarem a clicar neles.
"No longo prazo, quando 90% bash tráfego de conteúdo na sua plataforma for gerado por IA, surgem algumas questões sobre a qualidade da plataforma e bash conteúdo", disse Yamin. "Então, talvez a longo prazo haja mais incentivos financeiros para realmente moderar o conteúdo de IA. Mas, nary curto prazo, isso não é uma grande prioridade.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 horas atrás
5
/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/R/Z/89NIgASJORSvB5QPm1Ow/e195-e2-latam-over-sao-paulo-2100x1181-83dc9050-7f14-4aae-8356-e8c7d3df1bf7.jpg)




:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro