Deepfake Forensics: Integração de Técnicas de Visão Computacional e Aprendizado Não Supervisionado para Análise de Autenticidade de Vídeos

Deepfake Forensics: Integration of Computer Vision and Unsupervised Learning Techniques for Video Authenticity Analysis

Autores

  • Matheus de Oliveira Pereira Paula Université Côte d’Azur Autor

DOI:

https://doi.org/10.51473/rcmos.v1i1.2023.1869

Palavras-chave:

Deepfake Forensics; Aprendizado Não Supervisionado; Visão Computacional; Autoencoders; Detecção de Anomalias; Segurança Cibernética; Geração Zero.

Resumo

O cenário das deepfakes exige uma mudança de paradigma na detecção, movendo-se de modelos de Aprendizado Supervisionado (AS) que buscam artefatos conhecidos para sistemas baseados em Aprendizado Não Supervisionado (ANS), capazes de identificar anomalias e desvios estatísticos em relação à mídia autêntica. Este artigo propõe uma análise detalhada da integração de Visão Computacional Avançada e Técnicas de ANS para a criação de pipelines de Deepfake Forensics robustas. O foco reside no desenvolvimento de sistemas que não dependem de um conjunto de dados predefinido de deepfakes, tornando-os ideais para a detecção de manipulações de geração zero ou técnicas de forgery nunca vistas. Serão explorados o uso de Autoencoders e Redes Neurais Adversariais Generativas (GANs) em sua capacidade de modelar a distribuição da normalidade (vídeos reais) e o subsequente emprego de métricas de reconstrução e desvio de mapeamento latente para isolar os padrões anômalos que caracterizam a falsificação. A aplicação prática destas metodologias é vital para a segurança cibernética e para o controle de conteúdo em plataformas de mídia social, oferecendo um mecanismo de verificação de autenticidade que é resiliente à constante evolução das tecnologias de síntese de mídia

Downloads

Os dados de download ainda não estão disponíveis.

Biografia do Autor

  • Matheus de Oliveira Pereira Paula, Université Côte d’Azur

    Bacharelado em Sistemas de Informação pelo Instituto Federal de Educação, Ciência e Tecnologia Fluminense. MSc Data Science and Artificial Intelligence pela Université Côte d’Azur.

Referências

AN, J.; CHO, S. Variational autoencoder based anomaly detection using reconstruction probability. Special Lecture on AI, 2015.

GOODFELLOW, I. et al. Generative adversarial networks. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2014.

LIDEN, L.; TULBURE, A.; VAN DER HALLEN, D. Deepfake detection using an anomaly detection approach. In: INTERNATIONAL CONFERENCE ON DIGITAL IMAGE PROCESSING. 2021.

SCHLEGEL, C. et al. f-AnoGAN: fast anomaly detection with GANs. In: MEDICAL IMAGE COMPUTING AND COMPUTER ASSISTED INTERVENTION. 2019.

SUN, S. et al. Deepfake detection based on spatiotemporal features and unsupervised learning. In: IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING. 2020.

WANG, S. et al. Adversarial training for deepfake detection: a survey. arXiv, 2021.

XU, W. et al. Deep anomaly detection: a survey. arXiv, 2020.

YANG, X.; SUN, J.; ZHOU, S. Learning to detect digital forgeries with a weakly supervised approach. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. 2018.

ZHOU, P. et al. Two-stream neural networks for tampered face detection. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS. 2017. DOI: https://doi.org/10.1109/CVPRW.2017.229

ROSSLER, A. et al. FaceForensics++: learning to detect manipulated facial images. In: INTERNATIONAL CONFERENCE ON COMPUTER VISION. 2019. DOI: https://doi.org/10.1109/ICCV.2019.00009

Publicado

25.10.2023

Como Citar

PAULA, Matheus de Oliveira Pereira. Deepfake Forensics: Integração de Técnicas de Visão Computacional e Aprendizado Não Supervisionado para Análise de Autenticidade de Vídeos: Deepfake Forensics: Integration of Computer Vision and Unsupervised Learning Techniques for Video Authenticity Analysis. RCMOS - Revista Científica Multidisciplinar O Saber, Brasil, v. 1, n. 1, 2023. DOI: 10.51473/rcmos.v1i1.2023.1869. Disponível em: https://submissoesrevistarcmos.com.br/rcmos/article/view/1869. Acesso em: 2 jan. 2026.