Modelos de Aprendizado Profundo para Detecção de Deepfakes: Uma Análise Comparativa entre Arquiteturas CNN, GAN e Transformer
Deep Learning Models for Deepfake Detection: A Comparative Analysis among CNN, GAN, and Transformer Architectures
DOI:
https://doi.org/10.51473/rcmos.v1i1.2022.1866Palavras-chave:
Deepfake; Aprendizado Profundo; CNN; GAN; Transformer; Generalização; Forense Digital.Resumo
A rápida evolução das tecnologias de manipulação de mídia sintética, conhecidas como deepfakes, representa uma ameaça crescente à confiabilidade da informação e à segurança digital. Tais vídeos falsificados, criados principalmente por Redes Adversariais Generativas (GANs), tornam a distinção entre conteúdo real e forjado cada vez mais complexa,exigindo contramedidas sofisticadas baseadas em Aprendizado Profundo. Este artigo propõe uma análise comparativa rigorosa de três arquiteturas fundamentais no campo da Visão Computacional para a detecção de deepfakes: as Redes Neurais Convolucionais (CNNs), as Redes Adversariais Generativas (em seu papel de detectores ou em modelos híbridos que exploram suas assinaturas) e os Transformers (particularmente os Vision Transformers - ViTs). A avaliação concentra-se em métricas críticas para a aplicação em cenários do mundo real, incluindo acurácia de classificação, tempo de processamento (latência de inferência) e a fundamental capacidade de generalização a diferentes técnicas de falsificação e conjuntos de dados não vistos (cross-dataset evaluation). Os resultados da pesquisa bibliográfica e análise teórica indicam que, embora as CNNs (como a XceptionNet) mantenham relevância devido à sua eficiência e capacidade de capturar artefatos locais, as arquiteturas baseadas em Transformer demonstram uma capacidade superior de modelar dependências globais e, consequentemente, exibir melhor generalização contra as metodologias de deepfake em constante evolução.
Downloads
Referências
GOODFELLOW, I. et al. Generative adversarial networks. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2014.
HOCHREITER, S.; SCHMIDHUBER, J. Long short-term memory. Neural Computation, v. 9, n. 8, p. 1735–1780, 1997. DOI: https://doi.org/10.1162/neco.1997.9.8.1735
KINGMA, D. P.; BA, J. Adam: a method for stochastic optimization. In: INTERNATIONAL CONFERENCE ON LEARNING REPRESENTATIONS. 2015.
LECUN, Y. et al. Gradient-based learning applied to document recognition. Proceedings of the IEEE, v. 86, n. 11, p. 2278–2324, 1998. DOI: https://doi.org/10.1109/5.726791
ROSSLER, A. et al. Face forensics++: learning to detect manipulated facial images. In: INTERNATIONAL CONFERENCE ON COMPUTER VISION. 2019. DOI: https://doi.org/10.1109/ICCV.2019.00009
VASWANI, A. et al. Attention is all you need. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2017.
XU, H. et al. Positional encoding for deepfake detection. In: IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING. 2021.
ZHOU, P. et al. Two-stream neural networks for tampered face detection. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS. 2017. DOI: https://doi.org/10.1109/CVPRW.2017.229
AFCHAR, D. et al. MesopNet: a compact deepfake detection network. In: IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING. 2020.
COZZOLINO, D.; VERDOLIVA, L. Forensic analysis of neural networks for generative model attribution. In: INTERNATIONAL WORKSHOP ON DIGITAL WATERMARKING. 2018.
Downloads
Publicado
Edição
Seção
Categorias
Licença
Copyright (c) 2022 Matheus de Oliveira Pereira Paula (Autor)

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Este trabalho está licenciado sob a Licença Creative Commons Atribuição 4.0 Internacional (CC BY 4.0). Isso significa que você tem a liberdade de:
- Compartilhar — copiar e redistribuir o material em qualquer meio ou formato.
- Adaptar — remixar, transformar e construir sobre o material para qualquer propósito, inclusive comercial.
O uso deste material está condicionado à atribuição apropriada ao(s) autor(es) original(is), fornecendo um link para a licença, e indicando se foram feitas alterações. A licença não exige permissão do autor ou da editora, desde que seguidas estas condições.
A logomarca da licença Creative Commons é exibida de maneira permanente no rodapé da revista.
Os direitos autorais do manuscrito podem ser retidos pelos autores sem restrições e solicitados a qualquer momento, mesmo após a publicação na revista.





