Explainable AI (XAI) na Detecção de Deepfakes: Transparência e Interpretação em Modelos de Visão Computacional

Explainable AI (XAI) in Deepfake Detection: Transparency and Interpretation in Computer Vision Models

Autores

  • Matheus de Oliveira Pereira Paula Université Côte d’Azur. Autor

DOI:

https://doi.org/10.51473/rcmos.v1i1.2023.1867

Palavras-chave:

XAI; Deepfake; Interpretabilidade; Transparência; Forense Digital; Visão Computacional; Confiança

Resumo

A crescente sofisticação dos deepfakes elevou a urgência de sistemas de detecção de Aprendizado Profundo robustos.No entanto, a natureza de "caixa-preta" dos modelos de Visão Computacional, como as Redes Neurais Convolucionais (CNNs) e os Transformers, representa um obstáculo significativo para sua aceitação em domínios críticos, como o forense e o jurídico. Este artigo explora a aplicação de técnicas de Inteligência Artificial Explicável (XAI) no contexto da detecção de deepfakes, investigando como a transparência e a interpretabilidade dos modelos podem ser alcançadas. Serão discutidas metodologias posthoc e intrínsecas, como CAMs (Class Activation Maps), SHAP e LIME, analisando sua capacidade de gerar evidências visuais e lógicas sobre o processo de classificação,especificamente identificando as regiões da imagem ou vídeo (artefatos) que são determinantes para a decisão de falsidade. O objetivo primário é demonstrar que a integração de XAI é indispensável para construir a confiançanecessária nos sistemas de detecção, transformando a decisão algorítmica em prova pericial verificável, essencial para o estabelecimento da validade e da admissibilidade dessas tecnologias em tribunais e investigações.

Downloads

Os dados de download ainda não estão disponíveis.

Biografia do Autor

  • Matheus de Oliveira Pereira Paula, Université Côte d’Azur.

    Bacharelado em Sistemas de Informação pelo Instituto Federal de Educação,Ciência e Tecnologia Fluminense. MSc Data Science and Artificial Intelligence pela Université Côte d’Azur.

Referências

BACH, S. et al. On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation. PLoS ONE, v. 10, n. 7, p. e0130140, 2015. DOI: https://doi.org/10.1371/journal.pone.0130140

GOODFELLOW, I. et al. Generative adversarial networks. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2014.

KINGMA, D. P.; BA, J. Adam: a method for stochastic optimization. In: INTERNATIONAL CONFERENCE ON LEARNING REPRESENTATIONS. 2015.

RIBEIRO, M. T.; SINGH, S.; RINARD, C. G. Why should I trust you?: explaining the predictions of any classifier. In: ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA MINING. 2016. DOI: https://doi.org/10.1145/2939672.2939778

SUNDARARAJAN, M.; TALY, A.; YAN, V. Axiomatic attribution for deep networks. In: INTERNATIONAL CONFERENCE ON MACHINE LEARNING. 2017.

VASWANI, A. et al. Attention is all you need. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2017.

SELVARAJU, R. R. et al. Grad-CAM: visual explanations from deep networks via gradient-based localization. In: IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION. 2017. DOI: https://doi.org/10.1109/ICCV.2017.74

LUNDBERG, S. M.; LEE, S.-I. A unified approach to interpreting model predictions. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2017.

FONG, R.; VEDANTAM, S.; LIM, J. H. Interpretable deep learning for image analysis. arXiv, 2019.

ROSSLER, A. et al. FaceForensics++: learning to detect manipulated facial images. In: INTERNATIONAL CONFERENCE ON COMPUTER VISION. 2019. DOI: https://doi.org/10.1109/ICCV.2019.00009

Publicado

14.04.2023

Como Citar

PAULA, Matheus de Oliveira Pereira. Explainable AI (XAI) na Detecção de Deepfakes: Transparência e Interpretação em Modelos de Visão Computacional: Explainable AI (XAI) in Deepfake Detection: Transparency and Interpretation in Computer Vision Models. RCMOS - Revista Científica Multidisciplinar O Saber, Brasil, v. 1, n. 1, 2023. DOI: 10.51473/rcmos.v1i1.2023.1867. Disponível em: https://submissoesrevistarcmos.com.br/rcmos/article/view/1867. Acesso em: 2 jan. 2026.