Explainable AI (XAI) na Detecção de Deepfakes: Transparência e Interpretação em Modelos de Visão Computacional
Explainable AI (XAI) in Deepfake Detection: Transparency and Interpretation in Computer Vision Models
DOI:
https://doi.org/10.51473/rcmos.v1i1.2023.1867Palavras-chave:
XAI; Deepfake; Interpretabilidade; Transparência; Forense Digital; Visão Computacional; ConfiançaResumo
A crescente sofisticação dos deepfakes elevou a urgência de sistemas de detecção de Aprendizado Profundo robustos.No entanto, a natureza de "caixa-preta" dos modelos de Visão Computacional, como as Redes Neurais Convolucionais (CNNs) e os Transformers, representa um obstáculo significativo para sua aceitação em domínios críticos, como o forense e o jurídico. Este artigo explora a aplicação de técnicas de Inteligência Artificial Explicável (XAI) no contexto da detecção de deepfakes, investigando como a transparência e a interpretabilidade dos modelos podem ser alcançadas. Serão discutidas metodologias posthoc e intrínsecas, como CAMs (Class Activation Maps), SHAP e LIME, analisando sua capacidade de gerar evidências visuais e lógicas sobre o processo de classificação,especificamente identificando as regiões da imagem ou vídeo (artefatos) que são determinantes para a decisão de falsidade. O objetivo primário é demonstrar que a integração de XAI é indispensável para construir a confiançanecessária nos sistemas de detecção, transformando a decisão algorítmica em prova pericial verificável, essencial para o estabelecimento da validade e da admissibilidade dessas tecnologias em tribunais e investigações.
Downloads
Referências
BACH, S. et al. On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation. PLoS ONE, v. 10, n. 7, p. e0130140, 2015. DOI: https://doi.org/10.1371/journal.pone.0130140
GOODFELLOW, I. et al. Generative adversarial networks. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2014.
KINGMA, D. P.; BA, J. Adam: a method for stochastic optimization. In: INTERNATIONAL CONFERENCE ON LEARNING REPRESENTATIONS. 2015.
RIBEIRO, M. T.; SINGH, S.; RINARD, C. G. Why should I trust you?: explaining the predictions of any classifier. In: ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA MINING. 2016. DOI: https://doi.org/10.1145/2939672.2939778
SUNDARARAJAN, M.; TALY, A.; YAN, V. Axiomatic attribution for deep networks. In: INTERNATIONAL CONFERENCE ON MACHINE LEARNING. 2017.
VASWANI, A. et al. Attention is all you need. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2017.
SELVARAJU, R. R. et al. Grad-CAM: visual explanations from deep networks via gradient-based localization. In: IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION. 2017. DOI: https://doi.org/10.1109/ICCV.2017.74
LUNDBERG, S. M.; LEE, S.-I. A unified approach to interpreting model predictions. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS. 2017.
FONG, R.; VEDANTAM, S.; LIM, J. H. Interpretable deep learning for image analysis. arXiv, 2019.
ROSSLER, A. et al. FaceForensics++: learning to detect manipulated facial images. In: INTERNATIONAL CONFERENCE ON COMPUTER VISION. 2019. DOI: https://doi.org/10.1109/ICCV.2019.00009
Downloads
Publicado
Edição
Seção
Categorias
Licença
Copyright (c) 2023 Matheus de Oliveira Pereira Paula (Autor)

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Este trabalho está licenciado sob a Licença Creative Commons Atribuição 4.0 Internacional (CC BY 4.0). Isso significa que você tem a liberdade de:
- Compartilhar — copiar e redistribuir o material em qualquer meio ou formato.
- Adaptar — remixar, transformar e construir sobre o material para qualquer propósito, inclusive comercial.
O uso deste material está condicionado à atribuição apropriada ao(s) autor(es) original(is), fornecendo um link para a licença, e indicando se foram feitas alterações. A licença não exige permissão do autor ou da editora, desde que seguidas estas condições.
A logomarca da licença Creative Commons é exibida de maneira permanente no rodapé da revista.
Os direitos autorais do manuscrito podem ser retidos pelos autores sem restrições e solicitados a qualquer momento, mesmo após a publicação na revista.





