Treinamento Ético de Redes Neurais: Conjuntos de Dados, Viés e Privacidade na Detecção de Deepfakes

Ethical Training of Neural Networks: Datasets, Bias, and Privacy in Deepfake Detection

Autores

  • Matheus de Oliveira Pereira Paula Université Côte d’Azur Autor

DOI:

https://doi.org/10.51473/rcmos.v1i2.2024.1871

Palavras-chave:

deepfakes; ética algorítmica; vieses; privacidade digital; soberania informacional.

Resumo

A detecção automatizada de deepfakes, baseada no uso massivo de redes neurais profundas, tornou-se um imperativo civilizacional para a proteção da integridade informacional em plataformas digitais. Entretanto, o ponto mais sensível dessa arquitetura não reside na sofisticação algorítmica do modelo, mas na formação ética dos conjuntos de dados utilizados em seu treinamento — os quais são frequentemente marcados por vieses estruturais de raça, gênero e geopolítica, bem como por violações de privacidade e uso não consentido de imagens biométricas humanas. Este artigo analisa criticamente, com abordagem epistemológica e tecnopolítica, os dilemas éticos fundamentais associados à criação e curadoria de datasets para treinar detectores de deepfakes. Com base em estudos contemporâneos, explora-se como erros na composição do dataset podem reproduzir formas históricas de opressão algorítmica, amplificar desigualdades sociais e até mesmo comprometer a legitimidade democrática das tecnologias de combate à desinformação. Conclui propondo diretrizes éticas e técnicas para o desenvolvimento de pipelines de treinamento responsáveis, auditáveis e compatíveis com princípios de soberania informacional e justiça algorítmica.

Downloads

Os dados de download ainda não estão disponíveis.

Biografia do Autor

  • Matheus de Oliveira Pereira Paula, Université Côte d’Azur

    Bacharelado em Sistemas de Informação — Instituto Federal de Educação, Ciência e Tecnologia Fluminense Mestrado: MSc Data Science and Artificial Intelligence — Université Côte d’Azur

Referências

ARAL, SINAN. The hype machine: how social media disrupts our elections, our economy, and our health—and how we must adapt. New York: Currency, 2020.

BRUNDAGE, MILES; WHITTLESTONE, JESS. Governance of artificial intelligence: ethics, law and policy. Oxford: Oxford Internet Institute, 2020.

BUOLAMWINI, JOY; GEBRU, TIMNIT. Gender shades: intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 2018.

CRAWFORD, KATE. Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press, 2021. DOI: https://doi.org/10.12987/9780300252392

DOSHI-VELEZ, FINALE; KIM, BEEN. Towards a rigorous science of interpretable machine learning. arXiv, 2018.

FLORIDI, LUCIANO. The logic of information: a theory of philosophy as conceptual design. Oxford: Oxford University Press, 2020. DOI: https://doi.org/10.1093/oso/9780198833635.001.0001

GEBRU, TIMNIT et al. Datasheets for datasets. In: CONFERENCE ON FAIRNESS, ACCOUNTABILITY, AND TRANSPARENCY. 2018.

MILAN, STEFANIA; TRERÉ, EMILIANO. The rise of data colonialism: reclaiming digital sovereignty. Social Media + Society, 2019.

NATO STRATCOM. Deepfake detection and information integrity report. Brussels: NATO Strategic Communications Centre of Excellence, 2021.

VACCARI, CRISTIAN; CHADWICK, ANDREW. Deepfakes and disinformation: political campaigns in the AI age. Journal of Political Communication, 2020.

ZUBOFF, SHOSHANA. The age of surveillance capitalism. New York: PublicAffairs, 2019.

Publicado

20.12.2024

Como Citar

PAULA, Matheus de Oliveira Pereira. Treinamento Ético de Redes Neurais: Conjuntos de Dados, Viés e Privacidade na Detecção de Deepfakes: Ethical Training of Neural Networks: Datasets, Bias, and Privacy in Deepfake Detection. RCMOS - Revista Científica Multidisciplinar O Saber, Brasil, v. 1, n. 2, 2024. DOI: 10.51473/rcmos.v1i2.2024.1871. Disponível em: https://submissoesrevistarcmos.com.br/rcmos/article/view/1871. Acesso em: 1 jan. 2026.