eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Neves, Miguel Jose das [UNESP]
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Estadual Paulista (Unesp)
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://hdl.handle.net/11449/314259
Resumo: The growing complexity of Deep Learning models, particularly Convolutional Neural Networks (CNNs), presents a fundamental challenge in critical applications: the opacity of their decisionmaking processes. This thesis addresses this interpretability gap by proposing and validating a methodological framework termed eXAI (Ensemble Explainable Artificial Intelligence), designed to create image analysis systems that merge high predictive performance with transparency. Conceptually inspired by Ensemble Learning, the framework’s novelty lies not in combining predictive models, but in synergistically integrating an ensemble of explainability methods specifically combining SHAP for pixel-level attribution with Grad-CAM for region-level localization to provide a multi-faceted interpretation of a single model’s decisions. The framework’s flexibility and efficacy are demonstrated through two case studies in distinct domains. The first, focused on Diabetic Retinopathy diagnosis, implements a stacking architecture that integrates deep visual features from a CNN with structured clinical data, classified by a LightGBM (LGBM) meta-model. This multimodal approach achieved outstanding accuracy, while the XAI analysis validated the clinical relevance of its decision factors. The second case study, in digital forensics, applies a direct classification CNN to detect Seam Carving image manipulations. Here, XAI was crucial in revealing that the model learned to identify subtle structural distortion artifacts rather than relying on semantic content. The collective results demonstrate that the eXAI framework is a robust and adaptable approach for building trustworthy AI models for critical contexts. By delivering comprehensive and understandable explanations, this methodology enhances the confidence in, and practical utility of, artificial intelligence in both healthcare and information security.
id UNSP_a8476236279df8037b242bfef7708ee3
oai_identifier_str oai:repositorio.unesp.br:11449/314259
network_acronym_str UNSP
network_name_str Repositório Institucional da UNESP
repository_id_str
spelling eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticoseXAI: an innovative ensemble technique with explainable artificial intelligence applied to computer vision in critical contextsAprendizagem profunda (aprendizado do computador)Inteligência artificialRedes neuraisExplainable artificial intelligence (XAI)Ensemble learningDiabetic retinopathyThe growing complexity of Deep Learning models, particularly Convolutional Neural Networks (CNNs), presents a fundamental challenge in critical applications: the opacity of their decisionmaking processes. This thesis addresses this interpretability gap by proposing and validating a methodological framework termed eXAI (Ensemble Explainable Artificial Intelligence), designed to create image analysis systems that merge high predictive performance with transparency. Conceptually inspired by Ensemble Learning, the framework’s novelty lies not in combining predictive models, but in synergistically integrating an ensemble of explainability methods specifically combining SHAP for pixel-level attribution with Grad-CAM for region-level localization to provide a multi-faceted interpretation of a single model’s decisions. The framework’s flexibility and efficacy are demonstrated through two case studies in distinct domains. The first, focused on Diabetic Retinopathy diagnosis, implements a stacking architecture that integrates deep visual features from a CNN with structured clinical data, classified by a LightGBM (LGBM) meta-model. This multimodal approach achieved outstanding accuracy, while the XAI analysis validated the clinical relevance of its decision factors. The second case study, in digital forensics, applies a direct classification CNN to detect Seam Carving image manipulations. Here, XAI was crucial in revealing that the model learned to identify subtle structural distortion artifacts rather than relying on semantic content. The collective results demonstrate that the eXAI framework is a robust and adaptable approach for building trustworthy AI models for critical contexts. By delivering comprehensive and understandable explanations, this methodology enhances the confidence in, and practical utility of, artificial intelligence in both healthcare and information security.A crescente complexidade dos modelos de Aprendizado Profundo (deep learning), especialmente as Redes Neurais Convolucionais (CNNs), gerou um desafio fundamental em aplicações críticas: a falta de transparência e interpretabilidade de suas decisões. Esta tese aborda este problema ao propor um framework metodológico, o eXAI (Ensemble Explainable Artificial Intelligence), que visa desenvolver sistemas de análise de imagem que aliam alta performance preditiva à interpretabilidade. A metodologia proposta integra de forma sinérgica o deep learning com técnicas de Aprendizado de Conjunto (Ensemble Learning) e um ensemble de métodos de Inteligência Artificial Explicável (XAI), combinando o SHAP para atribuição em nível de pixel com o Grad-CAM para localização de regiões de interesse. A flexibilidade e a eficácia do framework eXAI são validadas através de dois estudos de caso em domínios distintos. O primeiro estudo de caso, focado no diagnóstico de Retinopatia Diabética, implementa uma arquitetura de stacking que combina as predições de uma CNN com dados clínicos estruturados, sendo o resultado final classificado por um meta-modelo LightGBM (LGBM). Esta abordagem multimodal demonstrou altíssima acurácia, e a análise XAI validou a relevância clínica dos fatores de decisão do modelo. O segundo estudo de caso, no domínio da forense digital, aplica uma CNN de classificação direta para detectar manipulações de imagem pela técnica de Seam Carving. Neste cenário, o XAI foi crucial para revelar que o modelo aprendeu a identificar artefatos de distorção estrutural, em vez de se basear no conteúdo semântico da imagem. Os resultados conjuntos demonstram que o framework eXAI é uma abordagem robusta e adaptável, capaz de gerar modelos de IA confiáveis para contextos críticos. Ao fornecer explicações compreensíveis e de múltiplas perspectivas, a metodologia contribui para aumentar a confiança e a utilidade prática da inteligência artificial tanto na área da saúde quanto na segurança da informação.Universidade Estadual Paulista (Unesp)Costa, Kelton Augusto Pontara da [UNESP]Universidade Estadual Paulista (Unesp)Mahlow, Felipe Rodrigues PercheNeves, Miguel Jose das [UNESP]2025-10-13T18:23:25Z2025-09-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisapplication/pdfNEVES, Miguel Jose das. eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos. 2025. Tese (Doutorado em Ciência da Computação) – Faculdade de Ciências, Universidade Estadual Paulista (UNESP), Bauru, 2025.https://hdl.handle.net/11449/31425933004153073P286904094699494490009-0009-7065-3668porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNESPinstname:Universidade Estadual Paulista (UNESP)instacron:UNESP2025-10-14T05:00:41Zoai:repositorio.unesp.br:11449/314259Repositório InstitucionalPUBhttp://repositorio.unesp.br/oai/requestrepositoriounesp@unesp.bropendoar:29462025-10-14T05:00:41Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)false
dc.title.none.fl_str_mv eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
eXAI: an innovative ensemble technique with explainable artificial intelligence applied to computer vision in critical contexts
title eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
spellingShingle eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
Neves, Miguel Jose das [UNESP]
Aprendizagem profunda (aprendizado do computador)
Inteligência artificial
Redes neurais
Explainable artificial intelligence (XAI)
Ensemble learning
Diabetic retinopathy
title_short eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
title_full eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
title_fullStr eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
title_full_unstemmed eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
title_sort eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
author Neves, Miguel Jose das [UNESP]
author_facet Neves, Miguel Jose das [UNESP]
author_role author
dc.contributor.none.fl_str_mv Costa, Kelton Augusto Pontara da [UNESP]
Universidade Estadual Paulista (Unesp)
Mahlow, Felipe Rodrigues Perche
dc.contributor.author.fl_str_mv Neves, Miguel Jose das [UNESP]
dc.subject.por.fl_str_mv Aprendizagem profunda (aprendizado do computador)
Inteligência artificial
Redes neurais
Explainable artificial intelligence (XAI)
Ensemble learning
Diabetic retinopathy
topic Aprendizagem profunda (aprendizado do computador)
Inteligência artificial
Redes neurais
Explainable artificial intelligence (XAI)
Ensemble learning
Diabetic retinopathy
description The growing complexity of Deep Learning models, particularly Convolutional Neural Networks (CNNs), presents a fundamental challenge in critical applications: the opacity of their decisionmaking processes. This thesis addresses this interpretability gap by proposing and validating a methodological framework termed eXAI (Ensemble Explainable Artificial Intelligence), designed to create image analysis systems that merge high predictive performance with transparency. Conceptually inspired by Ensemble Learning, the framework’s novelty lies not in combining predictive models, but in synergistically integrating an ensemble of explainability methods specifically combining SHAP for pixel-level attribution with Grad-CAM for region-level localization to provide a multi-faceted interpretation of a single model’s decisions. The framework’s flexibility and efficacy are demonstrated through two case studies in distinct domains. The first, focused on Diabetic Retinopathy diagnosis, implements a stacking architecture that integrates deep visual features from a CNN with structured clinical data, classified by a LightGBM (LGBM) meta-model. This multimodal approach achieved outstanding accuracy, while the XAI analysis validated the clinical relevance of its decision factors. The second case study, in digital forensics, applies a direct classification CNN to detect Seam Carving image manipulations. Here, XAI was crucial in revealing that the model learned to identify subtle structural distortion artifacts rather than relying on semantic content. The collective results demonstrate that the eXAI framework is a robust and adaptable approach for building trustworthy AI models for critical contexts. By delivering comprehensive and understandable explanations, this methodology enhances the confidence in, and practical utility of, artificial intelligence in both healthcare and information security.
publishDate 2025
dc.date.none.fl_str_mv 2025-10-13T18:23:25Z
2025-09-24
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv NEVES, Miguel Jose das. eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos. 2025. Tese (Doutorado em Ciência da Computação) – Faculdade de Ciências, Universidade Estadual Paulista (UNESP), Bauru, 2025.
https://hdl.handle.net/11449/314259
33004153073P2
8690409469949449
0009-0009-7065-3668
identifier_str_mv NEVES, Miguel Jose das. eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos. 2025. Tese (Doutorado em Ciência da Computação) – Faculdade de Ciências, Universidade Estadual Paulista (UNESP), Bauru, 2025.
33004153073P2
8690409469949449
0009-0009-7065-3668
url https://hdl.handle.net/11449/314259
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Estadual Paulista (Unesp)
publisher.none.fl_str_mv Universidade Estadual Paulista (Unesp)
dc.source.none.fl_str_mv reponame:Repositório Institucional da UNESP
instname:Universidade Estadual Paulista (UNESP)
instacron:UNESP
instname_str Universidade Estadual Paulista (UNESP)
instacron_str UNESP
institution UNESP
reponame_str Repositório Institucional da UNESP
collection Repositório Institucional da UNESP
repository.name.fl_str_mv Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)
repository.mail.fl_str_mv repositoriounesp@unesp.br
_version_ 1854955083224055808