eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos
| Ano de defesa: | 2025 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Tese |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Universidade Estadual Paulista (Unesp)
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://hdl.handle.net/11449/314259 |
Resumo: | The growing complexity of Deep Learning models, particularly Convolutional Neural Networks (CNNs), presents a fundamental challenge in critical applications: the opacity of their decisionmaking processes. This thesis addresses this interpretability gap by proposing and validating a methodological framework termed eXAI (Ensemble Explainable Artificial Intelligence), designed to create image analysis systems that merge high predictive performance with transparency. Conceptually inspired by Ensemble Learning, the framework’s novelty lies not in combining predictive models, but in synergistically integrating an ensemble of explainability methods specifically combining SHAP for pixel-level attribution with Grad-CAM for region-level localization to provide a multi-faceted interpretation of a single model’s decisions. The framework’s flexibility and efficacy are demonstrated through two case studies in distinct domains. The first, focused on Diabetic Retinopathy diagnosis, implements a stacking architecture that integrates deep visual features from a CNN with structured clinical data, classified by a LightGBM (LGBM) meta-model. This multimodal approach achieved outstanding accuracy, while the XAI analysis validated the clinical relevance of its decision factors. The second case study, in digital forensics, applies a direct classification CNN to detect Seam Carving image manipulations. Here, XAI was crucial in revealing that the model learned to identify subtle structural distortion artifacts rather than relying on semantic content. The collective results demonstrate that the eXAI framework is a robust and adaptable approach for building trustworthy AI models for critical contexts. By delivering comprehensive and understandable explanations, this methodology enhances the confidence in, and practical utility of, artificial intelligence in both healthcare and information security. |
| id |
UNSP_a8476236279df8037b242bfef7708ee3 |
|---|---|
| oai_identifier_str |
oai:repositorio.unesp.br:11449/314259 |
| network_acronym_str |
UNSP |
| network_name_str |
Repositório Institucional da UNESP |
| repository_id_str |
|
| spelling |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticoseXAI: an innovative ensemble technique with explainable artificial intelligence applied to computer vision in critical contextsAprendizagem profunda (aprendizado do computador)Inteligência artificialRedes neuraisExplainable artificial intelligence (XAI)Ensemble learningDiabetic retinopathyThe growing complexity of Deep Learning models, particularly Convolutional Neural Networks (CNNs), presents a fundamental challenge in critical applications: the opacity of their decisionmaking processes. This thesis addresses this interpretability gap by proposing and validating a methodological framework termed eXAI (Ensemble Explainable Artificial Intelligence), designed to create image analysis systems that merge high predictive performance with transparency. Conceptually inspired by Ensemble Learning, the framework’s novelty lies not in combining predictive models, but in synergistically integrating an ensemble of explainability methods specifically combining SHAP for pixel-level attribution with Grad-CAM for region-level localization to provide a multi-faceted interpretation of a single model’s decisions. The framework’s flexibility and efficacy are demonstrated through two case studies in distinct domains. The first, focused on Diabetic Retinopathy diagnosis, implements a stacking architecture that integrates deep visual features from a CNN with structured clinical data, classified by a LightGBM (LGBM) meta-model. This multimodal approach achieved outstanding accuracy, while the XAI analysis validated the clinical relevance of its decision factors. The second case study, in digital forensics, applies a direct classification CNN to detect Seam Carving image manipulations. Here, XAI was crucial in revealing that the model learned to identify subtle structural distortion artifacts rather than relying on semantic content. The collective results demonstrate that the eXAI framework is a robust and adaptable approach for building trustworthy AI models for critical contexts. By delivering comprehensive and understandable explanations, this methodology enhances the confidence in, and practical utility of, artificial intelligence in both healthcare and information security.A crescente complexidade dos modelos de Aprendizado Profundo (deep learning), especialmente as Redes Neurais Convolucionais (CNNs), gerou um desafio fundamental em aplicações críticas: a falta de transparência e interpretabilidade de suas decisões. Esta tese aborda este problema ao propor um framework metodológico, o eXAI (Ensemble Explainable Artificial Intelligence), que visa desenvolver sistemas de análise de imagem que aliam alta performance preditiva à interpretabilidade. A metodologia proposta integra de forma sinérgica o deep learning com técnicas de Aprendizado de Conjunto (Ensemble Learning) e um ensemble de métodos de Inteligência Artificial Explicável (XAI), combinando o SHAP para atribuição em nível de pixel com o Grad-CAM para localização de regiões de interesse. A flexibilidade e a eficácia do framework eXAI são validadas através de dois estudos de caso em domínios distintos. O primeiro estudo de caso, focado no diagnóstico de Retinopatia Diabética, implementa uma arquitetura de stacking que combina as predições de uma CNN com dados clínicos estruturados, sendo o resultado final classificado por um meta-modelo LightGBM (LGBM). Esta abordagem multimodal demonstrou altíssima acurácia, e a análise XAI validou a relevância clínica dos fatores de decisão do modelo. O segundo estudo de caso, no domínio da forense digital, aplica uma CNN de classificação direta para detectar manipulações de imagem pela técnica de Seam Carving. Neste cenário, o XAI foi crucial para revelar que o modelo aprendeu a identificar artefatos de distorção estrutural, em vez de se basear no conteúdo semântico da imagem. Os resultados conjuntos demonstram que o framework eXAI é uma abordagem robusta e adaptável, capaz de gerar modelos de IA confiáveis para contextos críticos. Ao fornecer explicações compreensíveis e de múltiplas perspectivas, a metodologia contribui para aumentar a confiança e a utilidade prática da inteligência artificial tanto na área da saúde quanto na segurança da informação.Universidade Estadual Paulista (Unesp)Costa, Kelton Augusto Pontara da [UNESP]Universidade Estadual Paulista (Unesp)Mahlow, Felipe Rodrigues PercheNeves, Miguel Jose das [UNESP]2025-10-13T18:23:25Z2025-09-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisapplication/pdfNEVES, Miguel Jose das. eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos. 2025. Tese (Doutorado em Ciência da Computação) – Faculdade de Ciências, Universidade Estadual Paulista (UNESP), Bauru, 2025.https://hdl.handle.net/11449/31425933004153073P286904094699494490009-0009-7065-3668porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNESPinstname:Universidade Estadual Paulista (UNESP)instacron:UNESP2025-10-14T05:00:41Zoai:repositorio.unesp.br:11449/314259Repositório InstitucionalPUBhttp://repositorio.unesp.br/oai/requestrepositoriounesp@unesp.bropendoar:29462025-10-14T05:00:41Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)false |
| dc.title.none.fl_str_mv |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos eXAI: an innovative ensemble technique with explainable artificial intelligence applied to computer vision in critical contexts |
| title |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos |
| spellingShingle |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos Neves, Miguel Jose das [UNESP] Aprendizagem profunda (aprendizado do computador) Inteligência artificial Redes neurais Explainable artificial intelligence (XAI) Ensemble learning Diabetic retinopathy |
| title_short |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos |
| title_full |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos |
| title_fullStr |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos |
| title_full_unstemmed |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos |
| title_sort |
eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos |
| author |
Neves, Miguel Jose das [UNESP] |
| author_facet |
Neves, Miguel Jose das [UNESP] |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Costa, Kelton Augusto Pontara da [UNESP] Universidade Estadual Paulista (Unesp) Mahlow, Felipe Rodrigues Perche |
| dc.contributor.author.fl_str_mv |
Neves, Miguel Jose das [UNESP] |
| dc.subject.por.fl_str_mv |
Aprendizagem profunda (aprendizado do computador) Inteligência artificial Redes neurais Explainable artificial intelligence (XAI) Ensemble learning Diabetic retinopathy |
| topic |
Aprendizagem profunda (aprendizado do computador) Inteligência artificial Redes neurais Explainable artificial intelligence (XAI) Ensemble learning Diabetic retinopathy |
| description |
The growing complexity of Deep Learning models, particularly Convolutional Neural Networks (CNNs), presents a fundamental challenge in critical applications: the opacity of their decisionmaking processes. This thesis addresses this interpretability gap by proposing and validating a methodological framework termed eXAI (Ensemble Explainable Artificial Intelligence), designed to create image analysis systems that merge high predictive performance with transparency. Conceptually inspired by Ensemble Learning, the framework’s novelty lies not in combining predictive models, but in synergistically integrating an ensemble of explainability methods specifically combining SHAP for pixel-level attribution with Grad-CAM for region-level localization to provide a multi-faceted interpretation of a single model’s decisions. The framework’s flexibility and efficacy are demonstrated through two case studies in distinct domains. The first, focused on Diabetic Retinopathy diagnosis, implements a stacking architecture that integrates deep visual features from a CNN with structured clinical data, classified by a LightGBM (LGBM) meta-model. This multimodal approach achieved outstanding accuracy, while the XAI analysis validated the clinical relevance of its decision factors. The second case study, in digital forensics, applies a direct classification CNN to detect Seam Carving image manipulations. Here, XAI was crucial in revealing that the model learned to identify subtle structural distortion artifacts rather than relying on semantic content. The collective results demonstrate that the eXAI framework is a robust and adaptable approach for building trustworthy AI models for critical contexts. By delivering comprehensive and understandable explanations, this methodology enhances the confidence in, and practical utility of, artificial intelligence in both healthcare and information security. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-10-13T18:23:25Z 2025-09-24 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
| format |
doctoralThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
NEVES, Miguel Jose das. eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos. 2025. Tese (Doutorado em Ciência da Computação) – Faculdade de Ciências, Universidade Estadual Paulista (UNESP), Bauru, 2025. https://hdl.handle.net/11449/314259 33004153073P2 8690409469949449 0009-0009-7065-3668 |
| identifier_str_mv |
NEVES, Miguel Jose das. eXAI: uma técnica inovadora de ensemble com inteligência artificial explicável aplicada à visão computacional em contextos críticos. 2025. Tese (Doutorado em Ciência da Computação) – Faculdade de Ciências, Universidade Estadual Paulista (UNESP), Bauru, 2025. 33004153073P2 8690409469949449 0009-0009-7065-3668 |
| url |
https://hdl.handle.net/11449/314259 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Estadual Paulista (Unesp) |
| publisher.none.fl_str_mv |
Universidade Estadual Paulista (Unesp) |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UNESP instname:Universidade Estadual Paulista (UNESP) instacron:UNESP |
| instname_str |
Universidade Estadual Paulista (UNESP) |
| instacron_str |
UNESP |
| institution |
UNESP |
| reponame_str |
Repositório Institucional da UNESP |
| collection |
Repositório Institucional da UNESP |
| repository.name.fl_str_mv |
Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP) |
| repository.mail.fl_str_mv |
repositoriounesp@unesp.br |
| _version_ |
1854955083224055808 |