Unified Time Series Framework for Explainable Artificial Intelligence

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Bragança, Hendrio Luis de Souza
Outros Autores: http://lattes.cnpq.br/7375456368369943, https://orcid.org/0000-0003-1479-1707
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: Universidade Federal do Amazonas
Instituto de Computação
Brasil
UFAM
Programa de Pós-graduação em Informática
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://tede.ufam.edu.br/handle/tede/11020
Resumo: The increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis.
id UFAM_81cb2974f1951304c4319ec3e954648f
oai_identifier_str oai:https://tede.ufam.edu.br/handle/:tede/11020
network_acronym_str UFAM
network_name_str Biblioteca Digital de Teses e Dissertações da UFAM
repository_id_str
spelling Unified Time Series Framework for Explainable Artificial IntelligenceCIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAOExplainable Artificial Intelligence (XAI)Time-Series dataMachine LearningThe increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis.A crescente complexidade dos modelos de aprendizado de máquina (ML) tornou seus processos de tomada de decisão difíceis de interpretar, representando um desafio crítico em domínios de alto risco onde confiança e transparência são essenciais. Embora os métodos de Inteligência Artificial Explicável (XAI) visem abordar essa questão, a maioria das técnicas existentes enfrenta limitações quando aplicadas diretamente a dados de séries temporais devido à sua natureza sequencial e contextual. Neste trabalho, apresentamos o framework UTS-XAI (Unified Time Series Framework for Explainable Artificial Intelligence), que integra um pipeline padrão de classificação de séries temporais com recursos de explicabilidade e ferramentas de avaliação específicas de domínio. O framework é compatível com múltiplos métodos de explicabilidade, como SHAP, LIME e Mapas de Saliência, e suporta sua avaliação sistemática por meio de versões adaptadas de métricas de XAI amplamente utilizadas (fidelidade, robustez, sensibilidade e estabilidade) reinterpretadas para dados temporais. Essas métricas são combinadas com medidas de similaridade e distância específicas de séries temporais, como MSE, MAE e DTW, para quantificar a qualidade da explicação. Também apresentamos o Global Interpretable Clustering (GIC), uma técnica de visualização projetada para avaliar a consistência das atribuições de características entre explicadores e modelos. Experimentos conduzidos em três conjuntos de dados de arritmia cardíaca do mundo real (MITBIH, SVDB, INCART), utilizando três arquiteturas de ML (XGBoost, DeepConvLSTM e FCN), mostram que o SHAP fornece explicações mais fiéis e estáveis, enquanto o LIME e os Mapas de Saliência exibem maior sensibilidade a ruídos e perturbações. Esses resultados destacam que a precisão por si só não é suficiente na modelagem de séries temporais sem uma interpretabilidade robusta. Ao incorporar a explicabilidade ao ciclo de vida de desenvolvimento do modelo, o UTS-XAI estabelece um novo padrão para IA interpretável e confiável na análise de dados temporais.CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorFAPEAM - Fundação de Amparo à Pesquisa do Estado do AmazonasUniversidade Federal do AmazonasInstituto de ComputaçãoBrasilUFAMPrograma de Pós-graduação em InformáticaSouto, Eduardo James Pereirahttp://lattes.cnpq.br/3875301617975895Veras, Rodrigo de Melo Souzahttp://lattes.cnpq.br/2634254790193199Campos, Andrea Gomeshttp://lattes.cnpq.br/0251364589832974Fernandes, Natalia Castrohttp://lattes.cnpq.br/4205779497458915Bragança, Hendrio Luis de Souzahttp://lattes.cnpq.br/7375456368369943https://orcid.org/0000-0003-1479-17072025-07-18T14:37:30Z2025-02-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisapplication/pdfBRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.https://tede.ufam.edu.br/handle/tede/11020enghttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFAMinstname:Universidade Federal do Amazonas (UFAM)instacron:UFAM2025-07-19T05:06:19Zoai:https://tede.ufam.edu.br/handle/:tede/11020Biblioteca Digital de Teses e Dissertaçõeshttp://200.129.163.131:8080/PUBhttp://200.129.163.131:8080/oai/requestddbc@ufam.edu.br||ddbc@ufam.edu.bropendoar:65922025-07-19T05:06:19Biblioteca Digital de Teses e Dissertações da UFAM - Universidade Federal do Amazonas (UFAM)false
dc.title.none.fl_str_mv Unified Time Series Framework for Explainable Artificial Intelligence
title Unified Time Series Framework for Explainable Artificial Intelligence
spellingShingle Unified Time Series Framework for Explainable Artificial Intelligence
Bragança, Hendrio Luis de Souza
CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
Explainable Artificial Intelligence (XAI)
Time-Series data
Machine Learning
title_short Unified Time Series Framework for Explainable Artificial Intelligence
title_full Unified Time Series Framework for Explainable Artificial Intelligence
title_fullStr Unified Time Series Framework for Explainable Artificial Intelligence
title_full_unstemmed Unified Time Series Framework for Explainable Artificial Intelligence
title_sort Unified Time Series Framework for Explainable Artificial Intelligence
author Bragança, Hendrio Luis de Souza
author_facet Bragança, Hendrio Luis de Souza
http://lattes.cnpq.br/7375456368369943
https://orcid.org/0000-0003-1479-1707
author_role author
author2 http://lattes.cnpq.br/7375456368369943
https://orcid.org/0000-0003-1479-1707
author2_role author
author
dc.contributor.none.fl_str_mv Souto, Eduardo James Pereira
http://lattes.cnpq.br/3875301617975895
Veras, Rodrigo de Melo Souza
http://lattes.cnpq.br/2634254790193199
Campos, Andrea Gomes
http://lattes.cnpq.br/0251364589832974
Fernandes, Natalia Castro
http://lattes.cnpq.br/4205779497458915
dc.contributor.author.fl_str_mv Bragança, Hendrio Luis de Souza
http://lattes.cnpq.br/7375456368369943
https://orcid.org/0000-0003-1479-1707
dc.subject.por.fl_str_mv CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
Explainable Artificial Intelligence (XAI)
Time-Series data
Machine Learning
topic CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
Explainable Artificial Intelligence (XAI)
Time-Series data
Machine Learning
description The increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis.
publishDate 2025
dc.date.none.fl_str_mv 2025-07-18T14:37:30Z
2025-02-17
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv BRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.
https://tede.ufam.edu.br/handle/tede/11020
identifier_str_mv BRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.
url https://tede.ufam.edu.br/handle/tede/11020
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal do Amazonas
Instituto de Computação
Brasil
UFAM
Programa de Pós-graduação em Informática
publisher.none.fl_str_mv Universidade Federal do Amazonas
Instituto de Computação
Brasil
UFAM
Programa de Pós-graduação em Informática
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFAM
instname:Universidade Federal do Amazonas (UFAM)
instacron:UFAM
instname_str Universidade Federal do Amazonas (UFAM)
instacron_str UFAM
institution UFAM
reponame_str Biblioteca Digital de Teses e Dissertações da UFAM
collection Biblioteca Digital de Teses e Dissertações da UFAM
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFAM - Universidade Federal do Amazonas (UFAM)
repository.mail.fl_str_mv ddbc@ufam.edu.br||ddbc@ufam.edu.br
_version_ 1851781322037526528