Unified Time Series Framework for Explainable Artificial Intelligence
| Ano de defesa: | 2025 |
|---|---|
| Autor(a) principal: | |
| Outros Autores: | , |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Tese |
| Tipo de acesso: | Acesso aberto |
| Idioma: | eng |
| Instituição de defesa: |
Universidade Federal do Amazonas
Instituto de Computação Brasil UFAM Programa de Pós-graduação em Informática |
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://tede.ufam.edu.br/handle/tede/11020 |
Resumo: | The increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis. |
| id |
UFAM_81cb2974f1951304c4319ec3e954648f |
|---|---|
| oai_identifier_str |
oai:https://tede.ufam.edu.br/handle/:tede/11020 |
| network_acronym_str |
UFAM |
| network_name_str |
Biblioteca Digital de Teses e Dissertações da UFAM |
| repository_id_str |
|
| spelling |
Unified Time Series Framework for Explainable Artificial IntelligenceCIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAOExplainable Artificial Intelligence (XAI)Time-Series dataMachine LearningThe increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis.A crescente complexidade dos modelos de aprendizado de máquina (ML) tornou seus processos de tomada de decisão difíceis de interpretar, representando um desafio crítico em domínios de alto risco onde confiança e transparência são essenciais. Embora os métodos de Inteligência Artificial Explicável (XAI) visem abordar essa questão, a maioria das técnicas existentes enfrenta limitações quando aplicadas diretamente a dados de séries temporais devido à sua natureza sequencial e contextual. Neste trabalho, apresentamos o framework UTS-XAI (Unified Time Series Framework for Explainable Artificial Intelligence), que integra um pipeline padrão de classificação de séries temporais com recursos de explicabilidade e ferramentas de avaliação específicas de domínio. O framework é compatível com múltiplos métodos de explicabilidade, como SHAP, LIME e Mapas de Saliência, e suporta sua avaliação sistemática por meio de versões adaptadas de métricas de XAI amplamente utilizadas (fidelidade, robustez, sensibilidade e estabilidade) reinterpretadas para dados temporais. Essas métricas são combinadas com medidas de similaridade e distância específicas de séries temporais, como MSE, MAE e DTW, para quantificar a qualidade da explicação. Também apresentamos o Global Interpretable Clustering (GIC), uma técnica de visualização projetada para avaliar a consistência das atribuições de características entre explicadores e modelos. Experimentos conduzidos em três conjuntos de dados de arritmia cardíaca do mundo real (MITBIH, SVDB, INCART), utilizando três arquiteturas de ML (XGBoost, DeepConvLSTM e FCN), mostram que o SHAP fornece explicações mais fiéis e estáveis, enquanto o LIME e os Mapas de Saliência exibem maior sensibilidade a ruídos e perturbações. Esses resultados destacam que a precisão por si só não é suficiente na modelagem de séries temporais sem uma interpretabilidade robusta. Ao incorporar a explicabilidade ao ciclo de vida de desenvolvimento do modelo, o UTS-XAI estabelece um novo padrão para IA interpretável e confiável na análise de dados temporais.CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorFAPEAM - Fundação de Amparo à Pesquisa do Estado do AmazonasUniversidade Federal do AmazonasInstituto de ComputaçãoBrasilUFAMPrograma de Pós-graduação em InformáticaSouto, Eduardo James Pereirahttp://lattes.cnpq.br/3875301617975895Veras, Rodrigo de Melo Souzahttp://lattes.cnpq.br/2634254790193199Campos, Andrea Gomeshttp://lattes.cnpq.br/0251364589832974Fernandes, Natalia Castrohttp://lattes.cnpq.br/4205779497458915Bragança, Hendrio Luis de Souzahttp://lattes.cnpq.br/7375456368369943https://orcid.org/0000-0003-1479-17072025-07-18T14:37:30Z2025-02-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisapplication/pdfBRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.https://tede.ufam.edu.br/handle/tede/11020enghttps://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFAMinstname:Universidade Federal do Amazonas (UFAM)instacron:UFAM2025-07-19T05:06:19Zoai:https://tede.ufam.edu.br/handle/:tede/11020Biblioteca Digital de Teses e Dissertaçõeshttp://200.129.163.131:8080/PUBhttp://200.129.163.131:8080/oai/requestddbc@ufam.edu.br||ddbc@ufam.edu.bropendoar:65922025-07-19T05:06:19Biblioteca Digital de Teses e Dissertações da UFAM - Universidade Federal do Amazonas (UFAM)false |
| dc.title.none.fl_str_mv |
Unified Time Series Framework for Explainable Artificial Intelligence |
| title |
Unified Time Series Framework for Explainable Artificial Intelligence |
| spellingShingle |
Unified Time Series Framework for Explainable Artificial Intelligence Bragança, Hendrio Luis de Souza CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO Explainable Artificial Intelligence (XAI) Time-Series data Machine Learning |
| title_short |
Unified Time Series Framework for Explainable Artificial Intelligence |
| title_full |
Unified Time Series Framework for Explainable Artificial Intelligence |
| title_fullStr |
Unified Time Series Framework for Explainable Artificial Intelligence |
| title_full_unstemmed |
Unified Time Series Framework for Explainable Artificial Intelligence |
| title_sort |
Unified Time Series Framework for Explainable Artificial Intelligence |
| author |
Bragança, Hendrio Luis de Souza |
| author_facet |
Bragança, Hendrio Luis de Souza http://lattes.cnpq.br/7375456368369943 https://orcid.org/0000-0003-1479-1707 |
| author_role |
author |
| author2 |
http://lattes.cnpq.br/7375456368369943 https://orcid.org/0000-0003-1479-1707 |
| author2_role |
author author |
| dc.contributor.none.fl_str_mv |
Souto, Eduardo James Pereira http://lattes.cnpq.br/3875301617975895 Veras, Rodrigo de Melo Souza http://lattes.cnpq.br/2634254790193199 Campos, Andrea Gomes http://lattes.cnpq.br/0251364589832974 Fernandes, Natalia Castro http://lattes.cnpq.br/4205779497458915 |
| dc.contributor.author.fl_str_mv |
Bragança, Hendrio Luis de Souza http://lattes.cnpq.br/7375456368369943 https://orcid.org/0000-0003-1479-1707 |
| dc.subject.por.fl_str_mv |
CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO Explainable Artificial Intelligence (XAI) Time-Series data Machine Learning |
| topic |
CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO Explainable Artificial Intelligence (XAI) Time-Series data Machine Learning |
| description |
The increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-07-18T14:37:30Z 2025-02-17 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
| format |
doctoralThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
BRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025. https://tede.ufam.edu.br/handle/tede/11020 |
| identifier_str_mv |
BRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025. |
| url |
https://tede.ufam.edu.br/handle/tede/11020 |
| dc.language.iso.fl_str_mv |
eng |
| language |
eng |
| dc.rights.driver.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ info:eu-repo/semantics/openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Federal do Amazonas Instituto de Computação Brasil UFAM Programa de Pós-graduação em Informática |
| publisher.none.fl_str_mv |
Universidade Federal do Amazonas Instituto de Computação Brasil UFAM Programa de Pós-graduação em Informática |
| dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFAM instname:Universidade Federal do Amazonas (UFAM) instacron:UFAM |
| instname_str |
Universidade Federal do Amazonas (UFAM) |
| instacron_str |
UFAM |
| institution |
UFAM |
| reponame_str |
Biblioteca Digital de Teses e Dissertações da UFAM |
| collection |
Biblioteca Digital de Teses e Dissertações da UFAM |
| repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFAM - Universidade Federal do Amazonas (UFAM) |
| repository.mail.fl_str_mv |
ddbc@ufam.edu.br||ddbc@ufam.edu.br |
| _version_ |
1851781322037526528 |