???jsp.display-item.social.title??? |
![]() ![]() |
Please use this identifier to cite or link to this item:
https://tede.ufam.edu.br/handle/tede/11020
???metadata.dc.type???: | Tese |
Title: | Unified Time Series Framework for Explainable Artificial Intelligence |
???metadata.dc.creator???: | Bragança, Hendrio Luis de Souza ![]() |
???metadata.dc.contributor.advisor1???: | Souto, Eduardo James Pereira |
???metadata.dc.contributor.referee1???: | Veras, Rodrigo de Melo Souza |
???metadata.dc.contributor.referee2???: | Campos, Andrea Gomes |
???metadata.dc.contributor.referee3???: | Fernandes, Natalia Castro |
???metadata.dc.contributor.referee4???: | Colonna, Juan Gabriel |
???metadata.dc.description.resumo???: | The increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis. |
Abstract: | A crescente complexidade dos modelos de aprendizado de máquina (ML) tornou seus processos de tomada de decisão difíceis de interpretar, representando um desafio crítico em domínios de alto risco onde confiança e transparência são essenciais. Embora os métodos de Inteligência Artificial Explicável (XAI) visem abordar essa questão, a maioria das técnicas existentes enfrenta limitações quando aplicadas diretamente a dados de séries temporais devido à sua natureza sequencial e contextual. Neste trabalho, apresentamos o framework UTS-XAI (Unified Time Series Framework for Explainable Artificial Intelligence), que integra um pipeline padrão de classificação de séries temporais com recursos de explicabilidade e ferramentas de avaliação específicas de domínio. O framework é compatível com múltiplos métodos de explicabilidade, como SHAP, LIME e Mapas de Saliência, e suporta sua avaliação sistemática por meio de versões adaptadas de métricas de XAI amplamente utilizadas (fidelidade, robustez, sensibilidade e estabilidade) reinterpretadas para dados temporais. Essas métricas são combinadas com medidas de similaridade e distância específicas de séries temporais, como MSE, MAE e DTW, para quantificar a qualidade da explicação. Também apresentamos o Global Interpretable Clustering (GIC), uma técnica de visualização projetada para avaliar a consistência das atribuições de características entre explicadores e modelos. Experimentos conduzidos em três conjuntos de dados de arritmia cardíaca do mundo real (MITBIH, SVDB, INCART), utilizando três arquiteturas de ML (XGBoost, DeepConvLSTM e FCN), mostram que o SHAP fornece explicações mais fiéis e estáveis, enquanto o LIME e os Mapas de Saliência exibem maior sensibilidade a ruídos e perturbações. Esses resultados destacam que a precisão por si só não é suficiente na modelagem de séries temporais sem uma interpretabilidade robusta. Ao incorporar a explicabilidade ao ciclo de vida de desenvolvimento do modelo, o UTS-XAI estabelece um novo padrão para IA interpretável e confiável na análise de dados temporais. |
???metadata.dc.subject.cnpq???: | CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO |
???metadata.dc.subject.user???: | Explainable Artificial Intelligence (XAI) Time-Series data Machine Learning |
Language: | eng |
???metadata.dc.publisher.country???: | Brasil |
Publisher: | Universidade Federal do Amazonas |
???metadata.dc.publisher.initials???: | UFAM |
???metadata.dc.publisher.department???: | Instituto de Computação |
???metadata.dc.publisher.program???: | Programa de Pós-graduação em Informática |
Citation: | BRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025. |
???metadata.dc.rights???: | Acesso Aberto |
???metadata.dc.rights.uri???: | https://creativecommons.org/licenses/by-nc-nd/4.0/ |
URI: | https://tede.ufam.edu.br/handle/tede/11020 |
Issue Date: | 17-Feb-2025 |
Appears in Collections: | Doutorado em Informática |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
TESE_HendrioBraganca_PPGI.pdf | 13.88 MB | Adobe PDF | Download/Open Preview |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.