Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: GAMA NETO, Milton Vasconcelos da
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Pernambuco
UFPE
Brasil
Programa de Pos Graduacao em Ciencia da Computacao
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://repositorio.ufpe.br/handle/123456789/65164
Resumo: As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.
id UFPE_fa601b4c6b2f6aab72e4d3388f090eb6
oai_identifier_str oai:repositorio.ufpe.br:123456789/65164
network_acronym_str UFPE
network_name_str Repositório Institucional da UFPE
repository_id_str
spelling Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuaisInteligência computacionalAprendizagem de máquinaMineração de dadosAs soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.The Artificial Intelligence (AI) applications, more specifically Machine Learning (ML), have reached increasing levels of performance due to computational capacity, data availability and emergence of new and increasingly complex methods. This complexity has been increas-ing the difficulty of interpreting the internal mechanism which leads the ML model in decision recommendation. Aiming to improve the interpretability and maintain the accuracy of these complex models, Explainable AI has emerged, with an important role in boosting trust and control of AI solutions. This work presents an analysis of the state of the art in the area, proposing a conceptual map to organize taxonomies and approaches. And performs a comparison between the main techniques in literature through experiments on a real data set to interpret a trained model to classify school performance, a domain in which the interpretation of model results is fundamental. The results point out the advantages and disadvantages of the approaches, discussions about the outputs provided, as well as a way to combine strate-gies. Given the gaps found, a new method is proposed in this research, the Textual SHAP. The method seeks to address the needs of the area, for example, considering the lay user’s perspective as the focus of explainability. The method extracts the main information from the chart from the global interpretation of SHAP, a state-of-the-art XAI technique, and converts it to a simpler format through texts and presents a tool with an interactive graphical inter-face. An evaluation was carried out with people with knowledge in the field of education and unfamiliar with AI. The results showed that the proposed approach is less complex to interpret and provides a higher level of understanding of what is exposed to users. With the textual explanation approach, the proposed method has the potential to achieve comprehensive and effective explanations, contributing to the advances of human-centered approaches.Universidade Federal de PernambucoUFPEBrasilPrograma de Pos Graduacao em Ciencia da ComputacaoVASCONCELOS, Germano CrispimZANCHETTIN, Cleberhttp://lattes.cnpq.br/6121156469215500http://lattes.cnpq.br/5943634209341438http://lattes.cnpq.br/1244195230407619GAMA NETO, Milton Vasconcelos da2022-08-18T12:31:50Z2025-08-19T15:09:37Z2022-08-18T12:31:50Z2025-08-19T15:09:37Z2022-03-10info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfGAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.https://repositorio.ufpe.br/handle/123456789/65164porhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFPEinstname:Universidade Federal de Pernambuco (UFPE)instacron:UFPE2025-08-19T15:09:37Zoai:repositorio.ufpe.br:123456789/65164Repositório InstitucionalPUBhttps://repositorio.ufpe.br/oai/requestattena@ufpe.bropendoar:22212025-08-19T15:09:37Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)false
dc.title.none.fl_str_mv Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
title Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
spellingShingle Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
GAMA NETO, Milton Vasconcelos da
Inteligência computacional
Aprendizagem de máquina
Mineração de dados
title_short Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
title_full Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
title_fullStr Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
title_full_unstemmed Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
title_sort Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
author GAMA NETO, Milton Vasconcelos da
author_facet GAMA NETO, Milton Vasconcelos da
author_role author
dc.contributor.none.fl_str_mv VASCONCELOS, Germano Crispim
ZANCHETTIN, Cleber
http://lattes.cnpq.br/6121156469215500
http://lattes.cnpq.br/5943634209341438
http://lattes.cnpq.br/1244195230407619
dc.contributor.author.fl_str_mv GAMA NETO, Milton Vasconcelos da
dc.subject.por.fl_str_mv Inteligência computacional
Aprendizagem de máquina
Mineração de dados
topic Inteligência computacional
Aprendizagem de máquina
Mineração de dados
description As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.
publishDate 2022
dc.date.none.fl_str_mv 2022-08-18T12:31:50Z
2022-08-18T12:31:50Z
2022-03-10
2025-08-19T15:09:37Z
2025-08-19T15:09:37Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv GAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.
https://repositorio.ufpe.br/handle/123456789/65164
identifier_str_mv GAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.
url https://repositorio.ufpe.br/handle/123456789/65164
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/3.0/br/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/3.0/br/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de Pernambuco
UFPE
Brasil
Programa de Pos Graduacao em Ciencia da Computacao
publisher.none.fl_str_mv Universidade Federal de Pernambuco
UFPE
Brasil
Programa de Pos Graduacao em Ciencia da Computacao
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFPE
instname:Universidade Federal de Pernambuco (UFPE)
instacron:UFPE
instname_str Universidade Federal de Pernambuco (UFPE)
instacron_str UFPE
institution UFPE
reponame_str Repositório Institucional da UFPE
collection Repositório Institucional da UFPE
repository.name.fl_str_mv Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)
repository.mail.fl_str_mv attena@ufpe.br
_version_ 1856041965346357248