Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais
| Ano de defesa: | 2022 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Universidade Federal de Pernambuco
UFPE Brasil Programa de Pos Graduacao em Ciencia da Computacao |
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://repositorio.ufpe.br/handle/123456789/65164 |
Resumo: | As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos. |
| id |
UFPE_fa601b4c6b2f6aab72e4d3388f090eb6 |
|---|---|
| oai_identifier_str |
oai:repositorio.ufpe.br:123456789/65164 |
| network_acronym_str |
UFPE |
| network_name_str |
Repositório Institucional da UFPE |
| repository_id_str |
|
| spelling |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuaisInteligência computacionalAprendizagem de máquinaMineração de dadosAs soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos.The Artificial Intelligence (AI) applications, more specifically Machine Learning (ML), have reached increasing levels of performance due to computational capacity, data availability and emergence of new and increasingly complex methods. This complexity has been increas-ing the difficulty of interpreting the internal mechanism which leads the ML model in decision recommendation. Aiming to improve the interpretability and maintain the accuracy of these complex models, Explainable AI has emerged, with an important role in boosting trust and control of AI solutions. This work presents an analysis of the state of the art in the area, proposing a conceptual map to organize taxonomies and approaches. And performs a comparison between the main techniques in literature through experiments on a real data set to interpret a trained model to classify school performance, a domain in which the interpretation of model results is fundamental. The results point out the advantages and disadvantages of the approaches, discussions about the outputs provided, as well as a way to combine strate-gies. Given the gaps found, a new method is proposed in this research, the Textual SHAP. The method seeks to address the needs of the area, for example, considering the lay user’s perspective as the focus of explainability. The method extracts the main information from the chart from the global interpretation of SHAP, a state-of-the-art XAI technique, and converts it to a simpler format through texts and presents a tool with an interactive graphical inter-face. An evaluation was carried out with people with knowledge in the field of education and unfamiliar with AI. The results showed that the proposed approach is less complex to interpret and provides a higher level of understanding of what is exposed to users. With the textual explanation approach, the proposed method has the potential to achieve comprehensive and effective explanations, contributing to the advances of human-centered approaches.Universidade Federal de PernambucoUFPEBrasilPrograma de Pos Graduacao em Ciencia da ComputacaoVASCONCELOS, Germano CrispimZANCHETTIN, Cleberhttp://lattes.cnpq.br/6121156469215500http://lattes.cnpq.br/5943634209341438http://lattes.cnpq.br/1244195230407619GAMA NETO, Milton Vasconcelos da2022-08-18T12:31:50Z2025-08-19T15:09:37Z2022-08-18T12:31:50Z2025-08-19T15:09:37Z2022-03-10info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfGAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022.https://repositorio.ufpe.br/handle/123456789/65164porhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFPEinstname:Universidade Federal de Pernambuco (UFPE)instacron:UFPE2025-08-19T15:09:37Zoai:repositorio.ufpe.br:123456789/65164Repositório InstitucionalPUBhttps://repositorio.ufpe.br/oai/requestattena@ufpe.bropendoar:22212025-08-19T15:09:37Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)false |
| dc.title.none.fl_str_mv |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| title |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| spellingShingle |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais GAMA NETO, Milton Vasconcelos da Inteligência computacional Aprendizagem de máquina Mineração de dados |
| title_short |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| title_full |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| title_fullStr |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| title_full_unstemmed |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| title_sort |
Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais |
| author |
GAMA NETO, Milton Vasconcelos da |
| author_facet |
GAMA NETO, Milton Vasconcelos da |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
VASCONCELOS, Germano Crispim ZANCHETTIN, Cleber http://lattes.cnpq.br/6121156469215500 http://lattes.cnpq.br/5943634209341438 http://lattes.cnpq.br/1244195230407619 |
| dc.contributor.author.fl_str_mv |
GAMA NETO, Milton Vasconcelos da |
| dc.subject.por.fl_str_mv |
Inteligência computacional Aprendizagem de máquina Mineração de dados |
| topic |
Inteligência computacional Aprendizagem de máquina Mineração de dados |
| description |
As soluções de Inteligência Artificial (IA), mais especificamente de Aprendizagem de Máquina (AM), têm alcançado crescentes níveis de desempenho devido à capacidade computacional, disponibilidade de dados e surgimento de novos métodos cada vez mais complexos. Essa complexidade tem aumentado a dificuldade de interpretar o funcionamento interno que conduz os modelos de AM na recomendação das decisões. Com objetivo de aumentar a interpretabilidade e manter a acurácia desses modelos complexos, surgiu a área de Explainable AI (XAI), com papel importante para impulsionar a confiança e o controle das soluções de IA. Este trabalho apresenta uma análise do estado da arte da área, propondo um mapa conceitual para organizar as taxonomias e abordagens. E realiza uma comparação entre as principais técnicas da literatura através de experimentos em uma base de dados reais para interpretar um modelo treinado para classificar o desempenho escolar, domínio no qual a interpretação dos resultados dos modelos é fundamental. Os resultados apontam as vantagens e desvantagens das abordagens, discussões sobre as saídas fornecidas, bem como uma forma de combinar estratégias. Diante das lacunas encontradas, um novo método é proposto nesta pesquisa, o Textual SHAP. O método busca endereçar necessidades da área como, por exemplo, considerar a perspectiva do usuário leigo como foco da explicabilidade. O método extrai as principais informações do gráfico da interpretação global do SHAP, técnica do estado da arte de XAI, e converte para um formato mais simples por meio de textos e apresenta em uma ferramenta com interface gráfica interativa. Foi realizada uma avaliação através de questionários com pessoas com conhecimento no domínio da educação e sem familiaridade com IA. Os resultados demonstraram que a abordagem proposta é menos complexa de interpretar e fornece maior nível de compreensão do que é exposto para os usuários. Com a abordagem de explicação textual, o método proposto apresenta potencial para alcançar explicações compreensivas e eficazes, contribuindo para os avanços das abordagens centradas nos humanos. |
| publishDate |
2022 |
| dc.date.none.fl_str_mv |
2022-08-18T12:31:50Z 2022-08-18T12:31:50Z 2022-03-10 2025-08-19T15:09:37Z 2025-08-19T15:09:37Z |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
GAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022. https://repositorio.ufpe.br/handle/123456789/65164 |
| identifier_str_mv |
GAMA NETO, Milton Vasconcelos da. Análise comparativa das técnicas de Explainable AI e um novo método para geração de explicações textuais. 2022. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2022. |
| url |
https://repositorio.ufpe.br/handle/123456789/65164 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/3.0/br/ info:eu-repo/semantics/openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/3.0/br/ |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Federal de Pernambuco UFPE Brasil Programa de Pos Graduacao em Ciencia da Computacao |
| publisher.none.fl_str_mv |
Universidade Federal de Pernambuco UFPE Brasil Programa de Pos Graduacao em Ciencia da Computacao |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFPE instname:Universidade Federal de Pernambuco (UFPE) instacron:UFPE |
| instname_str |
Universidade Federal de Pernambuco (UFPE) |
| instacron_str |
UFPE |
| institution |
UFPE |
| reponame_str |
Repositório Institucional da UFPE |
| collection |
Repositório Institucional da UFPE |
| repository.name.fl_str_mv |
Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE) |
| repository.mail.fl_str_mv |
attena@ufpe.br |
| _version_ |
1856041965346357248 |