[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE
| Ano de defesa: | 2025 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Tese |
| Tipo de acesso: | Acesso aberto |
| Idioma: | eng |
| Instituição de defesa: |
MAXWELL
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=1 https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=2 http://doi.org/10.17771/PUCRio.acad.71825 |
Resumo: | [pt] O uso de modelos de Aprendizado de Máquina (ML) em diversos domínios tem crescido exponcialmente nos últimos anos. Esses modelos realizam tarefas críticas que abrangem por exemplo diagnósticos médicos, sentenças criminais e aprovações de empréstimo. Para permitir que usuários compreendam a lógica por trás das predições e gerar confiança, esses modelos deveriam ser interpretáveis. Igualmente vital é a capacidade de desenvolvedores de localizar e corrigir quaisquer comportamentos errôneos. Neste contexto surge o campo de Inteligência Artificial Explicável (XAI), que visa desenvolver métodos para tornar modelos de ML mais interpretáveis, enquanto mantém seu nível de performance. Diversos métodos foram propostos, muitos aproveitando-se de explicações visuais para elucidar o comportamento do modelo. Porém, uma lacuna notável permanece: a ausência de uma avaliação rigorosa em relação à eficácia dessas explicações em melhorar a interpretabilidade. Resultados anteriores mostraram que visualizações apresentadas por estes métodos podem ser confusos mesmo para usuários que têm um histórico matemático e que há a necessidade para pesquisadores de XAI trabalharem colaborativamente com especialistas de Visualização da Informação, além de testar as visualizações com usuários com bases diversas. Um dos métodos de XAI mais utilizados recentemente é o método SHAP, cujas representações visuais não tiveram a sua eficácia avaliada anteriomente. Por conta disso, nós desenvolvemos um estudo onde trabalhamos em conjunto com pesquisadores de visualização e desenvolvemos viusalizações baseadas nas informações que o método SHAP fornece, tendo em mente fatores considerados na literatura como características que geram eficácia a uma explicação. Avaliamos estas visualizações com pessoas com diversos históricos com o objetivo de avaliar se as visualizações são eficazes em melhorar o seu entendimento do modelo. Com os resultados deste estudo, promomos uma abordagem para produzir e avaliar representações visuais de explicações tendo como objetivo a sua eficácia. |
| id |
PUC_RIO-1_b42754b7068d7236f4a36fd88185ec1c |
|---|---|
| oai_identifier_str |
oai:MAXWELL.puc-rio.br:71825 |
| network_acronym_str |
PUC_RIO-1 |
| network_name_str |
Repositório Institucional da PUC-RIO (Projeto Maxwell) |
| repository_id_str |
|
| spelling |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE [pt] PRODUZINDO E AVALIANDO REPRESENTAÇÕES VISUAIS PARA UMA EFICAZ INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL [pt] INTERPRETABILIDADE[pt] VISUALIZACAO[pt] SHAP VALUE[pt] APRENDIZADO DE MAQUINA[pt] INTELIGENCIA ARTIFICIAL EXPLICAVEL[en] INTERPRETABILITY[en] VISUALIZATION[en] SHAP VALUE[en] MACHINE LEARNING[en] EXPLAINABLE AI[pt] O uso de modelos de Aprendizado de Máquina (ML) em diversos domínios tem crescido exponcialmente nos últimos anos. Esses modelos realizam tarefas críticas que abrangem por exemplo diagnósticos médicos, sentenças criminais e aprovações de empréstimo. Para permitir que usuários compreendam a lógica por trás das predições e gerar confiança, esses modelos deveriam ser interpretáveis. Igualmente vital é a capacidade de desenvolvedores de localizar e corrigir quaisquer comportamentos errôneos. Neste contexto surge o campo de Inteligência Artificial Explicável (XAI), que visa desenvolver métodos para tornar modelos de ML mais interpretáveis, enquanto mantém seu nível de performance. Diversos métodos foram propostos, muitos aproveitando-se de explicações visuais para elucidar o comportamento do modelo. Porém, uma lacuna notável permanece: a ausência de uma avaliação rigorosa em relação à eficácia dessas explicações em melhorar a interpretabilidade. Resultados anteriores mostraram que visualizações apresentadas por estes métodos podem ser confusos mesmo para usuários que têm um histórico matemático e que há a necessidade para pesquisadores de XAI trabalharem colaborativamente com especialistas de Visualização da Informação, além de testar as visualizações com usuários com bases diversas. Um dos métodos de XAI mais utilizados recentemente é o método SHAP, cujas representações visuais não tiveram a sua eficácia avaliada anteriomente. Por conta disso, nós desenvolvemos um estudo onde trabalhamos em conjunto com pesquisadores de visualização e desenvolvemos viusalizações baseadas nas informações que o método SHAP fornece, tendo em mente fatores considerados na literatura como características que geram eficácia a uma explicação. Avaliamos estas visualizações com pessoas com diversos históricos com o objetivo de avaliar se as visualizações são eficazes em melhorar o seu entendimento do modelo. Com os resultados deste estudo, promomos uma abordagem para produzir e avaliar representações visuais de explicações tendo como objetivo a sua eficácia.[en] The employment of Machine Learning (ML) models across diverse domains has grown exponentially in recent years. These models undertake critical tasks spanning medical diagnoses, criminal sentencing, and loan approvals. To enable users to grasp the rationale behind predictions and engender trust, these models should be interpretable. Equally vital is the capability of developers to pinpoint and rectify any erroneous behaviors. In this context emerges the field of Explainable Artificial Intelligence (XAI), which aims to develop methods to make ML models more interpretable while maintaining their performance level. Various methods have been proposed, many leveraging visual explanations to elucidate model behavior. However, a notable gap remains: a lack of rigorous assessment regarding the effectiveness of these explanations in enhancing i nterpretability. Previous findings showed that the visualizations presented by these methods can be confusing even for users who have a mathematical background and that there is a need for XAI researchers to work collaboratively with Information Visualization experts to develop these visualizations, as well as test the visualizations with users of various backgrounds. One of the most used XAI methods recently is the SHAP method, whose visual representations have not had their efficacy assessed before. Therefore, we developed a study where we worked together with visualization researchers and developed visualizations based on the information that the SHAP method provides, having in mind factors that are considered in literature to engender effectiveness to an explanation. We evaluated these visualizations with people from various backgrounds in order to assess if the visualizations are efficient in improving their understanding of the model. With the results of this study we propose an approach to produce and evaluate visual representations of explanations targeting their effectiveness.MAXWELLSIMONE DINIZ JUNQUEIRA BARBOSASIMONE DINIZ JUNQUEIRA BARBOSABIANCA MOREIRA CUNHA2025-07-23info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesishttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=1https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=2http://doi.org/10.17771/PUCRio.acad.71825engreponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)instacron:PUC_RIOinfo:eu-repo/semantics/openAccess2025-07-25T00:00:00Zoai:MAXWELL.puc-rio.br:71825Repositório InstitucionalPRIhttps://www.maxwell.vrac.puc-rio.br/ibict.phpopendoar:5342025-07-25T00:00Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)false |
| dc.title.none.fl_str_mv |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE [pt] PRODUZINDO E AVALIANDO REPRESENTAÇÕES VISUAIS PARA UMA EFICAZ INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL |
| title |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE |
| spellingShingle |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE BIANCA MOREIRA CUNHA [pt] INTERPRETABILIDADE [pt] VISUALIZACAO [pt] SHAP VALUE [pt] APRENDIZADO DE MAQUINA [pt] INTELIGENCIA ARTIFICIAL EXPLICAVEL [en] INTERPRETABILITY [en] VISUALIZATION [en] SHAP VALUE [en] MACHINE LEARNING [en] EXPLAINABLE AI |
| title_short |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE |
| title_full |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE |
| title_fullStr |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE |
| title_full_unstemmed |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE |
| title_sort |
[en] PRODUCING AND EVALUATING VISUAL REPRESENTATIONS TOWARD EFFECTIVE EXPLAINABLE ARTIFICIAL INTELLIGENCE |
| author |
BIANCA MOREIRA CUNHA |
| author_facet |
BIANCA MOREIRA CUNHA |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
SIMONE DINIZ JUNQUEIRA BARBOSA SIMONE DINIZ JUNQUEIRA BARBOSA |
| dc.contributor.author.fl_str_mv |
BIANCA MOREIRA CUNHA |
| dc.subject.por.fl_str_mv |
[pt] INTERPRETABILIDADE [pt] VISUALIZACAO [pt] SHAP VALUE [pt] APRENDIZADO DE MAQUINA [pt] INTELIGENCIA ARTIFICIAL EXPLICAVEL [en] INTERPRETABILITY [en] VISUALIZATION [en] SHAP VALUE [en] MACHINE LEARNING [en] EXPLAINABLE AI |
| topic |
[pt] INTERPRETABILIDADE [pt] VISUALIZACAO [pt] SHAP VALUE [pt] APRENDIZADO DE MAQUINA [pt] INTELIGENCIA ARTIFICIAL EXPLICAVEL [en] INTERPRETABILITY [en] VISUALIZATION [en] SHAP VALUE [en] MACHINE LEARNING [en] EXPLAINABLE AI |
| description |
[pt] O uso de modelos de Aprendizado de Máquina (ML) em diversos domínios tem crescido exponcialmente nos últimos anos. Esses modelos realizam tarefas críticas que abrangem por exemplo diagnósticos médicos, sentenças criminais e aprovações de empréstimo. Para permitir que usuários compreendam a lógica por trás das predições e gerar confiança, esses modelos deveriam ser interpretáveis. Igualmente vital é a capacidade de desenvolvedores de localizar e corrigir quaisquer comportamentos errôneos. Neste contexto surge o campo de Inteligência Artificial Explicável (XAI), que visa desenvolver métodos para tornar modelos de ML mais interpretáveis, enquanto mantém seu nível de performance. Diversos métodos foram propostos, muitos aproveitando-se de explicações visuais para elucidar o comportamento do modelo. Porém, uma lacuna notável permanece: a ausência de uma avaliação rigorosa em relação à eficácia dessas explicações em melhorar a interpretabilidade. Resultados anteriores mostraram que visualizações apresentadas por estes métodos podem ser confusos mesmo para usuários que têm um histórico matemático e que há a necessidade para pesquisadores de XAI trabalharem colaborativamente com especialistas de Visualização da Informação, além de testar as visualizações com usuários com bases diversas. Um dos métodos de XAI mais utilizados recentemente é o método SHAP, cujas representações visuais não tiveram a sua eficácia avaliada anteriomente. Por conta disso, nós desenvolvemos um estudo onde trabalhamos em conjunto com pesquisadores de visualização e desenvolvemos viusalizações baseadas nas informações que o método SHAP fornece, tendo em mente fatores considerados na literatura como características que geram eficácia a uma explicação. Avaliamos estas visualizações com pessoas com diversos históricos com o objetivo de avaliar se as visualizações são eficazes em melhorar o seu entendimento do modelo. Com os resultados deste estudo, promomos uma abordagem para produzir e avaliar representações visuais de explicações tendo como objetivo a sua eficácia. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-07-23 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
| format |
doctoralThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=1 https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=2 http://doi.org/10.17771/PUCRio.acad.71825 |
| url |
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=1 https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=71825&idi=2 http://doi.org/10.17771/PUCRio.acad.71825 |
| dc.language.iso.fl_str_mv |
eng |
| language |
eng |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.publisher.none.fl_str_mv |
MAXWELL |
| publisher.none.fl_str_mv |
MAXWELL |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da PUC-RIO (Projeto Maxwell) instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO) instacron:PUC_RIO |
| instname_str |
Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO) |
| instacron_str |
PUC_RIO |
| institution |
PUC_RIO |
| reponame_str |
Repositório Institucional da PUC-RIO (Projeto Maxwell) |
| collection |
Repositório Institucional da PUC-RIO (Projeto Maxwell) |
| repository.name.fl_str_mv |
Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO) |
| repository.mail.fl_str_mv |
|
| _version_ |
1854134994545410048 |