Regressão quantílica multitarefa via redes neurais profundas

Detalhes bibliográficos
Ano de defesa: 2024
Autor(a) principal: Zeco, Estevão Sérgio
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Não Informado pela instituição
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://repositorio.unb.br/handle/10482/51811
Resumo: A regressão quantílica via redes neurais tem se consolidado como uma abordagem poderosa para modelar relações não lineares entre variáveis, permitindo a estimação individual de quantis condicionais. No entanto, essa técnica enfrenta desafios quando é necessário estimar múltiplos quantis simultaneamente. Neste trabalho, propomos uma nova arquitetura para Regressão Quantílica Multitarefa via Redes Neurais Profundas, visando aprimorar tanto a precisão quanto a eficiência computacional na estimação de quantis. Baseada na arquitetura de Kuleshov e Deshpande (2022), essa nova arquitetura, denominada RQRN1E, inova ao unificar dois estágios da arquitetura original em um único estágio e ao introduzir o logito do τ diretamente na penúltima camada intermediária da rede. Nos três conjuntos de dados avaliados, os resultados evidenciaram que o modelo RQRN1E superou os modelos concorrentes, apresentando consistentemente a menor perda quantílica e a melhor cobertura para os quantis, o que reflete uma melhor precisão e calibração na estimativa dos quantis. Além disso, o RQRN1E destacou-se pela eficiência computacional, com menor tempo de processamento e rápida convergência, sem comprometer a qualidade das previsões.
id UNB_f14c9d73cf4fde9f4c007a0ed98533fb
oai_identifier_str oai:repositorio.unb.br:10482/51811
network_acronym_str UNB
network_name_str Repositório Institucional da UnB
repository_id_str
spelling Regressão quantílica multitarefa via redes neurais profundasCalibraçãoMultitarefasRedes neuraisRegressão gaussianaRegressão quantílicaPerda quantílicaA regressão quantílica via redes neurais tem se consolidado como uma abordagem poderosa para modelar relações não lineares entre variáveis, permitindo a estimação individual de quantis condicionais. No entanto, essa técnica enfrenta desafios quando é necessário estimar múltiplos quantis simultaneamente. Neste trabalho, propomos uma nova arquitetura para Regressão Quantílica Multitarefa via Redes Neurais Profundas, visando aprimorar tanto a precisão quanto a eficiência computacional na estimação de quantis. Baseada na arquitetura de Kuleshov e Deshpande (2022), essa nova arquitetura, denominada RQRN1E, inova ao unificar dois estágios da arquitetura original em um único estágio e ao introduzir o logito do τ diretamente na penúltima camada intermediária da rede. Nos três conjuntos de dados avaliados, os resultados evidenciaram que o modelo RQRN1E superou os modelos concorrentes, apresentando consistentemente a menor perda quantílica e a melhor cobertura para os quantis, o que reflete uma melhor precisão e calibração na estimativa dos quantis. Além disso, o RQRN1E destacou-se pela eficiência computacional, com menor tempo de processamento e rápida convergência, sem comprometer a qualidade das previsões.Quantile regression via neural networks has emerged as a powerful approach for modeling nonlinear relationships between variables, allowing for the individual estimation of conditional quantiles. However, this technique faces challenges when estimating multiple quantiles simultaneously. In this work, we propose a new architecture for Multitask Quantile Regression via Deep Neural Networks, aiming to improve both accuracy and computational efficiency in quantile estimation. Based on the architecture of Kuleshov e Deshpande (2022), this new architecture, called RQRN1E, introduces innovations by unifying the two stages of the original architecture into a single stage and incorporating the logit of τ directly into the penultimate intermediate layer of the network. In the three datasets evaluated, the results showed that the RQRN1E model outperformed competing models, consistently achieving the lowest quantile loss and the best coverage for the quantiles, reflecting better accuracy and calibration in quantile estimation. Furthermore, RQRN1E excelled in computational efficiency, with reduced processing time and faster convergence, without compromising prediction quality.Instituto de Ciências Exatas (IE)Departamento de Estatística (IE EST)Programa de Pós-Graduação em EstatísticaRodrigues, Thais Carvalho ValadaresZeco, Estevão Sérgio2025-03-12T17:34:13Z2025-03-12T17:34:13Z2025-03-122024-09-26info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfZECO, Estevão Sérgio. Regressão Quantílica Multitarefa via Redes Neurais Profundas. 2024. 72 f. Dissertação (Mestrado em Estatística) — Universidade de Brasília, Brasília, 2024.http://repositorio.unb.br/handle/10482/51811porA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UnBinstname:Universidade de Brasília (UnB)instacron:UNB2025-03-12T17:34:13Zoai:repositorio.unb.br:10482/51811Repositório InstitucionalPUBhttps://repositorio.unb.br/oai/requestrepositorio@unb.bropendoar:2025-03-12T17:34:13Repositório Institucional da UnB - Universidade de Brasília (UnB)false
dc.title.none.fl_str_mv Regressão quantílica multitarefa via redes neurais profundas
title Regressão quantílica multitarefa via redes neurais profundas
spellingShingle Regressão quantílica multitarefa via redes neurais profundas
Zeco, Estevão Sérgio
Calibração
Multitarefas
Redes neurais
Regressão gaussiana
Regressão quantílica
Perda quantílica
title_short Regressão quantílica multitarefa via redes neurais profundas
title_full Regressão quantílica multitarefa via redes neurais profundas
title_fullStr Regressão quantílica multitarefa via redes neurais profundas
title_full_unstemmed Regressão quantílica multitarefa via redes neurais profundas
title_sort Regressão quantílica multitarefa via redes neurais profundas
author Zeco, Estevão Sérgio
author_facet Zeco, Estevão Sérgio
author_role author
dc.contributor.none.fl_str_mv Rodrigues, Thais Carvalho Valadares
dc.contributor.author.fl_str_mv Zeco, Estevão Sérgio
dc.subject.por.fl_str_mv Calibração
Multitarefas
Redes neurais
Regressão gaussiana
Regressão quantílica
Perda quantílica
topic Calibração
Multitarefas
Redes neurais
Regressão gaussiana
Regressão quantílica
Perda quantílica
description A regressão quantílica via redes neurais tem se consolidado como uma abordagem poderosa para modelar relações não lineares entre variáveis, permitindo a estimação individual de quantis condicionais. No entanto, essa técnica enfrenta desafios quando é necessário estimar múltiplos quantis simultaneamente. Neste trabalho, propomos uma nova arquitetura para Regressão Quantílica Multitarefa via Redes Neurais Profundas, visando aprimorar tanto a precisão quanto a eficiência computacional na estimação de quantis. Baseada na arquitetura de Kuleshov e Deshpande (2022), essa nova arquitetura, denominada RQRN1E, inova ao unificar dois estágios da arquitetura original em um único estágio e ao introduzir o logito do τ diretamente na penúltima camada intermediária da rede. Nos três conjuntos de dados avaliados, os resultados evidenciaram que o modelo RQRN1E superou os modelos concorrentes, apresentando consistentemente a menor perda quantílica e a melhor cobertura para os quantis, o que reflete uma melhor precisão e calibração na estimativa dos quantis. Além disso, o RQRN1E destacou-se pela eficiência computacional, com menor tempo de processamento e rápida convergência, sem comprometer a qualidade das previsões.
publishDate 2024
dc.date.none.fl_str_mv 2024-09-26
2025-03-12T17:34:13Z
2025-03-12T17:34:13Z
2025-03-12
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv ZECO, Estevão Sérgio. Regressão Quantílica Multitarefa via Redes Neurais Profundas. 2024. 72 f. Dissertação (Mestrado em Estatística) — Universidade de Brasília, Brasília, 2024.
http://repositorio.unb.br/handle/10482/51811
identifier_str_mv ZECO, Estevão Sérgio. Regressão Quantílica Multitarefa via Redes Neurais Profundas. 2024. 72 f. Dissertação (Mestrado em Estatística) — Universidade de Brasília, Brasília, 2024.
url http://repositorio.unb.br/handle/10482/51811
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Institucional da UnB
instname:Universidade de Brasília (UnB)
instacron:UNB
instname_str Universidade de Brasília (UnB)
instacron_str UNB
institution UNB
reponame_str Repositório Institucional da UnB
collection Repositório Institucional da UnB
repository.name.fl_str_mv Repositório Institucional da UnB - Universidade de Brasília (UnB)
repository.mail.fl_str_mv repositorio@unb.br
_version_ 1839083888874356736