Otimização de carteiras de ações com aprendizado por reforço.
| Ano de defesa: | 2025 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Biblioteca Digitais de Teses e Dissertações da USP
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/ |
Resumo: | A otimização de carteiras financeiras envolve o rebalanceamento periódico de ativos com o objetivo de maximizar os retornos de longo prazo. O Aprendizado por Reforço (Reinforcement Learning RL) tem se mostrado uma abordagem promissora para essa tarefa, já que seu objetivo maximizar recompensas cumulativas em um ambiente simulado está diretamente alinhado às metas de um investidor. No entanto, aplicações práticas e avanços de pesquisa nessa área enfrentam desafios significativos: a escassez de ferramentas de código aberto limita a reprodutibilidade e os principais algoritmos de treinamento presentes na literatura sofrem com instabilidade de desempenho, frequentemente convergindo para estratégias subótimas. Esta dissertação aborda esses desafios por meio de duas contribuições principais. Primeiro, apresentamos o RLPortfolio, uma biblioteca em Python de código aberto desenvolvida para simplificar e acelerar a criação de agentes para otimização de carteiras. Em segundo lugar, utilizando essa biblioteca, realizamos uma investigação sistemática de modificações no algoritmo de treinamento com o intuito de aumentar sua confiabilidade. Essas modificações incluem a incorporação de ruído para melhorar a exploração, a análise de métodos alternativos de normalização e a proposta de novas funções-objetivo. Experimentos realizados principalmente no mercado acionário brasileiro demonstram que, embora todas as modificações melhorem o desempenho médio, o uso de uma função-objetivo que incentiva a diversificação da carteira durante o treinamento mostrou-se a estratégia mais eficaz. |
| id |
USP_4bdf1518dd650efb3ef52efa2f7d58c1 |
|---|---|
| oai_identifier_str |
oai:teses.usp.br:tde-05032026-104651 |
| network_acronym_str |
USP |
| network_name_str |
Biblioteca Digital de Teses e Dissertações da USP |
| repository_id_str |
|
| spelling |
Otimização de carteiras de ações com aprendizado por reforço.Portfolio optimization with reinforcement learning.Aprendizado computacionalFinançasFinancial MarketInvestimentos (Otimização)Machine learningMercado financeiroPortfolio optimizationQuantitative financeReinforcement learningA otimização de carteiras financeiras envolve o rebalanceamento periódico de ativos com o objetivo de maximizar os retornos de longo prazo. O Aprendizado por Reforço (Reinforcement Learning RL) tem se mostrado uma abordagem promissora para essa tarefa, já que seu objetivo maximizar recompensas cumulativas em um ambiente simulado está diretamente alinhado às metas de um investidor. No entanto, aplicações práticas e avanços de pesquisa nessa área enfrentam desafios significativos: a escassez de ferramentas de código aberto limita a reprodutibilidade e os principais algoritmos de treinamento presentes na literatura sofrem com instabilidade de desempenho, frequentemente convergindo para estratégias subótimas. Esta dissertação aborda esses desafios por meio de duas contribuições principais. Primeiro, apresentamos o RLPortfolio, uma biblioteca em Python de código aberto desenvolvida para simplificar e acelerar a criação de agentes para otimização de carteiras. Em segundo lugar, utilizando essa biblioteca, realizamos uma investigação sistemática de modificações no algoritmo de treinamento com o intuito de aumentar sua confiabilidade. Essas modificações incluem a incorporação de ruído para melhorar a exploração, a análise de métodos alternativos de normalização e a proposta de novas funções-objetivo. Experimentos realizados principalmente no mercado acionário brasileiro demonstram que, embora todas as modificações melhorem o desempenho médio, o uso de uma função-objetivo que incentiva a diversificação da carteira durante o treinamento mostrou-se a estratégia mais eficaz.Financial portfolio optimization involves periodically rebalancing assets to maximize longterm returns. Reinforcement Learning (RL) has emerged as a promising approach for this task, as its objective maximizing cumulative rewards in a simulated environment closely aligns with an investors goals. However, practical applications and research advancements in this area face significant challenges: the scarcity of open-source tools limits reproducibility, and the dominant training algorithms in the literature su!er from performance instability, often converging to suboptimal strategies. This dissertation addresses these challenges through two main contributions. First, we introduce RLPortfolio, an open-source Python library designed to simplify and accelerate the development of portfolio optimization agents. Second, using this library, we conduct a systematic investigation of modifications to the training algorithm to improve its reliability. These modifications include incorporating noise for enhanced exploration, analyzing alternative normalization methods, and proposing new objective functions. Experiments conducted primarily on the Brazilian stock market show that while all modifications improve average performance, the use of an objective function that encourages portfolio diversification during training proves to be the most e!ective strategy.Biblioteca Digitais de Teses e Dissertações da USPCosta, Anna Helena RealiCosta, Caio de Souza Barbosa2025-09-19info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2026-03-05T13:56:02Zoai:teses.usp.br:tde-05032026-104651Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212026-03-05T13:56:02Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false |
| dc.title.none.fl_str_mv |
Otimização de carteiras de ações com aprendizado por reforço. Portfolio optimization with reinforcement learning. |
| title |
Otimização de carteiras de ações com aprendizado por reforço. |
| spellingShingle |
Otimização de carteiras de ações com aprendizado por reforço. Costa, Caio de Souza Barbosa Aprendizado computacional Finanças Financial Market Investimentos (Otimização) Machine learning Mercado financeiro Portfolio optimization Quantitative finance Reinforcement learning |
| title_short |
Otimização de carteiras de ações com aprendizado por reforço. |
| title_full |
Otimização de carteiras de ações com aprendizado por reforço. |
| title_fullStr |
Otimização de carteiras de ações com aprendizado por reforço. |
| title_full_unstemmed |
Otimização de carteiras de ações com aprendizado por reforço. |
| title_sort |
Otimização de carteiras de ações com aprendizado por reforço. |
| author |
Costa, Caio de Souza Barbosa |
| author_facet |
Costa, Caio de Souza Barbosa |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Costa, Anna Helena Reali |
| dc.contributor.author.fl_str_mv |
Costa, Caio de Souza Barbosa |
| dc.subject.por.fl_str_mv |
Aprendizado computacional Finanças Financial Market Investimentos (Otimização) Machine learning Mercado financeiro Portfolio optimization Quantitative finance Reinforcement learning |
| topic |
Aprendizado computacional Finanças Financial Market Investimentos (Otimização) Machine learning Mercado financeiro Portfolio optimization Quantitative finance Reinforcement learning |
| description |
A otimização de carteiras financeiras envolve o rebalanceamento periódico de ativos com o objetivo de maximizar os retornos de longo prazo. O Aprendizado por Reforço (Reinforcement Learning RL) tem se mostrado uma abordagem promissora para essa tarefa, já que seu objetivo maximizar recompensas cumulativas em um ambiente simulado está diretamente alinhado às metas de um investidor. No entanto, aplicações práticas e avanços de pesquisa nessa área enfrentam desafios significativos: a escassez de ferramentas de código aberto limita a reprodutibilidade e os principais algoritmos de treinamento presentes na literatura sofrem com instabilidade de desempenho, frequentemente convergindo para estratégias subótimas. Esta dissertação aborda esses desafios por meio de duas contribuições principais. Primeiro, apresentamos o RLPortfolio, uma biblioteca em Python de código aberto desenvolvida para simplificar e acelerar a criação de agentes para otimização de carteiras. Em segundo lugar, utilizando essa biblioteca, realizamos uma investigação sistemática de modificações no algoritmo de treinamento com o intuito de aumentar sua confiabilidade. Essas modificações incluem a incorporação de ruído para melhorar a exploração, a análise de métodos alternativos de normalização e a proposta de novas funções-objetivo. Experimentos realizados principalmente no mercado acionário brasileiro demonstram que, embora todas as modificações melhorem o desempenho médio, o uso de uma função-objetivo que incentiva a diversificação da carteira durante o treinamento mostrou-se a estratégia mais eficaz. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-09-19 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
https://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/ |
| url |
https://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/ |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.relation.none.fl_str_mv |
|
| dc.rights.driver.fl_str_mv |
Liberar o conteúdo para acesso público. info:eu-repo/semantics/openAccess |
| rights_invalid_str_mv |
Liberar o conteúdo para acesso público. |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.coverage.none.fl_str_mv |
|
| dc.publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
| publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
| dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo (USP) instacron:USP |
| instname_str |
Universidade de São Paulo (USP) |
| instacron_str |
USP |
| institution |
USP |
| reponame_str |
Biblioteca Digital de Teses e Dissertações da USP |
| collection |
Biblioteca Digital de Teses e Dissertações da USP |
| repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP) |
| repository.mail.fl_str_mv |
virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br |
| _version_ |
1862865726430248960 |