Otimização de carteiras de ações com aprendizado por reforço.

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Costa, Caio de Souza Barbosa
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Biblioteca Digitais de Teses e Dissertações da USP
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/
Resumo: A otimização de carteiras financeiras envolve o rebalanceamento periódico de ativos com o objetivo de maximizar os retornos de longo prazo. O Aprendizado por Reforço (Reinforcement Learning RL) tem se mostrado uma abordagem promissora para essa tarefa, já que seu objetivo maximizar recompensas cumulativas em um ambiente simulado está diretamente alinhado às metas de um investidor. No entanto, aplicações práticas e avanços de pesquisa nessa área enfrentam desafios significativos: a escassez de ferramentas de código aberto limita a reprodutibilidade e os principais algoritmos de treinamento presentes na literatura sofrem com instabilidade de desempenho, frequentemente convergindo para estratégias subótimas. Esta dissertação aborda esses desafios por meio de duas contribuições principais. Primeiro, apresentamos o RLPortfolio, uma biblioteca em Python de código aberto desenvolvida para simplificar e acelerar a criação de agentes para otimização de carteiras. Em segundo lugar, utilizando essa biblioteca, realizamos uma investigação sistemática de modificações no algoritmo de treinamento com o intuito de aumentar sua confiabilidade. Essas modificações incluem a incorporação de ruído para melhorar a exploração, a análise de métodos alternativos de normalização e a proposta de novas funções-objetivo. Experimentos realizados principalmente no mercado acionário brasileiro demonstram que, embora todas as modificações melhorem o desempenho médio, o uso de uma função-objetivo que incentiva a diversificação da carteira durante o treinamento mostrou-se a estratégia mais eficaz.
id USP_4bdf1518dd650efb3ef52efa2f7d58c1
oai_identifier_str oai:teses.usp.br:tde-05032026-104651
network_acronym_str USP
network_name_str Biblioteca Digital de Teses e Dissertações da USP
repository_id_str
spelling Otimização de carteiras de ações com aprendizado por reforço.Portfolio optimization with reinforcement learning.Aprendizado computacionalFinançasFinancial MarketInvestimentos (Otimização)Machine learningMercado financeiroPortfolio optimizationQuantitative financeReinforcement learningA otimização de carteiras financeiras envolve o rebalanceamento periódico de ativos com o objetivo de maximizar os retornos de longo prazo. O Aprendizado por Reforço (Reinforcement Learning RL) tem se mostrado uma abordagem promissora para essa tarefa, já que seu objetivo maximizar recompensas cumulativas em um ambiente simulado está diretamente alinhado às metas de um investidor. No entanto, aplicações práticas e avanços de pesquisa nessa área enfrentam desafios significativos: a escassez de ferramentas de código aberto limita a reprodutibilidade e os principais algoritmos de treinamento presentes na literatura sofrem com instabilidade de desempenho, frequentemente convergindo para estratégias subótimas. Esta dissertação aborda esses desafios por meio de duas contribuições principais. Primeiro, apresentamos o RLPortfolio, uma biblioteca em Python de código aberto desenvolvida para simplificar e acelerar a criação de agentes para otimização de carteiras. Em segundo lugar, utilizando essa biblioteca, realizamos uma investigação sistemática de modificações no algoritmo de treinamento com o intuito de aumentar sua confiabilidade. Essas modificações incluem a incorporação de ruído para melhorar a exploração, a análise de métodos alternativos de normalização e a proposta de novas funções-objetivo. Experimentos realizados principalmente no mercado acionário brasileiro demonstram que, embora todas as modificações melhorem o desempenho médio, o uso de uma função-objetivo que incentiva a diversificação da carteira durante o treinamento mostrou-se a estratégia mais eficaz.Financial portfolio optimization involves periodically rebalancing assets to maximize longterm returns. Reinforcement Learning (RL) has emerged as a promising approach for this task, as its objective maximizing cumulative rewards in a simulated environment closely aligns with an investors goals. However, practical applications and research advancements in this area face significant challenges: the scarcity of open-source tools limits reproducibility, and the dominant training algorithms in the literature su!er from performance instability, often converging to suboptimal strategies. This dissertation addresses these challenges through two main contributions. First, we introduce RLPortfolio, an open-source Python library designed to simplify and accelerate the development of portfolio optimization agents. Second, using this library, we conduct a systematic investigation of modifications to the training algorithm to improve its reliability. These modifications include incorporating noise for enhanced exploration, analyzing alternative normalization methods, and proposing new objective functions. Experiments conducted primarily on the Brazilian stock market show that while all modifications improve average performance, the use of an objective function that encourages portfolio diversification during training proves to be the most e!ective strategy.Biblioteca Digitais de Teses e Dissertações da USPCosta, Anna Helena RealiCosta, Caio de Souza Barbosa2025-09-19info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2026-03-05T13:56:02Zoai:teses.usp.br:tde-05032026-104651Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212026-03-05T13:56:02Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false
dc.title.none.fl_str_mv Otimização de carteiras de ações com aprendizado por reforço.
Portfolio optimization with reinforcement learning.
title Otimização de carteiras de ações com aprendizado por reforço.
spellingShingle Otimização de carteiras de ações com aprendizado por reforço.
Costa, Caio de Souza Barbosa
Aprendizado computacional
Finanças
Financial Market
Investimentos (Otimização)
Machine learning
Mercado financeiro
Portfolio optimization
Quantitative finance
Reinforcement learning
title_short Otimização de carteiras de ações com aprendizado por reforço.
title_full Otimização de carteiras de ações com aprendizado por reforço.
title_fullStr Otimização de carteiras de ações com aprendizado por reforço.
title_full_unstemmed Otimização de carteiras de ações com aprendizado por reforço.
title_sort Otimização de carteiras de ações com aprendizado por reforço.
author Costa, Caio de Souza Barbosa
author_facet Costa, Caio de Souza Barbosa
author_role author
dc.contributor.none.fl_str_mv Costa, Anna Helena Reali
dc.contributor.author.fl_str_mv Costa, Caio de Souza Barbosa
dc.subject.por.fl_str_mv Aprendizado computacional
Finanças
Financial Market
Investimentos (Otimização)
Machine learning
Mercado financeiro
Portfolio optimization
Quantitative finance
Reinforcement learning
topic Aprendizado computacional
Finanças
Financial Market
Investimentos (Otimização)
Machine learning
Mercado financeiro
Portfolio optimization
Quantitative finance
Reinforcement learning
description A otimização de carteiras financeiras envolve o rebalanceamento periódico de ativos com o objetivo de maximizar os retornos de longo prazo. O Aprendizado por Reforço (Reinforcement Learning RL) tem se mostrado uma abordagem promissora para essa tarefa, já que seu objetivo maximizar recompensas cumulativas em um ambiente simulado está diretamente alinhado às metas de um investidor. No entanto, aplicações práticas e avanços de pesquisa nessa área enfrentam desafios significativos: a escassez de ferramentas de código aberto limita a reprodutibilidade e os principais algoritmos de treinamento presentes na literatura sofrem com instabilidade de desempenho, frequentemente convergindo para estratégias subótimas. Esta dissertação aborda esses desafios por meio de duas contribuições principais. Primeiro, apresentamos o RLPortfolio, uma biblioteca em Python de código aberto desenvolvida para simplificar e acelerar a criação de agentes para otimização de carteiras. Em segundo lugar, utilizando essa biblioteca, realizamos uma investigação sistemática de modificações no algoritmo de treinamento com o intuito de aumentar sua confiabilidade. Essas modificações incluem a incorporação de ruído para melhorar a exploração, a análise de métodos alternativos de normalização e a proposta de novas funções-objetivo. Experimentos realizados principalmente no mercado acionário brasileiro demonstram que, embora todas as modificações melhorem o desempenho médio, o uso de uma função-objetivo que incentiva a diversificação da carteira durante o treinamento mostrou-se a estratégia mais eficaz.
publishDate 2025
dc.date.none.fl_str_mv 2025-09-19
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/
url https://www.teses.usp.br/teses/disponiveis/3/3141/tde-05032026-104651/
dc.language.iso.fl_str_mv por
language por
dc.relation.none.fl_str_mv
dc.rights.driver.fl_str_mv Liberar o conteúdo para acesso público.
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Liberar o conteúdo para acesso público.
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.coverage.none.fl_str_mv
dc.publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
dc.source.none.fl_str_mv
reponame:Biblioteca Digital de Teses e Dissertações da USP
instname:Universidade de São Paulo (USP)
instacron:USP
instname_str Universidade de São Paulo (USP)
instacron_str USP
institution USP
reponame_str Biblioteca Digital de Teses e Dissertações da USP
collection Biblioteca Digital de Teses e Dissertações da USP
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)
repository.mail.fl_str_mv virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br
_version_ 1862865726430248960