Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games

Detalhes bibliográficos
Ano de defesa: 2024
Autor(a) principal: Marcelo Luiz Harry Diniz Lemos
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: Universidade Federal de Minas Gerais
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://hdl.handle.net/1843/81962
Resumo: Jogos de estratégia em tempo real (RTS) apresentam um desafio único para agentes autônomos devido à combinação de vários problemas fundamentais de IA. Embora o Aprendizado por Reforço Profundo (Deep Reinforcement Learning - DRL) tenha demon- strado potencial no desenvolvimento de agentes autônomos para o gênero, as arquiteturas existentes muitas vezes apresentam dificuldades para se adaptarem a jogos que contenham mapas de dimensões variadas. Essa limitação prejudica a capacidade do agente de gener- alizar suas estratégias aprendidas a diferentes cenários. Esta dissertação propõe uma abordagem inovadora que supera esse problema ao incorporar Spatial Pyramid Pooling (SPP) em um framework de DRL. Utilizamos a ar- quitetura encoder-decoder da rede GridNet e integramos a ela uma camada SPP na rede critic do algoritmo Proximal Policy Optimization (PPO). A camada SPP gera dinamica- mente uma representação padronizada do estado do jogo, independentemente do tamanho inicial da observação. Isso permite que o agente adapte seu processo de tomada de decisão a qualquer configuração de mapa. Nossas avaliações indicam que o método proposto melhora significativamente a flexibilidade e a eficiência do modelo no treinamento de agentes para diversos cenários de jogos RTS, embora com algumas limitações discerníveis quando aplicado a mapas muito pequenos. Embora sejam necessarios mais experimentos para consolidar essas descobertas, essa abordagem abre caminho para agentes de IA mais robustos e adaptáveis, capazes de se destacar em problemas de decisão sequencial com observações de tamanhos variáveis
id UFMG_7090f026e37cf74b27bc108bbe5faa24
oai_identifier_str oai:repositorio.ufmg.br:1843/81962
network_acronym_str UFMG
network_name_str Repositório Institucional da UFMG
repository_id_str
spelling Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy GamesRumo a um modelo de aprendizado por reforço invariante em escala para jogos de estratégia em tempo realComputação – TesesAprendizado do computador – TesesAprendizado profundo – TesesJogos eletrônicos – TesesJogos de estratégia (Matemática) – TesesComputer gamesReal-time strategyReinforcement learningDeep learningJogos de estratégia em tempo real (RTS) apresentam um desafio único para agentes autônomos devido à combinação de vários problemas fundamentais de IA. Embora o Aprendizado por Reforço Profundo (Deep Reinforcement Learning - DRL) tenha demon- strado potencial no desenvolvimento de agentes autônomos para o gênero, as arquiteturas existentes muitas vezes apresentam dificuldades para se adaptarem a jogos que contenham mapas de dimensões variadas. Essa limitação prejudica a capacidade do agente de gener- alizar suas estratégias aprendidas a diferentes cenários. Esta dissertação propõe uma abordagem inovadora que supera esse problema ao incorporar Spatial Pyramid Pooling (SPP) em um framework de DRL. Utilizamos a ar- quitetura encoder-decoder da rede GridNet e integramos a ela uma camada SPP na rede critic do algoritmo Proximal Policy Optimization (PPO). A camada SPP gera dinamica- mente uma representação padronizada do estado do jogo, independentemente do tamanho inicial da observação. Isso permite que o agente adapte seu processo de tomada de decisão a qualquer configuração de mapa. Nossas avaliações indicam que o método proposto melhora significativamente a flexibilidade e a eficiência do modelo no treinamento de agentes para diversos cenários de jogos RTS, embora com algumas limitações discerníveis quando aplicado a mapas muito pequenos. Embora sejam necessarios mais experimentos para consolidar essas descobertas, essa abordagem abre caminho para agentes de IA mais robustos e adaptáveis, capazes de se destacar em problemas de decisão sequencial com observações de tamanhos variáveisCNPq - Conselho Nacional de Desenvolvimento Científico e TecnológicoFAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas GeraisCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorUniversidade Federal de Minas Gerais2025-04-29T16:26:28Z2025-09-08T23:55:28Z2025-04-29T16:26:28Z2024-08-29info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://hdl.handle.net/1843/81962enghttp://creativecommons.org/licenses/by-sa/3.0/pt/info:eu-repo/semantics/openAccessMarcelo Luiz Harry Diniz Lemosreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMG2025-09-08T23:55:28Zoai:repositorio.ufmg.br:1843/81962Repositório InstitucionalPUBhttps://repositorio.ufmg.br/oairepositorio@ufmg.bropendoar:2025-09-08T23:55:28Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
dc.title.none.fl_str_mv Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
Rumo a um modelo de aprendizado por reforço invariante em escala para jogos de estratégia em tempo real
title Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
spellingShingle Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
Marcelo Luiz Harry Diniz Lemos
Computação – Teses
Aprendizado do computador – Teses
Aprendizado profundo – Teses
Jogos eletrônicos – Teses
Jogos de estratégia (Matemática) – Teses
Computer games
Real-time strategy
Reinforcement learning
Deep learning
title_short Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
title_full Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
title_fullStr Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
title_full_unstemmed Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
title_sort Towards a Scale-Invariant Reinforcement Learning Model for Real-Time Strategy Games
author Marcelo Luiz Harry Diniz Lemos
author_facet Marcelo Luiz Harry Diniz Lemos
author_role author
dc.contributor.author.fl_str_mv Marcelo Luiz Harry Diniz Lemos
dc.subject.por.fl_str_mv Computação – Teses
Aprendizado do computador – Teses
Aprendizado profundo – Teses
Jogos eletrônicos – Teses
Jogos de estratégia (Matemática) – Teses
Computer games
Real-time strategy
Reinforcement learning
Deep learning
topic Computação – Teses
Aprendizado do computador – Teses
Aprendizado profundo – Teses
Jogos eletrônicos – Teses
Jogos de estratégia (Matemática) – Teses
Computer games
Real-time strategy
Reinforcement learning
Deep learning
description Jogos de estratégia em tempo real (RTS) apresentam um desafio único para agentes autônomos devido à combinação de vários problemas fundamentais de IA. Embora o Aprendizado por Reforço Profundo (Deep Reinforcement Learning - DRL) tenha demon- strado potencial no desenvolvimento de agentes autônomos para o gênero, as arquiteturas existentes muitas vezes apresentam dificuldades para se adaptarem a jogos que contenham mapas de dimensões variadas. Essa limitação prejudica a capacidade do agente de gener- alizar suas estratégias aprendidas a diferentes cenários. Esta dissertação propõe uma abordagem inovadora que supera esse problema ao incorporar Spatial Pyramid Pooling (SPP) em um framework de DRL. Utilizamos a ar- quitetura encoder-decoder da rede GridNet e integramos a ela uma camada SPP na rede critic do algoritmo Proximal Policy Optimization (PPO). A camada SPP gera dinamica- mente uma representação padronizada do estado do jogo, independentemente do tamanho inicial da observação. Isso permite que o agente adapte seu processo de tomada de decisão a qualquer configuração de mapa. Nossas avaliações indicam que o método proposto melhora significativamente a flexibilidade e a eficiência do modelo no treinamento de agentes para diversos cenários de jogos RTS, embora com algumas limitações discerníveis quando aplicado a mapas muito pequenos. Embora sejam necessarios mais experimentos para consolidar essas descobertas, essa abordagem abre caminho para agentes de IA mais robustos e adaptáveis, capazes de se destacar em problemas de decisão sequencial com observações de tamanhos variáveis
publishDate 2024
dc.date.none.fl_str_mv 2024-08-29
2025-04-29T16:26:28Z
2025-09-08T23:55:28Z
2025-04-29T16:26:28Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://hdl.handle.net/1843/81962
url https://hdl.handle.net/1843/81962
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by-sa/3.0/pt/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-sa/3.0/pt/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de Minas Gerais
publisher.none.fl_str_mv Universidade Federal de Minas Gerais
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFMG
instname:Universidade Federal de Minas Gerais (UFMG)
instacron:UFMG
instname_str Universidade Federal de Minas Gerais (UFMG)
instacron_str UFMG
institution UFMG
reponame_str Repositório Institucional da UFMG
collection Repositório Institucional da UFMG
repository.name.fl_str_mv Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)
repository.mail.fl_str_mv repositorio@ufmg.br
_version_ 1856414021059608576