METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL

Detalhes bibliográficos
Ano de defesa: 2010
Autor(a) principal: FABIO JESSEN WERNECK DE ALMEIDA MARTINS lattes
Orientador(a): MARLEY MARIA BERNARDES REBUZZI VELLASCO lattes
Banca de defesa: RICARDO TANSCHEIT, KARLA TEREZA FIGUEIREDO LEITE, MARLEY MARIA BERNARDES REBUZZI VELLASCO, ADRIANO JOAQUIM DE OLIVEIRA CRUZ, FLAVIO JOAQUIM DE SOUZA
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
Programa de Pós-Graduação: PPG EM ENGENHARIA ELÉTRICA
Departamento: Não Informado pela instituição
País: BR
Link de acesso: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@2
Resumo: Neste trabalho foram desenvolvidos e avaliados métodos com o objetivo de melhorar e acelerar o processo de aprendizado do modelo de Reinforcement Learning Neuro-Fuzzy Hierárquico Politree (RL-NFHP). Este modelo pode ser utilizado para dotar um agente de inteligência através de processo de Aprendizado por Reforço (Reinforcement Learning). O modelo RL-NFHP apresenta as seguintes características: aprendizado automático da estrutura do modelo; auto-ajuste dos parâmetros associados à estrutura; capacidade de aprendizado da ação a ser adotada quando o agente está em um determinado estado do ambiente; possibilidade de lidar com um número maior de entradas do que os sistemas neuro-fuzzy tradicionais; e geração de regras linguísticas com hierarquia. Com intenção de melhorar e acelerar o processo de aprendizado do modelo foram implementadas seis políticas de seleção, sendo uma delas uma inovação deste trabalho (Q-DC-roulette); implementado o método early stopping para determinação automática do fim do treinamento; desenvolvido o eligibility trace cumulativo; criado um método de poda da estrutura, para eliminação de células desnecessárias; além da reescrita do código computacional original. O modelo RL-NFHP modificado foi avaliado em três aplicações: o benchmark Carro na Montanha simulado, conhecido na área de agentes autônomos; uma simulação robótica baseada no robô Khepera; e uma num robô real NXT. Os testes efetuados demonstram que este modelo modificado se ajustou bem a problemas de sistemas de controle e robótica, apresentando boa generalização. Comparado o modelo RL-NFHP modificado com o original, houve aceleração do aprendizado e obtenção de menores modelos treinados.
id PUC_RIO-1_587b1b338815a616ad37b208106dda71
oai_identifier_str oai:MAXWELL.puc-rio.br:16421
network_acronym_str PUC_RIO-1
network_name_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository_id_str
spelling info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisMETHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL MÉTODOS DE ACELERAÇÃO DE APRENDIZADO APLICADO AO MODELO NEURO-FUZZY HIERÁRQUICO POLITREE COM APRENDIZADO POR REFORÇO 2010-07-12MARLEY MARIA BERNARDES REBUZZI VELLASCO75758385700lattes.cnpq.br/8265116967095452KARLA TEREZA FIGUEIREDO LEITE90262077787lattes.cnpq.br/2076970816486817KARLA TEREZA FIGUEIREDO LEITE90262077787lattes.cnpq.br/2076970816486817RICARDO TANSCHEITKARLA TEREZA FIGUEIREDO LEITEMARLEY MARIA BERNARDES REBUZZI VELLASCOADRIANO JOAQUIM DE OLIVEIRA CRUZFLAVIO JOAQUIM DE SOUZA10011361794lattes.cnpq.br/8935935661464997FABIO JESSEN WERNECK DE ALMEIDA MARTINSPONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIROPPG EM ENGENHARIA ELÉTRICAPUC-RioBRNeste trabalho foram desenvolvidos e avaliados métodos com o objetivo de melhorar e acelerar o processo de aprendizado do modelo de Reinforcement Learning Neuro-Fuzzy Hierárquico Politree (RL-NFHP). Este modelo pode ser utilizado para dotar um agente de inteligência através de processo de Aprendizado por Reforço (Reinforcement Learning). O modelo RL-NFHP apresenta as seguintes características: aprendizado automático da estrutura do modelo; auto-ajuste dos parâmetros associados à estrutura; capacidade de aprendizado da ação a ser adotada quando o agente está em um determinado estado do ambiente; possibilidade de lidar com um número maior de entradas do que os sistemas neuro-fuzzy tradicionais; e geração de regras linguísticas com hierarquia. Com intenção de melhorar e acelerar o processo de aprendizado do modelo foram implementadas seis políticas de seleção, sendo uma delas uma inovação deste trabalho (Q-DC-roulette); implementado o método early stopping para determinação automática do fim do treinamento; desenvolvido o eligibility trace cumulativo; criado um método de poda da estrutura, para eliminação de células desnecessárias; além da reescrita do código computacional original. O modelo RL-NFHP modificado foi avaliado em três aplicações: o benchmark Carro na Montanha simulado, conhecido na área de agentes autônomos; uma simulação robótica baseada no robô Khepera; e uma num robô real NXT. Os testes efetuados demonstram que este modelo modificado se ajustou bem a problemas de sistemas de controle e robótica, apresentando boa generalização. Comparado o modelo RL-NFHP modificado com o original, houve aceleração do aprendizado e obtenção de menores modelos treinados.In this work, methods were developed and evaluated in order to improve and accelerate the learning process of Reinforcement Learning Neuro-Fuzzy Hierarchical Politree Model (RL-NFHP). This model is employed to provide an agent with intelligence, making it autonomous, due to the capacity of ratiocinate (infer actions) and learning, acquired knowledge through interaction with the environment by Reinforcement Learning process. The RL-NFHP model has the following features: automatic learning of structure of the model; self-adjustment of parameters associated with its structure, ability to learn the action to be taken when the agent is in a particular state of the environment; ability to handle a larger number of inputs than the traditional neuro-fuzzy systems; and generation of rules with linguistic interpretable hierarchy. With the aim to improve and accelerate the learning process of the model, six selection action policies were developed, one of them an innovation of this work (Q-DC-roulette); implemented the early stopping method for automatically determining the end of the training; developed a cumulative eligibility trace; created a method of pruning the structure, for removing unnecessary cells; in addition to rewriting the original computer code. The modified RL-NFHP model was evaluated in three applications: the simulated benchmark Car-Mountain problem, well known in the area of autonomous agents; a simulated application in robotics based on the Khepera robot; and an application in a real robot. The experiments show that this modified model fits well the problems of control systems and robotics, with a good generalization. Compared the modified RL-NFHP model with the original one, there was acceleration of learning process and smaller structures of the model trained.CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICOFUNDAÇÃO DE APOIO À PESQUISA DO ESTADO DO RIO DE JANEIROhttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@1https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@2porreponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)instacron:PUC_RIOinfo:eu-repo/semantics/openAccess2023-06-26T09:17:47ZRepositório InstitucionalPRI
dc.title.en.fl_str_mv METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
dc.title.alternative.pt.fl_str_mv MÉTODOS DE ACELERAÇÃO DE APRENDIZADO APLICADO AO MODELO NEURO-FUZZY HIERÁRQUICO POLITREE COM APRENDIZADO POR REFORÇO
title METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
spellingShingle METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
FABIO JESSEN WERNECK DE ALMEIDA MARTINS
title_short METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
title_full METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
title_fullStr METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
title_full_unstemmed METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
title_sort METHODS FOR ACCELERATION OF LEARNING PROCESS OF REINFORCEMENT LEARNING NEURO-FUZZY HIERARCHICAL POLITREE MODEL
author FABIO JESSEN WERNECK DE ALMEIDA MARTINS
author_facet FABIO JESSEN WERNECK DE ALMEIDA MARTINS
author_role author
dc.contributor.advisor1.fl_str_mv MARLEY MARIA BERNARDES REBUZZI VELLASCO
dc.contributor.advisor1ID.fl_str_mv 75758385700
dc.contributor.advisor1Lattes.fl_str_mv lattes.cnpq.br/8265116967095452
dc.contributor.advisor-co1.fl_str_mv KARLA TEREZA FIGUEIREDO LEITE
dc.contributor.advisor-co1ID.fl_str_mv 90262077787
dc.contributor.advisor-co1Lattes.fl_str_mv lattes.cnpq.br/2076970816486817
dc.contributor.advisor-co2.fl_str_mv KARLA TEREZA FIGUEIREDO LEITE
dc.contributor.advisor-co2ID.fl_str_mv 90262077787
dc.contributor.advisor-co2Lattes.fl_str_mv lattes.cnpq.br/2076970816486817
dc.contributor.referee1.fl_str_mv RICARDO TANSCHEIT
dc.contributor.referee2.fl_str_mv KARLA TEREZA FIGUEIREDO LEITE
dc.contributor.referee3.fl_str_mv MARLEY MARIA BERNARDES REBUZZI VELLASCO
dc.contributor.referee4.fl_str_mv ADRIANO JOAQUIM DE OLIVEIRA CRUZ
dc.contributor.referee5.fl_str_mv FLAVIO JOAQUIM DE SOUZA
dc.contributor.authorID.fl_str_mv 10011361794
dc.contributor.authorLattes.fl_str_mv lattes.cnpq.br/8935935661464997
dc.contributor.author.fl_str_mv FABIO JESSEN WERNECK DE ALMEIDA MARTINS
contributor_str_mv MARLEY MARIA BERNARDES REBUZZI VELLASCO
KARLA TEREZA FIGUEIREDO LEITE
KARLA TEREZA FIGUEIREDO LEITE
RICARDO TANSCHEIT
KARLA TEREZA FIGUEIREDO LEITE
MARLEY MARIA BERNARDES REBUZZI VELLASCO
ADRIANO JOAQUIM DE OLIVEIRA CRUZ
FLAVIO JOAQUIM DE SOUZA
description Neste trabalho foram desenvolvidos e avaliados métodos com o objetivo de melhorar e acelerar o processo de aprendizado do modelo de Reinforcement Learning Neuro-Fuzzy Hierárquico Politree (RL-NFHP). Este modelo pode ser utilizado para dotar um agente de inteligência através de processo de Aprendizado por Reforço (Reinforcement Learning). O modelo RL-NFHP apresenta as seguintes características: aprendizado automático da estrutura do modelo; auto-ajuste dos parâmetros associados à estrutura; capacidade de aprendizado da ação a ser adotada quando o agente está em um determinado estado do ambiente; possibilidade de lidar com um número maior de entradas do que os sistemas neuro-fuzzy tradicionais; e geração de regras linguísticas com hierarquia. Com intenção de melhorar e acelerar o processo de aprendizado do modelo foram implementadas seis políticas de seleção, sendo uma delas uma inovação deste trabalho (Q-DC-roulette); implementado o método early stopping para determinação automática do fim do treinamento; desenvolvido o eligibility trace cumulativo; criado um método de poda da estrutura, para eliminação de células desnecessárias; além da reescrita do código computacional original. O modelo RL-NFHP modificado foi avaliado em três aplicações: o benchmark Carro na Montanha simulado, conhecido na área de agentes autônomos; uma simulação robótica baseada no robô Khepera; e uma num robô real NXT. Os testes efetuados demonstram que este modelo modificado se ajustou bem a problemas de sistemas de controle e robótica, apresentando boa generalização. Comparado o modelo RL-NFHP modificado com o original, houve aceleração do aprendizado e obtenção de menores modelos treinados.
publishDate 2010
dc.date.issued.fl_str_mv 2010-07-12
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@2
url https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=16421@2
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
dc.publisher.program.fl_str_mv PPG EM ENGENHARIA ELÉTRICA
dc.publisher.initials.fl_str_mv PUC-Rio
dc.publisher.country.fl_str_mv BR
publisher.none.fl_str_mv PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
dc.source.none.fl_str_mv reponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)
instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron:PUC_RIO
instname_str Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron_str PUC_RIO
institution PUC_RIO
reponame_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
collection Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository.name.fl_str_mv
repository.mail.fl_str_mv
_version_ 1776626311107706880