[pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS

Detalhes bibliográficos
Ano de defesa: 2021
Autor(a) principal: ERIC MONTEIRO E LOBO LUZ
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: MAXWELL
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=2
http://doi.org/10.17771/PUCRio.acad.56872
Resumo: [pt] A indústria 4.0 impulsionou o desenvolvimento de novas tecnologias para atender as demandas atuais do mercado. Uma dessas novas tecnologias foi a incorporação de técnicas de inteligência computacional no cotidiano da indústria química. Neste âmbito, este trabalho avaliou o desempenho de controladores baseados em aprendizado por reforço em processos químicos industriais. A estratégia de controle interfere diretamente na segurança e no custo do processo. Quanto melhor for o desempenho dessa estrategia, menor será a produção de efluentes e o consumo de insumos e energia. Os algoritmos de aprendizado por reforço apresentaram excelentes resultados para o primeiro estudo de caso, o reator CSTR com a cinética de Van de Vusse. Entretanto, para implementação destes algoritmos na planta química do Tennessee Eastman Process mostrou-se que mais estudos são necessários. A fraca ou inexistente propriedade Markov, a alta dimensionalidade e as peculiaridades da planta foram fatores dificultadores para os controladores desenvolvidos obterem resultados satisfatórios. Foram avaliados para o estudo de caso 1, os algoritmos Q-Learning, Actor Critic TD, DQL, DDPG, SAC e TD3, e para o estudo de caso 2 foram avaliados os algoritmos CMA-ES, TRPO, PPO, DDPG, SAC e TD3.
id PUC_RIO-1_e7377518df7dfbf07ab94f98f393ac0d
oai_identifier_str oai:MAXWELL.puc-rio.br:56872
network_acronym_str PUC_RIO-1
network_name_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository_id_str
spelling [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS [en] STUDY OF REINFORCEMENT LEARNING TECHNIQUES APPLIED TO THE CONTROL OF CHEMICAL PROCESSES [pt] APRENDIZADO POR REFORCO[pt] SAC[pt] TD3[pt] DDPG[pt] DEEP Q-LEARNING[pt] ATOR-CRITICO[pt] REATOR DE VAN DE VUSSE[pt] CONTROLE DE PROCESSOS QUIMICOS[pt] APRENDIZADO POR REFORCO PROFUNDO[pt] Q-LEARNING[pt] PROCESSO TENNESSEE EASTMAN[en] REINFORCEMENT LEARNING[en] SAC[en] TD3[en] DDPG[en] DEEP Q-LEARNING[en] ACTOR CRITIC[en] CHEMICAL PROCESS CONTROL[en] DEEP REINFORCEMENT LEARNING[en] Q-LEARNING[en] TENNESSEE EASTMAN PROCESS[pt] A indústria 4.0 impulsionou o desenvolvimento de novas tecnologias para atender as demandas atuais do mercado. Uma dessas novas tecnologias foi a incorporação de técnicas de inteligência computacional no cotidiano da indústria química. Neste âmbito, este trabalho avaliou o desempenho de controladores baseados em aprendizado por reforço em processos químicos industriais. A estratégia de controle interfere diretamente na segurança e no custo do processo. Quanto melhor for o desempenho dessa estrategia, menor será a produção de efluentes e o consumo de insumos e energia. Os algoritmos de aprendizado por reforço apresentaram excelentes resultados para o primeiro estudo de caso, o reator CSTR com a cinética de Van de Vusse. Entretanto, para implementação destes algoritmos na planta química do Tennessee Eastman Process mostrou-se que mais estudos são necessários. A fraca ou inexistente propriedade Markov, a alta dimensionalidade e as peculiaridades da planta foram fatores dificultadores para os controladores desenvolvidos obterem resultados satisfatórios. Foram avaliados para o estudo de caso 1, os algoritmos Q-Learning, Actor Critic TD, DQL, DDPG, SAC e TD3, e para o estudo de caso 2 foram avaliados os algoritmos CMA-ES, TRPO, PPO, DDPG, SAC e TD3.[en] Industry 4.0 boosted the development of new technologies to meet current market demands. One of these new technologies was the incorporation of computational intelligence techniques into the daily life of the chemical industry. In this context, this present work evaluated the performance of controllers based on reinforcement learning in industrial chemical processes. The control strategy directly affects the safety and cost of the process. The better the performance of this strategy, the lower will be the production of effluents and the consumption of input and energy. The reinforcement learning algorithms showed excellent results for the first case study, the Van de Vusse s reactor. However, to implement these algorithms in the Tennessee Eastman Process chemical plant it was shown that more studies are needed. The weak Markov property, the high dimensionality and peculiarities of the plant were factors that made it difficult for the developed controllers to obtain satisfactory results. For case study 1, the algorithms Q-Learning, Actor Critic TD, DQL, DDPG, SAC and TD3 were evaluated, and for case study 2 the algorithms CMA-ES, TRPO, PPO, DDPG, SAC and TD3 were evaluated.MAXWELLWOUTER CAARLSERIC MONTEIRO E LOBO LUZ2021-12-30info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesishttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=1https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=2http://doi.org/10.17771/PUCRio.acad.56872porreponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)instacron:PUC_RIOinfo:eu-repo/semantics/openAccess2022-05-03T00:00:00Zoai:MAXWELL.puc-rio.br:56872Repositório InstitucionalPRIhttps://www.maxwell.vrac.puc-rio.br/ibict.phpopendoar:5342022-05-03T00:00Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)false
dc.title.none.fl_str_mv [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
[en] STUDY OF REINFORCEMENT LEARNING TECHNIQUES APPLIED TO THE CONTROL OF CHEMICAL PROCESSES
title [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
spellingShingle [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
ERIC MONTEIRO E LOBO LUZ
[pt] APRENDIZADO POR REFORCO
[pt] SAC
[pt] TD3
[pt] DDPG
[pt] DEEP Q-LEARNING
[pt] ATOR-CRITICO
[pt] REATOR DE VAN DE VUSSE
[pt] CONTROLE DE PROCESSOS QUIMICOS
[pt] APRENDIZADO POR REFORCO PROFUNDO
[pt] Q-LEARNING
[pt] PROCESSO TENNESSEE EASTMAN
[en] REINFORCEMENT LEARNING
[en] SAC
[en] TD3
[en] DDPG
[en] DEEP Q-LEARNING
[en] ACTOR CRITIC
[en] CHEMICAL PROCESS CONTROL
[en] DEEP REINFORCEMENT LEARNING
[en] Q-LEARNING
[en] TENNESSEE EASTMAN PROCESS
title_short [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
title_full [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
title_fullStr [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
title_full_unstemmed [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
title_sort [pt] ESTUDO DE TÉCNICAS DE APRENDIZADO POR REFORÇO APLICADAS AO CONTROLE DE PROCESSOS QUÍMICOS
author ERIC MONTEIRO E LOBO LUZ
author_facet ERIC MONTEIRO E LOBO LUZ
author_role author
dc.contributor.none.fl_str_mv WOUTER CAARLS
dc.contributor.author.fl_str_mv ERIC MONTEIRO E LOBO LUZ
dc.subject.por.fl_str_mv [pt] APRENDIZADO POR REFORCO
[pt] SAC
[pt] TD3
[pt] DDPG
[pt] DEEP Q-LEARNING
[pt] ATOR-CRITICO
[pt] REATOR DE VAN DE VUSSE
[pt] CONTROLE DE PROCESSOS QUIMICOS
[pt] APRENDIZADO POR REFORCO PROFUNDO
[pt] Q-LEARNING
[pt] PROCESSO TENNESSEE EASTMAN
[en] REINFORCEMENT LEARNING
[en] SAC
[en] TD3
[en] DDPG
[en] DEEP Q-LEARNING
[en] ACTOR CRITIC
[en] CHEMICAL PROCESS CONTROL
[en] DEEP REINFORCEMENT LEARNING
[en] Q-LEARNING
[en] TENNESSEE EASTMAN PROCESS
topic [pt] APRENDIZADO POR REFORCO
[pt] SAC
[pt] TD3
[pt] DDPG
[pt] DEEP Q-LEARNING
[pt] ATOR-CRITICO
[pt] REATOR DE VAN DE VUSSE
[pt] CONTROLE DE PROCESSOS QUIMICOS
[pt] APRENDIZADO POR REFORCO PROFUNDO
[pt] Q-LEARNING
[pt] PROCESSO TENNESSEE EASTMAN
[en] REINFORCEMENT LEARNING
[en] SAC
[en] TD3
[en] DDPG
[en] DEEP Q-LEARNING
[en] ACTOR CRITIC
[en] CHEMICAL PROCESS CONTROL
[en] DEEP REINFORCEMENT LEARNING
[en] Q-LEARNING
[en] TENNESSEE EASTMAN PROCESS
description [pt] A indústria 4.0 impulsionou o desenvolvimento de novas tecnologias para atender as demandas atuais do mercado. Uma dessas novas tecnologias foi a incorporação de técnicas de inteligência computacional no cotidiano da indústria química. Neste âmbito, este trabalho avaliou o desempenho de controladores baseados em aprendizado por reforço em processos químicos industriais. A estratégia de controle interfere diretamente na segurança e no custo do processo. Quanto melhor for o desempenho dessa estrategia, menor será a produção de efluentes e o consumo de insumos e energia. Os algoritmos de aprendizado por reforço apresentaram excelentes resultados para o primeiro estudo de caso, o reator CSTR com a cinética de Van de Vusse. Entretanto, para implementação destes algoritmos na planta química do Tennessee Eastman Process mostrou-se que mais estudos são necessários. A fraca ou inexistente propriedade Markov, a alta dimensionalidade e as peculiaridades da planta foram fatores dificultadores para os controladores desenvolvidos obterem resultados satisfatórios. Foram avaliados para o estudo de caso 1, os algoritmos Q-Learning, Actor Critic TD, DQL, DDPG, SAC e TD3, e para o estudo de caso 2 foram avaliados os algoritmos CMA-ES, TRPO, PPO, DDPG, SAC e TD3.
publishDate 2021
dc.date.none.fl_str_mv 2021-12-30
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=2
http://doi.org/10.17771/PUCRio.acad.56872
url https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=56872&idi=2
http://doi.org/10.17771/PUCRio.acad.56872
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv MAXWELL
publisher.none.fl_str_mv MAXWELL
dc.source.none.fl_str_mv reponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)
instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron:PUC_RIO
instname_str Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron_str PUC_RIO
institution PUC_RIO
reponame_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
collection Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository.name.fl_str_mv Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
repository.mail.fl_str_mv
_version_ 1856395957537603584