Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: Oliveira, Matheus Dutra de
Orientador(a): Vassallo, Raquel Frizera lattes
Banca de defesa: Cordeiro, Rafael de Angelis lattes, Fernandes, Mariana Rampinelli lattes
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal do Espírito Santo
Mestrado em Engenharia Elétrica
Programa de Pós-Graduação: Programa de Pós-Graduação em Engenharia Elétrica
Departamento: Centro Tecnológico
País: BR
Palavras-chave em Português:
Área do conhecimento CNPq:
Link de acesso: http://repositorio.ufes.br/handle/10/20480
Resumo: The estimation of mobile robot localization in indoor environments is one of the central challenges of autonomous navigation. Among the main techniques used to address this problem are Multi-View Visual Odometry, obtained through a multi-camera network, and Monte Carlo Localization. Both approaches have limitations: areas without camera coverage render navigation unfeasible when relying solely on visual odometry, while symmetric environments hinder convergence in the Monte Carlo method. Aiming to overcome these issues and achieve a more robust and reliable localization estimate, this work proposes the combination of these two global localization techniques through a data fusion approach based on Kalman Filter methods (Extended Kalman Filter and Unscented Kalman Filter). Additionally, the integration of the smart space architecture with the Robot Operating System (ROS) is adopted to implement this fusion. As a result, the fused localization can be integrated into the ROS navigation stack, leading to a complete localization and navigation system, and allowing the system to be triggered by other components of the smart environment. The system was evaluated in critical scenarios and case studies conducted in real environments. The results indicate that the information fusion effectively addresses the inherent limitations of each localization source, while increasing the robot’s global orientation accuracy by up to 12% and improving localization estimates by more than 5.2% when both sources are available.
id UFES_bf9cfd5d270ba807a2ad08c966c1942f
oai_identifier_str oai:repositorio.ufes.br:10/20480
network_acronym_str UFES
network_name_str Repositório Institucional da Universidade Federal do Espírito Santo (riUfes)
repository_id_str
spelling Mello, Ricardo Carminati dehttps://orcid.org/0000-0003-0420-4273http://lattes.cnpq.br/1569638571582691Vassallo, Raquel Frizerahttps://orcid.org/0000-0002-4762-3219http://lattes.cnpq.br/9572903915280374Oliveira, Matheus Dutra dehttps://orcid.org/0009-0002-4548-8065http://lattes.cnpq.br/5802812159654028Cordeiro, Rafael de Angelishttps://orcid.org/0000-0002-9094-3365http://lattes.cnpq.br/1957732976527194Fernandes, Mariana Rampinellihttps://orcid.org/0000-0001-8483-5838http://lattes.cnpq.br/64816446955599502025-10-15T19:04:36Z2025-10-15T19:04:36Z2025-08-20The estimation of mobile robot localization in indoor environments is one of the central challenges of autonomous navigation. Among the main techniques used to address this problem are Multi-View Visual Odometry, obtained through a multi-camera network, and Monte Carlo Localization. Both approaches have limitations: areas without camera coverage render navigation unfeasible when relying solely on visual odometry, while symmetric environments hinder convergence in the Monte Carlo method. Aiming to overcome these issues and achieve a more robust and reliable localization estimate, this work proposes the combination of these two global localization techniques through a data fusion approach based on Kalman Filter methods (Extended Kalman Filter and Unscented Kalman Filter). Additionally, the integration of the smart space architecture with the Robot Operating System (ROS) is adopted to implement this fusion. As a result, the fused localization can be integrated into the ROS navigation stack, leading to a complete localization and navigation system, and allowing the system to be triggered by other components of the smart environment. The system was evaluated in critical scenarios and case studies conducted in real environments. The results indicate that the information fusion effectively addresses the inherent limitations of each localization source, while increasing the robot’s global orientation accuracy by up to 12% and improving localization estimates by more than 5.2% when both sources are available.A estimativa de localização de robôs móveis em ambientes internos é um dos desafios centrais da navegação autônoma. Entre as principais técnicas utilizadas para enfrentar esse problema, estão a Odometria Visual de Múltiplas Vistas, obtidas através de uma rede de múltiplas câmeras, e a Localização de Monte Carlo. Ambas possuem limitações, como áreas sem cobertura de câmeras, nas quais a navegação fica inviabilizada quando se utiliza apenas a odometria visual, e ambientes simétricos, que dificultam a convergência da localização no método de Monte Carlo. Visando solucionar esses problemas e obter uma estimativa de localização mais robusta e confiável, este trabalho propõe a união dessas duas técnicas de localização global, utilizando uma fusão de dados baseada em técnicas de Filtro de Kalman (Filtro de Kalman Estendido e Filtro de Kalman Unscented). Além disso, a estratégia de integração da arquitetura de espaços inteligentes com o Robot Operating System (ROS) foi adotada para realizar essa fusão. Assim, a localização fundida pode ser integrada à pilha de navegação do ROS, resultando em um sistema completo de localização e navegação, permitindo, ainda, que esse sistema seja acionado por outros componentes do espaço inteligente. O sistema foi avaliado em cenários críticos e em estudos de caso conduzidos em ambientes reais. Os resultados obtidos indicam que a fusão das informações trata de forma eficiente as limitações inerentes a cada fonte de localização, além de aumentar, nos estudos de caso realizados, em até 12% a precisão da orientação global do robô e aprimorar os valores de localização em mais de 5,2% quando ambas as fontes estão disponíveisCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)Texthttp://repositorio.ufes.br/handle/10/20480porptUniversidade Federal do Espírito SantoMestrado em Engenharia ElétricaPrograma de Pós-Graduação em Engenharia ElétricaUFESBRCentro Tecnológicohttps://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessEngenharia ElétricaOdometria visual de múltiplas vistasLocalização de Monte CarloFusão de dados Filtro de Kalman Multi-View visual odometryMonte Carlo localizationData fusionKalman filterFusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacionalinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisreponame:Repositório Institucional da Universidade Federal do Espírito Santo (riUfes)instname:Universidade Federal do Espírito Santo (UFES)instacron:UFESORIGINALMatheusDutradeOliveira-2025-dissertacao.pdfMatheusDutradeOliveira-2025-dissertacao.pdfapplication/pdf12345756http://repositorio.ufes.br/bitstreams/0fd3c3ae-91e5-45e8-b009-1b26813e28fb/download51f0a4dd7ceb8069a311dbb6320a5bcdMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://repositorio.ufes.br/bitstreams/63fd6a55-baa6-4b35-9f8b-6c79b02823e0/download8a4605be74aa9ea9d79846c1fba20a33MD5210/204802025-10-15 16:32:34.368https://creativecommons.org/licenses/by/4.0/open accessoai:repositorio.ufes.br:10/20480http://repositorio.ufes.brRepositório InstitucionalPUBhttp://repositorio.ufes.br/oai/requestriufes@ufes.bropendoar:21082025-10-15T16:32:34Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) - Universidade Federal do Espírito Santo (UFES)falseTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
dc.title.none.fl_str_mv Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
title Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
spellingShingle Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
Oliveira, Matheus Dutra de
Engenharia Elétrica
Odometria visual de múltiplas vistas
Localização de Monte Carlo
Fusão de dados
Filtro de Kalman
Multi-View visual odometry
Monte Carlo localization
Data fusion
Kalman filter
title_short Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
title_full Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
title_fullStr Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
title_full_unstemmed Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
title_sort Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
author Oliveira, Matheus Dutra de
author_facet Oliveira, Matheus Dutra de
author_role author
dc.contributor.authorID.none.fl_str_mv https://orcid.org/0009-0002-4548-8065
dc.contributor.authorLattes.none.fl_str_mv http://lattes.cnpq.br/5802812159654028
dc.contributor.advisor-co1.fl_str_mv Mello, Ricardo Carminati de
dc.contributor.advisor-co1ID.fl_str_mv https://orcid.org/0000-0003-0420-4273
dc.contributor.advisor-co1Lattes.fl_str_mv http://lattes.cnpq.br/1569638571582691
dc.contributor.advisor1.fl_str_mv Vassallo, Raquel Frizera
dc.contributor.advisor1ID.fl_str_mv https://orcid.org/0000-0002-4762-3219
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/9572903915280374
dc.contributor.author.fl_str_mv Oliveira, Matheus Dutra de
dc.contributor.referee1.fl_str_mv Cordeiro, Rafael de Angelis
dc.contributor.referee1ID.fl_str_mv https://orcid.org/0000-0002-9094-3365
dc.contributor.referee1Lattes.fl_str_mv http://lattes.cnpq.br/1957732976527194
dc.contributor.referee2.fl_str_mv Fernandes, Mariana Rampinelli
dc.contributor.referee2ID.fl_str_mv https://orcid.org/0000-0001-8483-5838
dc.contributor.referee2Lattes.fl_str_mv http://lattes.cnpq.br/6481644695559950
contributor_str_mv Mello, Ricardo Carminati de
Vassallo, Raquel Frizera
Cordeiro, Rafael de Angelis
Fernandes, Mariana Rampinelli
dc.subject.cnpq.fl_str_mv Engenharia Elétrica
topic Engenharia Elétrica
Odometria visual de múltiplas vistas
Localização de Monte Carlo
Fusão de dados
Filtro de Kalman
Multi-View visual odometry
Monte Carlo localization
Data fusion
Kalman filter
dc.subject.por.fl_str_mv Odometria visual de múltiplas vistas
Localização de Monte Carlo
Fusão de dados
Filtro de Kalman
Multi-View visual odometry
Monte Carlo localization
Data fusion
Kalman filter
description The estimation of mobile robot localization in indoor environments is one of the central challenges of autonomous navigation. Among the main techniques used to address this problem are Multi-View Visual Odometry, obtained through a multi-camera network, and Monte Carlo Localization. Both approaches have limitations: areas without camera coverage render navigation unfeasible when relying solely on visual odometry, while symmetric environments hinder convergence in the Monte Carlo method. Aiming to overcome these issues and achieve a more robust and reliable localization estimate, this work proposes the combination of these two global localization techniques through a data fusion approach based on Kalman Filter methods (Extended Kalman Filter and Unscented Kalman Filter). Additionally, the integration of the smart space architecture with the Robot Operating System (ROS) is adopted to implement this fusion. As a result, the fused localization can be integrated into the ROS navigation stack, leading to a complete localization and navigation system, and allowing the system to be triggered by other components of the smart environment. The system was evaluated in critical scenarios and case studies conducted in real environments. The results indicate that the information fusion effectively addresses the inherent limitations of each localization source, while increasing the robot’s global orientation accuracy by up to 12% and improving localization estimates by more than 5.2% when both sources are available.
publishDate 2025
dc.date.accessioned.fl_str_mv 2025-10-15T19:04:36Z
dc.date.available.fl_str_mv 2025-10-15T19:04:36Z
dc.date.issued.fl_str_mv 2025-08-20
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://repositorio.ufes.br/handle/10/20480
url http://repositorio.ufes.br/handle/10/20480
dc.language.iso.fl_str_mv por
pt
language por
language_invalid_str_mv pt
dc.rights.driver.fl_str_mv https://creativecommons.org/licenses/by/4.0/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv Text
dc.publisher.none.fl_str_mv Universidade Federal do Espírito Santo
Mestrado em Engenharia Elétrica
dc.publisher.program.fl_str_mv Programa de Pós-Graduação em Engenharia Elétrica
dc.publisher.initials.fl_str_mv UFES
dc.publisher.country.fl_str_mv BR
dc.publisher.department.fl_str_mv Centro Tecnológico
publisher.none.fl_str_mv Universidade Federal do Espírito Santo
Mestrado em Engenharia Elétrica
dc.source.none.fl_str_mv reponame:Repositório Institucional da Universidade Federal do Espírito Santo (riUfes)
instname:Universidade Federal do Espírito Santo (UFES)
instacron:UFES
instname_str Universidade Federal do Espírito Santo (UFES)
instacron_str UFES
institution UFES
reponame_str Repositório Institucional da Universidade Federal do Espírito Santo (riUfes)
collection Repositório Institucional da Universidade Federal do Espírito Santo (riUfes)
bitstream.url.fl_str_mv http://repositorio.ufes.br/bitstreams/0fd3c3ae-91e5-45e8-b009-1b26813e28fb/download
http://repositorio.ufes.br/bitstreams/63fd6a55-baa6-4b35-9f8b-6c79b02823e0/download
bitstream.checksum.fl_str_mv 51f0a4dd7ceb8069a311dbb6320a5bcd
8a4605be74aa9ea9d79846c1fba20a33
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) - Universidade Federal do Espírito Santo (UFES)
repository.mail.fl_str_mv riufes@ufes.br
_version_ 1856037479498383360