DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos

Detalhes bibliográficos
Ano de defesa: 2025
Autor(a) principal: PIRES, Higo Felipe Silva lattes
Orientador(a): PAUCAR CASAS, Vicente Leonardo lattes
Banca de defesa: PAUCAR CASAS, Vicente Leonardo lattes, CARVALHO, João Paulo Baptista de lattes, OLIVEIRA, Roberto Célio Limão de lattes, SERUFFO, Marcos César da Rocha lattes, FONSECA NETO, João Viana da
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal do Maranhão
Programa de Pós-Graduação: PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCET
Departamento: DEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCET
País: Brasil
Palavras-chave em Português:
Palavras-chave em Inglês:
Área do conhecimento CNPq:
Link de acesso: https://tedebc.ufma.br/jspui/handle/tede/6179
Resumo: The complex and specialized terminology of financial language in Portuguese-speaking markets create significant challenges for natural language processing (NLP) applications, which must capture nuanced linguistic and contextual information to support accurate analysis and decision-making. This paper presents DeB3RTa, a transformer-based model specifically developed through a mixed-domain pretraining strategy that combines extensive corpora from finance, politics, business management, and accounting to enable a nuanced understanding of financial language. DeB3RTa was evaluated against prominent models—including BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT, and GPTbased variants — and consistently achieved significant gains across key financial NLP benchmarks. To maximize adaptability and accuracy, DeB3RTa integrates advanced finetuning techniques such as layer reinitialization, Mixout regularization, stochastic weight averaging, and layer-wise learning rate decay, which together enhance its performance across varied and high-stakes NLP tasks. These findings underscore the efficacy of mixed-domain pretraining in building high-performance language models for specialized applications. With its robust performance in complex analytical and classification tasks, DeB3RTa offers a powerful tool for advancing NLP in the financial sector and supporting nuanced language processing needs in Portuguese-speaking contexts.
id UFMA_72ba06b4ca63647c684fcc273f4e1532
oai_identifier_str oai:tede2:tede/6179
network_acronym_str UFMA
network_name_str Biblioteca Digital de Teses e Dissertações da UFMA
repository_id_str
spelling PAUCAR CASAS, Vicente Leonardohttp://lattes.cnpq.br/1155686983267102CARVALHO, João Paulo Baptista dePAUCAR CASAS, Vicente Leonardohttp://lattes.cnpq.br/1155686983267102CARVALHO, João Paulo Baptista deOLIVEIRA, Roberto Célio Limão dehttp://lattes.cnpq.br/4497607460894318SERUFFO, Marcos César da Rochahttp://lattes.cnpq.br/3794198610723464FONSECA NETO, João Viana dahttp://lattes.cnpq.br/0029055473709795http://lattes.cnpq.br/9922891671880628PIRES, Higo Felipe Silva2025-05-27T18:33:35Z2025-04-16PIRES, Higo Felipe Silva. DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos. 2025. 165 f. Tese( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2025.https://tedebc.ufma.br/jspui/handle/tede/6179The complex and specialized terminology of financial language in Portuguese-speaking markets create significant challenges for natural language processing (NLP) applications, which must capture nuanced linguistic and contextual information to support accurate analysis and decision-making. This paper presents DeB3RTa, a transformer-based model specifically developed through a mixed-domain pretraining strategy that combines extensive corpora from finance, politics, business management, and accounting to enable a nuanced understanding of financial language. DeB3RTa was evaluated against prominent models—including BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT, and GPTbased variants — and consistently achieved significant gains across key financial NLP benchmarks. To maximize adaptability and accuracy, DeB3RTa integrates advanced finetuning techniques such as layer reinitialization, Mixout regularization, stochastic weight averaging, and layer-wise learning rate decay, which together enhance its performance across varied and high-stakes NLP tasks. These findings underscore the efficacy of mixed-domain pretraining in building high-performance language models for specialized applications. With its robust performance in complex analytical and classification tasks, DeB3RTa offers a powerful tool for advancing NLP in the financial sector and supporting nuanced language processing needs in Portuguese-speaking contexts.A terminologia complexa e especializada da linguagem financeira nos mercados de língua portuguesa cria desafios significativos para as aplicações de processamento de linguagem natural (PLN), que devem capturar informações linguísticas e contextuais diferenciadas para apoiar análises e tomadas de decisão precisas. Este trabalho apresenta o DeB3RTa, um modelo baseado na arquitetura Transformer desenvolvido especificamente por meio de uma estratégia de pré-treinamento de domínio misto que combina corpora extensos de finanças, política, administração de negócios e contabilidade para permitir uma compreensão diferenciada da linguagem financeira. O DeB3RTa foi avaliado em comparação com modelos proeminentes — incluindo BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT e variantes baseadas em GPT — e obteve consistentemente ganhos significativos nos principais benchmarks de PLN financeiro. Para maximizar a adaptabilidade e a precisão, o DeB3RTa integra técnicas avançadas de fine-tuning, como reinicialização de camadas, regularização de Mixout, média estocástica de pesos e decaimento da taxa de aprendizado por camada, que, juntas, melhoram seu desempenho em tarefas de PLN variadas e de grande importância. Essas descobertas ressaltam a eficácia do pré-treinamento de domínio misto na criação de modelos de linguagem de alto desempenho para aplicações especializadas. Com seu desempenho robusto em tarefas analíticas e de classificação complexas, o DeB3RTa oferece uma ferramenta poderosa para o avanço da PLN no setor financeiro e para atender às necessidades de processamento de linguagem diferenciada em contextos de língua portuguesa.Submitted by Maria Aparecida (cidazen@gmail.com) on 2025-05-27T18:33:35Z No. of bitstreams: 1 Higo Felipe Silva Pires.pdf: 4847297 bytes, checksum: 1e840168bb0273ada27b5b3c64aff786 (MD5)Made available in DSpace on 2025-05-27T18:33:35Z (GMT). No. of bitstreams: 1 Higo Felipe Silva Pires.pdf: 4847297 bytes, checksum: 1e840168bb0273ada27b5b3c64aff786 (MD5) Previous issue date: 2025-04-16CAPESapplication/pdfporUniversidade Federal do MaranhãoPROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCETUFMABrasilDEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCETProcessamento de Linguagem Natural em Português;Processamento de Linguagem Financeira;Transformers;Pré-treinamento de Domínio Misto;Decaimento da Taxa de Aprendizado por Camada;Regularização de Mixout;Reinicialização de Camadas;Arquitetura DeBERTa;Classificação de Textos FinanceirosPortuguese Natural Language Processing;Financial Language Processing;Transformers;Mixed Domain Pre-training;Layer-wise Learning Rate Decay;Mixout Regularization;Layer Resetting;DeBERTa Architecture;Financial Text ClassificationArquitetura de Sistemas de ComputaçãoDeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistosDeB3RTa: A pre-trained language model for analyzing financial texts in Portuguese using mixed domainsinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFMAinstname:Universidade Federal do Maranhão (UFMA)instacron:UFMAORIGINALHigo Felipe Silva Pires.pdfHigo Felipe Silva Pires.pdfapplication/pdf4847297http://tedebc.ufma.br:8080/bitstream/tede/6179/2/Higo+Felipe+Silva+Pires.pdf1e840168bb0273ada27b5b3c64aff786MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82255http://tedebc.ufma.br:8080/bitstream/tede/6179/1/license.txt97eeade1fce43278e63fe063657f8083MD51tede/61792025-05-27 15:33:35.198oai:tede2:tede/6179IExJQ0VOw4dBIERFIERJU1RSSUJVScOHw4NPIE7Dg08tRVhDTFVTSVZBCgpDb20gYSBhcHJlc2VudGHDp8OjbyBkZXN0YSBsaWNlbsOnYSxvIGF1dG9yIChlcykgb3UgbyB0aXR1bGFyIGRvcyBkaXJlaXRvcyBkZSBhdXRvciBjb25jZWRlIMOgIFVuaXZlcnNpZGFkZSBGZWRlcmFsIGRvIE1hcmFuaMOjbyAoVUZNQSkgbyBkaXJlaXRvIG7Do28tZXhjbHVzaXZvIGRlIHJlcHJvZHV6aXIsIHRyYWR1emlyIChjb25mb3JtZSBkZWZpbmlkbyBhYmFpeG8pLCBlL291IGRpc3RyaWJ1aXIgYSBzdWEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIChpbmNsdWluZG8gbyByZXN1bW8pIHBvciB0b2RvIG8gbXVuZG8gbm8gZm9ybWF0byBpbXByZXNzbyBlIGVsZXRyw7RuaWNvIGUgZW0gcXVhbHF1ZXIgbWVpbywgaW5jbHVpbmRvIG9zIGZvcm1hdG9zIMOhdWRpbyBvdSB2w61kZW8uCgpWb2PDqiBjb25jb3JkYSBxdWUgYSBVRk1BIHBvZGUsIHNlbSBhbHRlcmFyIG8gY29udGXDumRvLCB0cmFuc3BvciBhIHN1YSB0ZXNlIG91IGRpc3NlcnRhw6fDo28gcGFyYSBxdWFscXVlciBtZWlvIG91IGZvcm1hdG8gcGFyYSBmaW5zIGRlIHByZXNlcnZhw6fDo28uCgpWb2PDqiB0YW1iw6ltIGNvbmNvcmRhIHF1ZSBhIFVGTUEgcG9kZSBtYW50ZXIgbWFpcyBkZSB1bWEgY8OzcGlhIGRlIHN1YSB0ZXNlIG91IGRpc3NlcnRhw6fDo28gcGFyYSBmaW5zIGRlIHNlZ3VyYW7Dp2EsIGJhY2stdXAgZSBwcmVzZXJ2YcOnw6NvLgoKVm9jw6ogZGVjbGFyYSBxdWUgYSBzdWEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIMOpIG9yaWdpbmFsIGUgcXVlIHZvY8OqIHRlbSBvIHBvZGVyIGRlIGNvbmNlZGVyIG9zIGRpcmVpdG9zIGNvbnRpZG9zIG5lc3RhIGxpY2Vuw6dhLiBWb2PDqiB0YW1iw6ltIGRlY2xhcmEgcXVlIG8gZGVww7NzaXRvIGRhIHN1YSB0ZXNlIG91IGRpc3NlcnRhw6fDo28gbsOjbywgcXVlIHNlamEgZGUgc2V1IGNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgZGUgbmluZ3XDqW0uCgpDYXNvIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBjb250ZW5oYSBtYXRlcmlhbCBxdWUgdm9jw6ogbsOjbyBwb3NzdWkgYSB0aXR1bGFyaWRhZGUgZG9zIGRpcmVpdG9zIGF1dG9yYWlzLCB2b2PDqiBkZWNsYXJhIHF1ZSBvYnRldmUgYSBwZXJtaXNzw6NvIGlycmVzdHJpdGEgZG8gZGV0ZW50b3IgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIHBhcmEgY29uY2VkZXIgw6AgVUZNQSBvcyBkaXJlaXRvcyBhcHJlc2VudGFkb3MgbmVzdGEgbGljZW7Dp2EsIGUgcXVlIGVzc2UgbWF0ZXJpYWwgZGUgcHJvcHJpZWRhZGUgZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3Ugbm8gY29udGXDumRvIGRhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBvcmEgZGVwb3NpdGFkYS4KCkNBU08gQSBURVNFIE9VIERJU1NFUlRBw4fDg08gT1JBIERFUE9TSVRBREEgVEVOSEEgU0lETyBSRVNVTFRBRE8gREUgVU0gUEFUUk9Dw41OSU8gT1UgQVBPSU8gREUgVU1BIEFHw4pOQ0lBIERFIEZPTUVOVE8gT1UgT1VUUk8gT1JHQU5JU01PIFFVRSBOw4NPIFNFSkEgQSBVRk1BLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyBUQU1Cw4lNIEFTIERFTUFJUyBPQlJJR0HDh8OVRVMgRVhJR0lEQVMgUE9SIENPTlRSQVRPIE9VIEFDT1JETy4KCkEgVUZNQSBzZSBjb21wcm9tZXRlIGEgaWRlbnRpZmljYXIgY2xhcmFtZW50ZSBvIHNldSBub21lIG91IG8ocykgbm9tZShzKSBkbyhzKSBkZXRlbnRvcihlcykgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIGRhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbywgZSBuw6NvIGZhcsOhIHF1YWxxdWVyIGFsdGVyYcOnw6NvLCBhbMOpbSBkYXF1ZWxhcyBjb25jZWRpZGFzIHBvciBlc3RhIGxpY2Vuw6dhLgoKRGVjbGFyYSB0YW1iw6ltIHF1ZSB0b2RhcyBhcyBhZmlsaWHDp8O1ZXMgY29ycG9yYXRpdmFzIG91IGluc3RpdHVjaW9uYWlzIGUgdG9kYXMgYXMgZm9udGVzIGRlIGFwb2lvIGZpbmFuY2Vpcm8gYW8gdHJhYmFsaG8gZXN0w6NvIGRldmlkYW1lbnRlIGNpdGFkYXMgb3UgbWVuY2lvbmFkYXMgZSBjZXJ0aWZpY2EgcXVlIG7Do28gaMOhIG5lbmh1bSBpbnRlcmVzc2UgY29tZXJjaWFsIG91IGFzc29jaWF0aXZvIHF1ZSByZXByZXNlbnRlIGNvbmZsaXRvIGRlIGludGVyZXNzZSBlbSBjb25leMOjbyBjb20gbyB0cmFiYWxobyBzdWJtZXRpZG8uCgoKCgoKCgo=Biblioteca Digital de Teses e Dissertaçõeshttps://tedebc.ufma.br/jspui/PUBhttp://tedebc.ufma.br:8080/oai/requestrepositorio@ufma.br||repositorio@ufma.bropendoar:21312025-05-27T18:33:35Biblioteca Digital de Teses e Dissertações da UFMA - Universidade Federal do Maranhão (UFMA)false
dc.title.por.fl_str_mv DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
dc.title.alternative.eng.fl_str_mv DeB3RTa: A pre-trained language model for analyzing financial texts in Portuguese using mixed domains
title DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
spellingShingle DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
PIRES, Higo Felipe Silva
Processamento de Linguagem Natural em Português;
Processamento de Linguagem Financeira;
Transformers;
Pré-treinamento de Domínio Misto;
Decaimento da Taxa de Aprendizado por Camada;
Regularização de Mixout;
Reinicialização de Camadas;
Arquitetura DeBERTa;
Classificação de Textos Financeiros
Portuguese Natural Language Processing;
Financial Language Processing;
Transformers;
Mixed Domain Pre-training;
Layer-wise Learning Rate Decay;
Mixout Regularization;
Layer Resetting;
DeBERTa Architecture;
Financial Text Classification
Arquitetura de Sistemas de Computação
title_short DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
title_full DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
title_fullStr DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
title_full_unstemmed DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
title_sort DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
author PIRES, Higo Felipe Silva
author_facet PIRES, Higo Felipe Silva
author_role author
dc.contributor.advisor1.fl_str_mv PAUCAR CASAS, Vicente Leonardo
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/1155686983267102
dc.contributor.advisor-co1.fl_str_mv CARVALHO, João Paulo Baptista de
dc.contributor.referee1.fl_str_mv PAUCAR CASAS, Vicente Leonardo
dc.contributor.referee1Lattes.fl_str_mv http://lattes.cnpq.br/1155686983267102
dc.contributor.referee2.fl_str_mv CARVALHO, João Paulo Baptista de
dc.contributor.referee3.fl_str_mv OLIVEIRA, Roberto Célio Limão de
dc.contributor.referee3Lattes.fl_str_mv http://lattes.cnpq.br/4497607460894318
dc.contributor.referee4.fl_str_mv SERUFFO, Marcos César da Rocha
dc.contributor.referee4Lattes.fl_str_mv http://lattes.cnpq.br/3794198610723464
dc.contributor.referee5.fl_str_mv FONSECA NETO, João Viana da
dc.contributor.referee5Lattes.fl_str_mv http://lattes.cnpq.br/0029055473709795
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/9922891671880628
dc.contributor.author.fl_str_mv PIRES, Higo Felipe Silva
contributor_str_mv PAUCAR CASAS, Vicente Leonardo
CARVALHO, João Paulo Baptista de
PAUCAR CASAS, Vicente Leonardo
CARVALHO, João Paulo Baptista de
OLIVEIRA, Roberto Célio Limão de
SERUFFO, Marcos César da Rocha
FONSECA NETO, João Viana da
dc.subject.por.fl_str_mv Processamento de Linguagem Natural em Português;
Processamento de Linguagem Financeira;
Transformers;
Pré-treinamento de Domínio Misto;
Decaimento da Taxa de Aprendizado por Camada;
Regularização de Mixout;
Reinicialização de Camadas;
Arquitetura DeBERTa;
Classificação de Textos Financeiros
topic Processamento de Linguagem Natural em Português;
Processamento de Linguagem Financeira;
Transformers;
Pré-treinamento de Domínio Misto;
Decaimento da Taxa de Aprendizado por Camada;
Regularização de Mixout;
Reinicialização de Camadas;
Arquitetura DeBERTa;
Classificação de Textos Financeiros
Portuguese Natural Language Processing;
Financial Language Processing;
Transformers;
Mixed Domain Pre-training;
Layer-wise Learning Rate Decay;
Mixout Regularization;
Layer Resetting;
DeBERTa Architecture;
Financial Text Classification
Arquitetura de Sistemas de Computação
dc.subject.eng.fl_str_mv Portuguese Natural Language Processing;
Financial Language Processing;
Transformers;
Mixed Domain Pre-training;
Layer-wise Learning Rate Decay;
Mixout Regularization;
Layer Resetting;
DeBERTa Architecture;
Financial Text Classification
dc.subject.cnpq.fl_str_mv Arquitetura de Sistemas de Computação
description The complex and specialized terminology of financial language in Portuguese-speaking markets create significant challenges for natural language processing (NLP) applications, which must capture nuanced linguistic and contextual information to support accurate analysis and decision-making. This paper presents DeB3RTa, a transformer-based model specifically developed through a mixed-domain pretraining strategy that combines extensive corpora from finance, politics, business management, and accounting to enable a nuanced understanding of financial language. DeB3RTa was evaluated against prominent models—including BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT, and GPTbased variants — and consistently achieved significant gains across key financial NLP benchmarks. To maximize adaptability and accuracy, DeB3RTa integrates advanced finetuning techniques such as layer reinitialization, Mixout regularization, stochastic weight averaging, and layer-wise learning rate decay, which together enhance its performance across varied and high-stakes NLP tasks. These findings underscore the efficacy of mixed-domain pretraining in building high-performance language models for specialized applications. With its robust performance in complex analytical and classification tasks, DeB3RTa offers a powerful tool for advancing NLP in the financial sector and supporting nuanced language processing needs in Portuguese-speaking contexts.
publishDate 2025
dc.date.accessioned.fl_str_mv 2025-05-27T18:33:35Z
dc.date.issued.fl_str_mv 2025-04-16
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv PIRES, Higo Felipe Silva. DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos. 2025. 165 f. Tese( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2025.
dc.identifier.uri.fl_str_mv https://tedebc.ufma.br/jspui/handle/tede/6179
identifier_str_mv PIRES, Higo Felipe Silva. DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos. 2025. 165 f. Tese( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2025.
url https://tedebc.ufma.br/jspui/handle/tede/6179
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal do Maranhão
dc.publisher.program.fl_str_mv PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCET
dc.publisher.initials.fl_str_mv UFMA
dc.publisher.country.fl_str_mv Brasil
dc.publisher.department.fl_str_mv DEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCET
publisher.none.fl_str_mv Universidade Federal do Maranhão
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFMA
instname:Universidade Federal do Maranhão (UFMA)
instacron:UFMA
instname_str Universidade Federal do Maranhão (UFMA)
instacron_str UFMA
institution UFMA
reponame_str Biblioteca Digital de Teses e Dissertações da UFMA
collection Biblioteca Digital de Teses e Dissertações da UFMA
bitstream.url.fl_str_mv http://tedebc.ufma.br:8080/bitstream/tede/6179/2/Higo+Felipe+Silva+Pires.pdf
http://tedebc.ufma.br:8080/bitstream/tede/6179/1/license.txt
bitstream.checksum.fl_str_mv 1e840168bb0273ada27b5b3c64aff786
97eeade1fce43278e63fe063657f8083
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFMA - Universidade Federal do Maranhão (UFMA)
repository.mail.fl_str_mv repositorio@ufma.br||repositorio@ufma.br
_version_ 1853508047423406080