DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos
| Ano de defesa: | 2025 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | , , , , |
| Tipo de documento: | Tese |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Universidade Federal do Maranhão
|
| Programa de Pós-Graduação: |
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCET
|
| Departamento: |
DEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCET
|
| País: |
Brasil
|
| Palavras-chave em Português: | |
| Palavras-chave em Inglês: | |
| Área do conhecimento CNPq: | |
| Link de acesso: | https://tedebc.ufma.br/jspui/handle/tede/6179 |
Resumo: | The complex and specialized terminology of financial language in Portuguese-speaking markets create significant challenges for natural language processing (NLP) applications, which must capture nuanced linguistic and contextual information to support accurate analysis and decision-making. This paper presents DeB3RTa, a transformer-based model specifically developed through a mixed-domain pretraining strategy that combines extensive corpora from finance, politics, business management, and accounting to enable a nuanced understanding of financial language. DeB3RTa was evaluated against prominent models—including BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT, and GPTbased variants — and consistently achieved significant gains across key financial NLP benchmarks. To maximize adaptability and accuracy, DeB3RTa integrates advanced finetuning techniques such as layer reinitialization, Mixout regularization, stochastic weight averaging, and layer-wise learning rate decay, which together enhance its performance across varied and high-stakes NLP tasks. These findings underscore the efficacy of mixed-domain pretraining in building high-performance language models for specialized applications. With its robust performance in complex analytical and classification tasks, DeB3RTa offers a powerful tool for advancing NLP in the financial sector and supporting nuanced language processing needs in Portuguese-speaking contexts. |
| id |
UFMA_72ba06b4ca63647c684fcc273f4e1532 |
|---|---|
| oai_identifier_str |
oai:tede2:tede/6179 |
| network_acronym_str |
UFMA |
| network_name_str |
Biblioteca Digital de Teses e Dissertações da UFMA |
| repository_id_str |
|
| spelling |
PAUCAR CASAS, Vicente Leonardohttp://lattes.cnpq.br/1155686983267102CARVALHO, João Paulo Baptista dePAUCAR CASAS, Vicente Leonardohttp://lattes.cnpq.br/1155686983267102CARVALHO, João Paulo Baptista deOLIVEIRA, Roberto Célio Limão dehttp://lattes.cnpq.br/4497607460894318SERUFFO, Marcos César da Rochahttp://lattes.cnpq.br/3794198610723464FONSECA NETO, João Viana dahttp://lattes.cnpq.br/0029055473709795http://lattes.cnpq.br/9922891671880628PIRES, Higo Felipe Silva2025-05-27T18:33:35Z2025-04-16PIRES, Higo Felipe Silva. DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos. 2025. 165 f. Tese( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2025.https://tedebc.ufma.br/jspui/handle/tede/6179The complex and specialized terminology of financial language in Portuguese-speaking markets create significant challenges for natural language processing (NLP) applications, which must capture nuanced linguistic and contextual information to support accurate analysis and decision-making. This paper presents DeB3RTa, a transformer-based model specifically developed through a mixed-domain pretraining strategy that combines extensive corpora from finance, politics, business management, and accounting to enable a nuanced understanding of financial language. DeB3RTa was evaluated against prominent models—including BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT, and GPTbased variants — and consistently achieved significant gains across key financial NLP benchmarks. To maximize adaptability and accuracy, DeB3RTa integrates advanced finetuning techniques such as layer reinitialization, Mixout regularization, stochastic weight averaging, and layer-wise learning rate decay, which together enhance its performance across varied and high-stakes NLP tasks. These findings underscore the efficacy of mixed-domain pretraining in building high-performance language models for specialized applications. With its robust performance in complex analytical and classification tasks, DeB3RTa offers a powerful tool for advancing NLP in the financial sector and supporting nuanced language processing needs in Portuguese-speaking contexts.A terminologia complexa e especializada da linguagem financeira nos mercados de língua portuguesa cria desafios significativos para as aplicações de processamento de linguagem natural (PLN), que devem capturar informações linguísticas e contextuais diferenciadas para apoiar análises e tomadas de decisão precisas. Este trabalho apresenta o DeB3RTa, um modelo baseado na arquitetura Transformer desenvolvido especificamente por meio de uma estratégia de pré-treinamento de domínio misto que combina corpora extensos de finanças, política, administração de negócios e contabilidade para permitir uma compreensão diferenciada da linguagem financeira. O DeB3RTa foi avaliado em comparação com modelos proeminentes — incluindo BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT e variantes baseadas em GPT — e obteve consistentemente ganhos significativos nos principais benchmarks de PLN financeiro. Para maximizar a adaptabilidade e a precisão, o DeB3RTa integra técnicas avançadas de fine-tuning, como reinicialização de camadas, regularização de Mixout, média estocástica de pesos e decaimento da taxa de aprendizado por camada, que, juntas, melhoram seu desempenho em tarefas de PLN variadas e de grande importância. Essas descobertas ressaltam a eficácia do pré-treinamento de domínio misto na criação de modelos de linguagem de alto desempenho para aplicações especializadas. Com seu desempenho robusto em tarefas analíticas e de classificação complexas, o DeB3RTa oferece uma ferramenta poderosa para o avanço da PLN no setor financeiro e para atender às necessidades de processamento de linguagem diferenciada em contextos de língua portuguesa.Submitted by Maria Aparecida (cidazen@gmail.com) on 2025-05-27T18:33:35Z No. of bitstreams: 1 Higo Felipe Silva Pires.pdf: 4847297 bytes, checksum: 1e840168bb0273ada27b5b3c64aff786 (MD5)Made available in DSpace on 2025-05-27T18:33:35Z (GMT). No. of bitstreams: 1 Higo Felipe Silva Pires.pdf: 4847297 bytes, checksum: 1e840168bb0273ada27b5b3c64aff786 (MD5) Previous issue date: 2025-04-16CAPESapplication/pdfporUniversidade Federal do MaranhãoPROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCETUFMABrasilDEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCETProcessamento de Linguagem Natural em Português;Processamento de Linguagem Financeira;Transformers;Pré-treinamento de Domínio Misto;Decaimento da Taxa de Aprendizado por Camada;Regularização de Mixout;Reinicialização de Camadas;Arquitetura DeBERTa;Classificação de Textos FinanceirosPortuguese Natural Language Processing;Financial Language Processing;Transformers;Mixed Domain Pre-training;Layer-wise Learning Rate Decay;Mixout Regularization;Layer Resetting;DeBERTa Architecture;Financial Text ClassificationArquitetura de Sistemas de ComputaçãoDeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistosDeB3RTa: A pre-trained language model for analyzing financial texts in Portuguese using mixed domainsinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFMAinstname:Universidade Federal do Maranhão (UFMA)instacron:UFMAORIGINALHigo Felipe Silva Pires.pdfHigo Felipe Silva Pires.pdfapplication/pdf4847297http://tedebc.ufma.br:8080/bitstream/tede/6179/2/Higo+Felipe+Silva+Pires.pdf1e840168bb0273ada27b5b3c64aff786MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82255http://tedebc.ufma.br:8080/bitstream/tede/6179/1/license.txt97eeade1fce43278e63fe063657f8083MD51tede/61792025-05-27 15:33:35.198oai:tede2:tede/6179IExJQ0VOw4dBIERFIERJU1RSSUJVScOHw4NPIE7Dg08tRVhDTFVTSVZBCgpDb20gYSBhcHJlc2VudGHDp8OjbyBkZXN0YSBsaWNlbsOnYSxvIGF1dG9yIChlcykgb3UgbyB0aXR1bGFyIGRvcyBkaXJlaXRvcyBkZSBhdXRvciBjb25jZWRlIMOgIFVuaXZlcnNpZGFkZSBGZWRlcmFsIGRvIE1hcmFuaMOjbyAoVUZNQSkgbyBkaXJlaXRvIG7Do28tZXhjbHVzaXZvIGRlIHJlcHJvZHV6aXIsIHRyYWR1emlyIChjb25mb3JtZSBkZWZpbmlkbyBhYmFpeG8pLCBlL291IGRpc3RyaWJ1aXIgYSBzdWEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIChpbmNsdWluZG8gbyByZXN1bW8pIHBvciB0b2RvIG8gbXVuZG8gbm8gZm9ybWF0byBpbXByZXNzbyBlIGVsZXRyw7RuaWNvIGUgZW0gcXVhbHF1ZXIgbWVpbywgaW5jbHVpbmRvIG9zIGZvcm1hdG9zIMOhdWRpbyBvdSB2w61kZW8uCgpWb2PDqiBjb25jb3JkYSBxdWUgYSBVRk1BIHBvZGUsIHNlbSBhbHRlcmFyIG8gY29udGXDumRvLCB0cmFuc3BvciBhIHN1YSB0ZXNlIG91IGRpc3NlcnRhw6fDo28gcGFyYSBxdWFscXVlciBtZWlvIG91IGZvcm1hdG8gcGFyYSBmaW5zIGRlIHByZXNlcnZhw6fDo28uCgpWb2PDqiB0YW1iw6ltIGNvbmNvcmRhIHF1ZSBhIFVGTUEgcG9kZSBtYW50ZXIgbWFpcyBkZSB1bWEgY8OzcGlhIGRlIHN1YSB0ZXNlIG91IGRpc3NlcnRhw6fDo28gcGFyYSBmaW5zIGRlIHNlZ3VyYW7Dp2EsIGJhY2stdXAgZSBwcmVzZXJ2YcOnw6NvLgoKVm9jw6ogZGVjbGFyYSBxdWUgYSBzdWEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIMOpIG9yaWdpbmFsIGUgcXVlIHZvY8OqIHRlbSBvIHBvZGVyIGRlIGNvbmNlZGVyIG9zIGRpcmVpdG9zIGNvbnRpZG9zIG5lc3RhIGxpY2Vuw6dhLiBWb2PDqiB0YW1iw6ltIGRlY2xhcmEgcXVlIG8gZGVww7NzaXRvIGRhIHN1YSB0ZXNlIG91IGRpc3NlcnRhw6fDo28gbsOjbywgcXVlIHNlamEgZGUgc2V1IGNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgZGUgbmluZ3XDqW0uCgpDYXNvIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBjb250ZW5oYSBtYXRlcmlhbCBxdWUgdm9jw6ogbsOjbyBwb3NzdWkgYSB0aXR1bGFyaWRhZGUgZG9zIGRpcmVpdG9zIGF1dG9yYWlzLCB2b2PDqiBkZWNsYXJhIHF1ZSBvYnRldmUgYSBwZXJtaXNzw6NvIGlycmVzdHJpdGEgZG8gZGV0ZW50b3IgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIHBhcmEgY29uY2VkZXIgw6AgVUZNQSBvcyBkaXJlaXRvcyBhcHJlc2VudGFkb3MgbmVzdGEgbGljZW7Dp2EsIGUgcXVlIGVzc2UgbWF0ZXJpYWwgZGUgcHJvcHJpZWRhZGUgZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3Ugbm8gY29udGXDumRvIGRhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBvcmEgZGVwb3NpdGFkYS4KCkNBU08gQSBURVNFIE9VIERJU1NFUlRBw4fDg08gT1JBIERFUE9TSVRBREEgVEVOSEEgU0lETyBSRVNVTFRBRE8gREUgVU0gUEFUUk9Dw41OSU8gT1UgQVBPSU8gREUgVU1BIEFHw4pOQ0lBIERFIEZPTUVOVE8gT1UgT1VUUk8gT1JHQU5JU01PIFFVRSBOw4NPIFNFSkEgQSBVRk1BLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyBUQU1Cw4lNIEFTIERFTUFJUyBPQlJJR0HDh8OVRVMgRVhJR0lEQVMgUE9SIENPTlRSQVRPIE9VIEFDT1JETy4KCkEgVUZNQSBzZSBjb21wcm9tZXRlIGEgaWRlbnRpZmljYXIgY2xhcmFtZW50ZSBvIHNldSBub21lIG91IG8ocykgbm9tZShzKSBkbyhzKSBkZXRlbnRvcihlcykgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIGRhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbywgZSBuw6NvIGZhcsOhIHF1YWxxdWVyIGFsdGVyYcOnw6NvLCBhbMOpbSBkYXF1ZWxhcyBjb25jZWRpZGFzIHBvciBlc3RhIGxpY2Vuw6dhLgoKRGVjbGFyYSB0YW1iw6ltIHF1ZSB0b2RhcyBhcyBhZmlsaWHDp8O1ZXMgY29ycG9yYXRpdmFzIG91IGluc3RpdHVjaW9uYWlzIGUgdG9kYXMgYXMgZm9udGVzIGRlIGFwb2lvIGZpbmFuY2Vpcm8gYW8gdHJhYmFsaG8gZXN0w6NvIGRldmlkYW1lbnRlIGNpdGFkYXMgb3UgbWVuY2lvbmFkYXMgZSBjZXJ0aWZpY2EgcXVlIG7Do28gaMOhIG5lbmh1bSBpbnRlcmVzc2UgY29tZXJjaWFsIG91IGFzc29jaWF0aXZvIHF1ZSByZXByZXNlbnRlIGNvbmZsaXRvIGRlIGludGVyZXNzZSBlbSBjb25leMOjbyBjb20gbyB0cmFiYWxobyBzdWJtZXRpZG8uCgoKCgoKCgo=Biblioteca Digital de Teses e Dissertaçõeshttps://tedebc.ufma.br/jspui/PUBhttp://tedebc.ufma.br:8080/oai/requestrepositorio@ufma.br||repositorio@ufma.bropendoar:21312025-05-27T18:33:35Biblioteca Digital de Teses e Dissertações da UFMA - Universidade Federal do Maranhão (UFMA)false |
| dc.title.por.fl_str_mv |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| dc.title.alternative.eng.fl_str_mv |
DeB3RTa: A pre-trained language model for analyzing financial texts in Portuguese using mixed domains |
| title |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| spellingShingle |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos PIRES, Higo Felipe Silva Processamento de Linguagem Natural em Português; Processamento de Linguagem Financeira; Transformers; Pré-treinamento de Domínio Misto; Decaimento da Taxa de Aprendizado por Camada; Regularização de Mixout; Reinicialização de Camadas; Arquitetura DeBERTa; Classificação de Textos Financeiros Portuguese Natural Language Processing; Financial Language Processing; Transformers; Mixed Domain Pre-training; Layer-wise Learning Rate Decay; Mixout Regularization; Layer Resetting; DeBERTa Architecture; Financial Text Classification Arquitetura de Sistemas de Computação |
| title_short |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| title_full |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| title_fullStr |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| title_full_unstemmed |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| title_sort |
DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos |
| author |
PIRES, Higo Felipe Silva |
| author_facet |
PIRES, Higo Felipe Silva |
| author_role |
author |
| dc.contributor.advisor1.fl_str_mv |
PAUCAR CASAS, Vicente Leonardo |
| dc.contributor.advisor1Lattes.fl_str_mv |
http://lattes.cnpq.br/1155686983267102 |
| dc.contributor.advisor-co1.fl_str_mv |
CARVALHO, João Paulo Baptista de |
| dc.contributor.referee1.fl_str_mv |
PAUCAR CASAS, Vicente Leonardo |
| dc.contributor.referee1Lattes.fl_str_mv |
http://lattes.cnpq.br/1155686983267102 |
| dc.contributor.referee2.fl_str_mv |
CARVALHO, João Paulo Baptista de |
| dc.contributor.referee3.fl_str_mv |
OLIVEIRA, Roberto Célio Limão de |
| dc.contributor.referee3Lattes.fl_str_mv |
http://lattes.cnpq.br/4497607460894318 |
| dc.contributor.referee4.fl_str_mv |
SERUFFO, Marcos César da Rocha |
| dc.contributor.referee4Lattes.fl_str_mv |
http://lattes.cnpq.br/3794198610723464 |
| dc.contributor.referee5.fl_str_mv |
FONSECA NETO, João Viana da |
| dc.contributor.referee5Lattes.fl_str_mv |
http://lattes.cnpq.br/0029055473709795 |
| dc.contributor.authorLattes.fl_str_mv |
http://lattes.cnpq.br/9922891671880628 |
| dc.contributor.author.fl_str_mv |
PIRES, Higo Felipe Silva |
| contributor_str_mv |
PAUCAR CASAS, Vicente Leonardo CARVALHO, João Paulo Baptista de PAUCAR CASAS, Vicente Leonardo CARVALHO, João Paulo Baptista de OLIVEIRA, Roberto Célio Limão de SERUFFO, Marcos César da Rocha FONSECA NETO, João Viana da |
| dc.subject.por.fl_str_mv |
Processamento de Linguagem Natural em Português; Processamento de Linguagem Financeira; Transformers; Pré-treinamento de Domínio Misto; Decaimento da Taxa de Aprendizado por Camada; Regularização de Mixout; Reinicialização de Camadas; Arquitetura DeBERTa; Classificação de Textos Financeiros |
| topic |
Processamento de Linguagem Natural em Português; Processamento de Linguagem Financeira; Transformers; Pré-treinamento de Domínio Misto; Decaimento da Taxa de Aprendizado por Camada; Regularização de Mixout; Reinicialização de Camadas; Arquitetura DeBERTa; Classificação de Textos Financeiros Portuguese Natural Language Processing; Financial Language Processing; Transformers; Mixed Domain Pre-training; Layer-wise Learning Rate Decay; Mixout Regularization; Layer Resetting; DeBERTa Architecture; Financial Text Classification Arquitetura de Sistemas de Computação |
| dc.subject.eng.fl_str_mv |
Portuguese Natural Language Processing; Financial Language Processing; Transformers; Mixed Domain Pre-training; Layer-wise Learning Rate Decay; Mixout Regularization; Layer Resetting; DeBERTa Architecture; Financial Text Classification |
| dc.subject.cnpq.fl_str_mv |
Arquitetura de Sistemas de Computação |
| description |
The complex and specialized terminology of financial language in Portuguese-speaking markets create significant challenges for natural language processing (NLP) applications, which must capture nuanced linguistic and contextual information to support accurate analysis and decision-making. This paper presents DeB3RTa, a transformer-based model specifically developed through a mixed-domain pretraining strategy that combines extensive corpora from finance, politics, business management, and accounting to enable a nuanced understanding of financial language. DeB3RTa was evaluated against prominent models—including BERTimbau, XLM-RoBERTa, SEC-BERT, BusinessBERT, and GPTbased variants — and consistently achieved significant gains across key financial NLP benchmarks. To maximize adaptability and accuracy, DeB3RTa integrates advanced finetuning techniques such as layer reinitialization, Mixout regularization, stochastic weight averaging, and layer-wise learning rate decay, which together enhance its performance across varied and high-stakes NLP tasks. These findings underscore the efficacy of mixed-domain pretraining in building high-performance language models for specialized applications. With its robust performance in complex analytical and classification tasks, DeB3RTa offers a powerful tool for advancing NLP in the financial sector and supporting nuanced language processing needs in Portuguese-speaking contexts. |
| publishDate |
2025 |
| dc.date.accessioned.fl_str_mv |
2025-05-27T18:33:35Z |
| dc.date.issued.fl_str_mv |
2025-04-16 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
| format |
doctoralThesis |
| status_str |
publishedVersion |
| dc.identifier.citation.fl_str_mv |
PIRES, Higo Felipe Silva. DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos. 2025. 165 f. Tese( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2025. |
| dc.identifier.uri.fl_str_mv |
https://tedebc.ufma.br/jspui/handle/tede/6179 |
| identifier_str_mv |
PIRES, Higo Felipe Silva. DeB3RTa: Um modelo de linguagem pré-treinado para análise de textos financeiros em português usando domínios mistos. 2025. 165 f. Tese( Programa de Pós-graduação em Engenharia de Eletricidade/CCET) - Universidade Federal do Maranhão, São Luís, 2025. |
| url |
https://tedebc.ufma.br/jspui/handle/tede/6179 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Federal do Maranhão |
| dc.publisher.program.fl_str_mv |
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE ELETRICIDADE/CCET |
| dc.publisher.initials.fl_str_mv |
UFMA |
| dc.publisher.country.fl_str_mv |
Brasil |
| dc.publisher.department.fl_str_mv |
DEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE/CCET |
| publisher.none.fl_str_mv |
Universidade Federal do Maranhão |
| dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFMA instname:Universidade Federal do Maranhão (UFMA) instacron:UFMA |
| instname_str |
Universidade Federal do Maranhão (UFMA) |
| instacron_str |
UFMA |
| institution |
UFMA |
| reponame_str |
Biblioteca Digital de Teses e Dissertações da UFMA |
| collection |
Biblioteca Digital de Teses e Dissertações da UFMA |
| bitstream.url.fl_str_mv |
http://tedebc.ufma.br:8080/bitstream/tede/6179/2/Higo+Felipe+Silva+Pires.pdf http://tedebc.ufma.br:8080/bitstream/tede/6179/1/license.txt |
| bitstream.checksum.fl_str_mv |
1e840168bb0273ada27b5b3c64aff786 97eeade1fce43278e63fe063657f8083 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
| repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFMA - Universidade Federal do Maranhão (UFMA) |
| repository.mail.fl_str_mv |
repositorio@ufma.br||repositorio@ufma.br |
| _version_ |
1853508047423406080 |