On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction

Detalhes bibliográficos
Ano de defesa: 2021
Autor(a) principal: Christian Reis Fagundes Gomes
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Minas Gerais
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://hdl.handle.net/1843/45067
Resumo: Algoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis.
id UFMG_150e88ee78ecb32d778c269808cb8d27
oai_identifier_str oai:repositorio.ufmg.br:1843/45067
network_acronym_str UFMG
network_name_str Repositório Institucional da UFMG
repository_id_str
spelling On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance predictionComputação – TesesProcessamento da linguagem natural (Computação)–TesesIndexação automatica –TesesAprendizado Ensemble – TesesNatural language processingAutomatic text classificationEnsemble learningStacking blendingAlgoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis.CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorUniversidade Federal de Minas Gerais2022-09-09T16:14:29Z2025-09-08T23:50:31Z2022-09-09T16:14:29Z2021-10-06info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://hdl.handle.net/1843/45067porhttp://creativecommons.org/licenses/by/3.0/pt/info:eu-repo/semantics/openAccessChristian Reis Fagundes Gomesreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMG2025-09-08T23:50:31Zoai:repositorio.ufmg.br:1843/45067Repositório InstitucionalPUBhttps://repositorio.ufmg.br/oairepositorio@ufmg.bropendoar:2025-09-08T23:50:31Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
dc.title.none.fl_str_mv On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
title On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
spellingShingle On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
Christian Reis Fagundes Gomes
Computação – Teses
Processamento da linguagem natural (Computação)–Teses
Indexação automatica –Teses
Aprendizado Ensemble – Teses
Natural language processing
Automatic text classification
Ensemble learning
Stacking blending
title_short On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
title_full On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
title_fullStr On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
title_full_unstemmed On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
title_sort On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
author Christian Reis Fagundes Gomes
author_facet Christian Reis Fagundes Gomes
author_role author
dc.contributor.author.fl_str_mv Christian Reis Fagundes Gomes
dc.subject.por.fl_str_mv Computação – Teses
Processamento da linguagem natural (Computação)–Teses
Indexação automatica –Teses
Aprendizado Ensemble – Teses
Natural language processing
Automatic text classification
Ensemble learning
Stacking blending
topic Computação – Teses
Processamento da linguagem natural (Computação)–Teses
Indexação automatica –Teses
Aprendizado Ensemble – Teses
Natural language processing
Automatic text classification
Ensemble learning
Stacking blending
description Algoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis.
publishDate 2021
dc.date.none.fl_str_mv 2021-10-06
2022-09-09T16:14:29Z
2022-09-09T16:14:29Z
2025-09-08T23:50:31Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://hdl.handle.net/1843/45067
url https://hdl.handle.net/1843/45067
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by/3.0/pt/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by/3.0/pt/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de Minas Gerais
publisher.none.fl_str_mv Universidade Federal de Minas Gerais
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFMG
instname:Universidade Federal de Minas Gerais (UFMG)
instacron:UFMG
instname_str Universidade Federal de Minas Gerais (UFMG)
instacron_str UFMG
institution UFMG
reponame_str Repositório Institucional da UFMG
collection Repositório Institucional da UFMG
repository.name.fl_str_mv Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)
repository.mail.fl_str_mv repositorio@ufmg.br
_version_ 1856413961642049536