On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
| Ano de defesa: | 2021 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Universidade Federal de Minas Gerais
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://hdl.handle.net/1843/45067 |
Resumo: | Algoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis. |
| id |
UFMG_150e88ee78ecb32d778c269808cb8d27 |
|---|---|
| oai_identifier_str |
oai:repositorio.ufmg.br:1843/45067 |
| network_acronym_str |
UFMG |
| network_name_str |
Repositório Institucional da UFMG |
| repository_id_str |
|
| spelling |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance predictionComputação – TesesProcessamento da linguagem natural (Computação)–TesesIndexação automatica –TesesAprendizado Ensemble – TesesNatural language processingAutomatic text classificationEnsemble learningStacking blendingAlgoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis.CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorUniversidade Federal de Minas Gerais2022-09-09T16:14:29Z2025-09-08T23:50:31Z2022-09-09T16:14:29Z2021-10-06info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://hdl.handle.net/1843/45067porhttp://creativecommons.org/licenses/by/3.0/pt/info:eu-repo/semantics/openAccessChristian Reis Fagundes Gomesreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMG2025-09-08T23:50:31Zoai:repositorio.ufmg.br:1843/45067Repositório InstitucionalPUBhttps://repositorio.ufmg.br/oairepositorio@ufmg.bropendoar:2025-09-08T23:50:31Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false |
| dc.title.none.fl_str_mv |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| title |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| spellingShingle |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction Christian Reis Fagundes Gomes Computação – Teses Processamento da linguagem natural (Computação)–Teses Indexação automatica –Teses Aprendizado Ensemble – Teses Natural language processing Automatic text classification Ensemble learning Stacking blending |
| title_short |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| title_full |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| title_fullStr |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| title_full_unstemmed |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| title_sort |
On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction |
| author |
Christian Reis Fagundes Gomes |
| author_facet |
Christian Reis Fagundes Gomes |
| author_role |
author |
| dc.contributor.author.fl_str_mv |
Christian Reis Fagundes Gomes |
| dc.subject.por.fl_str_mv |
Computação – Teses Processamento da linguagem natural (Computação)–Teses Indexação automatica –Teses Aprendizado Ensemble – Teses Natural language processing Automatic text classification Ensemble learning Stacking blending |
| topic |
Computação – Teses Processamento da linguagem natural (Computação)–Teses Indexação automatica –Teses Aprendizado Ensemble – Teses Natural language processing Automatic text classification Ensemble learning Stacking blending |
| description |
Algoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis. |
| publishDate |
2021 |
| dc.date.none.fl_str_mv |
2021-10-06 2022-09-09T16:14:29Z 2022-09-09T16:14:29Z 2025-09-08T23:50:31Z |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
https://hdl.handle.net/1843/45067 |
| url |
https://hdl.handle.net/1843/45067 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by/3.0/pt/ info:eu-repo/semantics/openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by/3.0/pt/ |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais |
| publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFMG instname:Universidade Federal de Minas Gerais (UFMG) instacron:UFMG |
| instname_str |
Universidade Federal de Minas Gerais (UFMG) |
| instacron_str |
UFMG |
| institution |
UFMG |
| reponame_str |
Repositório Institucional da UFMG |
| collection |
Repositório Institucional da UFMG |
| repository.name.fl_str_mv |
Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG) |
| repository.mail.fl_str_mv |
repositorio@ufmg.br |
| _version_ |
1856413961642049536 |