Usando medidas de dificuldade de instâncias em curriculum learning
| Ano de defesa: | 2023 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| dARK ID: | ark:/48912/001300002pbn5 |
| Idioma: | por |
| Instituição de defesa: |
Universidade Federal de São Paulo
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | https://repositorio.unifesp.br/handle/11600/68372 |
Resumo: | As Redes Neurais Profundas (Deep Learning Networks) têm apresentado resultados no estado da arte em diversas tarefas desafiadoras, como na análise e classificação de imagens, vídeos e texto. Contudo, o seu treinamento é em geral custoso e a obtenção de melhores resultados preditivos depende de diversos fatores. Uma das alternativas propostas na literatura para acelerar o treinamento dessas redes e obter um bom desempenho preditivo é o Curriculum Learning (CL). No CL, os dados disponíveis para treinamento das redes são apresentados de maneira ordenada, em que observações de menor grau de dificuldade são apresentadas primeiro e o nível de dificuldade das observações apresentadas é progressivamente aumentado. Neste trabalho propõe-se o uso de medidas de dificuldade de instâncias (instance hardness measures - IHM), conhecidas na literatura por oferecerem diferentes perspectivas do nível de dificuldade de cada observação em um conjunto de dados, para realizar essa ordenação. Os resultados experimentais obtidos para o conjunto CIFAR-100 demonstram que a utilização do CL trouxe a maior acurácia preditiva em dez das vinte superclasses do conjunto de dados. Na sequência, a metodologia tradicional de treinamento Vanilla alcançou a maior acurácia preditiva em oito superclasses e uma ordenação aleatória (Random) se sobressaiu em duas. Com o intuito de verificar se os resultados poderiam ser melhorados, foram executados diversos experimentos adicionais, em que foi variado o parâmetro de apresentação de novas instâncias durante o treinamento, alterada a rede de extração de características e avaliada a utilização de métodos de agregação de medidas. Esses experimentos melhoraram ainda mais as acurácias preditivas em superclasses que o CL já havia trazido os melhores resultados, mas em superclasses que o Vanilla se saiu melhor isso não ocorreu. |
| id |
UFSP_f6a2e255a7b577a97aba283751f23d93 |
|---|---|
| oai_identifier_str |
oai:repositorio.unifesp.br:11600/68372 |
| network_acronym_str |
UFSP |
| network_name_str |
Repositório Institucional da UNIFESP |
| repository_id_str |
|
| spelling |
Usando medidas de dificuldade de instâncias em curriculum learningRedes neurais profundasCurriculum learningMedidas de instance hardnessAs Redes Neurais Profundas (Deep Learning Networks) têm apresentado resultados no estado da arte em diversas tarefas desafiadoras, como na análise e classificação de imagens, vídeos e texto. Contudo, o seu treinamento é em geral custoso e a obtenção de melhores resultados preditivos depende de diversos fatores. Uma das alternativas propostas na literatura para acelerar o treinamento dessas redes e obter um bom desempenho preditivo é o Curriculum Learning (CL). No CL, os dados disponíveis para treinamento das redes são apresentados de maneira ordenada, em que observações de menor grau de dificuldade são apresentadas primeiro e o nível de dificuldade das observações apresentadas é progressivamente aumentado. Neste trabalho propõe-se o uso de medidas de dificuldade de instâncias (instance hardness measures - IHM), conhecidas na literatura por oferecerem diferentes perspectivas do nível de dificuldade de cada observação em um conjunto de dados, para realizar essa ordenação. Os resultados experimentais obtidos para o conjunto CIFAR-100 demonstram que a utilização do CL trouxe a maior acurácia preditiva em dez das vinte superclasses do conjunto de dados. Na sequência, a metodologia tradicional de treinamento Vanilla alcançou a maior acurácia preditiva em oito superclasses e uma ordenação aleatória (Random) se sobressaiu em duas. Com o intuito de verificar se os resultados poderiam ser melhorados, foram executados diversos experimentos adicionais, em que foi variado o parâmetro de apresentação de novas instâncias durante o treinamento, alterada a rede de extração de características e avaliada a utilização de métodos de agregação de medidas. Esses experimentos melhoraram ainda mais as acurácias preditivas em superclasses que o CL já havia trazido os melhores resultados, mas em superclasses que o Vanilla se saiu melhor isso não ocorreu.Não recebi financiamentoUniversidade Federal de São PauloLorena, Ana Carolinahttp://lattes.cnpq.br/3451628262694747http://lattes.cnpq.br/9898732960998485Nunes, Gustavo Henrique [UNIFESP]2023-06-27T16:08:29Z2023-06-27T16:08:29Z2023-05-29info:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/publishedVersion118application/pdfhttps://repositorio.unifesp.br/handle/11600/68372ark:/48912/001300002pbn5porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNIFESPinstname:Universidade Federal de São Paulo (UNIFESP)instacron:UNIFESP2024-08-12T22:56:36Zoai:repositorio.unifesp.br:11600/68372Repositório InstitucionalPUBhttp://www.repositorio.unifesp.br/oai/requestbiblioteca.csp@unifesp.bropendoar:34652024-08-12T22:56:36Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP)false |
| dc.title.none.fl_str_mv |
Usando medidas de dificuldade de instâncias em curriculum learning |
| title |
Usando medidas de dificuldade de instâncias em curriculum learning |
| spellingShingle |
Usando medidas de dificuldade de instâncias em curriculum learning Nunes, Gustavo Henrique [UNIFESP] Redes neurais profundas Curriculum learning Medidas de instance hardness |
| title_short |
Usando medidas de dificuldade de instâncias em curriculum learning |
| title_full |
Usando medidas de dificuldade de instâncias em curriculum learning |
| title_fullStr |
Usando medidas de dificuldade de instâncias em curriculum learning |
| title_full_unstemmed |
Usando medidas de dificuldade de instâncias em curriculum learning |
| title_sort |
Usando medidas de dificuldade de instâncias em curriculum learning |
| author |
Nunes, Gustavo Henrique [UNIFESP] |
| author_facet |
Nunes, Gustavo Henrique [UNIFESP] |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Lorena, Ana Carolina http://lattes.cnpq.br/3451628262694747 http://lattes.cnpq.br/9898732960998485 |
| dc.contributor.author.fl_str_mv |
Nunes, Gustavo Henrique [UNIFESP] |
| dc.subject.por.fl_str_mv |
Redes neurais profundas Curriculum learning Medidas de instance hardness |
| topic |
Redes neurais profundas Curriculum learning Medidas de instance hardness |
| description |
As Redes Neurais Profundas (Deep Learning Networks) têm apresentado resultados no estado da arte em diversas tarefas desafiadoras, como na análise e classificação de imagens, vídeos e texto. Contudo, o seu treinamento é em geral custoso e a obtenção de melhores resultados preditivos depende de diversos fatores. Uma das alternativas propostas na literatura para acelerar o treinamento dessas redes e obter um bom desempenho preditivo é o Curriculum Learning (CL). No CL, os dados disponíveis para treinamento das redes são apresentados de maneira ordenada, em que observações de menor grau de dificuldade são apresentadas primeiro e o nível de dificuldade das observações apresentadas é progressivamente aumentado. Neste trabalho propõe-se o uso de medidas de dificuldade de instâncias (instance hardness measures - IHM), conhecidas na literatura por oferecerem diferentes perspectivas do nível de dificuldade de cada observação em um conjunto de dados, para realizar essa ordenação. Os resultados experimentais obtidos para o conjunto CIFAR-100 demonstram que a utilização do CL trouxe a maior acurácia preditiva em dez das vinte superclasses do conjunto de dados. Na sequência, a metodologia tradicional de treinamento Vanilla alcançou a maior acurácia preditiva em oito superclasses e uma ordenação aleatória (Random) se sobressaiu em duas. Com o intuito de verificar se os resultados poderiam ser melhorados, foram executados diversos experimentos adicionais, em que foi variado o parâmetro de apresentação de novas instâncias durante o treinamento, alterada a rede de extração de características e avaliada a utilização de métodos de agregação de medidas. Esses experimentos melhoraram ainda mais as acurácias preditivas em superclasses que o CL já havia trazido os melhores resultados, mas em superclasses que o Vanilla se saiu melhor isso não ocorreu. |
| publishDate |
2023 |
| dc.date.none.fl_str_mv |
2023-06-27T16:08:29Z 2023-06-27T16:08:29Z 2023-05-29 |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
https://repositorio.unifesp.br/handle/11600/68372 |
| dc.identifier.dark.fl_str_mv |
ark:/48912/001300002pbn5 |
| url |
https://repositorio.unifesp.br/handle/11600/68372 |
| identifier_str_mv |
ark:/48912/001300002pbn5 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
118 application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Federal de São Paulo |
| publisher.none.fl_str_mv |
Universidade Federal de São Paulo |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UNIFESP instname:Universidade Federal de São Paulo (UNIFESP) instacron:UNIFESP |
| instname_str |
Universidade Federal de São Paulo (UNIFESP) |
| instacron_str |
UNIFESP |
| institution |
UNIFESP |
| reponame_str |
Repositório Institucional da UNIFESP |
| collection |
Repositório Institucional da UNIFESP |
| repository.name.fl_str_mv |
Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP) |
| repository.mail.fl_str_mv |
biblioteca.csp@unifesp.br |
| _version_ |
1848498038796976128 |