Usando medidas de dificuldade de instâncias em curriculum learning

Detalhes bibliográficos
Ano de defesa: 2023
Autor(a) principal: Nunes, Gustavo Henrique [UNIFESP]
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
dARK ID: ark:/48912/001300002pbn5
Idioma: por
Instituição de defesa: Universidade Federal de São Paulo
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://repositorio.unifesp.br/handle/11600/68372
Resumo: As Redes Neurais Profundas (Deep Learning Networks) têm apresentado resultados no estado da arte em diversas tarefas desafiadoras, como na análise e classificação de imagens, vídeos e texto. Contudo, o seu treinamento é em geral custoso e a obtenção de melhores resultados preditivos depende de diversos fatores. Uma das alternativas propostas na literatura para acelerar o treinamento dessas redes e obter um bom desempenho preditivo é o Curriculum Learning (CL). No CL, os dados disponíveis para treinamento das redes são apresentados de maneira ordenada, em que observações de menor grau de dificuldade são apresentadas primeiro e o nível de dificuldade das observações apresentadas é progressivamente aumentado. Neste trabalho propõe-se o uso de medidas de dificuldade de instâncias (instance hardness measures - IHM), conhecidas na literatura por oferecerem diferentes perspectivas do nível de dificuldade de cada observação em um conjunto de dados, para realizar essa ordenação. Os resultados experimentais obtidos para o conjunto CIFAR-100 demonstram que a utilização do CL trouxe a maior acurácia preditiva em dez das vinte superclasses do conjunto de dados. Na sequência, a metodologia tradicional de treinamento Vanilla alcançou a maior acurácia preditiva em oito superclasses e uma ordenação aleatória (Random) se sobressaiu em duas. Com o intuito de verificar se os resultados poderiam ser melhorados, foram executados diversos experimentos adicionais, em que foi variado o parâmetro de apresentação de novas instâncias durante o treinamento, alterada a rede de extração de características e avaliada a utilização de métodos de agregação de medidas. Esses experimentos melhoraram ainda mais as acurácias preditivas em superclasses que o CL já havia trazido os melhores resultados, mas em superclasses que o Vanilla se saiu melhor isso não ocorreu.
id UFSP_f6a2e255a7b577a97aba283751f23d93
oai_identifier_str oai:repositorio.unifesp.br:11600/68372
network_acronym_str UFSP
network_name_str Repositório Institucional da UNIFESP
repository_id_str
spelling Usando medidas de dificuldade de instâncias em curriculum learningRedes neurais profundasCurriculum learningMedidas de instance hardnessAs Redes Neurais Profundas (Deep Learning Networks) têm apresentado resultados no estado da arte em diversas tarefas desafiadoras, como na análise e classificação de imagens, vídeos e texto. Contudo, o seu treinamento é em geral custoso e a obtenção de melhores resultados preditivos depende de diversos fatores. Uma das alternativas propostas na literatura para acelerar o treinamento dessas redes e obter um bom desempenho preditivo é o Curriculum Learning (CL). No CL, os dados disponíveis para treinamento das redes são apresentados de maneira ordenada, em que observações de menor grau de dificuldade são apresentadas primeiro e o nível de dificuldade das observações apresentadas é progressivamente aumentado. Neste trabalho propõe-se o uso de medidas de dificuldade de instâncias (instance hardness measures - IHM), conhecidas na literatura por oferecerem diferentes perspectivas do nível de dificuldade de cada observação em um conjunto de dados, para realizar essa ordenação. Os resultados experimentais obtidos para o conjunto CIFAR-100 demonstram que a utilização do CL trouxe a maior acurácia preditiva em dez das vinte superclasses do conjunto de dados. Na sequência, a metodologia tradicional de treinamento Vanilla alcançou a maior acurácia preditiva em oito superclasses e uma ordenação aleatória (Random) se sobressaiu em duas. Com o intuito de verificar se os resultados poderiam ser melhorados, foram executados diversos experimentos adicionais, em que foi variado o parâmetro de apresentação de novas instâncias durante o treinamento, alterada a rede de extração de características e avaliada a utilização de métodos de agregação de medidas. Esses experimentos melhoraram ainda mais as acurácias preditivas em superclasses que o CL já havia trazido os melhores resultados, mas em superclasses que o Vanilla se saiu melhor isso não ocorreu.Não recebi financiamentoUniversidade Federal de São PauloLorena, Ana Carolinahttp://lattes.cnpq.br/3451628262694747http://lattes.cnpq.br/9898732960998485Nunes, Gustavo Henrique [UNIFESP]2023-06-27T16:08:29Z2023-06-27T16:08:29Z2023-05-29info:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/publishedVersion118application/pdfhttps://repositorio.unifesp.br/handle/11600/68372ark:/48912/001300002pbn5porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNIFESPinstname:Universidade Federal de São Paulo (UNIFESP)instacron:UNIFESP2024-08-12T22:56:36Zoai:repositorio.unifesp.br:11600/68372Repositório InstitucionalPUBhttp://www.repositorio.unifesp.br/oai/requestbiblioteca.csp@unifesp.bropendoar:34652024-08-12T22:56:36Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP)false
dc.title.none.fl_str_mv Usando medidas de dificuldade de instâncias em curriculum learning
title Usando medidas de dificuldade de instâncias em curriculum learning
spellingShingle Usando medidas de dificuldade de instâncias em curriculum learning
Nunes, Gustavo Henrique [UNIFESP]
Redes neurais profundas
Curriculum learning
Medidas de instance hardness
title_short Usando medidas de dificuldade de instâncias em curriculum learning
title_full Usando medidas de dificuldade de instâncias em curriculum learning
title_fullStr Usando medidas de dificuldade de instâncias em curriculum learning
title_full_unstemmed Usando medidas de dificuldade de instâncias em curriculum learning
title_sort Usando medidas de dificuldade de instâncias em curriculum learning
author Nunes, Gustavo Henrique [UNIFESP]
author_facet Nunes, Gustavo Henrique [UNIFESP]
author_role author
dc.contributor.none.fl_str_mv Lorena, Ana Carolina
http://lattes.cnpq.br/3451628262694747
http://lattes.cnpq.br/9898732960998485
dc.contributor.author.fl_str_mv Nunes, Gustavo Henrique [UNIFESP]
dc.subject.por.fl_str_mv Redes neurais profundas
Curriculum learning
Medidas de instance hardness
topic Redes neurais profundas
Curriculum learning
Medidas de instance hardness
description As Redes Neurais Profundas (Deep Learning Networks) têm apresentado resultados no estado da arte em diversas tarefas desafiadoras, como na análise e classificação de imagens, vídeos e texto. Contudo, o seu treinamento é em geral custoso e a obtenção de melhores resultados preditivos depende de diversos fatores. Uma das alternativas propostas na literatura para acelerar o treinamento dessas redes e obter um bom desempenho preditivo é o Curriculum Learning (CL). No CL, os dados disponíveis para treinamento das redes são apresentados de maneira ordenada, em que observações de menor grau de dificuldade são apresentadas primeiro e o nível de dificuldade das observações apresentadas é progressivamente aumentado. Neste trabalho propõe-se o uso de medidas de dificuldade de instâncias (instance hardness measures - IHM), conhecidas na literatura por oferecerem diferentes perspectivas do nível de dificuldade de cada observação em um conjunto de dados, para realizar essa ordenação. Os resultados experimentais obtidos para o conjunto CIFAR-100 demonstram que a utilização do CL trouxe a maior acurácia preditiva em dez das vinte superclasses do conjunto de dados. Na sequência, a metodologia tradicional de treinamento Vanilla alcançou a maior acurácia preditiva em oito superclasses e uma ordenação aleatória (Random) se sobressaiu em duas. Com o intuito de verificar se os resultados poderiam ser melhorados, foram executados diversos experimentos adicionais, em que foi variado o parâmetro de apresentação de novas instâncias durante o treinamento, alterada a rede de extração de características e avaliada a utilização de métodos de agregação de medidas. Esses experimentos melhoraram ainda mais as acurácias preditivas em superclasses que o CL já havia trazido os melhores resultados, mas em superclasses que o Vanilla se saiu melhor isso não ocorreu.
publishDate 2023
dc.date.none.fl_str_mv 2023-06-27T16:08:29Z
2023-06-27T16:08:29Z
2023-05-29
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://repositorio.unifesp.br/handle/11600/68372
dc.identifier.dark.fl_str_mv ark:/48912/001300002pbn5
url https://repositorio.unifesp.br/handle/11600/68372
identifier_str_mv ark:/48912/001300002pbn5
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv 118
application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de São Paulo
publisher.none.fl_str_mv Universidade Federal de São Paulo
dc.source.none.fl_str_mv reponame:Repositório Institucional da UNIFESP
instname:Universidade Federal de São Paulo (UNIFESP)
instacron:UNIFESP
instname_str Universidade Federal de São Paulo (UNIFESP)
instacron_str UNIFESP
institution UNIFESP
reponame_str Repositório Institucional da UNIFESP
collection Repositório Institucional da UNIFESP
repository.name.fl_str_mv Repositório Institucional da UNIFESP - Universidade Federal de São Paulo (UNIFESP)
repository.mail.fl_str_mv biblioteca.csp@unifesp.br
_version_ 1848498038796976128