Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada

Detalhes bibliográficos
Ano de defesa: 2012
Autor(a) principal: Pereira, Will Roger lattes
Orientador(a): Lima, Luciano Vieira lattes
Banca de defesa: Pereira, Antônio Eduardo Costa lattes, Yamanaka, Keiji lattes, Siqueira Neto, José Lopes de
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Uberlândia
Programa de Pós-Graduação: Programa de Pós-graduação em Engenharia Elétrica
Departamento: Engenharias
País: BR
Palavras-chave em Português:
Palavras-chave em Inglês:
Área do conhecimento CNPq:
Link de acesso: https://repositorio.ufu.br/handle/123456789/14475
https://doi.org/10.14393/ufu.di.2012.21
Resumo: This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared.
id UFU_4d5d6349cd83983f0667f843b57a2ffb
oai_identifier_str oai:repositorio.ufu.br:123456789/14475
network_acronym_str UFU
network_name_str Repositório Institucional da UFU
repository_id_str
spelling 2016-06-22T18:38:43Z2012-04-092016-06-22T18:38:43Z2012-02-07PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21https://repositorio.ufu.br/handle/123456789/14475https://doi.org/10.14393/ufu.di.2012.21This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared.Este trabalho compara redes neurais feedforward clássicas com um algoritmo que permite explorar o paralelismo presente em diversas máquinas disponíveis. O esquema de treinamento discutido aqui não depende da topologia da RNA, portanto pode ser uma melhor representação das redes neurais naturais produzidas ao longo da evolução animal. Porém, por ser uma estratégia que não utiliza derivada da função de ativação, é mais rústica, o que pode resultar em uma convergência mais lenta quando comparados com algoritmos que dependem de uma topologia, como o Error Backpropagation. É esperada uma melhora na velocidade da convergência com a utilização da computação paralela. No entanto, em trabalhos futuros, o paralelismo em máquinas com muitos núcleos de processamento pode mais do que compensar esta baixa velocidade, uma vez que os pesos são ajustados de forma independente. Serão analisados e comparados os comportamentos do método mais popular de treinamento de redes neurais articiais feedforward na atualidade, o Error Backpropagation, e o algoritmo abordado neste trabalho, tanto no modo sequencial quanto paralelo.Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorMestre em Ciênciasapplication/pdfporUniversidade Federal de UberlândiaPrograma de Pós-graduação em Engenharia ElétricaUFUBREngenhariasRedes neurais (Computação)Redes neurais artificiaisGradiente descendentePerturbação do pesoSchemeParalelismoArtificial neural networksGradient descenWeighPerturbationSchemeParalelismCNPQ::ENGENHARIAS::ENGENHARIA ELETRICAEstudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamadainfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisLima, Luciano Vieirahttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4707793J5Pereira, Antônio Eduardo Costahttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4703666E8Yamanaka, Keijihttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4798494D8Siqueira Neto, José Lopes dehttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4335909U1Pereira, Will Roger81755051info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFUinstname:Universidade Federal de Uberlândia (UFU)instacron:UFUTHUMBNAILd.pdf.jpgd.pdf.jpgGenerated Thumbnailimage/jpeg1435https://repositorio.ufu.br/bitstream/123456789/14475/3/d.pdf.jpg17a483f6055cd8b0dae84829073877adMD53ORIGINALd.pdfapplication/pdf922943https://repositorio.ufu.br/bitstream/123456789/14475/1/d.pdf2e08242148794396ce6540f755491543MD51TEXTd.pdf.txtd.pdf.txtExtracted texttext/plain135512https://repositorio.ufu.br/bitstream/123456789/14475/2/d.pdf.txtc310a850689299cfc19b74e9433e950eMD52123456789/144752022-10-11 13:53:14.825oai:repositorio.ufu.br:123456789/14475Repositório InstitucionalONGhttp://repositorio.ufu.br/oai/requestdiinf@dirbi.ufu.bropendoar:2022-10-11T16:53:14Repositório Institucional da UFU - Universidade Federal de Uberlândia (UFU)false
dc.title.por.fl_str_mv Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
title Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
spellingShingle Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
Pereira, Will Roger
Redes neurais (Computação)
Redes neurais artificiais
Gradiente descendente
Perturbação do peso
Scheme
Paralelismo
Artificial neural networks
Gradient descen
Weigh
Perturbation
Scheme
Paralelism
CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA
title_short Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
title_full Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
title_fullStr Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
title_full_unstemmed Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
title_sort Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
author Pereira, Will Roger
author_facet Pereira, Will Roger
author_role author
dc.contributor.advisor1.fl_str_mv Lima, Luciano Vieira
dc.contributor.advisor1Lattes.fl_str_mv http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4707793J5
dc.contributor.referee1.fl_str_mv Pereira, Antônio Eduardo Costa
dc.contributor.referee1Lattes.fl_str_mv http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4703666E8
dc.contributor.referee2.fl_str_mv Yamanaka, Keiji
dc.contributor.referee2Lattes.fl_str_mv http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4798494D8
dc.contributor.referee3.fl_str_mv Siqueira Neto, José Lopes de
dc.contributor.authorLattes.fl_str_mv http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4335909U1
dc.contributor.author.fl_str_mv Pereira, Will Roger
contributor_str_mv Lima, Luciano Vieira
Pereira, Antônio Eduardo Costa
Yamanaka, Keiji
Siqueira Neto, José Lopes de
dc.subject.por.fl_str_mv Redes neurais (Computação)
Redes neurais artificiais
Gradiente descendente
Perturbação do peso
Scheme
Paralelismo
topic Redes neurais (Computação)
Redes neurais artificiais
Gradiente descendente
Perturbação do peso
Scheme
Paralelismo
Artificial neural networks
Gradient descen
Weigh
Perturbation
Scheme
Paralelism
CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA
dc.subject.eng.fl_str_mv Artificial neural networks
Gradient descen
Weigh
Perturbation
Scheme
Paralelism
dc.subject.cnpq.fl_str_mv CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA
description This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared.
publishDate 2012
dc.date.available.fl_str_mv 2012-04-09
2016-06-22T18:38:43Z
dc.date.issued.fl_str_mv 2012-02-07
dc.date.accessioned.fl_str_mv 2016-06-22T18:38:43Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21
dc.identifier.uri.fl_str_mv https://repositorio.ufu.br/handle/123456789/14475
dc.identifier.doi.none.fl_str_mv https://doi.org/10.14393/ufu.di.2012.21
identifier_str_mv PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21
url https://repositorio.ufu.br/handle/123456789/14475
https://doi.org/10.14393/ufu.di.2012.21
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de Uberlândia
dc.publisher.program.fl_str_mv Programa de Pós-graduação em Engenharia Elétrica
dc.publisher.initials.fl_str_mv UFU
dc.publisher.country.fl_str_mv BR
dc.publisher.department.fl_str_mv Engenharias
publisher.none.fl_str_mv Universidade Federal de Uberlândia
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFU
instname:Universidade Federal de Uberlândia (UFU)
instacron:UFU
instname_str Universidade Federal de Uberlândia (UFU)
instacron_str UFU
institution UFU
reponame_str Repositório Institucional da UFU
collection Repositório Institucional da UFU
bitstream.url.fl_str_mv https://repositorio.ufu.br/bitstream/123456789/14475/3/d.pdf.jpg
https://repositorio.ufu.br/bitstream/123456789/14475/1/d.pdf
https://repositorio.ufu.br/bitstream/123456789/14475/2/d.pdf.txt
bitstream.checksum.fl_str_mv 17a483f6055cd8b0dae84829073877ad
2e08242148794396ce6540f755491543
c310a850689299cfc19b74e9433e950e
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFU - Universidade Federal de Uberlândia (UFU)
repository.mail.fl_str_mv diinf@dirbi.ufu.br
_version_ 1792331582407704576