Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada
Ano de defesa: | 2012 |
---|---|
Autor(a) principal: | |
Orientador(a): | |
Banca de defesa: | , , |
Tipo de documento: | Dissertação |
Tipo de acesso: | Acesso aberto |
Idioma: | por |
Instituição de defesa: |
Universidade Federal de Uberlândia
|
Programa de Pós-Graduação: |
Programa de Pós-graduação em Engenharia Elétrica
|
Departamento: |
Engenharias
|
País: |
BR
|
Palavras-chave em Português: | |
Palavras-chave em Inglês: | |
Área do conhecimento CNPq: | |
Link de acesso: | https://repositorio.ufu.br/handle/123456789/14475 https://doi.org/10.14393/ufu.di.2012.21 |
Resumo: | This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared. |
id |
UFU_4d5d6349cd83983f0667f843b57a2ffb |
---|---|
oai_identifier_str |
oai:repositorio.ufu.br:123456789/14475 |
network_acronym_str |
UFU |
network_name_str |
Repositório Institucional da UFU |
repository_id_str |
|
spelling |
2016-06-22T18:38:43Z2012-04-092016-06-22T18:38:43Z2012-02-07PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21https://repositorio.ufu.br/handle/123456789/14475https://doi.org/10.14393/ufu.di.2012.21This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared.Este trabalho compara redes neurais feedforward clássicas com um algoritmo que permite explorar o paralelismo presente em diversas máquinas disponíveis. O esquema de treinamento discutido aqui não depende da topologia da RNA, portanto pode ser uma melhor representação das redes neurais naturais produzidas ao longo da evolução animal. Porém, por ser uma estratégia que não utiliza derivada da função de ativação, é mais rústica, o que pode resultar em uma convergência mais lenta quando comparados com algoritmos que dependem de uma topologia, como o Error Backpropagation. É esperada uma melhora na velocidade da convergência com a utilização da computação paralela. No entanto, em trabalhos futuros, o paralelismo em máquinas com muitos núcleos de processamento pode mais do que compensar esta baixa velocidade, uma vez que os pesos são ajustados de forma independente. Serão analisados e comparados os comportamentos do método mais popular de treinamento de redes neurais articiais feedforward na atualidade, o Error Backpropagation, e o algoritmo abordado neste trabalho, tanto no modo sequencial quanto paralelo.Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorMestre em Ciênciasapplication/pdfporUniversidade Federal de UberlândiaPrograma de Pós-graduação em Engenharia ElétricaUFUBREngenhariasRedes neurais (Computação)Redes neurais artificiaisGradiente descendentePerturbação do pesoSchemeParalelismoArtificial neural networksGradient descenWeighPerturbationSchemeParalelismCNPQ::ENGENHARIAS::ENGENHARIA ELETRICAEstudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamadainfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisLima, Luciano Vieirahttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4707793J5Pereira, Antônio Eduardo Costahttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4703666E8Yamanaka, Keijihttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4798494D8Siqueira Neto, José Lopes dehttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4335909U1Pereira, Will Roger81755051info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFUinstname:Universidade Federal de Uberlândia (UFU)instacron:UFUTHUMBNAILd.pdf.jpgd.pdf.jpgGenerated Thumbnailimage/jpeg1435https://repositorio.ufu.br/bitstream/123456789/14475/3/d.pdf.jpg17a483f6055cd8b0dae84829073877adMD53ORIGINALd.pdfapplication/pdf922943https://repositorio.ufu.br/bitstream/123456789/14475/1/d.pdf2e08242148794396ce6540f755491543MD51TEXTd.pdf.txtd.pdf.txtExtracted texttext/plain135512https://repositorio.ufu.br/bitstream/123456789/14475/2/d.pdf.txtc310a850689299cfc19b74e9433e950eMD52123456789/144752022-10-11 13:53:14.825oai:repositorio.ufu.br:123456789/14475Repositório InstitucionalONGhttp://repositorio.ufu.br/oai/requestdiinf@dirbi.ufu.bropendoar:2022-10-11T16:53:14Repositório Institucional da UFU - Universidade Federal de Uberlândia (UFU)false |
dc.title.por.fl_str_mv |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
title |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
spellingShingle |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada Pereira, Will Roger Redes neurais (Computação) Redes neurais artificiais Gradiente descendente Perturbação do peso Scheme Paralelismo Artificial neural networks Gradient descen Weigh Perturbation Scheme Paralelism CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA |
title_short |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
title_full |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
title_fullStr |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
title_full_unstemmed |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
title_sort |
Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada |
author |
Pereira, Will Roger |
author_facet |
Pereira, Will Roger |
author_role |
author |
dc.contributor.advisor1.fl_str_mv |
Lima, Luciano Vieira |
dc.contributor.advisor1Lattes.fl_str_mv |
http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4707793J5 |
dc.contributor.referee1.fl_str_mv |
Pereira, Antônio Eduardo Costa |
dc.contributor.referee1Lattes.fl_str_mv |
http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4703666E8 |
dc.contributor.referee2.fl_str_mv |
Yamanaka, Keiji |
dc.contributor.referee2Lattes.fl_str_mv |
http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4798494D8 |
dc.contributor.referee3.fl_str_mv |
Siqueira Neto, José Lopes de |
dc.contributor.authorLattes.fl_str_mv |
http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4335909U1 |
dc.contributor.author.fl_str_mv |
Pereira, Will Roger |
contributor_str_mv |
Lima, Luciano Vieira Pereira, Antônio Eduardo Costa Yamanaka, Keiji Siqueira Neto, José Lopes de |
dc.subject.por.fl_str_mv |
Redes neurais (Computação) Redes neurais artificiais Gradiente descendente Perturbação do peso Scheme Paralelismo |
topic |
Redes neurais (Computação) Redes neurais artificiais Gradiente descendente Perturbação do peso Scheme Paralelismo Artificial neural networks Gradient descen Weigh Perturbation Scheme Paralelism CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA |
dc.subject.eng.fl_str_mv |
Artificial neural networks Gradient descen Weigh Perturbation Scheme Paralelism |
dc.subject.cnpq.fl_str_mv |
CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA |
description |
This work compares classical feedforward neural networks with an algorithm that permit exploit parallelism present in widely available machines. The training scheme discussed here do not depend on the neural network topology, therefore may be a better representation of the natural neural networks produced along animal evolution. Although, for being a strategy that does not use derivative of the activation function, is more rustic, that may result in a slower convergence when compared to topology dependent algorithm, like Error Backpropagation. An improvement in the convergence speed is expected with the use of parallel computing. However, in future works, parallelism in machines with many cores may more than compensate this lower speed, once the weights are ajusted independently. The behavior of the most popular training method nowadays, the Error Backpropagation, and the algorithm discussed in this work, in either sequencial and parallel mode, will be analised and compared. |
publishDate |
2012 |
dc.date.available.fl_str_mv |
2012-04-09 2016-06-22T18:38:43Z |
dc.date.issued.fl_str_mv |
2012-02-07 |
dc.date.accessioned.fl_str_mv |
2016-06-22T18:38:43Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21 |
dc.identifier.uri.fl_str_mv |
https://repositorio.ufu.br/handle/123456789/14475 |
dc.identifier.doi.none.fl_str_mv |
https://doi.org/10.14393/ufu.di.2012.21 |
identifier_str_mv |
PEREIRA, Will Roger. Estudo do uso da computação paralela no aprimoramento do treinamento de redes neurais artificiais feedforward multicamada. 2012. 106 f. Dissertação (Mestrado em Engenharias) - Universidade Federal de Uberlândia, Uberlândia, 2012. DOI https://doi.org/10.14393/ufu.di.2012.21 |
url |
https://repositorio.ufu.br/handle/123456789/14475 https://doi.org/10.14393/ufu.di.2012.21 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidade Federal de Uberlândia |
dc.publisher.program.fl_str_mv |
Programa de Pós-graduação em Engenharia Elétrica |
dc.publisher.initials.fl_str_mv |
UFU |
dc.publisher.country.fl_str_mv |
BR |
dc.publisher.department.fl_str_mv |
Engenharias |
publisher.none.fl_str_mv |
Universidade Federal de Uberlândia |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFU instname:Universidade Federal de Uberlândia (UFU) instacron:UFU |
instname_str |
Universidade Federal de Uberlândia (UFU) |
instacron_str |
UFU |
institution |
UFU |
reponame_str |
Repositório Institucional da UFU |
collection |
Repositório Institucional da UFU |
bitstream.url.fl_str_mv |
https://repositorio.ufu.br/bitstream/123456789/14475/3/d.pdf.jpg https://repositorio.ufu.br/bitstream/123456789/14475/1/d.pdf https://repositorio.ufu.br/bitstream/123456789/14475/2/d.pdf.txt |
bitstream.checksum.fl_str_mv |
17a483f6055cd8b0dae84829073877ad 2e08242148794396ce6540f755491543 c310a850689299cfc19b74e9433e950e |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFU - Universidade Federal de Uberlândia (UFU) |
repository.mail.fl_str_mv |
diinf@dirbi.ufu.br |
_version_ |
1792331582407704576 |