ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Januário, Francisco de Assis Pereira
Outros Autores: http://lattes.cnpq.br/5322203207556538, https://orcid.org/0000-0003-3098-6379
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal do Amazonas
Instituto de Computação
Brasil
UFAM
Programa de Pós-graduação em Informática
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://tede.ufam.edu.br/handle/tede/9230
Resumo: Nos últimos anos, o uso de aplicativos de redes neurais artificiais para realizar classificação de objetos e previsão de eventos tem aumentado, principalmente a partir de pesquisas sobre técnicas de deep learning executadas em hardware como GPU e FPGA. O interesse no uso de redes neurais se estende aos sistemas embarcados devido ao desenvolvimento de aplicações em dispositivos móveis inteligentes, como celulares, drones, carros autônomos e robôs industriais. Mas, quando se trata de sistemas embarcados, os limites do hardware devem ser observados, como memória e consumo de energia, pois impactam de forma significativa no processamento de uma rede neural profunda. Neste trabalho, foi realizada uma pesquisa sobre o estado da arte das arquiteturas de redes neurais artificiais, implementadas em hardware, observando os aspectos limitadores como desempenho, escalabilidade ou eficiência energética. A partir do estudo realizado, é proposta uma metodologia que permite reduzir uma rede neural spiking (SNN), aplicando a transformada de cossenos discreta (DCT) e o emparelhamento elegante. O modelo de Izhikevich foi usado como base para a arquitetura da rede neural spiking. Os resultados da simulação demonstram a eficácia da metodologia, mostrando a viabilidade de redução de sinapses, aplicando a transformada DCT, e de redução de neurônios das camadas intermediárias, utilizando a técnica de emparelhamento elegante dos coeficientes, e mantendo a acurácia da rede neural spiking. Os resultados também demonstram a contribuição da metodologia proposta para a escalabilidade da rede neural, com o aumento da capacidade de armazenamento dos coeficientes das camadas SNN.
id UFAM_649dfea675f8b0ccb2feef60cd102a0e
oai_identifier_str oai:https://tede.ufam.edu.br/handle/:tede/9230
network_acronym_str UFAM
network_name_str Biblioteca Digital de Teses e Dissertações da UFAM
repository_id_str
spelling ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento EleganteRedes neurais (Computação)Inteligência artificialCIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAORedes Neurais em HardwareRede Neural SpikingModelo IzhikevichTransformada de Cossenos Discreta (DCT)Emparelhamento EleganteNos últimos anos, o uso de aplicativos de redes neurais artificiais para realizar classificação de objetos e previsão de eventos tem aumentado, principalmente a partir de pesquisas sobre técnicas de deep learning executadas em hardware como GPU e FPGA. O interesse no uso de redes neurais se estende aos sistemas embarcados devido ao desenvolvimento de aplicações em dispositivos móveis inteligentes, como celulares, drones, carros autônomos e robôs industriais. Mas, quando se trata de sistemas embarcados, os limites do hardware devem ser observados, como memória e consumo de energia, pois impactam de forma significativa no processamento de uma rede neural profunda. Neste trabalho, foi realizada uma pesquisa sobre o estado da arte das arquiteturas de redes neurais artificiais, implementadas em hardware, observando os aspectos limitadores como desempenho, escalabilidade ou eficiência energética. A partir do estudo realizado, é proposta uma metodologia que permite reduzir uma rede neural spiking (SNN), aplicando a transformada de cossenos discreta (DCT) e o emparelhamento elegante. O modelo de Izhikevich foi usado como base para a arquitetura da rede neural spiking. Os resultados da simulação demonstram a eficácia da metodologia, mostrando a viabilidade de redução de sinapses, aplicando a transformada DCT, e de redução de neurônios das camadas intermediárias, utilizando a técnica de emparelhamento elegante dos coeficientes, e mantendo a acurácia da rede neural spiking. Os resultados também demonstram a contribuição da metodologia proposta para a escalabilidade da rede neural, com o aumento da capacidade de armazenamento dos coeficientes das camadas SNN.In recent years, the use of artificial neural network applications to perform object classification and event prediction has increased, mainly from research on deep learning techniques performed on hardware such as GPU and FPGA. Interest in the use of neural networks extends to embedded systems due to the development of applications in smart mobile devices, such as cell phones, drones, autonomous cars and industrial robots. But when it comes to embedded systems, hardware limits must be observed, such as memory and power consumption, as they significantly impact the processing of a deep neural network. In this work, a research was carried out on the state of the art of artificial neural network architectures, implemented in hardware, observing the limiting aspects such as performance, scalability or energy efficiency. From the study carried out, a methodology is proposed that allows to reduce a spiking neural network (SNN), applying the discrete cosine transform (DCT) and elegant pairing. The Izhikevich model was used as a basis for the spiking neural network architecture. The simulation results demonstrate the effectiveness of the methodology, showing the feasibility of reducing synapses, applying the DCT transform, and reducing neurons in the intermediate layers, using the elegant pairing technique of coefficients, and maintaining the accuracy of the spiking neural network. The results also demonstrate the contribution of the proposed methodology to the scalability of the neural network, with the increase in the storage capacity of the coefficients of the SNN layers.Poderiam mudar o fluxo de depósito. Após o aluno realizar o depósito, a biblioteca avalia e verifica se precisa de ajustes conforme a ABNT. Se sim, é enviado ao aluno para corrigir. Somente os ajustes de formatação, a biblioteca envia para aprovação. Outro ponto é que a declaração deve ser enviado também para o PPG, pois este pede do aluno. Isso evita analise por 3 atores (aluno, PPG e biblioteca) toda vez que ocorrer mudança.Universidade Federal do AmazonasInstituto de ComputaçãoBrasilUFAMPrograma de Pós-graduação em InformáticaCarvalho, José Reginaldo Hugheshttp://lattes.cnpq.br/3161958119304780Collona, Juan GabrielBarreto, Raimundo da Silvahttp://lattes.cnpq.br/1132672107627968Bezerra, Thiago Britohttp://lattes.cnpq.br/6915300464157124Januário, Francisco de Assis Pereirahttp://lattes.cnpq.br/5322203207556538https://orcid.org/0000-0003-3098-63792023-01-05T15:30:27Z2022-11-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisapplication/pdfJANUÁRIO, Francisco de Assis Pereira. ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante. 2022. 113 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2022.https://tede.ufam.edu.br/handle/tede/9230porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFAMinstname:Universidade Federal do Amazonas (UFAM)instacron:UFAM2023-01-06T05:03:42Zoai:https://tede.ufam.edu.br/handle/:tede/9230Biblioteca Digital de Teses e Dissertaçõeshttp://200.129.163.131:8080/PUBhttp://200.129.163.131:8080/oai/requestddbc@ufam.edu.br||ddbc@ufam.edu.bropendoar:65922023-01-06T05:03:42Biblioteca Digital de Teses e Dissertações da UFAM - Universidade Federal do Amazonas (UFAM)false
dc.title.none.fl_str_mv ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
title ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
spellingShingle ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
Januário, Francisco de Assis Pereira
Redes neurais (Computação)
Inteligência artificial
CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
Redes Neurais em Hardware
Rede Neural Spiking
Modelo Izhikevich
Transformada de Cossenos Discreta (DCT)
Emparelhamento Elegante
title_short ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
title_full ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
title_fullStr ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
title_full_unstemmed ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
title_sort ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante
author Januário, Francisco de Assis Pereira
author_facet Januário, Francisco de Assis Pereira
http://lattes.cnpq.br/5322203207556538
https://orcid.org/0000-0003-3098-6379
author_role author
author2 http://lattes.cnpq.br/5322203207556538
https://orcid.org/0000-0003-3098-6379
author2_role author
author
dc.contributor.none.fl_str_mv Carvalho, José Reginaldo Hughes
http://lattes.cnpq.br/3161958119304780
Collona, Juan Gabriel
Barreto, Raimundo da Silva
http://lattes.cnpq.br/1132672107627968
Bezerra, Thiago Brito
http://lattes.cnpq.br/6915300464157124
dc.contributor.author.fl_str_mv Januário, Francisco de Assis Pereira
http://lattes.cnpq.br/5322203207556538
https://orcid.org/0000-0003-3098-6379
dc.subject.por.fl_str_mv Redes neurais (Computação)
Inteligência artificial
CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
Redes Neurais em Hardware
Rede Neural Spiking
Modelo Izhikevich
Transformada de Cossenos Discreta (DCT)
Emparelhamento Elegante
topic Redes neurais (Computação)
Inteligência artificial
CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
Redes Neurais em Hardware
Rede Neural Spiking
Modelo Izhikevich
Transformada de Cossenos Discreta (DCT)
Emparelhamento Elegante
description Nos últimos anos, o uso de aplicativos de redes neurais artificiais para realizar classificação de objetos e previsão de eventos tem aumentado, principalmente a partir de pesquisas sobre técnicas de deep learning executadas em hardware como GPU e FPGA. O interesse no uso de redes neurais se estende aos sistemas embarcados devido ao desenvolvimento de aplicações em dispositivos móveis inteligentes, como celulares, drones, carros autônomos e robôs industriais. Mas, quando se trata de sistemas embarcados, os limites do hardware devem ser observados, como memória e consumo de energia, pois impactam de forma significativa no processamento de uma rede neural profunda. Neste trabalho, foi realizada uma pesquisa sobre o estado da arte das arquiteturas de redes neurais artificiais, implementadas em hardware, observando os aspectos limitadores como desempenho, escalabilidade ou eficiência energética. A partir do estudo realizado, é proposta uma metodologia que permite reduzir uma rede neural spiking (SNN), aplicando a transformada de cossenos discreta (DCT) e o emparelhamento elegante. O modelo de Izhikevich foi usado como base para a arquitetura da rede neural spiking. Os resultados da simulação demonstram a eficácia da metodologia, mostrando a viabilidade de redução de sinapses, aplicando a transformada DCT, e de redução de neurônios das camadas intermediárias, utilizando a técnica de emparelhamento elegante dos coeficientes, e mantendo a acurácia da rede neural spiking. Os resultados também demonstram a contribuição da metodologia proposta para a escalabilidade da rede neural, com o aumento da capacidade de armazenamento dos coeficientes das camadas SNN.
publishDate 2022
dc.date.none.fl_str_mv 2022-11-17
2023-01-05T15:30:27Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv JANUÁRIO, Francisco de Assis Pereira. ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante. 2022. 113 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2022.
https://tede.ufam.edu.br/handle/tede/9230
identifier_str_mv JANUÁRIO, Francisco de Assis Pereira. ReSNN-DCT: Metodologia para redução de Rede Neural Spiking utilizando Transformada de Cossenos Discreta e Emparelhamento Elegante. 2022. 113 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2022.
url https://tede.ufam.edu.br/handle/tede/9230
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal do Amazonas
Instituto de Computação
Brasil
UFAM
Programa de Pós-graduação em Informática
publisher.none.fl_str_mv Universidade Federal do Amazonas
Instituto de Computação
Brasil
UFAM
Programa de Pós-graduação em Informática
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFAM
instname:Universidade Federal do Amazonas (UFAM)
instacron:UFAM
instname_str Universidade Federal do Amazonas (UFAM)
instacron_str UFAM
institution UFAM
reponame_str Biblioteca Digital de Teses e Dissertações da UFAM
collection Biblioteca Digital de Teses e Dissertações da UFAM
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFAM - Universidade Federal do Amazonas (UFAM)
repository.mail.fl_str_mv ddbc@ufam.edu.br||ddbc@ufam.edu.br
_version_ 1851781308584296448