Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Brajato, Hiago Matheus
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Estadual Paulista (Unesp)
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://hdl.handle.net/11449/217104
Resumo: Speech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão.
id UNSP_162c7e128d428ef389198af84ecb7bc6
oai_identifier_str oai:repositorio.unesp.br:11449/217104
network_acronym_str UNSP
network_name_str Repositório Institucional da UNESP
repository_id_str
spelling Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistenteSpeech emotion recognition from handcrafted feature extraction with validation based on paraconsistent engineeringEngenharia paraconsistente de característicasRedes neurais artificiaisHandcrafted extractionSpeech Emotion Recognition (SER)Paraconsistent feature engineeringArtificial neural networkSpeech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão.Speech Emotion Recognition (SER) can be defined as the automated way to identify spe akers’ emotional states from their voices. Considering the methodologies found in the li terature, for which there is room for further research and better comprehension, this mo nograph considers a handcrafted feature extraction approach to create the feature vectors responsible for the classification of voice signals in one of the seven different classes: anger, boredom, disgust, fear, happiness, neutrality and sadness. The descriptors adopted, which were obtained based on regular energy, on Teager Energy Operator, on zero crossing rates, on spectral flatness and on spectral entropy, were submitted to the Paraconsistent Feature Engineering, which was responsible for selecting the best subgroup of features from the analysis of intra- and interclass similarities and dissimilarities, respectively. Lastly, a genetic algorithm associted with a multiplayer perceptron neural network was responsible for perfor ming the classification of the described signals aiming at the highest possible accuracy rate, i.e., 84.9%, considering the well-known EMO_DB database with 535 signals in a speaker independent approach. In contrast with feature learning strategies, the proposed approach allowed for a better comprehension of the problem being treated.Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)88887.499431/2020-00Universidade Estadual Paulista (Unesp)Guido, Rodrigo Capobianco [UNESP]Universidade Estadual Paulista (Unesp)Brajato, Hiago Matheus2022-03-09T19:47:02Z2022-03-09T19:47:02Z2022-02-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/11449/21710433004153073P2porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNESPinstname:Universidade Estadual Paulista (UNESP)instacron:UNESP2024-11-05T13:25:44Zoai:repositorio.unesp.br:11449/217104Repositório InstitucionalPUBhttp://repositorio.unesp.br/oai/requestrepositoriounesp@unesp.bropendoar:29462024-11-05T13:25:44Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)false
dc.title.none.fl_str_mv Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
Speech emotion recognition from handcrafted feature extraction with validation based on paraconsistent engineering
title Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
spellingShingle Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
Brajato, Hiago Matheus
Engenharia paraconsistente de características
Redes neurais artificiais
Handcrafted extraction
Speech Emotion Recognition (SER)
Paraconsistent feature engineering
Artificial neural network
title_short Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
title_full Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
title_fullStr Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
title_full_unstemmed Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
title_sort Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
author Brajato, Hiago Matheus
author_facet Brajato, Hiago Matheus
author_role author
dc.contributor.none.fl_str_mv Guido, Rodrigo Capobianco [UNESP]
Universidade Estadual Paulista (Unesp)
dc.contributor.author.fl_str_mv Brajato, Hiago Matheus
dc.subject.por.fl_str_mv Engenharia paraconsistente de características
Redes neurais artificiais
Handcrafted extraction
Speech Emotion Recognition (SER)
Paraconsistent feature engineering
Artificial neural network
topic Engenharia paraconsistente de características
Redes neurais artificiais
Handcrafted extraction
Speech Emotion Recognition (SER)
Paraconsistent feature engineering
Artificial neural network
description Speech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão.
publishDate 2022
dc.date.none.fl_str_mv 2022-03-09T19:47:02Z
2022-03-09T19:47:02Z
2022-02-24
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/11449/217104
33004153073P2
url http://hdl.handle.net/11449/217104
identifier_str_mv 33004153073P2
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Estadual Paulista (Unesp)
publisher.none.fl_str_mv Universidade Estadual Paulista (Unesp)
dc.source.none.fl_str_mv reponame:Repositório Institucional da UNESP
instname:Universidade Estadual Paulista (UNESP)
instacron:UNESP
instname_str Universidade Estadual Paulista (UNESP)
instacron_str UNESP
institution UNESP
reponame_str Repositório Institucional da UNESP
collection Repositório Institucional da UNESP
repository.name.fl_str_mv Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)
repository.mail.fl_str_mv repositoriounesp@unesp.br
_version_ 1854954501605163008