Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
| Ano de defesa: | 2022 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Universidade Estadual Paulista (Unesp)
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Link de acesso: | http://hdl.handle.net/11449/217104 |
Resumo: | Speech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão. |
| id |
UNSP_162c7e128d428ef389198af84ecb7bc6 |
|---|---|
| oai_identifier_str |
oai:repositorio.unesp.br:11449/217104 |
| network_acronym_str |
UNSP |
| network_name_str |
Repositório Institucional da UNESP |
| repository_id_str |
|
| spelling |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistenteSpeech emotion recognition from handcrafted feature extraction with validation based on paraconsistent engineeringEngenharia paraconsistente de característicasRedes neurais artificiaisHandcrafted extractionSpeech Emotion Recognition (SER)Paraconsistent feature engineeringArtificial neural networkSpeech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão.Speech Emotion Recognition (SER) can be defined as the automated way to identify spe akers’ emotional states from their voices. Considering the methodologies found in the li terature, for which there is room for further research and better comprehension, this mo nograph considers a handcrafted feature extraction approach to create the feature vectors responsible for the classification of voice signals in one of the seven different classes: anger, boredom, disgust, fear, happiness, neutrality and sadness. The descriptors adopted, which were obtained based on regular energy, on Teager Energy Operator, on zero crossing rates, on spectral flatness and on spectral entropy, were submitted to the Paraconsistent Feature Engineering, which was responsible for selecting the best subgroup of features from the analysis of intra- and interclass similarities and dissimilarities, respectively. Lastly, a genetic algorithm associted with a multiplayer perceptron neural network was responsible for perfor ming the classification of the described signals aiming at the highest possible accuracy rate, i.e., 84.9%, considering the well-known EMO_DB database with 535 signals in a speaker independent approach. In contrast with feature learning strategies, the proposed approach allowed for a better comprehension of the problem being treated.Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)88887.499431/2020-00Universidade Estadual Paulista (Unesp)Guido, Rodrigo Capobianco [UNESP]Universidade Estadual Paulista (Unesp)Brajato, Hiago Matheus2022-03-09T19:47:02Z2022-03-09T19:47:02Z2022-02-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/11449/21710433004153073P2porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNESPinstname:Universidade Estadual Paulista (UNESP)instacron:UNESP2024-11-05T13:25:44Zoai:repositorio.unesp.br:11449/217104Repositório InstitucionalPUBhttp://repositorio.unesp.br/oai/requestrepositoriounesp@unesp.bropendoar:29462024-11-05T13:25:44Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)false |
| dc.title.none.fl_str_mv |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente Speech emotion recognition from handcrafted feature extraction with validation based on paraconsistent engineering |
| title |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente |
| spellingShingle |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente Brajato, Hiago Matheus Engenharia paraconsistente de características Redes neurais artificiais Handcrafted extraction Speech Emotion Recognition (SER) Paraconsistent feature engineering Artificial neural network |
| title_short |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente |
| title_full |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente |
| title_fullStr |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente |
| title_full_unstemmed |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente |
| title_sort |
Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente |
| author |
Brajato, Hiago Matheus |
| author_facet |
Brajato, Hiago Matheus |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Guido, Rodrigo Capobianco [UNESP] Universidade Estadual Paulista (Unesp) |
| dc.contributor.author.fl_str_mv |
Brajato, Hiago Matheus |
| dc.subject.por.fl_str_mv |
Engenharia paraconsistente de características Redes neurais artificiais Handcrafted extraction Speech Emotion Recognition (SER) Paraconsistent feature engineering Artificial neural network |
| topic |
Engenharia paraconsistente de características Redes neurais artificiais Handcrafted extraction Speech Emotion Recognition (SER) Paraconsistent feature engineering Artificial neural network |
| description |
Speech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão. |
| publishDate |
2022 |
| dc.date.none.fl_str_mv |
2022-03-09T19:47:02Z 2022-03-09T19:47:02Z 2022-02-24 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/11449/217104 33004153073P2 |
| url |
http://hdl.handle.net/11449/217104 |
| identifier_str_mv |
33004153073P2 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidade Estadual Paulista (Unesp) |
| publisher.none.fl_str_mv |
Universidade Estadual Paulista (Unesp) |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UNESP instname:Universidade Estadual Paulista (UNESP) instacron:UNESP |
| instname_str |
Universidade Estadual Paulista (UNESP) |
| instacron_str |
UNESP |
| institution |
UNESP |
| reponame_str |
Repositório Institucional da UNESP |
| collection |
Repositório Institucional da UNESP |
| repository.name.fl_str_mv |
Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP) |
| repository.mail.fl_str_mv |
repositoriounesp@unesp.br |
| _version_ |
1854954501605163008 |