Audiovisual voice activity detection and localization of simultaneous speech sources
| Ano de defesa: | 2013 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | eng |
| Instituição de defesa: |
Não Informado pela instituição
|
| Programa de Pós-Graduação: |
Não Informado pela instituição
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Palavras-chave em Inglês: | |
| Link de acesso: | http://hdl.handle.net/10183/77231 |
Resumo: | Em vista da tentência de se criarem intefaces entre humanos e máquinas que cada vez mais permitam meios simples de interação, é natural que sejam realizadas pesquisas em técnicas que procuram simular o meio mais convencional de comunicação que os humanos usam: a fala. No sistema auditivo humano, a voz é automaticamente processada pelo cérebro de modo efetivo e fácil, também comumente auxiliada por informações visuais, como movimentação labial e localizacão dos locutores. Este processamento realizado pelo cérebro inclui dois componentes importantes que a comunicação baseada em fala requere: Detecção de Atividade de Voz (Voice Activity Detection - VAD) e Localização de Fontes Sonoras (Sound Source Localization - SSL). Consequentemente, VAD e SSL também servem como ferramentas mandatórias de pré-processamento em aplicações de Interfaces Humano-Computador (Human Computer Interface - HCI), como no caso de reconhecimento automático de voz e identificação de locutor. Entretanto, VAD e SSL ainda são problemas desafiadores quando se lidando com cenários acústicos realísticos, particularmente na presença de ruído, reverberação e locutores simultâneos. Neste trabalho, são propostas abordagens para tratar tais problemas, para os casos de uma e múltiplas fontes sonoras, através do uso de informações audiovisuais, explorando-se variadas maneiras de se fundir as modalidades de áudio e vídeo. Este trabalho também emprega um arranjo de microfones para o processamento de som, o qual permite que as informações espaciais dos sinais acústicos sejam exploradas através do algoritmo estado-da-arte SRP (Steered Response Power). Por consequência adicional, uma eficiente implementação em GPU do SRP foi desenvolvida, possibilitando processamento em tempo real do algoritmo. Os experimentos realizados mostram uma acurácia média de 95% ao se efetuar VAD de até três locutores simultâneos, e um erro médio de 10cm ao se localizar tais locutores. |
| id |
URGS_e0c90db33d188573401ec73b5c9c19e5 |
|---|---|
| oai_identifier_str |
oai:www.lume.ufrgs.br:10183/77231 |
| network_acronym_str |
URGS |
| network_name_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
| repository_id_str |
|
| spelling |
Minotto, Vicente PeruffoJung, Claudio Rosito2013-08-21T01:47:36Z2013http://hdl.handle.net/10183/77231000895533Em vista da tentência de se criarem intefaces entre humanos e máquinas que cada vez mais permitam meios simples de interação, é natural que sejam realizadas pesquisas em técnicas que procuram simular o meio mais convencional de comunicação que os humanos usam: a fala. No sistema auditivo humano, a voz é automaticamente processada pelo cérebro de modo efetivo e fácil, também comumente auxiliada por informações visuais, como movimentação labial e localizacão dos locutores. Este processamento realizado pelo cérebro inclui dois componentes importantes que a comunicação baseada em fala requere: Detecção de Atividade de Voz (Voice Activity Detection - VAD) e Localização de Fontes Sonoras (Sound Source Localization - SSL). Consequentemente, VAD e SSL também servem como ferramentas mandatórias de pré-processamento em aplicações de Interfaces Humano-Computador (Human Computer Interface - HCI), como no caso de reconhecimento automático de voz e identificação de locutor. Entretanto, VAD e SSL ainda são problemas desafiadores quando se lidando com cenários acústicos realísticos, particularmente na presença de ruído, reverberação e locutores simultâneos. Neste trabalho, são propostas abordagens para tratar tais problemas, para os casos de uma e múltiplas fontes sonoras, através do uso de informações audiovisuais, explorando-se variadas maneiras de se fundir as modalidades de áudio e vídeo. Este trabalho também emprega um arranjo de microfones para o processamento de som, o qual permite que as informações espaciais dos sinais acústicos sejam exploradas através do algoritmo estado-da-arte SRP (Steered Response Power). Por consequência adicional, uma eficiente implementação em GPU do SRP foi desenvolvida, possibilitando processamento em tempo real do algoritmo. Os experimentos realizados mostram uma acurácia média de 95% ao se efetuar VAD de até três locutores simultâneos, e um erro médio de 10cm ao se localizar tais locutores.Given the tendency of creating interfaces between human and machines that increasingly allow simple ways of interaction, it is only natural that research effort is put into techniques that seek to simulate the most conventional mean of communication humans use: the speech. In the human auditory system, voice is automatically processed by the brain in an effortless and effective way, also commonly aided by visual cues, such as mouth movement and location of the speakers. This processing done by the brain includes two important components that speech-based communication require: Voice Activity Detection (VAD) and Sound Source Localization (SSL). Consequently, VAD and SSL also serve as mandatory preprocessing tools for high-end Human Computer Interface (HCI) applications in a computing environment, as the case of automatic speech recognition and speaker identification. However, VAD and SSL are still challenging problems when dealing with realistic acoustic scenarios, particularly in the presence of noise, reverberation and multiple simultaneous speakers. In this work we propose some approaches for tackling these problems using audiovisual information, both for the single source and the competing sources scenario, exploiting distinct ways of fusing the audio and video modalities. Our work also employs a microphone array for the audio processing, which allows the spatial information of the acoustic signals to be explored through the stateof- the art method Steered Response Power (SRP). As an additional consequence, a very fast GPU version of the SRP is developed, so that real-time processing is achieved. Our experiments show an average accuracy of 95% when performing VAD of up to three simultaneous speakers and an average error of 10cm when locating such speakers.application/pdfengReconhecimento : PadroesReconhecimento : VozVoz computacionalTempo realVoice activity detectionSound source localizationMultiple speakersCompeting sourcesMultimodal fusionMicrophone arrayHiddenMarkov modelSupport vector machineGPU programmingAudiovisual voice activity detection and localization of simultaneous speech sourcesDetecção de atividade de voz e localização de fontes sonoras simultâneas utilizando informações audiovisuais info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2013mestradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSORIGINAL000895533.pdf000895533.pdfTexto completo (inglês)application/pdf4302464http://www.lume.ufrgs.br/bitstream/10183/77231/1/000895533.pdf695c140e98050a729dd7bc320e393155MD51TEXT000895533.pdf.txt000895533.pdf.txtExtracted Texttext/plain282271http://www.lume.ufrgs.br/bitstream/10183/77231/2/000895533.pdf.txt6ff0b626ebbfdc44f076a93f2449533dMD52THUMBNAIL000895533.pdf.jpg000895533.pdf.jpgGenerated Thumbnailimage/jpeg1017http://www.lume.ufrgs.br/bitstream/10183/77231/3/000895533.pdf.jpgea353207a5b40de01e261063ff009183MD5310183/772312021-05-26 04:30:41.010302oai:www.lume.ufrgs.br:10183/77231Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br||lume@ufrgs.bropendoar:18532021-05-26T07:30:41Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false |
| dc.title.pt_BR.fl_str_mv |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| dc.title.alternative.en.fl_str_mv |
Detecção de atividade de voz e localização de fontes sonoras simultâneas utilizando informações audiovisuais |
| title |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| spellingShingle |
Audiovisual voice activity detection and localization of simultaneous speech sources Minotto, Vicente Peruffo Reconhecimento : Padroes Reconhecimento : Voz Voz computacional Tempo real Voice activity detection Sound source localization Multiple speakers Competing sources Multimodal fusion Microphone array HiddenMarkov model Support vector machine GPU programming |
| title_short |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| title_full |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| title_fullStr |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| title_full_unstemmed |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| title_sort |
Audiovisual voice activity detection and localization of simultaneous speech sources |
| author |
Minotto, Vicente Peruffo |
| author_facet |
Minotto, Vicente Peruffo |
| author_role |
author |
| dc.contributor.author.fl_str_mv |
Minotto, Vicente Peruffo |
| dc.contributor.advisor1.fl_str_mv |
Jung, Claudio Rosito |
| contributor_str_mv |
Jung, Claudio Rosito |
| dc.subject.por.fl_str_mv |
Reconhecimento : Padroes Reconhecimento : Voz Voz computacional Tempo real |
| topic |
Reconhecimento : Padroes Reconhecimento : Voz Voz computacional Tempo real Voice activity detection Sound source localization Multiple speakers Competing sources Multimodal fusion Microphone array HiddenMarkov model Support vector machine GPU programming |
| dc.subject.eng.fl_str_mv |
Voice activity detection Sound source localization Multiple speakers Competing sources Multimodal fusion Microphone array HiddenMarkov model Support vector machine GPU programming |
| description |
Em vista da tentência de se criarem intefaces entre humanos e máquinas que cada vez mais permitam meios simples de interação, é natural que sejam realizadas pesquisas em técnicas que procuram simular o meio mais convencional de comunicação que os humanos usam: a fala. No sistema auditivo humano, a voz é automaticamente processada pelo cérebro de modo efetivo e fácil, também comumente auxiliada por informações visuais, como movimentação labial e localizacão dos locutores. Este processamento realizado pelo cérebro inclui dois componentes importantes que a comunicação baseada em fala requere: Detecção de Atividade de Voz (Voice Activity Detection - VAD) e Localização de Fontes Sonoras (Sound Source Localization - SSL). Consequentemente, VAD e SSL também servem como ferramentas mandatórias de pré-processamento em aplicações de Interfaces Humano-Computador (Human Computer Interface - HCI), como no caso de reconhecimento automático de voz e identificação de locutor. Entretanto, VAD e SSL ainda são problemas desafiadores quando se lidando com cenários acústicos realísticos, particularmente na presença de ruído, reverberação e locutores simultâneos. Neste trabalho, são propostas abordagens para tratar tais problemas, para os casos de uma e múltiplas fontes sonoras, através do uso de informações audiovisuais, explorando-se variadas maneiras de se fundir as modalidades de áudio e vídeo. Este trabalho também emprega um arranjo de microfones para o processamento de som, o qual permite que as informações espaciais dos sinais acústicos sejam exploradas através do algoritmo estado-da-arte SRP (Steered Response Power). Por consequência adicional, uma eficiente implementação em GPU do SRP foi desenvolvida, possibilitando processamento em tempo real do algoritmo. Os experimentos realizados mostram uma acurácia média de 95% ao se efetuar VAD de até três locutores simultâneos, e um erro médio de 10cm ao se localizar tais locutores. |
| publishDate |
2013 |
| dc.date.accessioned.fl_str_mv |
2013-08-21T01:47:36Z |
| dc.date.issued.fl_str_mv |
2013 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10183/77231 |
| dc.identifier.nrb.pt_BR.fl_str_mv |
000895533 |
| url |
http://hdl.handle.net/10183/77231 |
| identifier_str_mv |
000895533 |
| dc.language.iso.fl_str_mv |
eng |
| language |
eng |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFRGS instname:Universidade Federal do Rio Grande do Sul (UFRGS) instacron:UFRGS |
| instname_str |
Universidade Federal do Rio Grande do Sul (UFRGS) |
| instacron_str |
UFRGS |
| institution |
UFRGS |
| reponame_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
| collection |
Biblioteca Digital de Teses e Dissertações da UFRGS |
| bitstream.url.fl_str_mv |
http://www.lume.ufrgs.br/bitstream/10183/77231/1/000895533.pdf http://www.lume.ufrgs.br/bitstream/10183/77231/2/000895533.pdf.txt http://www.lume.ufrgs.br/bitstream/10183/77231/3/000895533.pdf.jpg |
| bitstream.checksum.fl_str_mv |
695c140e98050a729dd7bc320e393155 6ff0b626ebbfdc44f076a93f2449533d ea353207a5b40de01e261063ff009183 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS) |
| repository.mail.fl_str_mv |
lume@ufrgs.br||lume@ufrgs.br |
| _version_ |
1831315932628123648 |