Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
| Ano de defesa: | 2020 |
|---|---|
| Autor(a) principal: | |
| Orientador(a): | |
| Banca de defesa: | |
| Tipo de documento: | Dissertação |
| Tipo de acesso: | Acesso aberto |
| Idioma: | por |
| Instituição de defesa: |
Universidade Federal de São Carlos
Câmpus São Carlos |
| Programa de Pós-Graduação: |
Programa de Pós-Graduação em Ciência da Computação - PPGCC
|
| Departamento: |
Não Informado pela instituição
|
| País: |
Não Informado pela instituição
|
| Palavras-chave em Português: | |
| Palavras-chave em Inglês: | |
| Área do conhecimento CNPq: | |
| Link de acesso: | https://repositorio.ufscar.br/handle/20.500.14289/13028 |
Resumo: | The world around us is composed of images that often need to be translated into words. This translation can take place in parts, converting regions of the image into textual descriptions. The description of the region of an image is the transformation of the information contained in this area into words in natural language, to express the way objects relate to each other. Recently, computational models that seek to perform this task in a similar way to human beings are being proposed, mainly using deep neural networks. As a way to improve the quality of the sentences produced by one of these models, this work verified the employability of the Abstract Meaning Representation (AMR) semantic representation in the generation of descriptions for image regions. AMR was investigated as representation formalism, as an alternative to natural language, using it with some variations, so that the machine learning model, using deep neural networks, was able to predict sentences in such representation. The hypothesis of this study, that the use of sentences in the form of AMR would result in better descriptions, was partially confirmed, since the model trained with AMR was superior in almost all evaluations. |
| id |
SCAR_5ebfd0a3731186f97e6f53bcca3a3bbf |
|---|---|
| oai_identifier_str |
oai:repositorio.ufscar.br:20.500.14289/13028 |
| network_acronym_str |
SCAR |
| network_name_str |
Repositório Institucional da UFSCAR |
| repository_id_str |
|
| spelling |
Almeida Neto, Antonio Manoel dos SantosCaseli, Helena de Medeiroshttp://lattes.cnpq.br/6608582057810385Almeida, Tiago Agostinhohttp://lattes.cnpq.br/5368680512020633http://lattes.cnpq.br/68254676073212051efe154c-ea0f-4702-be2f-81c5cc1e0af82020-07-09T11:26:44Z2020-07-09T11:26:44Z2020-05-28ALMEIDA NETO, Antonio Manoel dos Santos. Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de São Carlos, São Carlos, 2020. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/13028.https://repositorio.ufscar.br/handle/20.500.14289/13028The world around us is composed of images that often need to be translated into words. This translation can take place in parts, converting regions of the image into textual descriptions. The description of the region of an image is the transformation of the information contained in this area into words in natural language, to express the way objects relate to each other. Recently, computational models that seek to perform this task in a similar way to human beings are being proposed, mainly using deep neural networks. As a way to improve the quality of the sentences produced by one of these models, this work verified the employability of the Abstract Meaning Representation (AMR) semantic representation in the generation of descriptions for image regions. AMR was investigated as representation formalism, as an alternative to natural language, using it with some variations, so that the machine learning model, using deep neural networks, was able to predict sentences in such representation. The hypothesis of this study, that the use of sentences in the form of AMR would result in better descriptions, was partially confirmed, since the model trained with AMR was superior in almost all evaluations.O mundo que nos cerca é composto por imagens que, muitas vezes, precisam ser traduzidas em palavras. Essa tradução pode se dar em partes, convertendo regiões da imagem em descrições textuais. A descrição da região de uma imagem é a transformação da informação contida nesta área para palavras em língua natural, de modo a expressar a maneira como os objetos se relacionam entre si. Recentemente, modelos computacionais que procuram desempenhar essa tarefa de maneira semelhante aos seres humanos estão sendo propostos, principalmente utilizando redes neurais profundas (deep learning). Como forma de melhorar a qualidade das sentenças produzidas por um desses modelos, este trabalho verificou a empregabilidade da representação semântica Abstract Meaning Representation (AMR) na geração de descrições para regiões de imagem. A AMR foi investigada como formalismo de representação, em alternativa à língua natural, empregando-a com algumas variações, para que o modelo de aprendizado de máquina, utilizando redes neurais profundas, fosse capaz de prever sentenças em tal representação. A hipótese deste trabalho, de que a utilização de sentenças em forma de AMR resultaria em melhores descrições foi confirmada parcialmente, visto que o modelo treinado com AMR foi superior em quase todas as avaliações.Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)CAPES: 2018/1771510 - 001porUniversidade Federal de São CarlosCâmpus São CarlosPrograma de Pós-Graduação em Ciência da Computação - PPGCCUFSCarAttribution-NonCommercial-NoDerivs 3.0 Brazilhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessDescrição de regiões de imagemRepresentação semânticaAbstract meaning representationDense captioningCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAODescrevendo regiões de imagens através de redes neurais profundas e abstract meaning representationDescribing image regions through deep neural networks and abstract meaning representationinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesis600600e36d4e63-960d-4f5c-9c93-f8b7f5f93d65reponame:Repositório Institucional da UFSCARinstname:Universidade Federal de São Carlos (UFSCAR)instacron:UFSCARORIGINALDissertacao (versao final).pdfDissertacao (versao final).pdfTexto completo da dissertaçãoapplication/pdf11859821https://repositorio.ufscar.br/bitstreams/6154ae1c-b277-45f7-b0a5-7cc60fad1b04/download145e1a852279475d0308cf8f41d5056eMD51trueAnonymousREADCarta_BCO.pdfCarta_BCO.pdfCarta Comprovanteapplication/pdf604709https://repositorio.ufscar.br/bitstreams/66fb42e0-a16c-468e-89e4-c57acfe49ce7/downloadfa1c22579506901327a2f8fb35ebc6faMD53falseAnonymousREADCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repositorio.ufscar.br/bitstreams/bc072f54-2ad9-44a0-adc8-abc28434381a/downloade39d27027a6cc9cb039ad269a5db8e34MD54falseAnonymousREADTEXTDissertacao (versao final).pdf.txtDissertacao (versao final).pdf.txtExtracted texttext/plain200351https://repositorio.ufscar.br/bitstreams/de4ad6bc-27be-4ab2-8afa-601ab0552560/download1d5bafb96eaa4c5d3dea63740c6517f3MD59falseAnonymousREADCarta_BCO.pdf.txtCarta_BCO.pdf.txtExtracted texttext/plain1https://repositorio.ufscar.br/bitstreams/11c4d095-0b45-4bc8-a654-b02588506edf/download68b329da9893e34099c7d8ad5cb9c940MD511falseAnonymousREADTHUMBNAILDissertacao (versao final).pdf.jpgDissertacao (versao final).pdf.jpgIM Thumbnailimage/jpeg7096https://repositorio.ufscar.br/bitstreams/b200c7a2-4b43-4b4b-b005-f39e8e274d1a/downloadb67f27da66e405e4414c1d625590b162MD510falseAnonymousREADCarta_BCO.pdf.jpgCarta_BCO.pdf.jpgIM Thumbnailimage/jpeg8908https://repositorio.ufscar.br/bitstreams/1be8201b-7926-46ae-97e1-56428efb282b/download22e6b68ae11f9b6e982f28fb2090007bMD512falseAnonymousREAD20.500.14289/130282025-02-05 18:30:31.15http://creativecommons.org/licenses/by-nc-nd/3.0/br/Attribution-NonCommercial-NoDerivs 3.0 Brazilopen.accessoai:repositorio.ufscar.br:20.500.14289/13028https://repositorio.ufscar.brRepositório InstitucionalPUBhttps://repositorio.ufscar.br/oai/requestrepositorio.sibi@ufscar.bropendoar:43222025-02-05T21:30:31Repositório Institucional da UFSCAR - Universidade Federal de São Carlos (UFSCAR)false |
| dc.title.por.fl_str_mv |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| dc.title.alternative.eng.fl_str_mv |
Describing image regions through deep neural networks and abstract meaning representation |
| title |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| spellingShingle |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation Almeida Neto, Antonio Manoel dos Santos Descrição de regiões de imagem Representação semântica Abstract meaning representation Dense captioning CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| title_short |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| title_full |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| title_fullStr |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| title_full_unstemmed |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| title_sort |
Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation |
| author |
Almeida Neto, Antonio Manoel dos Santos |
| author_facet |
Almeida Neto, Antonio Manoel dos Santos |
| author_role |
author |
| dc.contributor.authorlattes.por.fl_str_mv |
http://lattes.cnpq.br/6825467607321205 |
| dc.contributor.author.fl_str_mv |
Almeida Neto, Antonio Manoel dos Santos |
| dc.contributor.advisor1.fl_str_mv |
Caseli, Helena de Medeiros |
| dc.contributor.advisor1Lattes.fl_str_mv |
http://lattes.cnpq.br/6608582057810385 |
| dc.contributor.advisor-co1.fl_str_mv |
Almeida, Tiago Agostinho |
| dc.contributor.advisor-co1Lattes.fl_str_mv |
http://lattes.cnpq.br/5368680512020633 |
| dc.contributor.authorID.fl_str_mv |
1efe154c-ea0f-4702-be2f-81c5cc1e0af8 |
| contributor_str_mv |
Caseli, Helena de Medeiros Almeida, Tiago Agostinho |
| dc.subject.por.fl_str_mv |
Descrição de regiões de imagem Representação semântica |
| topic |
Descrição de regiões de imagem Representação semântica Abstract meaning representation Dense captioning CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| dc.subject.eng.fl_str_mv |
Abstract meaning representation Dense captioning |
| dc.subject.cnpq.fl_str_mv |
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| description |
The world around us is composed of images that often need to be translated into words. This translation can take place in parts, converting regions of the image into textual descriptions. The description of the region of an image is the transformation of the information contained in this area into words in natural language, to express the way objects relate to each other. Recently, computational models that seek to perform this task in a similar way to human beings are being proposed, mainly using deep neural networks. As a way to improve the quality of the sentences produced by one of these models, this work verified the employability of the Abstract Meaning Representation (AMR) semantic representation in the generation of descriptions for image regions. AMR was investigated as representation formalism, as an alternative to natural language, using it with some variations, so that the machine learning model, using deep neural networks, was able to predict sentences in such representation. The hypothesis of this study, that the use of sentences in the form of AMR would result in better descriptions, was partially confirmed, since the model trained with AMR was superior in almost all evaluations. |
| publishDate |
2020 |
| dc.date.accessioned.fl_str_mv |
2020-07-09T11:26:44Z |
| dc.date.available.fl_str_mv |
2020-07-09T11:26:44Z |
| dc.date.issued.fl_str_mv |
2020-05-28 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.citation.fl_str_mv |
ALMEIDA NETO, Antonio Manoel dos Santos. Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de São Carlos, São Carlos, 2020. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/13028. |
| dc.identifier.uri.fl_str_mv |
https://repositorio.ufscar.br/handle/20.500.14289/13028 |
| identifier_str_mv |
ALMEIDA NETO, Antonio Manoel dos Santos. Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de São Carlos, São Carlos, 2020. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/13028. |
| url |
https://repositorio.ufscar.br/handle/20.500.14289/13028 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.relation.confidence.fl_str_mv |
600 600 |
| dc.relation.authority.fl_str_mv |
e36d4e63-960d-4f5c-9c93-f8b7f5f93d65 |
| dc.rights.driver.fl_str_mv |
Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ info:eu-repo/semantics/openAccess |
| rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ |
| eu_rights_str_mv |
openAccess |
| dc.publisher.none.fl_str_mv |
Universidade Federal de São Carlos Câmpus São Carlos |
| dc.publisher.program.fl_str_mv |
Programa de Pós-Graduação em Ciência da Computação - PPGCC |
| dc.publisher.initials.fl_str_mv |
UFSCar |
| publisher.none.fl_str_mv |
Universidade Federal de São Carlos Câmpus São Carlos |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFSCAR instname:Universidade Federal de São Carlos (UFSCAR) instacron:UFSCAR |
| instname_str |
Universidade Federal de São Carlos (UFSCAR) |
| instacron_str |
UFSCAR |
| institution |
UFSCAR |
| reponame_str |
Repositório Institucional da UFSCAR |
| collection |
Repositório Institucional da UFSCAR |
| bitstream.url.fl_str_mv |
https://repositorio.ufscar.br/bitstreams/6154ae1c-b277-45f7-b0a5-7cc60fad1b04/download https://repositorio.ufscar.br/bitstreams/66fb42e0-a16c-468e-89e4-c57acfe49ce7/download https://repositorio.ufscar.br/bitstreams/bc072f54-2ad9-44a0-adc8-abc28434381a/download https://repositorio.ufscar.br/bitstreams/de4ad6bc-27be-4ab2-8afa-601ab0552560/download https://repositorio.ufscar.br/bitstreams/11c4d095-0b45-4bc8-a654-b02588506edf/download https://repositorio.ufscar.br/bitstreams/b200c7a2-4b43-4b4b-b005-f39e8e274d1a/download https://repositorio.ufscar.br/bitstreams/1be8201b-7926-46ae-97e1-56428efb282b/download |
| bitstream.checksum.fl_str_mv |
145e1a852279475d0308cf8f41d5056e fa1c22579506901327a2f8fb35ebc6fa e39d27027a6cc9cb039ad269a5db8e34 1d5bafb96eaa4c5d3dea63740c6517f3 68b329da9893e34099c7d8ad5cb9c940 b67f27da66e405e4414c1d625590b162 22e6b68ae11f9b6e982f28fb2090007b |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositório Institucional da UFSCAR - Universidade Federal de São Carlos (UFSCAR) |
| repository.mail.fl_str_mv |
repositorio.sibi@ufscar.br |
| _version_ |
1851688806748520448 |