Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation

Detalhes bibliográficos
Ano de defesa: 2020
Autor(a) principal: Almeida Neto, Antonio Manoel dos Santos
Orientador(a): Caseli, Helena de Medeiros lattes
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de São Carlos
Câmpus São Carlos
Programa de Pós-Graduação: Programa de Pós-Graduação em Ciência da Computação - PPGCC
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Palavras-chave em Inglês:
Área do conhecimento CNPq:
Link de acesso: https://repositorio.ufscar.br/handle/20.500.14289/13028
Resumo: The world around us is composed of images that often need to be translated into words. This translation can take place in parts, converting regions of the image into textual descriptions. The description of the region of an image is the transformation of the information contained in this area into words in natural language, to express the way objects relate to each other. Recently, computational models that seek to perform this task in a similar way to human beings are being proposed, mainly using deep neural networks. As a way to improve the quality of the sentences produced by one of these models, this work verified the employability of the Abstract Meaning Representation (AMR) semantic representation in the generation of descriptions for image regions. AMR was investigated as representation formalism, as an alternative to natural language, using it with some variations, so that the machine learning model, using deep neural networks, was able to predict sentences in such representation. The hypothesis of this study, that the use of sentences in the form of AMR would result in better descriptions, was partially confirmed, since the model trained with AMR was superior in almost all evaluations.
id SCAR_5ebfd0a3731186f97e6f53bcca3a3bbf
oai_identifier_str oai:repositorio.ufscar.br:20.500.14289/13028
network_acronym_str SCAR
network_name_str Repositório Institucional da UFSCAR
repository_id_str
spelling Almeida Neto, Antonio Manoel dos SantosCaseli, Helena de Medeiroshttp://lattes.cnpq.br/6608582057810385Almeida, Tiago Agostinhohttp://lattes.cnpq.br/5368680512020633http://lattes.cnpq.br/68254676073212051efe154c-ea0f-4702-be2f-81c5cc1e0af82020-07-09T11:26:44Z2020-07-09T11:26:44Z2020-05-28ALMEIDA NETO, Antonio Manoel dos Santos. Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de São Carlos, São Carlos, 2020. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/13028.https://repositorio.ufscar.br/handle/20.500.14289/13028The world around us is composed of images that often need to be translated into words. This translation can take place in parts, converting regions of the image into textual descriptions. The description of the region of an image is the transformation of the information contained in this area into words in natural language, to express the way objects relate to each other. Recently, computational models that seek to perform this task in a similar way to human beings are being proposed, mainly using deep neural networks. As a way to improve the quality of the sentences produced by one of these models, this work verified the employability of the Abstract Meaning Representation (AMR) semantic representation in the generation of descriptions for image regions. AMR was investigated as representation formalism, as an alternative to natural language, using it with some variations, so that the machine learning model, using deep neural networks, was able to predict sentences in such representation. The hypothesis of this study, that the use of sentences in the form of AMR would result in better descriptions, was partially confirmed, since the model trained with AMR was superior in almost all evaluations.O mundo que nos cerca é composto por imagens que, muitas vezes, precisam ser traduzidas em palavras. Essa tradução pode se dar em partes, convertendo regiões da imagem em descrições textuais. A descrição da região de uma imagem é a transformação da informação contida nesta área para palavras em língua natural, de modo a expressar a maneira como os objetos se relacionam entre si. Recentemente, modelos computacionais que procuram desempenhar essa tarefa de maneira semelhante aos seres humanos estão sendo propostos, principalmente utilizando redes neurais profundas (deep learning). Como forma de melhorar a qualidade das sentenças produzidas por um desses modelos, este trabalho verificou a empregabilidade da representação semântica Abstract Meaning Representation (AMR) na geração de descrições para regiões de imagem. A AMR foi investigada como formalismo de representação, em alternativa à língua natural, empregando-a com algumas variações, para que o modelo de aprendizado de máquina, utilizando redes neurais profundas, fosse capaz de prever sentenças em tal representação. A hipótese deste trabalho, de que a utilização de sentenças em forma de AMR resultaria em melhores descrições foi confirmada parcialmente, visto que o modelo treinado com AMR foi superior em quase todas as avaliações.Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)CAPES: 2018/1771510 - 001porUniversidade Federal de São CarlosCâmpus São CarlosPrograma de Pós-Graduação em Ciência da Computação - PPGCCUFSCarAttribution-NonCommercial-NoDerivs 3.0 Brazilhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessDescrição de regiões de imagemRepresentação semânticaAbstract meaning representationDense captioningCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAODescrevendo regiões de imagens através de redes neurais profundas e abstract meaning representationDescribing image regions through deep neural networks and abstract meaning representationinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesis600600e36d4e63-960d-4f5c-9c93-f8b7f5f93d65reponame:Repositório Institucional da UFSCARinstname:Universidade Federal de São Carlos (UFSCAR)instacron:UFSCARORIGINALDissertacao (versao final).pdfDissertacao (versao final).pdfTexto completo da dissertaçãoapplication/pdf11859821https://repositorio.ufscar.br/bitstreams/6154ae1c-b277-45f7-b0a5-7cc60fad1b04/download145e1a852279475d0308cf8f41d5056eMD51trueAnonymousREADCarta_BCO.pdfCarta_BCO.pdfCarta Comprovanteapplication/pdf604709https://repositorio.ufscar.br/bitstreams/66fb42e0-a16c-468e-89e4-c57acfe49ce7/downloadfa1c22579506901327a2f8fb35ebc6faMD53falseAnonymousREADCC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repositorio.ufscar.br/bitstreams/bc072f54-2ad9-44a0-adc8-abc28434381a/downloade39d27027a6cc9cb039ad269a5db8e34MD54falseAnonymousREADTEXTDissertacao (versao final).pdf.txtDissertacao (versao final).pdf.txtExtracted texttext/plain200351https://repositorio.ufscar.br/bitstreams/de4ad6bc-27be-4ab2-8afa-601ab0552560/download1d5bafb96eaa4c5d3dea63740c6517f3MD59falseAnonymousREADCarta_BCO.pdf.txtCarta_BCO.pdf.txtExtracted texttext/plain1https://repositorio.ufscar.br/bitstreams/11c4d095-0b45-4bc8-a654-b02588506edf/download68b329da9893e34099c7d8ad5cb9c940MD511falseAnonymousREADTHUMBNAILDissertacao (versao final).pdf.jpgDissertacao (versao final).pdf.jpgIM Thumbnailimage/jpeg7096https://repositorio.ufscar.br/bitstreams/b200c7a2-4b43-4b4b-b005-f39e8e274d1a/downloadb67f27da66e405e4414c1d625590b162MD510falseAnonymousREADCarta_BCO.pdf.jpgCarta_BCO.pdf.jpgIM Thumbnailimage/jpeg8908https://repositorio.ufscar.br/bitstreams/1be8201b-7926-46ae-97e1-56428efb282b/download22e6b68ae11f9b6e982f28fb2090007bMD512falseAnonymousREAD20.500.14289/130282025-02-05 18:30:31.15http://creativecommons.org/licenses/by-nc-nd/3.0/br/Attribution-NonCommercial-NoDerivs 3.0 Brazilopen.accessoai:repositorio.ufscar.br:20.500.14289/13028https://repositorio.ufscar.brRepositório InstitucionalPUBhttps://repositorio.ufscar.br/oai/requestrepositorio.sibi@ufscar.bropendoar:43222025-02-05T21:30:31Repositório Institucional da UFSCAR - Universidade Federal de São Carlos (UFSCAR)false
dc.title.por.fl_str_mv Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
dc.title.alternative.eng.fl_str_mv Describing image regions through deep neural networks and abstract meaning representation
title Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
spellingShingle Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
Almeida Neto, Antonio Manoel dos Santos
Descrição de regiões de imagem
Representação semântica
Abstract meaning representation
Dense captioning
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
title_short Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
title_full Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
title_fullStr Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
title_full_unstemmed Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
title_sort Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation
author Almeida Neto, Antonio Manoel dos Santos
author_facet Almeida Neto, Antonio Manoel dos Santos
author_role author
dc.contributor.authorlattes.por.fl_str_mv http://lattes.cnpq.br/6825467607321205
dc.contributor.author.fl_str_mv Almeida Neto, Antonio Manoel dos Santos
dc.contributor.advisor1.fl_str_mv Caseli, Helena de Medeiros
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/6608582057810385
dc.contributor.advisor-co1.fl_str_mv Almeida, Tiago Agostinho
dc.contributor.advisor-co1Lattes.fl_str_mv http://lattes.cnpq.br/5368680512020633
dc.contributor.authorID.fl_str_mv 1efe154c-ea0f-4702-be2f-81c5cc1e0af8
contributor_str_mv Caseli, Helena de Medeiros
Almeida, Tiago Agostinho
dc.subject.por.fl_str_mv Descrição de regiões de imagem
Representação semântica
topic Descrição de regiões de imagem
Representação semântica
Abstract meaning representation
Dense captioning
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
dc.subject.eng.fl_str_mv Abstract meaning representation
Dense captioning
dc.subject.cnpq.fl_str_mv CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
description The world around us is composed of images that often need to be translated into words. This translation can take place in parts, converting regions of the image into textual descriptions. The description of the region of an image is the transformation of the information contained in this area into words in natural language, to express the way objects relate to each other. Recently, computational models that seek to perform this task in a similar way to human beings are being proposed, mainly using deep neural networks. As a way to improve the quality of the sentences produced by one of these models, this work verified the employability of the Abstract Meaning Representation (AMR) semantic representation in the generation of descriptions for image regions. AMR was investigated as representation formalism, as an alternative to natural language, using it with some variations, so that the machine learning model, using deep neural networks, was able to predict sentences in such representation. The hypothesis of this study, that the use of sentences in the form of AMR would result in better descriptions, was partially confirmed, since the model trained with AMR was superior in almost all evaluations.
publishDate 2020
dc.date.accessioned.fl_str_mv 2020-07-09T11:26:44Z
dc.date.available.fl_str_mv 2020-07-09T11:26:44Z
dc.date.issued.fl_str_mv 2020-05-28
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv ALMEIDA NETO, Antonio Manoel dos Santos. Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de São Carlos, São Carlos, 2020. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/13028.
dc.identifier.uri.fl_str_mv https://repositorio.ufscar.br/handle/20.500.14289/13028
identifier_str_mv ALMEIDA NETO, Antonio Manoel dos Santos. Descrevendo regiões de imagens através de redes neurais profundas e abstract meaning representation. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de São Carlos, São Carlos, 2020. Disponível em: https://repositorio.ufscar.br/handle/20.500.14289/13028.
url https://repositorio.ufscar.br/handle/20.500.14289/13028
dc.language.iso.fl_str_mv por
language por
dc.relation.confidence.fl_str_mv 600
600
dc.relation.authority.fl_str_mv e36d4e63-960d-4f5c-9c93-f8b7f5f93d65
dc.rights.driver.fl_str_mv Attribution-NonCommercial-NoDerivs 3.0 Brazil
http://creativecommons.org/licenses/by-nc-nd/3.0/br/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Attribution-NonCommercial-NoDerivs 3.0 Brazil
http://creativecommons.org/licenses/by-nc-nd/3.0/br/
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de São Carlos
Câmpus São Carlos
dc.publisher.program.fl_str_mv Programa de Pós-Graduação em Ciência da Computação - PPGCC
dc.publisher.initials.fl_str_mv UFSCar
publisher.none.fl_str_mv Universidade Federal de São Carlos
Câmpus São Carlos
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFSCAR
instname:Universidade Federal de São Carlos (UFSCAR)
instacron:UFSCAR
instname_str Universidade Federal de São Carlos (UFSCAR)
instacron_str UFSCAR
institution UFSCAR
reponame_str Repositório Institucional da UFSCAR
collection Repositório Institucional da UFSCAR
bitstream.url.fl_str_mv https://repositorio.ufscar.br/bitstreams/6154ae1c-b277-45f7-b0a5-7cc60fad1b04/download
https://repositorio.ufscar.br/bitstreams/66fb42e0-a16c-468e-89e4-c57acfe49ce7/download
https://repositorio.ufscar.br/bitstreams/bc072f54-2ad9-44a0-adc8-abc28434381a/download
https://repositorio.ufscar.br/bitstreams/de4ad6bc-27be-4ab2-8afa-601ab0552560/download
https://repositorio.ufscar.br/bitstreams/11c4d095-0b45-4bc8-a654-b02588506edf/download
https://repositorio.ufscar.br/bitstreams/b200c7a2-4b43-4b4b-b005-f39e8e274d1a/download
https://repositorio.ufscar.br/bitstreams/1be8201b-7926-46ae-97e1-56428efb282b/download
bitstream.checksum.fl_str_mv 145e1a852279475d0308cf8f41d5056e
fa1c22579506901327a2f8fb35ebc6fa
e39d27027a6cc9cb039ad269a5db8e34
1d5bafb96eaa4c5d3dea63740c6517f3
68b329da9893e34099c7d8ad5cb9c940
b67f27da66e405e4414c1d625590b162
22e6b68ae11f9b6e982f28fb2090007b
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFSCAR - Universidade Federal de São Carlos (UFSCAR)
repository.mail.fl_str_mv repositorio.sibi@ufscar.br
_version_ 1851688806748520448