Automatic grading of portuguese short answers using a machine learning approach

Detalhes bibliográficos
Ano de defesa: 2019
Autor(a) principal: Galhardi, Lucas Busatta
Orientador(a): Brancher, Jacques Duílio
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: Não Informado pela instituição
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://repositorio.uel.br/handle/123456789/17078
Resumo: Avaliações são rotineiramente utilizadas em contextos de aprendizado a fim de estimar o conhecimento retido pelos estudantes. Apesar de sua importância, professores geralmente consideram a tarefa de avaliar respostas discursivas como muito trabalhosa. As condições de trabalho do professor e a sua própria subjetividade podem influenciar nas suas avaliações, pois humanos estão sujeitos ao cansaço, à outras influências e a nota de um aluno pode depender até mesmo da ordem de correção. Esses problemas se apresentam de forma ainda mais intensa em ferramentas como Ambientes Virtuais de Aprendizagem e Cursos Onlines Abertos e Massivos, que recentemente aumentaram sua popularidade e são usados por muito mais estudantes de uma vez que salas de aula físicas. Visando auxiliar nesses problemas, essa dissertação explora a área de pesquisa da avaliação automática de respostas discursivas usando uma abordagem de aprendizado de máquina, com três principais objetivos: (1) realizar uma revisão sistemática da literatura sobre o assunto a fim de se obter uma visão geral do estado da arte e de suas principais técnicas; (2) coletar dados reais de exercícios discursivos escritos na Língua Portuguesa por estudantes; e (3) implementar, avaliar e comparar diferentes abordagens para o sistema de avaliação automática das respostas. Para o primeiro objetivo, 44 artigos foram sistematicamente revisados, analisando vários de seus aspectos, desde os dados utilizados até a avaliação do modelo. Para o segundo, foram coletadas 7473 respostas de 659 estudantes, além de 9558 avaliações feitas por 14 avaliadores humanos (algumas respostas receberam mais de uma avaliação). Para o último objetivo, seis abordagens diferentes foram experimentadas e um modelo final foi criado com a combinação das abordagens. A efetividade mostrada pelo modelo foi satisfatória, com os valores de kappa indicando uma concordância de moderada a substancial entre o modelo e a avaliação humana. Os resultados mostraram que uma abordagem de aprendizado de máquina pode ser eficientemente utilizada na avaliação automática de respostas curtas, incluindo respostas na Língua Portuguesa.
id UEL_a980c1601e6fca608ccb7ffe431fbd86
oai_identifier_str oai:repositorio.uel.br:123456789/17078
network_acronym_str UEL
network_name_str Repositório Institucional da UEL
repository_id_str
spelling Galhardi, Lucas BusattaAyrosa, Pedro Paulo da Silva69cfcd34-38f2-48da-a764-db9c2dc91d70-1Leal, Gislaine Camila Lapasinia1b36e89-d9fd-45cb-bfee-036c3201a193-1Souza, Rodrigo Clemente Thom de3ccf46a1-c4bc-4653-bcc8-34d6586797b1-12697a488-0ea7-4b81-a4e1-453c5d314457818a9b42-e087-4215-b8cf-65ddc17ac220Brancher, Jacques DuílioLondrina138 p.2024-07-24T19:38:39Z2024-07-24T19:38:39Z2019-03-29https://repositorio.uel.br/handle/123456789/17078Avaliações são rotineiramente utilizadas em contextos de aprendizado a fim de estimar o conhecimento retido pelos estudantes. Apesar de sua importância, professores geralmente consideram a tarefa de avaliar respostas discursivas como muito trabalhosa. As condições de trabalho do professor e a sua própria subjetividade podem influenciar nas suas avaliações, pois humanos estão sujeitos ao cansaço, à outras influências e a nota de um aluno pode depender até mesmo da ordem de correção. Esses problemas se apresentam de forma ainda mais intensa em ferramentas como Ambientes Virtuais de Aprendizagem e Cursos Onlines Abertos e Massivos, que recentemente aumentaram sua popularidade e são usados por muito mais estudantes de uma vez que salas de aula físicas. Visando auxiliar nesses problemas, essa dissertação explora a área de pesquisa da avaliação automática de respostas discursivas usando uma abordagem de aprendizado de máquina, com três principais objetivos: (1) realizar uma revisão sistemática da literatura sobre o assunto a fim de se obter uma visão geral do estado da arte e de suas principais técnicas; (2) coletar dados reais de exercícios discursivos escritos na Língua Portuguesa por estudantes; e (3) implementar, avaliar e comparar diferentes abordagens para o sistema de avaliação automática das respostas. Para o primeiro objetivo, 44 artigos foram sistematicamente revisados, analisando vários de seus aspectos, desde os dados utilizados até a avaliação do modelo. Para o segundo, foram coletadas 7473 respostas de 659 estudantes, além de 9558 avaliações feitas por 14 avaliadores humanos (algumas respostas receberam mais de uma avaliação). Para o último objetivo, seis abordagens diferentes foram experimentadas e um modelo final foi criado com a combinação das abordagens. A efetividade mostrada pelo modelo foi satisfatória, com os valores de kappa indicando uma concordância de moderada a substancial entre o modelo e a avaliação humana. Os resultados mostraram que uma abordagem de aprendizado de máquina pode ser eficientemente utilizada na avaliação automática de respostas curtas, incluindo respostas na Língua Portuguesa.Assessments are routinely used in learning environments in order to estimate a percentage of the retained knowledge from students. Despite its importance, teachers usually find the task of assessing lots of discursive answers very time-consuming. Teachers work’s conditions and their own human subjectivity have a great impact on grading, as humans make mistakes for some reasons like fatigue, bias or the simple ordering of student’s tests. These problems become more intense in tools like Virtual Learning Environments and Massive Open Online Courses that have recently improved their popularity and are used by way more students than physical classes. Aiming at assisting in those difficulties, this dissertation explores the Automatic Short Answer Grading (ASAG) field using a machine learning approach, with three main goals: (1) to perform a systematic review on the subject in order to get an overview of the state of the art and future trends; (2) collect real-world Portuguese ASAG data; and (3) build, evaluate and compare different approaches when automatically grading short answers. For the first goal, we systematically reviewed 44 papers using different techniques when tackling ASAG, analyzing many of their aspects, from the data to model evaluation. For the second, 7473 short answers were collected from 659 students and 9558 grades were gathered for the answers from 14 human evaluators (some answers had more than one grade). For the last goal, six different approaches were experimented and a final model was created with their combination. The model’s effectiveness showed to be satisfactory, with kappa scores indicating between moderate to substantial agreement between the model and human grading. Results showed that a machine learning approach can be efficiently used on short answers grading, even for the Portuguese language.engCiências Exatas e da Terra - Ciência da ComputaçãoAutomatic gradingShort answersMachine learningNatural language processingMachine learningNatural language processing (Computer science)Avaliação automáticaQuestões discursivasAprendizado de máquinaProcessamento de linguagem naturalAprendizado do computadorProcessamento da linguagem natural (Computação)Automatic grading of portuguese short answers using a machine learning approachAvaliação automática de questões discursivas em português usando uma abordagem de aprendizado de máquinainfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisCCE - Departamento de ComputaçãoPrograma de Pós-Graduação em Ciência da ComputaçãoUniversidade Estadual de Londrina - UEL-1-1reponame:Repositório Institucional da UELinstname:Universidade Estadual de Londrina (UEL)instacron:UELinfo:eu-repo/semantics/openAccessMestrado AcadêmicoCentro de Ciências ExatasLICENSElicense.txtlicense.txttext/plain; charset=utf-8555https://repositorio.uel.br/bitstreams/71104b99-ec18-4d0e-851d-f7cf935944ca/downloadb0875caec81dd1122312ab77c11250f1MD51ORIGINALCE_COM_Me_2019_Galhardi_Lucas_B.pdfCE_COM_Me_2019_Galhardi_Lucas_B.pdfTexto completo id 162682application/pdf2007294https://repositorio.uel.br/bitstreams/54f197e7-7b9d-4eac-81d9-ad6e7cf260a0/download894456a786ce475f3f4160b0674b07d9MD52CE_COM_Me_2019_Galhardi_Lucas_B_TERMO.pdfCE_COM_Me_2019_Galhardi_Lucas_B_TERMO.pdfTermo de autorizaçãoapplication/pdf259987https://repositorio.uel.br/bitstreams/83122dcc-ae22-4995-8c3f-3fc83751b4e0/download1973ce370123bbc8793a58feb7712069MD53TEXTCE_COM_Me_2019_Galhardi_Lucas_B.pdf.txtCE_COM_Me_2019_Galhardi_Lucas_B.pdf.txtExtracted texttext/plain287601https://repositorio.uel.br/bitstreams/d3446bec-a360-4b5d-baef-9168050299b2/download4523163e7351a4f4de8ebcf7d008931dMD54CE_COM_Me_2019_Galhardi_Lucas_B_TERMO.pdf.txtCE_COM_Me_2019_Galhardi_Lucas_B_TERMO.pdf.txtExtracted texttext/plain4https://repositorio.uel.br/bitstreams/10269219-6bf6-4fc5-a3ac-e6fa1f3e4d0e/downloadff4c8ff01d544500ea4bfea43e6108c1MD56THUMBNAILCE_COM_Me_2019_Galhardi_Lucas_B.pdf.jpgCE_COM_Me_2019_Galhardi_Lucas_B.pdf.jpgGenerated Thumbnailimage/jpeg3227https://repositorio.uel.br/bitstreams/174d6e3f-98e6-4141-adbc-cd3ea0937ad5/download6d5c698f8b1bee433fcf8e2e82e026c0MD55CE_COM_Me_2019_Galhardi_Lucas_B_TERMO.pdf.jpgCE_COM_Me_2019_Galhardi_Lucas_B_TERMO.pdf.jpgGenerated Thumbnailimage/jpeg4961https://repositorio.uel.br/bitstreams/73d6b481-770f-415a-9168-55da08b6e131/download1760c1704234bca01b19afa32cab0d79MD57123456789/170782024-07-25 03:06:38.72open.accessoai:repositorio.uel.br:123456789/17078https://repositorio.uel.brBiblioteca Digital de Teses e Dissertaçõeshttp://www.bibliotecadigital.uel.br/PUBhttp://www.bibliotecadigital.uel.br/OAI/oai2.phpbcuel@uel.br||opendoar:2024-07-25T06:06:38Repositório Institucional da UEL - Universidade Estadual de Londrina (UEL)falseQXV0b3Jpem8gYSBkaXZ1bGdhw6fDo28gbm8gUmVwb3NpdMOzcmlvIGRhIFVuaXZlcnNpZGFkZSBFc3RhZHVhbCBkZSBMb25kcmluYSAocmVwb3NpdG9yaW8udWVsLmJyKSwgZSBwZXJtaXRvIGEgcmVwcm9kdcOnw6NvIHRvdGFsIHBvciBtZWlvIGVsZXRyw7RuaWNvLCBzZW0gcmVzc2FyY2ltZW50byBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgZGEgT2JyYSwgYSBwYXJ0aXIgZGEgZGF0YSBpbmRpY2FkYSBubyBhcnF1aXZvIChiaXRzdHJlYW0pLCBvdSBhdMOpIHF1ZSBtYW5pZmVzdGHDp8OjbyBlbSBzZW50aWRvIGNvbnRyw6FyaW8gZGUgbWluaGEgcGFydGUgZGV0ZXJtaW5lIGEgY2Vzc2HDp8OjbyBkZXN0YSBhdXRvcml6YcOnw6NvLiBEZWNsYXJvLCB0YW1iw6ltLCBxdWUgbWUgcmVzcG9uc2FiaWxpem8gcGVsbyBjb250ZcO6ZG8gZGEgb2JyYSBvYmpldG8gZGVzdGEgYXV0b3JpemHDp8Ojbywgc2VuZG8gZGUgbWluaGEgcmVzcG9uc2FiaWxpZGFkZSBxdWFpc3F1ZXIgbWVkaWRhcyBqdWRpY2lhaXMgb3UgZXh0cmFqdWRpY2lhaXMgY29uY2VybmVudGVzIGFvIGNvbnRlw7pkby4K
dc.title.none.fl_str_mv Automatic grading of portuguese short answers using a machine learning approach
dc.title.alternative.none.fl_str_mv Avaliação automática de questões discursivas em português usando uma abordagem de aprendizado de máquina
title Automatic grading of portuguese short answers using a machine learning approach
spellingShingle Automatic grading of portuguese short answers using a machine learning approach
Galhardi, Lucas Busatta
Avaliação automática
Questões discursivas
Aprendizado de máquina
Processamento de linguagem natural
Aprendizado do computador
Processamento da linguagem natural (Computação)
Ciências Exatas e da Terra - Ciência da Computação
Automatic grading
Short answers
Machine learning
Natural language processing
Machine learning
Natural language processing (Computer science)
title_short Automatic grading of portuguese short answers using a machine learning approach
title_full Automatic grading of portuguese short answers using a machine learning approach
title_fullStr Automatic grading of portuguese short answers using a machine learning approach
title_full_unstemmed Automatic grading of portuguese short answers using a machine learning approach
title_sort Automatic grading of portuguese short answers using a machine learning approach
author Galhardi, Lucas Busatta
author_facet Galhardi, Lucas Busatta
author_role author
dc.contributor.banca.none.fl_str_mv Ayrosa, Pedro Paulo da Silva
Leal, Gislaine Camila Lapasini
dc.contributor.coadvisor.none.fl_str_mv Souza, Rodrigo Clemente Thom de
dc.contributor.author.fl_str_mv Galhardi, Lucas Busatta
dc.contributor.authorID.fl_str_mv 2697a488-0ea7-4b81-a4e1-453c5d314457
dc.contributor.advisor1ID.fl_str_mv 818a9b42-e087-4215-b8cf-65ddc17ac220
dc.contributor.advisor1.fl_str_mv Brancher, Jacques Duílio
contributor_str_mv Brancher, Jacques Duílio
dc.subject.por.fl_str_mv Avaliação automática
Questões discursivas
Aprendizado de máquina
Processamento de linguagem natural
Aprendizado do computador
Processamento da linguagem natural (Computação)
topic Avaliação automática
Questões discursivas
Aprendizado de máquina
Processamento de linguagem natural
Aprendizado do computador
Processamento da linguagem natural (Computação)
Ciências Exatas e da Terra - Ciência da Computação
Automatic grading
Short answers
Machine learning
Natural language processing
Machine learning
Natural language processing (Computer science)
dc.subject.capes.none.fl_str_mv Ciências Exatas e da Terra - Ciência da Computação
dc.subject.keywords.none.fl_str_mv Automatic grading
Short answers
Machine learning
Natural language processing
Machine learning
Natural language processing (Computer science)
description Avaliações são rotineiramente utilizadas em contextos de aprendizado a fim de estimar o conhecimento retido pelos estudantes. Apesar de sua importância, professores geralmente consideram a tarefa de avaliar respostas discursivas como muito trabalhosa. As condições de trabalho do professor e a sua própria subjetividade podem influenciar nas suas avaliações, pois humanos estão sujeitos ao cansaço, à outras influências e a nota de um aluno pode depender até mesmo da ordem de correção. Esses problemas se apresentam de forma ainda mais intensa em ferramentas como Ambientes Virtuais de Aprendizagem e Cursos Onlines Abertos e Massivos, que recentemente aumentaram sua popularidade e são usados por muito mais estudantes de uma vez que salas de aula físicas. Visando auxiliar nesses problemas, essa dissertação explora a área de pesquisa da avaliação automática de respostas discursivas usando uma abordagem de aprendizado de máquina, com três principais objetivos: (1) realizar uma revisão sistemática da literatura sobre o assunto a fim de se obter uma visão geral do estado da arte e de suas principais técnicas; (2) coletar dados reais de exercícios discursivos escritos na Língua Portuguesa por estudantes; e (3) implementar, avaliar e comparar diferentes abordagens para o sistema de avaliação automática das respostas. Para o primeiro objetivo, 44 artigos foram sistematicamente revisados, analisando vários de seus aspectos, desde os dados utilizados até a avaliação do modelo. Para o segundo, foram coletadas 7473 respostas de 659 estudantes, além de 9558 avaliações feitas por 14 avaliadores humanos (algumas respostas receberam mais de uma avaliação). Para o último objetivo, seis abordagens diferentes foram experimentadas e um modelo final foi criado com a combinação das abordagens. A efetividade mostrada pelo modelo foi satisfatória, com os valores de kappa indicando uma concordância de moderada a substancial entre o modelo e a avaliação humana. Os resultados mostraram que uma abordagem de aprendizado de máquina pode ser eficientemente utilizada na avaliação automática de respostas curtas, incluindo respostas na Língua Portuguesa.
publishDate 2019
dc.date.issued.fl_str_mv 2019-03-29
dc.date.accessioned.fl_str_mv 2024-07-24T19:38:39Z
dc.date.available.fl_str_mv 2024-07-24T19:38:39Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://repositorio.uel.br/handle/123456789/17078
url https://repositorio.uel.br/handle/123456789/17078
dc.language.iso.fl_str_mv eng
language eng
dc.relation.confidence.fl_str_mv -1
-1
dc.relation.departament.none.fl_str_mv CCE - Departamento de Computação
dc.relation.ppgname.none.fl_str_mv Programa de Pós-Graduação em Ciência da Computação
dc.relation.institutionname.none.fl_str_mv Universidade Estadual de Londrina - UEL
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.coverage.spatial.none.fl_str_mv Londrina
dc.coverage.extent.none.fl_str_mv 138 p.
dc.source.none.fl_str_mv reponame:Repositório Institucional da UEL
instname:Universidade Estadual de Londrina (UEL)
instacron:UEL
instname_str Universidade Estadual de Londrina (UEL)
instacron_str UEL
institution UEL
reponame_str Repositório Institucional da UEL
collection Repositório Institucional da UEL
bitstream.url.fl_str_mv https://repositorio.uel.br/bitstreams/71104b99-ec18-4d0e-851d-f7cf935944ca/download
https://repositorio.uel.br/bitstreams/54f197e7-7b9d-4eac-81d9-ad6e7cf260a0/download
https://repositorio.uel.br/bitstreams/83122dcc-ae22-4995-8c3f-3fc83751b4e0/download
https://repositorio.uel.br/bitstreams/d3446bec-a360-4b5d-baef-9168050299b2/download
https://repositorio.uel.br/bitstreams/10269219-6bf6-4fc5-a3ac-e6fa1f3e4d0e/download
https://repositorio.uel.br/bitstreams/174d6e3f-98e6-4141-adbc-cd3ea0937ad5/download
https://repositorio.uel.br/bitstreams/73d6b481-770f-415a-9168-55da08b6e131/download
bitstream.checksum.fl_str_mv b0875caec81dd1122312ab77c11250f1
894456a786ce475f3f4160b0674b07d9
1973ce370123bbc8793a58feb7712069
4523163e7351a4f4de8ebcf7d008931d
ff4c8ff01d544500ea4bfea43e6108c1
6d5c698f8b1bee433fcf8e2e82e026c0
1760c1704234bca01b19afa32cab0d79
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UEL - Universidade Estadual de Londrina (UEL)
repository.mail.fl_str_mv bcuel@uel.br||
_version_ 1856675793223024640