Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 

Detalhes bibliográficos
Ano de defesa: 2021
Autor(a) principal: Serras, Felipe Ribas
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Biblioteca Digitais de Teses e Dissertações da USP
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.teses.usp.br/teses/disponiveis/45/45134/tde-07062021-135753/
Resumo: No Brasil e em vários outros países, decisões de tribunais superiores criam jurisprudência e podem ser utilizadas na resolução de casos semelhantes. Os acórdãos, textos que registram tais decisões, contam com uma classificação multicategoria e multirrótulo chamada de verbetação, realizada manualmente com a intenção de que tais documentos possam ser facilmente buscados e recuperados. A literatura da área já identificou vários problemas na elaboração dessas verbetações; concomitantemente, algoritmos neurais de linguística computacional baseados em atenção, como o Transformer e o BERT, têm ganhado destaque ao permitir que a resolução automática de problemas linguísticos atinja patamares nunca antes alcançados, lançando questões sobre seus limites, potencial e aplicabilidade. O trabalho de pesquisa aqui apresentado consiste num estudo inicial do uso de algoritmos baseados em atenção para a automação da verbetação de acórdãos em português, com o intuito de lançar caminhos para a resolução dos problemas listados na literatura e de agregar conhecimento do escopo e funcionalidade dessa família de métodos. Para tal, utilizamos dados do Projeto Kollemata como base para implementar e treinar versões multicategoria e multirrótulo de diversos modelos BERT, com o intuito de realizar a verbetação de acórdãos de maneira automática. Esse processo constituiu-se de três etapas: a construção de um córpus processável a partir dos dados do Kollemata e a consequente análise exploratória desse córpus com o intuito de mapear as propriedades dos dados a serem utilizados; a adequação ontológica e taxonômica do sistema de classes do córpus com base nos resultados obtidos dessa análise, de maneira a tornar a classificação computacionalmente viável; a implementação de uma versão multicategoria e multirrótulo do BERT e seu treinamento com o córpus adequado, sob diversos parâmetros e usando diferentes modelos BERT de interesse, de maneira a avaliar o comportamento e limites das médias da Medida-F1 e outros índices de performance. Obtivemos, no melhor caso, 72% para a micro-média da medida-F1 e 71% para sua macro-média, constituindo ganhos da ordem de 30% ou mais em relação aos baselines estatísticos utilizados. Além disso, encontramos uma família ótima de parâmetros para essa tarefa, condizente com valores ótimos obtidos para tarefas distintas e observamos uma série de propriedades interessantes da evolução das métricas de performance em função de diferentes parâmetros. Registramos, também, melhor performance dos modelos maiores e pré-treinados com dados em português, em comparação com modelos menores e multilinguais. Entretanto, essa vantagem é pequena, o que indica a possibilidade da utilização de modelos menores e multilinguais para essa tarefa em específico, sem perda significativa de qualidade. Uma análise cuidadosa desse e de outros resultados auxiliares aqui apresentados, também nos levou a concluir que a principal barreira na obtenção de melhores resultados de performance é a forma como os dados foram classificados e organizados, indicando esse como principal aspecto de melhora a ser implementado em trabalhos futuros.
id USP_84c1ba6bb7ce48d435bd3744a1837870
oai_identifier_str oai:teses.usp.br:tde-07062021-135753
network_acronym_str USP
network_name_str Biblioteca Digital de Teses e Dissertações da USP
repository_id_str
spelling Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos Using neural attention-based algorithms to automate court decisions multilabel classification.AcórdãosAplicações legais da ciência da computaçãoArtificial intelligenceAttention mechanismsAutomatic text categorizationBERTBERTClassificação automática de textosClassificação de textos jurídicosComputational linguisticsCourt decisionsInteligência artificialLegal applications of computer scienceLegal texts categorizationLinguística computacionalMecanismos de atençãoNatural language processingNeural networksProcessamento de linguagem naturalRedes neuraisTransformersTransformersVerbetaçãoNo Brasil e em vários outros países, decisões de tribunais superiores criam jurisprudência e podem ser utilizadas na resolução de casos semelhantes. Os acórdãos, textos que registram tais decisões, contam com uma classificação multicategoria e multirrótulo chamada de verbetação, realizada manualmente com a intenção de que tais documentos possam ser facilmente buscados e recuperados. A literatura da área já identificou vários problemas na elaboração dessas verbetações; concomitantemente, algoritmos neurais de linguística computacional baseados em atenção, como o Transformer e o BERT, têm ganhado destaque ao permitir que a resolução automática de problemas linguísticos atinja patamares nunca antes alcançados, lançando questões sobre seus limites, potencial e aplicabilidade. O trabalho de pesquisa aqui apresentado consiste num estudo inicial do uso de algoritmos baseados em atenção para a automação da verbetação de acórdãos em português, com o intuito de lançar caminhos para a resolução dos problemas listados na literatura e de agregar conhecimento do escopo e funcionalidade dessa família de métodos. Para tal, utilizamos dados do Projeto Kollemata como base para implementar e treinar versões multicategoria e multirrótulo de diversos modelos BERT, com o intuito de realizar a verbetação de acórdãos de maneira automática. Esse processo constituiu-se de três etapas: a construção de um córpus processável a partir dos dados do Kollemata e a consequente análise exploratória desse córpus com o intuito de mapear as propriedades dos dados a serem utilizados; a adequação ontológica e taxonômica do sistema de classes do córpus com base nos resultados obtidos dessa análise, de maneira a tornar a classificação computacionalmente viável; a implementação de uma versão multicategoria e multirrótulo do BERT e seu treinamento com o córpus adequado, sob diversos parâmetros e usando diferentes modelos BERT de interesse, de maneira a avaliar o comportamento e limites das médias da Medida-F1 e outros índices de performance. Obtivemos, no melhor caso, 72% para a micro-média da medida-F1 e 71% para sua macro-média, constituindo ganhos da ordem de 30% ou mais em relação aos baselines estatísticos utilizados. Além disso, encontramos uma família ótima de parâmetros para essa tarefa, condizente com valores ótimos obtidos para tarefas distintas e observamos uma série de propriedades interessantes da evolução das métricas de performance em função de diferentes parâmetros. Registramos, também, melhor performance dos modelos maiores e pré-treinados com dados em português, em comparação com modelos menores e multilinguais. Entretanto, essa vantagem é pequena, o que indica a possibilidade da utilização de modelos menores e multilinguais para essa tarefa em específico, sem perda significativa de qualidade. Uma análise cuidadosa desse e de outros resultados auxiliares aqui apresentados, também nos levou a concluir que a principal barreira na obtenção de melhores resultados de performance é a forma como os dados foram classificados e organizados, indicando esse como principal aspecto de melhora a ser implementado em trabalhos futuros.In Brazil and several other countries, higher court rulings create precedence and can be used to solve similar cases. The court decisions are recorded in documents that have a multiclass and multi-label classification called \"verbetação\", which is performed manually so that such documents can be easily retrieved in cases of interest. The literature in the field has already identified several problems in these classifications; at the same time, attention-based neural algorithms, such as Transformer and BERT, have gained prominence by allowing Computational Linguistics problem solving to reach levels never achieved before, bringing out questions about their potential, applicability, and limits. The objective of this research work was to carry out an initial study of the use of attention-based algorithms for the automation of court decision classification and to further improve the understanding of the scope and functionality of this family of methods. To this end, we used data from Kollemata Project to implement and train multi-label and multiclass versions of different BERT models, aiming to perform the classification of judicial decisions automatically. This process consisted of three stages: building a processable córpus from the Kollemata dataset, and the consequent exploratory analysis of this corpus, mapping the properties of the data; ontologically adequating the córpus system of classes, making it computationally viable for classification purposes; implementing a multiclass and multi-label version of BERT and training different BERT models with the adapted córpus, under different parameters, aiming to evaluate the behavior and limits of the micro-averaged and macro-averaged F1-Measure, as well as of other performance metrics. We obtained, in the best case, 72% for micro-averaged F1 and 71% for macro-averaged F1, corresponding to gains of 30% or more over the tested statistical baselines. Besides that, we found an optimal set of parameters to this task, consistent with optimal values obtained for other tasks, and observed different interesting properties about the evolution of the studied metrics with different tested parameters. We also registered higher performances for bigger and Portuguese-based models, in contrast with the multilingual and smaller ones, however, this advantage is small, which corroborates the use of smaller and multilingual models for this specific task. A detailed analysis of this and other auxiliary results, also presented in this work, revealed that the main obstacle in improving these performance metrics is the form that the training data was originally organized and classified, indicating this as the main aspect to be studied and improved in subsequent works.Biblioteca Digitais de Teses e Dissertações da USPFinger, MarceloSerras, Felipe Ribas2021-05-04info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/45/45134/tde-07062021-135753/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2021-06-15T01:06:02Zoai:teses.usp.br:tde-07062021-135753Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212021-06-15T01:06:02Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false
dc.title.none.fl_str_mv Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
Using neural attention-based algorithms to automate court decisions multilabel classification.
title Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
spellingShingle Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
Serras, Felipe Ribas
Acórdãos
Aplicações legais da ciência da computação
Artificial intelligence
Attention mechanisms
Automatic text categorization
BERT
BERT
Classificação automática de textos
Classificação de textos jurídicos
Computational linguistics
Court decisions
Inteligência artificial
Legal applications of computer science
Legal texts categorization
Linguística computacional
Mecanismos de atenção
Natural language processing
Neural networks
Processamento de linguagem natural
Redes neurais
Transformers
Transformers
Verbetação
title_short Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
title_full Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
title_fullStr Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
title_full_unstemmed Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
title_sort Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos 
author Serras, Felipe Ribas
author_facet Serras, Felipe Ribas
author_role author
dc.contributor.none.fl_str_mv Finger, Marcelo
dc.contributor.author.fl_str_mv Serras, Felipe Ribas
dc.subject.por.fl_str_mv Acórdãos
Aplicações legais da ciência da computação
Artificial intelligence
Attention mechanisms
Automatic text categorization
BERT
BERT
Classificação automática de textos
Classificação de textos jurídicos
Computational linguistics
Court decisions
Inteligência artificial
Legal applications of computer science
Legal texts categorization
Linguística computacional
Mecanismos de atenção
Natural language processing
Neural networks
Processamento de linguagem natural
Redes neurais
Transformers
Transformers
Verbetação
topic Acórdãos
Aplicações legais da ciência da computação
Artificial intelligence
Attention mechanisms
Automatic text categorization
BERT
BERT
Classificação automática de textos
Classificação de textos jurídicos
Computational linguistics
Court decisions
Inteligência artificial
Legal applications of computer science
Legal texts categorization
Linguística computacional
Mecanismos de atenção
Natural language processing
Neural networks
Processamento de linguagem natural
Redes neurais
Transformers
Transformers
Verbetação
description No Brasil e em vários outros países, decisões de tribunais superiores criam jurisprudência e podem ser utilizadas na resolução de casos semelhantes. Os acórdãos, textos que registram tais decisões, contam com uma classificação multicategoria e multirrótulo chamada de verbetação, realizada manualmente com a intenção de que tais documentos possam ser facilmente buscados e recuperados. A literatura da área já identificou vários problemas na elaboração dessas verbetações; concomitantemente, algoritmos neurais de linguística computacional baseados em atenção, como o Transformer e o BERT, têm ganhado destaque ao permitir que a resolução automática de problemas linguísticos atinja patamares nunca antes alcançados, lançando questões sobre seus limites, potencial e aplicabilidade. O trabalho de pesquisa aqui apresentado consiste num estudo inicial do uso de algoritmos baseados em atenção para a automação da verbetação de acórdãos em português, com o intuito de lançar caminhos para a resolução dos problemas listados na literatura e de agregar conhecimento do escopo e funcionalidade dessa família de métodos. Para tal, utilizamos dados do Projeto Kollemata como base para implementar e treinar versões multicategoria e multirrótulo de diversos modelos BERT, com o intuito de realizar a verbetação de acórdãos de maneira automática. Esse processo constituiu-se de três etapas: a construção de um córpus processável a partir dos dados do Kollemata e a consequente análise exploratória desse córpus com o intuito de mapear as propriedades dos dados a serem utilizados; a adequação ontológica e taxonômica do sistema de classes do córpus com base nos resultados obtidos dessa análise, de maneira a tornar a classificação computacionalmente viável; a implementação de uma versão multicategoria e multirrótulo do BERT e seu treinamento com o córpus adequado, sob diversos parâmetros e usando diferentes modelos BERT de interesse, de maneira a avaliar o comportamento e limites das médias da Medida-F1 e outros índices de performance. Obtivemos, no melhor caso, 72% para a micro-média da medida-F1 e 71% para sua macro-média, constituindo ganhos da ordem de 30% ou mais em relação aos baselines estatísticos utilizados. Além disso, encontramos uma família ótima de parâmetros para essa tarefa, condizente com valores ótimos obtidos para tarefas distintas e observamos uma série de propriedades interessantes da evolução das métricas de performance em função de diferentes parâmetros. Registramos, também, melhor performance dos modelos maiores e pré-treinados com dados em português, em comparação com modelos menores e multilinguais. Entretanto, essa vantagem é pequena, o que indica a possibilidade da utilização de modelos menores e multilinguais para essa tarefa em específico, sem perda significativa de qualidade. Uma análise cuidadosa desse e de outros resultados auxiliares aqui apresentados, também nos levou a concluir que a principal barreira na obtenção de melhores resultados de performance é a forma como os dados foram classificados e organizados, indicando esse como principal aspecto de melhora a ser implementado em trabalhos futuros.
publishDate 2021
dc.date.none.fl_str_mv 2021-05-04
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.teses.usp.br/teses/disponiveis/45/45134/tde-07062021-135753/
url https://www.teses.usp.br/teses/disponiveis/45/45134/tde-07062021-135753/
dc.language.iso.fl_str_mv por
language por
dc.relation.none.fl_str_mv
dc.rights.driver.fl_str_mv Liberar o conteúdo para acesso público.
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Liberar o conteúdo para acesso público.
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.coverage.none.fl_str_mv
dc.publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
dc.source.none.fl_str_mv
reponame:Biblioteca Digital de Teses e Dissertações da USP
instname:Universidade de São Paulo (USP)
instacron:USP
instname_str Universidade de São Paulo (USP)
instacron_str USP
institution USP
reponame_str Biblioteca Digital de Teses e Dissertações da USP
collection Biblioteca Digital de Teses e Dissertações da USP
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)
repository.mail.fl_str_mv virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br
_version_ 1815257961232072704