Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte

Detalhes bibliográficos
Ano de defesa: 2015
Autor(a) principal: Carla Caldeira Takahashi
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Minas Gerais
UFMG
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
ELM
SVM
Link de acesso: http://hdl.handle.net/1843/RAOA-BBSNWX
Resumo: The problems that can be solved through the machine learning approach also have influence on particularities of the implemented algorithms, they are divided in three large groups: regression, classification and clustering. This dissertation deals with pattern classification problems, which aim to create separating surfaces along the pattern space dividing it in regions according to the pattern classes. Classification problems are quite similar to clustering problems, however the latter does not have access to the expected class for each pattern, and therefore its methods use structural characteristics of the data distribution in the space. The margin maximization approach for machine learning problems is appropriated, since the capability of generalization of any classification method is related to its margin. Therefore, it is possible to assert that large margin classifiers are more robust when classifying unknown data. Among large margin classifiers methods, the support vectors machines, SVM, use a Lagrangian based algorithm to determine support vectors, which constructs a separating surface whose distance, or margin, to every class patterns is the largest as possible. The SVM use kernels with the purpose of mapping the input space into a feature space that allows the data separation, allowing not only the pattern classification but also the function regression. Nowadays the SVM are still one of the best and most used methods in the academia. Explicit mapping approach became popular recently with the proposal of the extreme learning machines, ELM. These machines have a rather simple implementation that allows the creation of a classifier that uses only analytical calculations, discarding any iterations. The ELM uses a random explicit mapping of the input space into a feature space of higher dimensionality, allowing the linear separability of the data in the mapped space. For the ELM, the mapping is construed as the hidden layer of a feedforward neural network whose weights are assigned randomly, and the single parameter to be tuned in it is the quantity of neurons. The output layer, in the ELM, has its weights tuned according to an analytical calculation, which makes this method simple, fast and very elegant. The explicit mapping can also be interpreted as a complex kernel, whose parameters are only the mapping dimension and the variance of the random distribution that generated the weights. Since the number of neurons, in other words the mapping dimension, is not sensible by the methods performance, when it is big enough, and the variance has no effect either, this method can be considered non parametrical. The need of using large margin methods is widely accepted, hence it is possible to improve SVMs by using non parametric kernels. Thus the classifier becomes simpler to be implemented and used, since it is exempt of using a complicated methodology for a fine parameter tuning. With this motivation it was implemented a method that uses explicit mapping as kernel, therefore the great dimensionality of the feature space allows the linear separability of the data at the same time that the margin is maximized. Meanwhile, the use of the non-parametric explicit mapping and a linear support vectors machine allows a virtually non-parametric at all
id UFMG_b00def05b1174fc5c997fbac395b4d5d
oai_identifier_str oai:repositorio.ufmg.br:1843/RAOA-BBSNWX
network_acronym_str UFMG
network_name_str Repositório Institucional da UFMG
repository_id_str
spelling Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporteELMSVMKernelMapeamento explícitoMáquinasEngenharia elétricaKernel, Funções deThe problems that can be solved through the machine learning approach also have influence on particularities of the implemented algorithms, they are divided in three large groups: regression, classification and clustering. This dissertation deals with pattern classification problems, which aim to create separating surfaces along the pattern space dividing it in regions according to the pattern classes. Classification problems are quite similar to clustering problems, however the latter does not have access to the expected class for each pattern, and therefore its methods use structural characteristics of the data distribution in the space. The margin maximization approach for machine learning problems is appropriated, since the capability of generalization of any classification method is related to its margin. Therefore, it is possible to assert that large margin classifiers are more robust when classifying unknown data. Among large margin classifiers methods, the support vectors machines, SVM, use a Lagrangian based algorithm to determine support vectors, which constructs a separating surface whose distance, or margin, to every class patterns is the largest as possible. The SVM use kernels with the purpose of mapping the input space into a feature space that allows the data separation, allowing not only the pattern classification but also the function regression. Nowadays the SVM are still one of the best and most used methods in the academia. Explicit mapping approach became popular recently with the proposal of the extreme learning machines, ELM. These machines have a rather simple implementation that allows the creation of a classifier that uses only analytical calculations, discarding any iterations. The ELM uses a random explicit mapping of the input space into a feature space of higher dimensionality, allowing the linear separability of the data in the mapped space. For the ELM, the mapping is construed as the hidden layer of a feedforward neural network whose weights are assigned randomly, and the single parameter to be tuned in it is the quantity of neurons. The output layer, in the ELM, has its weights tuned according to an analytical calculation, which makes this method simple, fast and very elegant. The explicit mapping can also be interpreted as a complex kernel, whose parameters are only the mapping dimension and the variance of the random distribution that generated the weights. Since the number of neurons, in other words the mapping dimension, is not sensible by the methods performance, when it is big enough, and the variance has no effect either, this method can be considered non parametrical. The need of using large margin methods is widely accepted, hence it is possible to improve SVMs by using non parametric kernels. Thus the classifier becomes simpler to be implemented and used, since it is exempt of using a complicated methodology for a fine parameter tuning. With this motivation it was implemented a method that uses explicit mapping as kernel, therefore the great dimensionality of the feature space allows the linear separability of the data at the same time that the margin is maximized. Meanwhile, the use of the non-parametric explicit mapping and a linear support vectors machine allows a virtually non-parametric at allOs problemas que podem ser resolvidos por métodos de aprendizado de máquina também têm influência sobre os algoritmos implementados, eles são divididos em três grandes categorias: a regressão, a classificação e o agrupamento. O problema abordado ao longo desta dissertação é a classificação de padrões, que tem como objetivo criar superfícies de separações no espaço para o dividir em regiões de acordo com as classes dos padrões. A classificação é bastante parecida com o agrupamento, mas este não tem acesso à classe esperada para cada padrão, o que faz com que estes métodos estejam mais relacionados à distribuição dos dados no espaço. A maximização de margem é uma abordagem para problemas de aprendizado de máquina bastante apropriada uma vez que a capacidade de generalização de um método qualquer está relacionada a sua margem. Dessa forma é possível constatar que classificadores de margem larga são mais robustos quando devem determinar a classe de dados desconhecidos. Dentre os métodos de maximização de margem, as máquinas de vetores de suporte ou SVMs, utilizam o algoritmo de otimização baseados em Lagrangiano para determinar vetores de suporte, os quais constroem uma superfície de separação cuja distância, ou margem, seja o mais distante possível dos padrões de todas as classes. As SVMs utilizam kernels que tem como finalidade a projeção de dados de entrada em um espaço que permita a separação dos dados, possibilitando, assim, não só a sua classificação como também a regressão de funções. Atualmente as SVMs ainda são um dos métodos melhores e mais utilizados métodos na literatura. O Mapeamento Explícito, por sua vez, é uma abordagem mais recente que se tornou popular com o desenvolvimento das Máquinas de Aprendizado Extremo, as ELM. Estas máquinas possuem a implementação bem simples que permitem a criação de um classificador utilizando apenas cálculos analíticos e não iterativos. A ELM utiliza um mapeamento explícito aleatório para projetar o espaço de entrada em um espaço de características de maior dimensionalidade, o que possibilita a separação linear dos dados neste espaço projetado. Nas ELM o mapeamento é compreendido como a camada intermediária de uma rede neural cujos pesos foram atribuídos aleatoriamente, e o único parâmetro de ajuste é a quantidade de neurônios. A camada de saída da ELM pode ser ajustada de forma analítica, o que torna o método simples, rápido e elegante. No entanto, o mapeamento explícito pode, também, ser interpretado como um kernel complexo, cujos parâmetros são, somente, a dimensão do mapeamento e a variância da distribuição que gerou os pesos. Como a quantidade de neurônios, ou seja, a dimensão do mapeamento, se torna insensível para a desempenho do classificador, quando ela é grande o suficiente, e a variância da função geradora dos pesos também não apresenta efeito algum, então este método pode ser considerado não paramétrico. É amplamente aceita a necessidade de se utilizar métodos que promovam a maximização de margem, uma forma possível de se aperfeiçoar a SVM é o emprego de kernels não paramétricos. Com isso o método se torna mais simples de ser implementado e empregado, já que dispensa uma longa metodologia para o ajuste apropriado dos parâmetros. Com esta motivação foi implementado um método que utiliza o mapeamento explícito como kernel, assim a grande dimensionalidade do espaço de características permite a separação linear dos dados ao mesmo tempo que é promovida a maximização da margem de classificação. Ao mesmo tempo, a utilização de uma máquina linear juntamente com o mapeamento que não requer o ajuste de qualquer parâmetroUniversidade Federal de Minas GeraisUFMGAntonio de Padua BragaMarcelo CardosoMarcelo Azevedo CostaCarla Caldeira Takahashi2019-08-13T16:20:04Z2019-08-13T16:20:04Z2015-02-12info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/1843/RAOA-BBSNWXinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMG2019-11-14T18:06:38Zoai:repositorio.ufmg.br:1843/RAOA-BBSNWXRepositório InstitucionalPUBhttps://repositorio.ufmg.br/oairepositorio@ufmg.bropendoar:2019-11-14T18:06:38Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
dc.title.none.fl_str_mv Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
title Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
spellingShingle Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
Carla Caldeira Takahashi
ELM
SVM
Kernel
Mapeamento explícito
Máquinas
Engenharia elétrica
Kernel, Funções de
title_short Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
title_full Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
title_fullStr Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
title_full_unstemmed Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
title_sort Mapeamento explícito como Kernel em aprendizado de máquinas de vetores de suporte
author Carla Caldeira Takahashi
author_facet Carla Caldeira Takahashi
author_role author
dc.contributor.none.fl_str_mv Antonio de Padua Braga
Marcelo Cardoso
Marcelo Azevedo Costa
dc.contributor.author.fl_str_mv Carla Caldeira Takahashi
dc.subject.por.fl_str_mv ELM
SVM
Kernel
Mapeamento explícito
Máquinas
Engenharia elétrica
Kernel, Funções de
topic ELM
SVM
Kernel
Mapeamento explícito
Máquinas
Engenharia elétrica
Kernel, Funções de
description The problems that can be solved through the machine learning approach also have influence on particularities of the implemented algorithms, they are divided in three large groups: regression, classification and clustering. This dissertation deals with pattern classification problems, which aim to create separating surfaces along the pattern space dividing it in regions according to the pattern classes. Classification problems are quite similar to clustering problems, however the latter does not have access to the expected class for each pattern, and therefore its methods use structural characteristics of the data distribution in the space. The margin maximization approach for machine learning problems is appropriated, since the capability of generalization of any classification method is related to its margin. Therefore, it is possible to assert that large margin classifiers are more robust when classifying unknown data. Among large margin classifiers methods, the support vectors machines, SVM, use a Lagrangian based algorithm to determine support vectors, which constructs a separating surface whose distance, or margin, to every class patterns is the largest as possible. The SVM use kernels with the purpose of mapping the input space into a feature space that allows the data separation, allowing not only the pattern classification but also the function regression. Nowadays the SVM are still one of the best and most used methods in the academia. Explicit mapping approach became popular recently with the proposal of the extreme learning machines, ELM. These machines have a rather simple implementation that allows the creation of a classifier that uses only analytical calculations, discarding any iterations. The ELM uses a random explicit mapping of the input space into a feature space of higher dimensionality, allowing the linear separability of the data in the mapped space. For the ELM, the mapping is construed as the hidden layer of a feedforward neural network whose weights are assigned randomly, and the single parameter to be tuned in it is the quantity of neurons. The output layer, in the ELM, has its weights tuned according to an analytical calculation, which makes this method simple, fast and very elegant. The explicit mapping can also be interpreted as a complex kernel, whose parameters are only the mapping dimension and the variance of the random distribution that generated the weights. Since the number of neurons, in other words the mapping dimension, is not sensible by the methods performance, when it is big enough, and the variance has no effect either, this method can be considered non parametrical. The need of using large margin methods is widely accepted, hence it is possible to improve SVMs by using non parametric kernels. Thus the classifier becomes simpler to be implemented and used, since it is exempt of using a complicated methodology for a fine parameter tuning. With this motivation it was implemented a method that uses explicit mapping as kernel, therefore the great dimensionality of the feature space allows the linear separability of the data at the same time that the margin is maximized. Meanwhile, the use of the non-parametric explicit mapping and a linear support vectors machine allows a virtually non-parametric at all
publishDate 2015
dc.date.none.fl_str_mv 2015-02-12
2019-08-13T16:20:04Z
2019-08-13T16:20:04Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/1843/RAOA-BBSNWX
url http://hdl.handle.net/1843/RAOA-BBSNWX
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de Minas Gerais
UFMG
publisher.none.fl_str_mv Universidade Federal de Minas Gerais
UFMG
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFMG
instname:Universidade Federal de Minas Gerais (UFMG)
instacron:UFMG
instname_str Universidade Federal de Minas Gerais (UFMG)
instacron_str UFMG
institution UFMG
reponame_str Repositório Institucional da UFMG
collection Repositório Institucional da UFMG
repository.name.fl_str_mv Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)
repository.mail.fl_str_mv repositorio@ufmg.br
_version_ 1835272836660330496