Please use this identifier to cite or link to this item: https://repositorio.ufjf.br/jspui/handle/ufjf/4789
Files in This Item:
File Description SizeFormat 
robertocarlossoaresnalonpereirasouza.pdf1.32 MBAdobe PDFThumbnail
View/Open
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Fonseca Neto, Raul-
dc.contributor.advisor1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4786482Y2pt_BR
dc.contributor.advisor-co1Leite, Saul de Castro-
dc.contributor.advisor-co1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4758014Z7pt_BR
dc.contributor.advisor-co2Arbex, Wagner Antônio-
dc.contributor.advisor-co2Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4782640E7pt_BR
dc.contributor.referee1Borges, Carlos Cristiano Hasenclever-
dc.contributor.referee1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4728257U5pt_BR
dc.contributor.referee2Meira Junior, Wagner-
dc.contributor.referee2Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4798498T5pt_BR
dc.creatorSouza, Roberto Carlos Soares Nalon Pereira-
dc.creator.Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4465916Y6pt_BR
dc.date.accessioned2017-06-01T11:51:04Z-
dc.date.available2017-05-30-
dc.date.available2017-06-01T11:51:04Z-
dc.date.issued2013-02-21-
dc.identifier.urihttps://repositorio.ufjf.br/jspui/handle/ufjf/4789-
dc.description.abstractIn this work, we introduce a new formulation for orthogonal regression. The problem is defined as minimization of the empirical risk with respect to a tube loss function de veloped for orthogonal regression, named ρ-insensitive. The method is constructed via an stochastic gradient descent approach. The algorithm can be used in primal or in dual variables. The latter formulation allows the introduction of kernels and soft margins. To the best of our knowledge, this is the first method that allows the introduction of kernels via the so-called “kernel-trick” for orthogonal regression. Also, we present an algorithm to solve the classical regression problem using the ε-insensitive loss function. A conver gence proof that guarantees a finite number of updates is presented for this algorithm. In addition, an incremental strategy algorithm is introduced, which can be used to find sparse solutions and also an approximation to the “minimal tube” containing the data. Numerical experiments are shown and the results compared with other methods.pt_BR
dc.description.resumoNeste trabalho apresenta-se uma nova formulação para regressão ortogonal. O problema é definido como a minimização do risco empírico em relação a uma função de perda com tubo desenvolvida para regressão ortogonal, chamada ρ-insensível. Um algoritmo para resolver esse problema é proposto, baseado na abordagem da descida do gradiente estocástica. Quando formulado em variáveis duais o método permite a introdução de funções kernel e flexibilidade do tubo. Até onde se sabe, este é o primeiro método que permite a introdução de kernels, através do chamado “kernel-trick”, para regressão ortogonal. Apresenta-se ainda um algoritmo para regressão clássica que usa a função de perda ε-insensível e segue também a abordagem da descida do gradiente. Para esse algo ritmo apresenta-se uma prova de convergência que garante um número finito de correções. Finalmente, introduz-se uma estratégia incremental que pode ser usada acoplada com ambos os algoritmos para obter soluções esparsas e também uma aproximação para o “tubo mínimo”que contém os dados. Experimentos numéricos são apresentados e os resultados comparados a outros métodos da literatura.pt_BR
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorpt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICE – Instituto de Ciências Exataspt_BR
dc.publisher.programPrograma de Pós-graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFJFpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectRegressão ortogonalpt_BR
dc.subjectMétodos Kernelpt_BR
dc.subjectAlgoritmos onlinept_BR
dc.subjectMáquinas de vetores suportept_BR
dc.subjectOrthogonal Regressionpt_BR
dc.subjectKernel Methodspt_BR
dc.subjectOnline Algorithmspt_BR
dc.subjectSupport Vector Machinespt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
dc.titleAlgoritmos online baseados em vetores suporte para regressão clássica e ortogonalpt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Mestrado em Ciência da Computação (Dissertações)



Items in DSpace are protected by Creative Commons licenses, with all rights reserved, unless otherwise indicated.