Please use this identifier to cite or link to this item: https://repositorio.ufjf.br/jspui/handle/ufjf/4785
Files in This Item:
File Description SizeFormat 
anamaradeoliveirafigueiredo.pdf5.07 MBAdobe PDFThumbnail
View/Open
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Vieira, Marcelo Bernardes-
dc.contributor.advisor1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4763472P6pt_BR
dc.contributor.advisor-co1Silva, Rodrigo Luis de Souza da-
dc.contributor.advisor-co1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4769102Z1pt_BR
dc.contributor.referee1Machado, Alex Fernandes da Veiga-
dc.contributor.referee1Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4269492D5pt_BR
dc.contributor.referee2Fonseca Neto, Raul-
dc.contributor.referee2Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4786482Y2pt_BR
dc.creatorFigueiredo, Ana Mara de Oliveira-
dc.creator.Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4973890Y7pt_BR
dc.date.accessioned2017-06-01T11:48:59Z-
dc.date.available2017-05-30-
dc.date.available2017-06-01T11:48:59Z-
dc.date.issued2015-09-10-
dc.identifier.urihttps://repositorio.ufjf.br/jspui/handle/ufjf/4785-
dc.description.abstractHuman action recognition is a challenging problem in Computer Vision which has many potential applications. In order to describe the main movement of the video a new motion descriptor is proposed in this work. We combine two methods for estimating the motion between frames: block matching and brightness gradient of image. In this work we use a variable size block matching algorithm to extract displacement vectors as a motion information. The cross product between the block matching vector and the gra dient is used to obtain the displacement vectors. These vectors are computed in a frame sequence, obtaining the block trajectory which contains the temporal information. The block matching vectors are also used to cluster the sparse trajectories according to their shape. The proposed method computes this information to obtain orientation tensors and to generate the final descriptor. It is called self-descriptor because it depends only on the input video. The global tensor descriptor is evaluated by classification of KTH, UCF11 and Hollywood2 video datasets with a non-linear SVM classifier. Results indicate that our sparse trajectories method is competitive in comparison to the well known dense tra jectories approach, using orientation tensors, besides requiring less computational effort.pt_BR
dc.description.resumoO reconhecimento de ações humanas é um problema desafiador em visão computacional que tem potenciais áreas de aplicações. Para descrever o principal movimento do vídeo um novo descritor de movimento é proposto neste trabalho. Este trabalho combina dois métodos para estimar o movimento entre as imagens: casamento de blocos e de gradiente de intensidade de brilho da imagem. Neste trabalho usa-se um algoritmo de casamento de blocos de tamanho variável para extrair vetores de deslocamento, os quais contém a informação de movimento. Estes vetores são computados em uma sequência de frames obtendo a trajetória do bloco, que possui a informação temporal. Os vetores obtidos através do casamento de blocos são usados para clusterizar as trajetórias esparsas de acordo com a forma. O método proposto computa essa informação para obter tensores de orientação e gerar o descritor final. Este descritor é chamado de autodescritor porque depende apenas do vídeo de entrada. O tensor usado como descritor global é avaliado através da classificação dos vídeos das bases de dados KTH, UCF11 e Hollywood2 com o classificador não linear SVM. Os resultados indicam que este método de trajetórias esparsas é competitivo comparado ao já conhecido método de trajetórias densas, usando tensores de orientação, além de requerer menos esforço computacional.pt_BR
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorpt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICE – Instituto de Ciências Exataspt_BR
dc.publisher.programPrograma de Pós-graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFJFpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectCasamento de blocospt_BR
dc.subjectReconhecimento de ações humanaspt_BR
dc.subjectAutodescritorpt_BR
dc.subjectTrajetórias esparsas e densaspt_BR
dc.subjectClusterização de trajetóriaspt_BR
dc.subjectBlock Matchingpt_BR
dc.subjectHuman action recognitionpt_BR
dc.subjectSelf-descriptorpt_BR
dc.subjectSparse and dense trajectoriespt_BR
dc.subjectTrajectory clusteringpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
dc.titleA video self-descriptor based on sparse trajectory clusteringpt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Mestrado em Ciência da Computação (Dissertações)



Items in DSpace are protected by Creative Commons licenses, with all rights reserved, unless otherwise indicated.