https://repositorio.ufjf.br/jspui/handle/ufjf/10307
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
hemersonaparecidodacostatacon.pdf | 5.07 MB | Adobe PDF | Visualizar/Abrir |
Clase: | Dissertação |
Título : | Data augmentation of visual rhythms using symmetric extension for deep learning video based human action recognition |
Autor(es): | Tacon, Hemerson Aparecido da Costa |
Orientador: | Vieira, Marcelo Bernardes |
Miembros Examinadores: | Villela, Saulo Moraes |
Miembros Examinadores: | Pedrini, Hélio |
Resumo: | Nos últimos anos, avanços significativos foram alcançados no problema de classificação de imagens devido ao aprimoramentos dos modelos de Aprendizagem Profunda. Entretanto, no que diz respeito ao Reconhecimento de Ações Humanas, ainda existe muito espaço para melhorias. Uma forma de melhorar o desempenho de tais modelos é através do aumento de dados. Dessa forma propomos, como aumento de dados, o uso de múltiplos recortes do Ritmo Visual, simetricamente estendidos no tempo e separados por uma distância fixa. Propomos ainda utilizar uma nova forma de extração do Ritmo Visual, o Ritmo Visual Ponderado. Este método propõe reforçar os padrões de movimento pesando os aspectos mais próximos de uma posição específica no vídeo na qual julgamos que a ação tenha maior probabilidade de ocorrer. O método final consiste na replicação do Ritmo Visual Ponderado concatenando quantas cópias forem necessárias ao longo da dimensão temporal, tendo as cópias pares invertidas horizontalmente. Esse método torna possível a extração de recortes que correspondam ao tamanho de entrada fixo da Rede Neural Convolucional utilizada, bem como a preservação da taxa de amostragem do vídeo, o que é crucial para não distorcer a velocidade das ações. Não obstante, os vários recortes garantem que toda extensão espacial e temporal do Ritmo Visual seja contemplada. Com o objetivo de avaliar nosso método, empregamos uma estratégia multi-fluxo. Essa estratégia consiste na combinação de informações extraídas a partir dos frames RGB dos vídeos, do Fluxo Ótico, e dos Ritmos Visuais Simetricamente Estendidos horizontal e vertical. Nosso método resultou em taxas de acurácia próximas ao estado da arte nos conjuntos de dados UCF101 e HMDB51. |
Resumen : | Despite the significant progress of Deep Learning models on the image classification task, they still need enhancement for efficient Human Action Recognition. Such gain could be achieved through the augmentation of the existing datasets. With this goal, we propose the usage of multiple Visual Rhythm crops, symmetrically extended in time and separated by a fixed stride. The premise to augment the temporal dimension of the Visual Rhythms is that the direction of video execution does not discriminate several actions. Besides that, we propose to use the Weighted Visual Rhythm: its extraction method attempts to reinforce motion patterns by weighing the closest aspects of a specific video position in which the action typically occurs. Therefore, we replicate the Weighted Visual Rhythm by concatenating, along the temporal dimension, as many as necessary copies of it, having the even copies horizontally flipped. While providing the possibility of extracting crops matching the fixed input size of the Convolutional Neural Network employed, the symmetric extension preserves the video frame rate, which is crucial to not distort actions. In addition, multiple crops with stride ensure the coverage of the entire video. Therefore, the main contributions of this work are a new form of extracting the Visual Rhythm and a new method for performing the data augmentation of video samples. Aiming to evaluate our method, a multi-stream strategy combining RGB and Optical Flow information is modified to include two additional spatiotemporal streams: one operating on the horizontal Symmetrically Extended Visual Rhythm, and another operating on the vertical Symmetrically Extended Visual Rhythm. Accuracy rates close to the state of the art were obtained from the experiments with our method on the challenging UCF101 and HMDB51 datasets. |
Palabras clave : | Aprendizagem profunda Reconhecimento de ações humanas Aumento de dados Ritmo visual Análise de vídeos Deep learning Human action recognition Data augmentation Visual rhythm Video analysis |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Idioma: | eng |
País: | Brasil |
Editorial : | Universidade Federal de Juiz de Fora (UFJF) |
Sigla de la Instituición: | UFJF |
Departamento: | ICE – Instituto de Ciências Exatas |
Programa: | Programa de Pós-graduação em Ciência da Computação |
Clase de Acesso: | Acesso Aberto Attribution-ShareAlike 3.0 Brazil |
Licenças Creative Commons: | http://creativecommons.org/licenses/by-sa/3.0/br/ |
URI : | https://repositorio.ufjf.br/jspui/handle/ufjf/10307 |
Fecha de publicación : | 11-jun-2019 |
Aparece en las colecciones: | Mestrado em Ciência da Computação (Dissertações) |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons