https://repositorio.ufjf.br/jspui/handle/ufjf/4785
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
anamaradeoliveirafigueiredo.pdf | 5.07 MB | Adobe PDF | Visualizar/Abrir |
Clase: | Dissertação |
Título : | A video self-descriptor based on sparse trajectory clustering |
Autor(es): | Figueiredo, Ana Mara de Oliveira |
Orientador: | Vieira, Marcelo Bernardes |
Co-orientador: | Silva, Rodrigo Luis de Souza da |
Miembros Examinadores: | Machado, Alex Fernandes da Veiga |
Miembros Examinadores: | Fonseca Neto, Raul |
Resumo: | O reconhecimento de ações humanas é um problema desafiador em visão computacional que tem potenciais áreas de aplicações. Para descrever o principal movimento do vídeo um novo descritor de movimento é proposto neste trabalho. Este trabalho combina dois métodos para estimar o movimento entre as imagens: casamento de blocos e de gradiente de intensidade de brilho da imagem. Neste trabalho usa-se um algoritmo de casamento de blocos de tamanho variável para extrair vetores de deslocamento, os quais contém a informação de movimento. Estes vetores são computados em uma sequência de frames obtendo a trajetória do bloco, que possui a informação temporal. Os vetores obtidos através do casamento de blocos são usados para clusterizar as trajetórias esparsas de acordo com a forma. O método proposto computa essa informação para obter tensores de orientação e gerar o descritor final. Este descritor é chamado de autodescritor porque depende apenas do vídeo de entrada. O tensor usado como descritor global é avaliado através da classificação dos vídeos das bases de dados KTH, UCF11 e Hollywood2 com o classificador não linear SVM. Os resultados indicam que este método de trajetórias esparsas é competitivo comparado ao já conhecido método de trajetórias densas, usando tensores de orientação, além de requerer menos esforço computacional. |
Resumen : | Human action recognition is a challenging problem in Computer Vision which has many potential applications. In order to describe the main movement of the video a new motion descriptor is proposed in this work. We combine two methods for estimating the motion between frames: block matching and brightness gradient of image. In this work we use a variable size block matching algorithm to extract displacement vectors as a motion information. The cross product between the block matching vector and the gra dient is used to obtain the displacement vectors. These vectors are computed in a frame sequence, obtaining the block trajectory which contains the temporal information. The block matching vectors are also used to cluster the sparse trajectories according to their shape. The proposed method computes this information to obtain orientation tensors and to generate the final descriptor. It is called self-descriptor because it depends only on the input video. The global tensor descriptor is evaluated by classification of KTH, UCF11 and Hollywood2 video datasets with a non-linear SVM classifier. Results indicate that our sparse trajectories method is competitive in comparison to the well known dense tra jectories approach, using orientation tensors, besides requiring less computational effort. |
Palabras clave : | Casamento de blocos Reconhecimento de ações humanas Autodescritor Trajetórias esparsas e densas Clusterização de trajetórias Block Matching Human action recognition Self-descriptor Sparse and dense trajectories Trajectory clustering |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Idioma: | por |
País: | Brasil |
Editorial : | Universidade Federal de Juiz de Fora (UFJF) |
Sigla de la Instituición: | UFJF |
Departamento: | ICE – Instituto de Ciências Exatas |
Programa: | Programa de Pós-graduação em Ciência da Computação |
Clase de Acesso: | Acesso Aberto |
URI : | https://repositorio.ufjf.br/jspui/handle/ufjf/4785 |
Fecha de publicación : | 10-sep-2015 |
Aparece en las colecciones: | Mestrado em Ciência da Computação (Dissertações) |
Los ítems de DSpace están protegidos por licencias Creative Commons, con todos los derechos reservados, a menos que se indique lo contrario.