Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T17:44:26Z
No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:48:59Z (GMT) No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5) / Made available in DSpace on 2017-06-01T11:48:59Z (GMT). No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5)
Previous issue date: 2015-09-10 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O reconhecimento de ações humanas é um problema desafiador em visão computacional
que tem potenciais áreas de aplicações. Para descrever o principal movimento do vídeo
um novo descritor de movimento é proposto neste trabalho. Este trabalho combina dois
métodos para estimar o movimento entre as imagens: casamento de blocos e de gradiente
de intensidade de brilho da imagem. Neste trabalho usa-se um algoritmo de casamento
de blocos de tamanho variável para extrair vetores de deslocamento, os quais contém a
informação de movimento. Estes vetores são computados em uma sequência de frames
obtendo a trajetória do bloco, que possui a informação temporal. Os vetores obtidos
através do casamento de blocos são usados para clusterizar as trajetórias esparsas de
acordo com a forma. O método proposto computa essa informação para obter tensores
de orientação e gerar o descritor final. Este descritor é chamado de autodescritor porque
depende apenas do vídeo de entrada. O tensor usado como descritor global é avaliado
através da classificação dos vídeos das bases de dados KTH, UCF11 e Hollywood2 com
o classificador não linear SVM. Os resultados indicam que este método de trajetórias
esparsas é competitivo comparado ao já conhecido método de trajetórias densas, usando
tensores de orientação, além de requerer menos esforço computacional. / Human action recognition is a challenging problem in Computer Vision which has
many potential applications. In order to describe the main movement of the video a
new motion descriptor is proposed in this work. We combine two methods for estimating
the motion between frames: block matching and brightness gradient of image. In this
work we use a variable size block matching algorithm to extract displacement vectors as
a motion information. The cross product between the block matching vector and the gra
dient is used to obtain the displacement vectors. These vectors are computed in a frame
sequence, obtaining the block trajectory which contains the temporal information. The
block matching vectors are also used to cluster the sparse trajectories according to their
shape. The proposed method computes this information to obtain orientation tensors and
to generate the final descriptor. It is called self-descriptor because it depends only on the
input video. The global tensor descriptor is evaluated by classification of KTH, UCF11
and Hollywood2 video datasets with a non-linear SVM classifier. Results indicate that
our sparse trajectories method is competitive in comparison to the well known dense tra
jectories approach, using orientation tensors, besides requiring less computational effort.
Identifer | oai:union.ndltd.org:IBICT/oai:hermes.cpd.ufjf.br:ufjf/4785 |
Date | 10 September 2015 |
Creators | Figueiredo, Ana Mara de Oliveira |
Contributors | Vieira, Marcelo Bernardes, Silva, Rodrigo Luis de Souza da, Machado, Alex Fernandes da Veiga, Fonseca Neto, Raul |
Publisher | Universidade Federal de Juiz de Fora (UFJF), Programa de Pós-graduação em Ciência da Computação, UFJF, Brasil, ICE – Instituto de Ciências Exatas |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | English |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Source | reponame:Repositório Institucional da UFJF, instname:Universidade Federal de Juiz de Fora, instacron:UFJF |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0026 seconds