Spelling suggestions: "subject:"trajetórias esparsos"" "subject:"rajetórias esparsos""
1 |
A video self-descriptor based on sparse trajectory clusteringFigueiredo, Ana Mara de Oliveira 10 September 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T17:44:26Z
No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:48:59Z (GMT) No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5) / Made available in DSpace on 2017-06-01T11:48:59Z (GMT). No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5)
Previous issue date: 2015-09-10 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O reconhecimento de ações humanas é um problema desafiador em visão computacional
que tem potenciais áreas de aplicações. Para descrever o principal movimento do vídeo
um novo descritor de movimento é proposto neste trabalho. Este trabalho combina dois
métodos para estimar o movimento entre as imagens: casamento de blocos e de gradiente
de intensidade de brilho da imagem. Neste trabalho usa-se um algoritmo de casamento
de blocos de tamanho variável para extrair vetores de deslocamento, os quais contém a
informação de movimento. Estes vetores são computados em uma sequência de frames
obtendo a trajetória do bloco, que possui a informação temporal. Os vetores obtidos
através do casamento de blocos são usados para clusterizar as trajetórias esparsas de
acordo com a forma. O método proposto computa essa informação para obter tensores
de orientação e gerar o descritor final. Este descritor é chamado de autodescritor porque
depende apenas do vídeo de entrada. O tensor usado como descritor global é avaliado
através da classificação dos vídeos das bases de dados KTH, UCF11 e Hollywood2 com
o classificador não linear SVM. Os resultados indicam que este método de trajetórias
esparsas é competitivo comparado ao já conhecido método de trajetórias densas, usando
tensores de orientação, além de requerer menos esforço computacional. / Human action recognition is a challenging problem in Computer Vision which has
many potential applications. In order to describe the main movement of the video a
new motion descriptor is proposed in this work. We combine two methods for estimating
the motion between frames: block matching and brightness gradient of image. In this
work we use a variable size block matching algorithm to extract displacement vectors as
a motion information. The cross product between the block matching vector and the gra
dient is used to obtain the displacement vectors. These vectors are computed in a frame
sequence, obtaining the block trajectory which contains the temporal information. The
block matching vectors are also used to cluster the sparse trajectories according to their
shape. The proposed method computes this information to obtain orientation tensors and
to generate the final descriptor. It is called self-descriptor because it depends only on the
input video. The global tensor descriptor is evaluated by classification of KTH, UCF11
and Hollywood2 video datasets with a non-linear SVM classifier. Results indicate that
our sparse trajectories method is competitive in comparison to the well known dense tra
jectories approach, using orientation tensors, besides requiring less computational effort.
|
2 |
Video motion description based on histograms of sparse trajectoriesOliveira, Fábio Luiz Marinho de 05 September 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-06T19:12:19Z
No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-07T13:33:08Z (GMT) No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5) / Made available in DSpace on 2017-06-07T13:33:08Z (GMT). No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5)
Previous issue date: 2016-09-05 / Descrição de movimento tem sido um tema desafiador e popular há muitos anos em
visão computacional e processamento de sinais, mas também intimamente relacionado a
aprendizado de máquina e reconhecimento de padrões. Frequentemente, para realizar essa
tarefa, informação de movimento é extraída e codificada em um descritor. Este trabalho
apresenta um método simples e de rápida computação para extrair essa informação e
codificá-la em descritores baseados em histogramas de deslocamentos relativos. Nossos
descritores são compactos, globais, que agregam informação de quadros inteiros, e o que
chamamos de auto-descritor, que não depende de informações de sequências senão aquela
que pretendemos descrever. Para validar estes descritores e compará-los com outros tra
balhos, os utilizamos no contexto de Reconhecimento de Ações Humanas, no qual cenas
são classificadas de acordo com as ações nelas exibidas. Nessa validação, obtemos resul
tados comparáveis aos do estado-da-arte para a base de dados KTH. Também avaliamos
nosso método utilizando as bases UCF11 e Hollywood2, com menores taxas de reconhe
cimento, considerando suas maiores complexidades. Nossa abordagem é promissora, pelas
razoáveis taxas de reconhecimento obtidas com um método muito menos complexo que os
do estado-da-arte, em termos de velocidade de computação e compacidade dos descritores
obtidos. Adicionalmente, experimentamos com o uso de Aprendizado de Métrica para a
classificação de nossos descritores, com o intuito de melhorar a separabilidade e a com
pacidade dos descritores. Os resultados com Aprendizado de Métrica apresentam taxas
de reconhecimento inferiores, mas grande melhoria na compacidade dos descritores. / Motion description has been a challenging and popular theme over many years within
computer vision and signal processing, but also very closely related to machine learn
ing and pattern recognition. Very frequently, to address this task, one extracts motion
information from image sequences and encodes this information into a descriptor. This
work presents a simple and fast computing method to extract this information and en
code it into descriptors based on histograms of relative displacements. Our descriptors
are compact, global, meaning it aggregates information from whole frames, and what we
call self-descriptors, meaning they do not depend on information from sequences other
than the one we want to describe. To validate these descriptors and compare them to
other works, we use them in the context of Human Action Recognition, where scenes are
classified according to the action portrayed. In this validation, we achieve results that are
comparable to those in the state-of-the-art for the KTH dataset. We also evaluate our
method on the UCF11 and Hollywood2 datasets, with lower recognition rates, considering
their higher complexity. Our approach is a promising one, due to the fairly good recogni
tion rates we obtain with a much less complex method than those of the state-of-the-art,
in terms of speed of computation and final descriptor compactness. Additionally, we ex
periment with the use of Metric Learning in the classification of our descriptors, aiming
to improve the separability and compactness of the descriptors. Our results for Metric
Learning show inferior recognition rates, but great improvement for the compactness of
the descriptors.
|
Page generated in 0.044 seconds