Spelling suggestions: "subject:"reconhecimento dde ações humanas"" "subject:"reconhecimento dee ações humanas""
1 |
Um descritor tensorial de movimento baseado em múltiplos estimadores de gradienteSad, Dhiego Cristiano Oliveira da Silva 22 February 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T19:45:09Z
No. of bitstreams: 1
dhiegocristianooliveiradasilvasad.pdf: 1920111 bytes, checksum: c7bccda6c65e798776738b9581721c98 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:37:10Z (GMT) No. of bitstreams: 1
dhiegocristianooliveiradasilvasad.pdf: 1920111 bytes, checksum: c7bccda6c65e798776738b9581721c98 (MD5) / Made available in DSpace on 2017-06-01T11:37:10Z (GMT). No. of bitstreams: 1
dhiegocristianooliveiradasilvasad.pdf: 1920111 bytes, checksum: c7bccda6c65e798776738b9581721c98 (MD5)
Previous issue date: 2013-02-22 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho apresenta uma nova abordagem para a descrição de movimento em
vídeos usando múltiplos filtros passa-banda que agem como estimadores derivativos de
primeira ordem. A resposta dos filtros em cada quadro do vídeo é extraída e codificada
em histogramas de gradientes para reduzir a sua dimensionalidade. Essa combinação
é realizada através de tensores de orientação. O grande diferencial deste trabalho em
relação à maioria das abordagens encontradas na literatura é que nenhuma característica
local é extraída e nenhum método de aprendizagem é realizado previamente, isto é, o
descritor depende unicamente do vídeo de entrada. Para o problema de reconhecimento
da ação humana utilizando a base de dados KTH, nosso descritor alcançou a taxa de
reconhecimento de 93,3% usando três filtros da família Daubechies combinado com mais
um filtro extra que é a correlação entre esses três filtros. O descritor resultante é então
classificado através do SVM utilizando um protocolo two-fold. Essa classificação se mostra
superior para a maioria das abordagens que usam descritores globais e pode ser comparável
aos métodos do estado-da-arte. / This work presents a novel approach for motion description in videos using multiple
band-pass filters that act as first order derivative estimators. The filters response on each
frame are coded into individual histograms of gradients to reduce their dimensionality.
They are combined using orientation tensors. No local features are extracted and no
learning is performed, i.e., the descriptor depends uniquely on the input video. Motion
description can be enhanced even using multiple filters with similar or overlapping fre
quency response. For the problem of human action recognition using the KTH database,
our descriptor achieved the recognition rate of 93,3% using three Daubechies filters, one
extra filter designed to correlate them, two-fold protocol and a SVM classifier. It is su
perior to most global descriptor approaches and fairly comparable to the state-of-the-art
methods.
|
2 |
A video descriptor using orientation tensors and shape-based trajectory clusteringCaetano, Felipe Andrade 29 August 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-06T17:54:07Z
No. of bitstreams: 1
felipeandradecaetano.pdf: 7461489 bytes, checksum: 93cea870d7bf162be4786d1d6ffb2ec9 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-07T11:06:08Z (GMT) No. of bitstreams: 1
felipeandradecaetano.pdf: 7461489 bytes, checksum: 93cea870d7bf162be4786d1d6ffb2ec9 (MD5) / Made available in DSpace on 2017-06-07T11:06:08Z (GMT). No. of bitstreams: 1
felipeandradecaetano.pdf: 7461489 bytes, checksum: 93cea870d7bf162be4786d1d6ffb2ec9 (MD5)
Previous issue date: 2014-08-29 / Trajetórias densas têm se mostrado um método extremamente promissor na área de
reconhecimento de ações humanas. Baseado nisso, propomos um novo tipo de descritor
de vídeos, calculado a partir da relação do fluxo ótico que compõe a trajetória com o
gradiente de sua vizinhança e sua localidade espaço-temporal. Tensores de orientação são
usados para acumular informação relevante ao longo do vídeo, representando tendências
de direção do descritor para aquele tipo de movimento. Além disso, um método para
aglomerar trajetórias usando o seu formato como métrica é proposto. Isso permite acu-
mular características de movimentos distintos em tensores separados e diferenciar com
maior facilidade trajetórias que são criadas por movimentos reais das que são geradas a
partir do movimento de câmera. O método proposto foi capaz de atingir os melhores níveis
de reconhecimento conhecidos para métodos com a restrição de métodos autodescritores
em bases populares — Hollywood2 (Acima de 46%) e KTH (Acima de 94%). / Dense trajectories has been shown as a very promising method in the human action
recognition area. Based on that, we propose a new kind of video descriptor, calculated
from the relationship between the trajectory’s optical flow with the gradient field in its
neighborhood and its spatio-temporal location. Orientation tensors are used to accumulate relevant information over the video, representing the tendency of direction for that
kind of movement. Furthermore, a method to cluster trajectories using their shape is
proposed. This allow us to accumulate different motion patterns in different tensors and
easier distinguish trajectories that are created by real movements from the trajectories
generated by the camera’s movement. The proposed method is capable to achieve the best
known recognition rates for methods based on the self-descriptor constraint in popular
datasets — Hollywood2 (up to 46%) and KTH (up to 94%).
|
3 |
A video self-descriptor based on sparse trajectory clusteringFigueiredo, Ana Mara de Oliveira 10 September 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T17:44:26Z
No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:48:59Z (GMT) No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5) / Made available in DSpace on 2017-06-01T11:48:59Z (GMT). No. of bitstreams: 1
anamaradeoliveirafigueiredo.pdf: 5190215 bytes, checksum: f9ec4e5f37ac1ca446fcef9ac91c1fb5 (MD5)
Previous issue date: 2015-09-10 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O reconhecimento de ações humanas é um problema desafiador em visão computacional
que tem potenciais áreas de aplicações. Para descrever o principal movimento do vídeo
um novo descritor de movimento é proposto neste trabalho. Este trabalho combina dois
métodos para estimar o movimento entre as imagens: casamento de blocos e de gradiente
de intensidade de brilho da imagem. Neste trabalho usa-se um algoritmo de casamento
de blocos de tamanho variável para extrair vetores de deslocamento, os quais contém a
informação de movimento. Estes vetores são computados em uma sequência de frames
obtendo a trajetória do bloco, que possui a informação temporal. Os vetores obtidos
através do casamento de blocos são usados para clusterizar as trajetórias esparsas de
acordo com a forma. O método proposto computa essa informação para obter tensores
de orientação e gerar o descritor final. Este descritor é chamado de autodescritor porque
depende apenas do vídeo de entrada. O tensor usado como descritor global é avaliado
através da classificação dos vídeos das bases de dados KTH, UCF11 e Hollywood2 com
o classificador não linear SVM. Os resultados indicam que este método de trajetórias
esparsas é competitivo comparado ao já conhecido método de trajetórias densas, usando
tensores de orientação, além de requerer menos esforço computacional. / Human action recognition is a challenging problem in Computer Vision which has
many potential applications. In order to describe the main movement of the video a
new motion descriptor is proposed in this work. We combine two methods for estimating
the motion between frames: block matching and brightness gradient of image. In this
work we use a variable size block matching algorithm to extract displacement vectors as
a motion information. The cross product between the block matching vector and the gra
dient is used to obtain the displacement vectors. These vectors are computed in a frame
sequence, obtaining the block trajectory which contains the temporal information. The
block matching vectors are also used to cluster the sparse trajectories according to their
shape. The proposed method computes this information to obtain orientation tensors and
to generate the final descriptor. It is called self-descriptor because it depends only on the
input video. The global tensor descriptor is evaluated by classification of KTH, UCF11
and Hollywood2 video datasets with a non-linear SVM classifier. Results indicate that
our sparse trajectories method is competitive in comparison to the well known dense tra
jectories approach, using orientation tensors, besides requiring less computational effort.
|
4 |
Video motion description based on histograms of sparse trajectoriesOliveira, Fábio Luiz Marinho de 05 September 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-06T19:12:19Z
No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-07T13:33:08Z (GMT) No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5) / Made available in DSpace on 2017-06-07T13:33:08Z (GMT). No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5)
Previous issue date: 2016-09-05 / Descrição de movimento tem sido um tema desafiador e popular há muitos anos em
visão computacional e processamento de sinais, mas também intimamente relacionado a
aprendizado de máquina e reconhecimento de padrões. Frequentemente, para realizar essa
tarefa, informação de movimento é extraída e codificada em um descritor. Este trabalho
apresenta um método simples e de rápida computação para extrair essa informação e
codificá-la em descritores baseados em histogramas de deslocamentos relativos. Nossos
descritores são compactos, globais, que agregam informação de quadros inteiros, e o que
chamamos de auto-descritor, que não depende de informações de sequências senão aquela
que pretendemos descrever. Para validar estes descritores e compará-los com outros tra
balhos, os utilizamos no contexto de Reconhecimento de Ações Humanas, no qual cenas
são classificadas de acordo com as ações nelas exibidas. Nessa validação, obtemos resul
tados comparáveis aos do estado-da-arte para a base de dados KTH. Também avaliamos
nosso método utilizando as bases UCF11 e Hollywood2, com menores taxas de reconhe
cimento, considerando suas maiores complexidades. Nossa abordagem é promissora, pelas
razoáveis taxas de reconhecimento obtidas com um método muito menos complexo que os
do estado-da-arte, em termos de velocidade de computação e compacidade dos descritores
obtidos. Adicionalmente, experimentamos com o uso de Aprendizado de Métrica para a
classificação de nossos descritores, com o intuito de melhorar a separabilidade e a com
pacidade dos descritores. Os resultados com Aprendizado de Métrica apresentam taxas
de reconhecimento inferiores, mas grande melhoria na compacidade dos descritores. / Motion description has been a challenging and popular theme over many years within
computer vision and signal processing, but also very closely related to machine learn
ing and pattern recognition. Very frequently, to address this task, one extracts motion
information from image sequences and encodes this information into a descriptor. This
work presents a simple and fast computing method to extract this information and en
code it into descriptors based on histograms of relative displacements. Our descriptors
are compact, global, meaning it aggregates information from whole frames, and what we
call self-descriptors, meaning they do not depend on information from sequences other
than the one we want to describe. To validate these descriptors and compare them to
other works, we use them in the context of Human Action Recognition, where scenes are
classified according to the action portrayed. In this validation, we achieve results that are
comparable to those in the state-of-the-art for the KTH dataset. We also evaluate our
method on the UCF11 and Hollywood2 datasets, with lower recognition rates, considering
their higher complexity. Our approach is a promising one, due to the fairly good recogni
tion rates we obtain with a much less complex method than those of the state-of-the-art,
in terms of speed of computation and final descriptor compactness. Additionally, we ex
periment with the use of Metric Learning in the classification of our descriptors, aiming
to improve the separability and compactness of the descriptors. Our results for Metric
Learning show inferior recognition rates, but great improvement for the compactness of
the descriptors.
|
Page generated in 0.1237 seconds