• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 138
  • 18
  • 12
  • 12
  • 12
  • 9
  • 8
  • 8
  • 8
  • 6
  • 3
  • 1
  • Tagged with
  • 160
  • 160
  • 160
  • 92
  • 89
  • 68
  • 62
  • 40
  • 39
  • 35
  • 34
  • 33
  • 31
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Sistema visual de segmentação de objetos robusto à iluminação para monitoramento automático de tráfego de veículos terrestres

Ruas, Gabriel Irribarem Soares 03 July 2009 (has links)
Dissertação (mestrado)-Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2009. / Submitted by samara castro (sammy_roberta7@hotmail.com) on 2010-12-17T11:54:39Z No. of bitstreams: 1 2009_GabrielIrribaremSoaresRuas.pdf: 930689 bytes, checksum: e2799bd445dd6968233c36dd984eb78c (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2010-12-17T22:45:49Z (GMT) No. of bitstreams: 1 2009_GabrielIrribaremSoaresRuas.pdf: 930689 bytes, checksum: e2799bd445dd6968233c36dd984eb78c (MD5) / Made available in DSpace on 2010-12-17T22:45:49Z (GMT). No. of bitstreams: 1 2009_GabrielIrribaremSoaresRuas.pdf: 930689 bytes, checksum: e2799bd445dd6968233c36dd984eb78c (MD5) / O presente trabalho apresenta uma proposta de sistema de segmentação de objetos móveis robusto a variações de iluminação e capaz de detectar e suprimir sombras móveis. Utilizou-se como base a técnica de subtração de fundo por misturas de gaussianas. Para lidar melhor com variações de iluminação, a técnica foi adaptada para utilizar o espaço de cores HSV. Foram analisadas as influências das sombras sobre o modelo de fundo e desenvolveu-se um modelo para reduzir sua influência sobre a segmentação de objetos. Observou-se também o efeito do ajuste de ganho causado por variações na iluminação da cena. Utilizando o conceito de estabilidade da cena, propõe-se um método de modelagem e controle da influência do ganho da câmera sobre a cena. Utilizando-se a supressão de sombras, obteve-se uma taxa de acerto de 36,63 %, similar à técnica original proposta por Stauffer. A taxa de falsos positivos foi reduzida de 71,38 % para 42,65 %. A metodologia proposta também foi capaz de reduzir significativamente a influência de variações bruscas de iluminação no resultado da subtração de fundo. _________________________________________________________________________________ ABSTRACT / This study presents a proposal for a moving object segmentation system that is resistant to changes in lighting conditions and can detect and suppress moving shadows. The technique of background subtraction using mixtures of gaussians provided a basis for this study. To better deal with illumination changes, that technique was adapted to use the HSV color space. The influence of shadows over the the background model was analyzed. Furthermore, a model to reduce their influence over the object segmentation process was developed. The effects of automatic gain control caused by illumination changes in the scene were also studied. Using the concept of scene stability, a method to model and control the effects of camera gain on the scene was proposed. Shadow supression yielded a correct rate of 36.63 %, which is similar to results obtained using the original technique proposed by Stauffer. The false positive rate was reduced from 71.38 % to 42.65 %. In addition, the proposed methodology was also able to significantly reduce the influence of sudden illumination variations on the background subtraction results.
42

Visão estéreo omnidirecional catadióptrica com espelho de lobo duplo aplicado na geração de grades de evidências

Souza, Giuliano Gonçalves de 01 December 2009 (has links)
Tese(doutorado)-Universidade de Brasília, Departamento de Engenharia Mecânica, 2009. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-03-11T19:55:58Z No. of bitstreams: 1 2009_GiulianoGoncalvesdeSouza.pdf: 31537762 bytes, checksum: da7ec7346da2c144cb80a3c9697bbefb (MD5) / Rejected by Daniel Ribeiro(daniel@bce.unb.br), reason: o arquivo pdf nao abre, diz estar danificado. on 2011-03-17T00:36:19Z (GMT) / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-04-12T14:24:48Z No. of bitstreams: 1 2009_GiulianoGoncalvesdeSouza.pdf: 31537762 bytes, checksum: da7ec7346da2c144cb80a3c9697bbefb (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2011-04-28T13:24:27Z (GMT) No. of bitstreams: 1 2009_GiulianoGoncalvesdeSouza.pdf: 31537762 bytes, checksum: da7ec7346da2c144cb80a3c9697bbefb (MD5) / Made available in DSpace on 2011-04-28T13:24:27Z (GMT). No. of bitstreams: 1 2009_GiulianoGoncalvesdeSouza.pdf: 31537762 bytes, checksum: da7ec7346da2c144cb80a3c9697bbefb (MD5) / Com o aumento da capacidade dos computadores e o desenvolvimento de novas técnicas de processamento de imagem, a visão computacional se tornou uma estratégia promissora para a robótica móvel em mapeamento de ambientes. Uma variação tecnológica importante é o sistema de visão omnidirecional catadióptrico com espelho hiperbólico de lobo duplo, que consiste na instalação de um espelho convexo na frente de uma câmera, o qual possibilita a obtenção de uma imagem omnidirecional estérea, com centro único de projeção, sem que haja necessidade de locomoção do robô móvel para a caracterização espacial da posição do objeto. No entanto, um sistema de visão omnidirecional catadióptrico é extremamente dependente da qualidade do espelho, da precisão na montagem e da resolução da imagem obtida. Esses fatores contribuem para gerar um alto erro inerente ao sensor, tornado o sistema adequado a utilização de grades de evidências. O objetivo desse trabalho consiste em desenvolver um sistema de visão omnidirecional catadióptrico estéreo, com espelho hiperbólico de lobo duplo, associado a um algoritmo de caracterização de padrões baseado na geração de grades de evidências para determinação da posição dos objetos existentes no ambiente estudado. A metodologia de pesquisa é baseada no processamento da imagem omnidirecional estérea com técnicas estereoscópicas específicas. Dessa forma, inicialmente são extraídas da imagem omnidirecional os pontos que determinam os contornos dos objetos existentes no ambiente, para posteriormente serem determinados os pares de pontos correspondentes e por fim, é realizada a triangulação entre os pares de pontos correspondentes, que determina a possível posição do ponto analisado. No entanto, o sistema omnidirecional estudado gera erros significativos no processo de mapeamento de ambientes, o que exigiu a utilização de um modelo probabilístico Gaussiano para a atualização da grade de evidências. O conjunto de algoritmos foi testado através do mapeamento simulado de dois ambientes. O primeiro é um ambiente monocromático, com diferentes obstáculos de contorno bem definidos e sobre um fundo branco, o segundo é uma foto de alta resolução do solo marciano, retirada pelo robô móvel Spirit, caracterizada por um espectro de 256 níveis de cinza e objetos de contorno irregulares. O resultado obtido é um mapa global bidimensional em forma de grade de evidências, que é atualizada a cada nova imagem omnidirecional extraída. A avaliação comparativa entre as imagens originais e simuladas é efetuada através de analise visual. Os resultados demonstraram que o sistema computacional desenvolvido tem capacidade de gerar mapas com melhor definição para a caracterização do ambiente mais simples. Para o caso do ambiente mais complexo devem ser considerados num novo estudo os parâmetros associados à forma e a quantidade de obstáculos, bem como a variação cromática. _______________________________________________________________________________ ABSTRACT / With the increase of computer capacities and the development of new image processing techniques computer vision has become a promising approach for environment mapping by mobile robots. An important emerging technology is the use of omnidirectional catadioptric vision systems with a hyperbolic double-lobed mirror, which consists on a convex mirror in front of a camera allowing the acquisition of a stereo omnidirectional image with a single centre of projection without the need the move a mobile robot to locate an object in 3D coordinates within the workspace. However, the omnidirecional catadioptric vision system is extremely dependent on the precision that the geometry of the surface mirror are constructed, the assembly process and on the resolution of the acquired image. These characteristics work together to produce large geometrical errors by the sensor, making the system a good platform to use statistical evidences grids on the process of environment mapping with mobile robots. The objective of this work consists in the development of an omnidirectional catadioptric stereo vision system with a hyperbolic double-lobed mirror, associated with an algorithm to characterize standards to generate evidence grids to estimate the position of objects within the environment studied. The research methodology is based on omnidirectional stereo image processing by using specific stereoscopic techniques. Firstly, gradient images are calculated from the omnidirectional images to extract object features that are used to find correspondences between the images from the two mirror lobes. Secondly, a triangulation process is carried out to calculate the 3D position of objects within the environment. However, the vision system generates large amount of errors during the mapping process, requiring the use of probabilistic Gaussian models in the statistical evidence grids. The algorithms developed were tested by simulating maps of two different environments. The first is a dichromatic environment, with several obstacles with well contrasted gray image with on a white ground. The second is a photo of high resolution of a Martian land, acquired by the mobile robot Spirit, consisting of 256 levels of gray and objects with irregular contours. The result obtained is a bi-dimensional global map with evidence grids, which is updated as each new omnidirectional image is acquired. The comparative evaluation between the original and the simulated images is done through visual analysis. The results showed that the computer system developed can generate maps with good definition to characterize simple environments. In the case of more complex environments new studies must have to be carried out to evaluate the effects of parameters associated to the shape and quantity of obstacles, as well as chromatic variations.
43

Algoritmos de Shape from Shading e aplicação para casos com posições de fonte de luz e observador coincidentes

Forster, Carlos Henrique Quartucci 22 November 1999 (has links)
Orientador: Clesio Luis Tozzi / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-07-26T08:26:31Z (GMT). No. of bitstreams: 1 Forster_CarlosHenriqueQuartucci_M.pdf: 6981769 bytes, checksum: 4b4b1788304245f7640171b9ec86ded0 (MD5) Previous issue date: 1999 / Resumo: Este trabalho trata o problema de reconstrução tridimensional a partir de um sistema monocular de captura de imagens. Especificamente, o problema de Shape from Shading, reconstrução tridimensional a partir de imagens de sombreamento, é tratado na forma de um revisão bibliográfica e de construção de algoritmos para se resolver um caso específico onde as posições da fonte de luz e da câmara coincidem e estão próximas do objeto. Dois métodos de Shape from Shading são implementados, um deles é baseado em otimização e o outro é baseado em expansão de curvas. A fim de aplicar a técnica em imagens de endoscopia, alguns problemas práticos são solucionados, como a correção da distorção da imagem e a remoção do componente especular de reflexão. A remoção da reflexão especular se faz através de um filtro baseado no modelo dicromático de reflexão. Considerando-se a recuperação da forma, resultados satisfatórios são obtidos, tanto para imagem sintéticas quanto para imagem de objetos reais / Abstract: The subject of this work is the solution of the 3d reconstruction problem from a single shading image captured by a monocular system. More specifically, the Shape from Shading problem is addressed. A bibliographic review and the implementation of algorithms to solve the specific case in which the camera and light source positions are coincident and close to the object are presented. Two of the Shape from Shading methds described were implemented, one based on optimization and the other based on curve expansion. In order to test the application of the technique in endoscope images, some practical problems were addressed: the correction of image distortion and the removal of the specular component of reflection, using the dichromatic reflection model. Considering the shape reconstruction, the obtained results for synthetic real objects images were all satisfactory / Mestrado / Automação / Mestre em Engenharia Elétrica
44

Reconstrução 3D a partir de imagens de profundidade baseada em modelos deformaveis

Silva, Rosana Marques da 12 March 1999 (has links)
Orientador: Wu Shin-Ting / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-26T12:32:43Z (GMT). No. of bitstreams: 1 Silva_RosanaMarquesda_D.pdf: 8238511 bytes, checksum: ee31fe02f5ec55e883d705a52f754a43 (MD5) Previous issue date: 1999 / Resumo: Este trabalho objetiva a reconsturção de modelos tridimensionais a partir de imagens de profundidado. O método proposto consiste na deformação de uma superficie inicial , triangulada e fechada, a'te seu ajuste aos dados contidos em uma imagem de profundidade. O método combina as boas propriedades da técnica do balão (controle de precisão, estabilidade e simplicidade) com as vantagens do paradigma de triangulação adaptativa no domínio da malha (exclusão de auto-intersecções). Adiconalmente, ele fal a utilização máxima das informações contidas em cada imagem de prfundidade e supera da restrição dos modelos deformáveis onde o modelo reconstruído deve ser homeomorfo ao modelo original. Finalmente diferentemente dos trabalhos existentes, a precisão de ajuste do nosso método é controlado por um único parâmetro de tolerância. Mostramos, com base na Teoria de Aproximação que a seqüência de malhas triangualares geradas pelo nosso método converge para os pontos da imagem dada. E com base na Teoria de Morse, demonstramso que através dos pontos críticos de uma imagem de profundiade pode-se estimar o limite inferior do gênero da superfície a ser reconstruida / Abstract: The goal of this work is the reconstruction of three-dimensional mdels from range images, The proposed method in deformation of the initial surface, closed and triangulate, and adjusting it correctly to sample points in the range image data. The method combines the good properties of the ballon technique (controllable accuary, stability and simplicity) with the advantage of the important features of the adaptative triangualation on domain mesh ( self-intersection exclusion). Futhermore, itdoes the maximal usage of available data in each range image and overcomes the restriction of the deformable models where the reconstructed model must be homeomorphic to the initial model. Finally, different from other existent works, its adjust precision is controllable by only one tolerance parameter. We shou, based on approximation theory, that the triangular mesh sequence created by our method converges to the image data. And based on Morse theory, we demonstrated that we can estimate the inferior limit genus of the surface to be reconstructed through the critical points of a range image / Doutorado / Doutor em Engenharia Elétrica
45

Metodologia para analise de cenas e geração de cenas prototipicas utilizando a teoria computacional das percepções

Rodella, Ednilson Cesar 01 August 2018 (has links)
Orientadores : Armando Freitas da Rocha, Fernando Antonio Campos Gomide / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T18:10:34Z (GMT). No. of bitstreams: 1 Rodella_EdnilsonCesar_M.pdf: 5702239 bytes, checksum: 556fc4968529c5a9aca19efc3453199f (MD5) Previous issue date: 2002 / Mestrado
46

Alinhamento imagem-modelo baseada na visão estereo de regiões planares arbitrarias

Forster, Carlos Henrique Quartucci 03 August 2018 (has links)
Orientador: Clesio Luis Tozzi / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T22:31:54Z (GMT). No. of bitstreams: 1 Forster_CarlosHenriqueQuartucci_D.pdf: 1511668 bytes, checksum: 09ed5f90b9443a930cf04e79b14d1e18 (MD5) Previous issue date: 2004 / Doutorado
47

Visão computacional a partir de imagens esteroscopicas

Macedo, Marcellus Rosa 06 October 1995 (has links)
Orientador; Jorge Stolfi / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T19:10:11Z (GMT). No. of bitstreams: 1 Macedo_MarcellusRosa_M.pdf: 1814894 bytes, checksum: 86232b2188934b771c28b13e2ab888a7 (MD5) Previous issue date: 1995 / Resumo: Neste trabalho descrevemos a implementação de um protótipo de software para reconhecimento e localização espacial de um objeto poliédrico a partir de um par de imagens estereoscópicas do mesmo. Nesta implementação usamos uma abordagem original, no sentido que a segmentação de pontos em arestas é feita no espaço R3, depois de casar os pontos correspondentes nas duas imagens e calcular a profundidade dos mesmos / Abstract: We describe here the implementation of a software prototype for the identification and location of a polyedral object in three-space, given two stereoscopic images of the same. An original feature of this implementation is that the segmentation of edges is performed in three-space, after matching corresponding pairs of points in the two images and computing their depth / Mestrado / Mestre em Ciência da Computação
48

Uma modelagem computacional de áreas corticais do sistema visual humano associadas à percepção de profundidade

Oliveira, Hallysson 15 July 2005 (has links)
Made available in DSpace on 2016-12-23T14:33:34Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 7639680 bytes, checksum: bafdf34994fbf543be654c45e264bc74 (MD5) Previous issue date: 2005-07-15 / The images formed on the human retinas has only two dimensions, however the brain is capable of synthesizing a three-dimensional representation with color, shape and depth information about the environment surroundings. For in such a way, after choosing a point in the 3-D space, the eyes verge to this fixation point and, at the same time, the visual system is fed back with eyes placement information, supplied by ocular motor system, considering them as the distance of this point to the observer. The depth perception around the vergence point may be got by estimating the disparity, the positional difference between the two retinal projections of a given point in space results from the horizontal separation of the eyes. Most of the depth perception processing is done by visual cortex, mainly in V1 and MT areas. This work presents a modeling and implementation of a mathematical computational neural architecture that represents the V1 and MT cortical areas, based in visual cortex neurophysiology, used to create in a computer a 3-D representation of the surrounds, using images from two cameras connected to this computer. This model implementation was based upon Gabor filters and log-polar mapping. With this model it is possible to make a disparity map of the images and thus calculate the 3-D spatial position of each image point represented in the disparity map. This way it is possible to create a 3-D representation of the surrounds in a computer. / As imagens projetadas nas retinas humanas são bidimensionais, entretanto o cérebro é capaz de sintetizar uma representação tridimensional com informações sobre cor, forma e profundidade a respeito os objetos no ambiente ao seu redor. Para tanto, após escolher um ponto no espaço 3-D, os olhos vergem para este ponto de fixação e, em paralelo, o sistema visual é realimentado com informações sobre o posicionamento dos olhos, fornecidas pelo sistema óculo-motor, interpretando-as como a distância deste ponto ao observador. A percepção de profundidade ao redor do ponto de vergência pode ser obtida estimando a disparidade, isto é, a diferença de posição entre pontos correspondentes nas retinas, causada pela separação horizontal dos olhos na cabeça. A maior parte do processamento necessário à percepção da profundidade é realizada pelo córtex visual, principalmente nas áreas V1 e MT. Neste trabalho é apresentada uma modelagem e implementação matemático-computacional de uma arquitetura neural, representando as áreas corticais V1 e MT, baseada em estudos da neurofisiologia do córtex visual com o intuito de criar num computador uma representação tridimensional do mundo externo, a partir de imagens obtidas de duas câmeras acopladas a este computador. A implementação deste modelo foi baseada em filtros de Gabor e mapeamento log-polar da retina para o córtex. Com este modelo é possível construir um mapa das disparidades entre as imagens e, a partir deste mapa, calcular a posição no espaço tridimensional de cada ponto da imagem representado no mapa. Desta forma, é possível criar uma representação tridimensional interna ao computador do ambiente ao seu redor.
49

Determinando a posição e a orientação da mão através de imagens de vídeo

Lopes, Eduardo Costa January 2005 (has links)
Made available in DSpace on 2013-08-07T18:42:56Z (GMT). No. of bitstreams: 1 000389618-Texto+Completo-0.pdf: 8277167 bytes, checksum: 68740c4286c2eaa829869e1a6fd9f955 (MD5) Previous issue date: 2005 / Currently, the use of Virtual Reality technology has opened the possibility to use computers with an interaction level superior to the traditional interfaces based on keyboards and mouse. This is achieved trough devices that allow to insert the users vitually in a computer generated environment. In this virtual environment the user can visualize and manipulate, in three dimensions, virtual objects that are part of it, with the possibility of interacting with them in a similar way like the real world. The degree of interaction in virtual environments is influenced by the capability of track certain parts of body, such as the head, the hand or even the whole body. Also, it is important that this environment enable the execution of certain operations that allow a user interact with a virtual object in real world fashion, providing the feeling that he or she is immersed in another reality. Unfortunately, the cost of such equipments and the amount of wires that need to be attached to the user body, among others restrictions, limit the use of Virtual Reality in everyday life. This work aims to present an alternative to the position and orientation tracker hardware used to track the user hand. Its contribution is to use Image Processing and Computer Vision techniques to implement a video image based hand tracker. To do so, the project is divided in three distinct phases. The first phase detects the hand in an image through skin color segmentation. In this phase, four skin segmentation algorithms are implement and many tests are realized with two skin models and two color space. The second phase calculates the hand position and two algorithms are implemented and tested. In the third phase, the hand orientation is obtained through a Computer Vision technique called Image Moments. After that, through the contour hand analysis, some features are detected, such as fingertips, valleys between the fingers and the wrist. These features can be used to get the 3D hand position and orientation. Along this text each development phase, the techniques used, and its respective results are described in detail. / Atualmente, a tecnologia de Realidade Virtual permite utilizar computadores com um grau de interação superior às interfaces tradicionais, baseadas apenas no teclado e no mouse, através de dispositivos que permitem inserir o usuário em um ambiente gerado em computadores. Neste ambiente virtual, o usuário pode visualizar em três dimensões os objetos que o compõe, com a possibilidade de interagir com os mesmos de maneira semelhante ao que ocorre no mundo real. O grau de interatividade em um ambiente virtual é influenciado pela capacidade do ambiente de rastrear determinadas partes do corpo, como a cabeça, a mão, ou até mesmo o corpo inteiro. Também é importante que este ambiente proporcione a execução de determinadas operações, que permitam o usuário interagir com um objeto virtual como se fosse um objeto real, promovendo a sensação de que o primeiro estava imerso em outra realidade. Infelizmente, o custo de tais equipamentos e a quantidade de fios necessários para conectá-los ao corpo do usuário, além de outras restrições, limitam a utilização da Realidade Virtual na vida diária. Este trabalho objetiva apresentar uma alternativa ao rastreador de posição e orientação utilizado para rastrear a mão.A sua contribuição é fazer uso das técnicas de Processamento de Imagens e Visão Computacional para implementar um rastreador de mão baseado em imagens de câmeras de vídeo. Para isto, o projeto foi divido em três fases distintas. A primeira fase detecta a mão em uma imagem através da segmentação de pele. Nesta fase, quatro algoritmos de segmentação de pele são implementados e vários testes são realizados, utilizando dois espaços de cores e dois modelos de cores. A segunda fase determina a posição da mão. Nesta fase dois algoritmos são implementados e testados. Na terceira a fase, a orientação da mão é determinada através de uma técnica conhecida na Visão Computacional denominada Momentos de Imagem. Em seguida, através da análise do contorno da mão, algumas características são detectadas, como as pontas dos dedos, os vales entre os dedos e o pulso, as quais podem ser utilizadas para calcular a posição e orientação da mão em 3D. Ao longo deste volume descreve-se em maiores detalhes cada fase de desenvolvimento do projeto juntamente com as técnicas utilizadas e seus respectivos resultados.
50

Detecção de esqueletos 2D baseada em imagens

Souto Júnior, Humberto Dumont January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:25Z (GMT). No. of bitstreams: 1 000434222-Texto+Completo-0.pdf: 14211958 bytes, checksum: 1b67ada73c728e90c60ddde86ab8bd89 (MD5) Previous issue date: 2011 / There are several situations in which posture detection of humans in pictures has an important role, such as: security systems, measuring athletic performance, virtual reality applications, among others. Besides that, knowing the members locations of a person in a picture may reveal information about the picture context. One example of context can be if the picture is illustrating a party with a happy person. This work presents a set of methods to provide automatic posture detection from a single image, without any manual intervention or any previous knowledge about the picture (for example, photographer’s position, clothes texture or even ocluded members). / Existem diversas situações em que a detecção de postura de uma pessoa em fotografias desempenhaum papel importante, tais como: sistemas de segurança, medição de desempenho atlético, aplicações em sistemas de realidade virtual, dentre outras. Além disso, saber a posição dos membrosde uma pessoa em uma fotografia pode revelar inclusive muito sobre o contexto que a fotografiafoi tirada. Podendo revelar, por exemplo, se a cena trata-se de uma festa e se a pessoa está feliz. Esta dissertação apresenta um conjunto de métodos que, quando utilizados juntamente, realizam atarefa de estimar a postura de uma pessoa a partir de uma única imagem, sem que haja intervençãoexterna de um usuário e sem que se tenha qualquer conhecimento prévio sobre a fotografia (tais como posição do fotógrafo em relação à pessoa, textura de roupa ou se há membros oclusos).

Page generated in 0.1099 seconds