• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 262
  • 17
  • 4
  • 1
  • Tagged with
  • 285
  • 285
  • 229
  • 212
  • 67
  • 63
  • 61
  • 47
  • 47
  • 41
  • 39
  • 35
  • 35
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Estimativa da idade óssea através da análise carpal baseada na simplificação do método de Eklof & Ringertz / Estimative of the skeletal age through of carpal analysis based on the simplification of Eklof & Ringertz method

Olivete Júnior, Celso 07 April 2005 (has links)
Este trabalho apresenta uma metodologia semi-automática e simplificada para estimação da idade óssea baseada no método de Eklof & Ringertz. Fundamenta-se no processamento e extração de informações de imagens radiográficas da mão, mostrando a real influência do efeito Heel nesse tipo de imagem. Apresenta resultados obtidos com a aplicação de algoritmos de thresholding, com e sem a correção do efeito Heel,e propõe uma metodologia para isolar os ossos do tecido da mão para obtenção de dimensões dos mesmos. Essas dimensões foram usadas como informações para a estimação da idade óssea de seres humanos em fase de crescimento, buscando uma simplificação do método de Eklof & Ringertz. / This research presents a semi-automatic and simplified methodology to estimate skeletal age by using the Eklof & Ringertz method. The method is based on processing and extraction of hand radiographic images information, showing the Heel effect real influence in this type of image. The results obtained with application of thresholding algorithms, with and without Heel effect correction are presented and a methodology to isolate bone from hands tissue for dimension measurements is proposed. These dimensions were used as the information for skeletal age estimation of humans in the growth phase, on order to simplify the Eklof & Ringertz method.
202

Segmentação de imagens por classificação de cores: uma abordagem neural. / Image segmentation by color classification: a neural approach.

Simões, Alexandre da Silva 02 June 2000 (has links)
A presente dissertação aborda a segmentação de imagens coloridas através do processo de classificação de cores, isto é, a segmentação de imagens baseada no atributo cor dos pixels. O problema a ser tratado diz respeito à obtenção de uma classificação de cores tão próxima à humana quanto o possível. Em outros termos, busca-se uma classificação robusta à variação de grandezas como a iluminação ou brilho da cor, além de ser tolerante a erros no processo de amostragem. Tal problemática é encontrada em diversas situações práticas que sofram influência do ambiente, sobretudo no domínio de aplicação: o futebol de robôs. Com relação a tal problema, diversas questões permanecem abertas, tais como a forma de representação de cores e o tipo de classificador capaz de maximizar o desempenho da classificação. As modelagens clássicas, de forma geral, têm se mostrado inadequadas nesse contexto, estimulando-nos a buscar novas soluções. Assim sendo, apresentamos um classificador utilizando uma das técnicas que tem mostrado grande aplicabilidade nesse âmbito: as redes neurais artificiais. A aplicabilidade da técnica esbarra na obtenção de uma generalização adequada por parte da rede para o problema proposto, o que implica na necessidade de uma metodologia para o fornecimento de exemplos na fase de treinamento da rede. Desta forma, além da modelagem e implementação do classificador, buscamos proceder uma investigação a cerca de sua generalização em contextos diversos para situações não presentes no universo de treinamento, visando determinar o conjunto de fatores (sistema de representação de cores, metodologia de fornecimento de exemplos e arquitetura de rede) que maximizem o desempenho do classificador. / The present work approaches the segmentation of colored images through the process of color classification, i.e., the segmentation of images based on the color attribute of pixels. We look for a color classification as close as possible of human classification. In other words, we look for a robust classification with respect to the variation of illumination and color brightness, which tries to be tolerant to errors in the sampling process. We may find such kind of problems is various practical situations, for instance, situations that is influenced from the environment in the application domain: the robotic soccer. With regard to this problem, there are still diverse questions that remain unsolved, such as color representation form and type of classifier which maximizes the classification performance. In fact, classic models have shown to be inadequate in this context, in general, stimulating us to investigate new solutions. In our work, we present a classifier using one technique that has shown great applicability in this scope: the artificial neural networks. In order to obtain a correct generalization in the network, we faced the necessity to build a methodology to supply examples in the training phase of the network. In short, we model and implement a classifier, while searching to asses about its generalization power in different contexts and in the universe of training, so as to determine the set of factors (system of representation of colors, methodology of supply of examples and architecture of network) that maximizes its performance.
203

Aprendizado não-supervisionado em redes neurais pulsadas de base radial. / Unsupervised learning in pulsed neural networks with radial basis function.

Simões, Alexandre da Silva 07 April 2006 (has links)
Redes neurais pulsadas - redes que utilizam uma codificação temporal da informação - têm despontado como uma nova e promissora abordagem dentro do paradigma conexionista emergente da ciência cognitiva. Um desses novos modelos é a rede neural pulsada de base radial, capaz de armazenar informação nos tempos de atraso axonais dos neurônios e que comporta algoritmos explícitos de treinamento. A recente proposição de uma sistemática para a codificação temporal dos dados de entrada utilizando campos receptivos gaussianos tem apresentado interessantes resultados na tarefa do agrupamento de dados (clustering). Este trabalho propõe uma função para o aprendizado não supervisionado dessa rede, com o objetivo de simplificar a sistemática de calibração de alguns dos seus parâmetros-chave, aprimorando a convergência da rede neural pulsada no aprendizado baseado em instâncias. O desempenho desse modelo é avaliado na tarefa de classificação de padrões, particularmente na classificação de pixels em imagens coloridas no domínio da visão computacional. / Pulsed neural networks - networks that encode information in the timing of spikes - have been studied as a new and promising approach in the artificial neural networks paradigm, emergent from cognitive science. One of these new models is the pulsed neural network with radial basis function, a network able to store information in the axonal propagation delay of neurons. Recently, a new method for encoding input-data by population code using gaussian receptive fields has showed interesting results in the clustering task. The present work proposes a function for the unsupervised learning task in this network, which goal includes the simplification of the calibration of the network key parameters and the enhancement of the pulsed neural network convergence to instance based learning. The performance of this model is evaluated for pattern classification, particularly for the pixel colors classification task, in the computer vision domain.
204

Segmentação e quantificação de tecidos em imagens coloridas de úlceras de perna. / Segmentation and quantification of tissues in leg ulcers color images

Perez, Andres Anobile 31 August 2001 (has links)
Neste trabalho foi desenvolvida uma metodologia de avaliação e monitoramento de pacientes com úlceras de perna baseada nas características dos tecidos internos dessas feridas. Os tecidos internos podem ser classificados como granulado, fibrina e necrosado, e a avaliação da área de cada um desses tecidos fornece para o clínico dados referentes ao estado da úlcera.A metodologia extrai essas informações a partir de imagens digitalizadas das lesões. Para tanto, a área referente à úlcera é segmentada e em seguida a área interna processada por uma rede neural, que tem o propósito de classificar cada ponto para um dos tecidos analisados. Os algoritmos desenvolvidos operam sobre imagens coloridas, já que cada tecido em uma imagem só pode ser identificado por sua cor. Este trabalho propõe ainda uma metodologia de extração de características das lesões através de uma forma não invasiva utilizando, para tanto, algoritmos de visão computacional. / The aim of this work was the development of a monitoring and evaluation methodology of leg ulcers patients based on the features of the inner tissues of these wounds. The internal tissues can be classified as granulation, slough and necrotic, and the evaluation of the area of each one of these tissues can be used by the specialist to help with the patient''s diagnosis. The methodology extracts these information from the wound digitized images. For this, the wound area is segmented and the inner region or the segmented area is processed by a neural network that classifies each point of the analyzed tissues. The developed algorithms operate on color images since each tissue in an image can only be analyzed by its colors. In this work has also proposed a feature extraction methodology of the wounds through a non-invasive way using computer vision algorithms.
205

Detecção de obstáculos usando fusão de dados de percepção 3D e radar em veículos automotivos / Obstacle detection using 3D perception and radar data fusion in automotive vehicles

Rosero, Luis Alberto Rosero 30 January 2017 (has links)
Este projeto de mestrado visa a pesquisa e o desenvolvimento de métodos e algoritmos, relacionados ao uso de radares, visão computacional, calibração e fusão de sensores em veículos autônomos/inteligentes para fazer a detecção de obstáculos. O processo de detecção de obstáculos se divide em três etapas, a primeira é a leitura de sinais de Radar, do LiDAR e a captura de dados da câmera estéreo devidamente calibrados, a segunda etapa é a fusão de dados obtidos na etapa anterior (Radar+câmera, Radar+LIDAR 3D), a terceira etapa é a extração de características das informações obtidas, identificando e diferenciando o plano de suporte (chão) dos obstáculos, e finalmente realizando a detecção dos obstáculos resultantes da fusão dos dados. Assim é possível diferenciar os diversos tipos de elementos identificados pelo Radar e que são confirmados e unidos aos dados obtidos por visão computacional ou LIDAR (nuvens de pontos), obtendo uma descrição mais precisa do contorno, formato, tamanho e posicionamento destes. Na tarefa de detecção é importante localizar e segmentar os obstáculos para posteriormente tomar decisões referentes ao controle do veículo autônomo/inteligente. É importante destacar que o Radar opera em condições adversas (pouca ou nenhuma iluminação, com poeira ou neblina), porém permite obter apenas pontos isolados representando os obstáculos (esparsos). Por outro lado, a câmera estéreo e o LIDAR 3D permitem definir os contornos dos objetos representando mais adequadamente seu volume, porém no caso da câmera esta é mais suscetível a variações na iluminação e a condições restritas ambientais e de visibilidade (p.ex. poeira, neblina, chuva). Também devemos destacar que antes do processo de fusão é importante alinhar espacialmente os dados dos sensores, isto e calibrar adequadamente os sensores para poder transladar dados fornecidos por um sensor referenciado no próprio sistema de coordenadas para um outro sistema de coordenadas de outro sensor ou para um sistema de coordenadas global. Este projeto foi desenvolvido usando a plataforma CaRINA II desenvolvida junto ao Laboratório LRM do ICMC/USP São Carlos. Por fim, o projeto foi implementado usando o ambiente ROS, OpenCV e PCL, permitindo a realização de experimentos com dados reais de Radar, LIDAR e câmera estéreo, bem como realizando uma avaliação da qualidade da fusão dos dados e detecção de obstáculos comestes sensores. / This masters project aims to research and develop methods and algorithms related to the use of radars, computer vision, calibration and sensor data fusion in autonomous / intelligent vehicles to detect obstacles. The obstacle detection process is divided into three stages, the first one is the reading of Radar, LiDAR signals and the data capture of the stereo camera properly calibrated, the second stage is the fusion of data obtained in the previous stage(Radar + Camera, Radar + 3D LIDAR), the third step is the extraction of characteristics of the information obtained, identifying and differentiating the support plane(ground) of the obstacles, and finally realizing the detection of the obstacles resulting from the fusion of the data. Thus it is possible to differentiate types of elements identified by the Radar and that are confirmed and united to the data obtained by computational vision or LIDAR (point cloud), obtaining amore precise description of the contour, format, size and positioning of these. During the detection task it is important to locate and segment the obstacles to later make decisions regarding the control of the autonomous / intelligent vehicle. It is important to note that Radar operates in adverse conditions (little or no light, with dust or fog), but allows only isolated points representing obstacles (sparse), where on the other hand, the stereo camera and LIDAR 3D allow to define the shapeand size of objects. As for the camera, this is more susceptible to variations in lighting and to environmental and visibility restricted conditions (eg dust, haze, rain). It is important to spatially align the sensor data, calibrating the sensors appropriately, to be able to translate data provided by a sensor referenced in the coordinate system itself to another coordinate system of another sensor or to a global coordinate system. This project was developed using the CaRINA II platform developed by the LRM Laboratory ICMC / USP São Carlos. Finally, the project was implemented using the ROS, OpenCV and PCL environments, allowing experiments with real data from Radar, LIDAR and stereo camera, as well as performing an evaluation of the quality of the data fusion and detection of obstacles with these sensors .
206

PROCEDIMENTO PARA AUTOLOCALIZAÇÃO DE ROBÔS EM CASAS DE VEGETAÇÃO UTILIZANDO DESCRITORES SURF: Implementação Sequencial e Paralela

Orloski, Andrey 04 September 2015 (has links)
Made available in DSpace on 2017-07-21T14:19:25Z (GMT). No. of bitstreams: 1 Andrey Orloski.pdf: 5923583 bytes, checksum: 1a18c76b30193410838467808e3fa40d (MD5) Previous issue date: 2015-09-04 / This paper describes a procedure for self-localization of mobile and autonomous agrobots in greenhouses, that is, the determination of the robot's position relative to a coordinate system,using procedures and computational resources. The proposed procedure uses computer vision techniques to recognize markers objects in the greenhouse and, from them, estimate the coordinate of the robot in a parallel plane to the surface of the stove. The detection of the presence of markers in the scene is performed using the SURF algorithm. To enable the estimation of coordinates, based on data contained in a single image, the method of Rahman et al. (2008), which consists in etermining the distance between a camera and a marker object has been extended to allow the coordinate calculation. The performance of the procedure was evaluated in three experiments. In the first experiment, the objective was to verify, in the laboratory, the influence of image resolution on accuracy. The results indicate that by reducing the image resolution, the range of the process is impaired for the recognition of the markers. These results also show that by reducing the resolution, the error in estimating the coordinates relative to the distance between the camera and the marker increases. The second experiment ran a test that evaluates the computational performance of the SURF algorithm, in terms of computing time, in the image processing. This is important because agrobots usually need to perform tasks that require the processing power in real time. The results of this test indicate that the efficiency of the procedure drops with the increase of image resolution. A second test compared the processing time of two implementations of the algorithm. One explores a sequential version of the SURF algorithm and another uses a parallel implementation. The results of this test suggest that the parallel implementation is more efficient in all tested resolutions, with an almost constant proportionate improvement.The third experiment was performed in a greenhouse to evaluate the performance of the proposed procedure in the environment for which it was designed. Field results were similar to the laboratory, but indicate that lighting variations require parameter settings of the SURF algorithm. / Este trabalho descreve um procedimento para autolocalização de agrobots móveis e autônomos em casas de vegetação. Isto é, a determinação da posição do robô em relação a um sistema de coordenadas, usando procedimentos e recursos computacionais. O procedimento proposto emprega técnicas de visão computacional para reconhecer objetos marcadores na casa de vegetação e, a partir deles, estimar a coordenada do robô em um plano paralelo a superfície da estufa. A detecção da presença dos marcadores na cena é realizada através do algoritmo SURF. Para viabilizar a estimativa das coordenadas, a partir de dados contidos em uma única imagem, o método de Rahman et al. (2008), que consiste em determinar a distância entre uma câmera e um objeto marcador, foi estendido para permitir o cômputo de coordenadas. O desempenho do procedimento proposto foi avaliado em três experimentos. No primeiro experimento, o objetivo foi verificar, em laboratório, a influência da resolução da imagem sobre a precisão. Os resultados indicam que, ao reduzir a resolução da imagem, o alcance do procedimento é prejudicado para reconhecimento dos marcadores. Estes resultados também mostram que, ao reduzir a resolução, o erro na estimativa das coordenadas em relação à distância entre a câmera e o marcador aumenta. O segundo experimento executou um teste que avalia o desempenho computacional do algoritmo SURF, em termos de tempo de computação, no processamento das imagens. Isto é importante pois agrobots usualmente precisam executar tarefas que demandam capacidade de processamento em tempo real. Os resultados deste teste indicam que a eficiência do procedimento cai com o aumento da resolução da imagem. Um segundo teste comparou o tempo de processamento de duas implementações do algoritmo. Uma que explora uma versão sequencial do algoritmo SURF e outra que usa uma implementação paralela. Os resultados deste teste sugerem que a implementação paralela foi mais eficiente em todas as resoluções testadas, apresentando uma melhora proporcional quase constante. O terceiro experimento foi realizado em uma casa de vegetação com objetivo de avaliar o desempenho do procedimento proposto no ambiente para o qual foi projetado. Os resultados de campo se mostraram semelhantes aos do laboratório, mas indicam que variações de iluminação exigem ajustes de parâmetros do algoritmo SURF.
207

Proposta para aceleração de desempenho de algoritmos de visão computacional em sistemas embarcados / Proposed algorithms performance acceleration computer vision in embedded systems

Curvello, André Márcio de Lima 10 June 2016 (has links)
O presente trabalho apresenta um benchmark para avaliar o desempenho de uma plataforma embarcada WandBoard Quad no processamento de imagens, considerando o uso da sua GPU Vivante GC2000 na execução de rotinas usando OpenGL ES 2.0. Para esse fim, foi tomado por base a execução de filtros de imagem em CPU e GPU. Os filtros são as aplicações mais comumente utilizadas em processamento de imagens, que por sua vez operam por meio de convoluções, técnica esta que faz uso de sucessivas multiplicações matriciais, o que justifica um alto custo computacional dos algoritmos de filtros de imagem em processamento de imagens. Dessa forma, o emprego da GPU em sistemas embarcados é uma interessante alternativa que torna viável a realização de processamento de imagem nestes sistemas, pois além de fazer uso de um recurso presente em uma grande gama de dispositivos presentes no mercado, é capaz de acelerar a execução de algoritmos de processamento de imagem, que por sua vez são a base para aplicações de visão computacional tais como reconhecimento facial, reconhecimento de gestos, dentre outras. Tais aplicações tornam-se cada vez mais requisitadas em um cenário de uso e consumo em aplicações modernas de sistemas embarcados. Para embasar esse objetivo foram realizados estudos comparativos de desempenho entre sistemas e entre bibliotecas capazes de auxiliar no aproveitamento de recursos de processadores multicore. Para comprovar o potencial do assunto abordado e fundamentar a proposta do presente trabalho, foi realizado um benchmark na forma de uma sequência de testes, tendo como alvo uma aplicação modelo que executa o algoritmo do Filtro de Sobel sobre um fluxo de imagens capturadas de uma webcam. A aplicação foi executada diretamente na CPU e também na GPU embarcada. Como resultado, a execução em GPU por meio de OpenGL ES 2.0 alcançou desempenho quase 10 vezes maior com relação à execução em CPU, e considerando tempos de readback, obteve ganho de desempenho total de até 4 vezes. / This work presents a benchmark for evaluating the performance of an embedded WandBoard Quad platform in image processing, considering the use of its GPU Vivante GC2000 in executing routines using OpenGL ES 2.0. To this goal, it has relied upon the execution of image filters in CPU and GPU. The filters are the most commonly applications used in image processing, which in turn operate through convolutions, a technique which makes use of successive matrix multiplications, which justifies a high computational cost of image filters algorithms for image processing. Thus, the use of the GPU for embedded systems is an interesting alternative that makes it feasible to image processing performing in these systems, as well as make use of a present feature in a wide range of devices on the market, it is able to accelerate image processing algorithms, which in turn are the basis for computer vision applications such as facial recognition, gesture recognition, among others. Such applications become increasingly required in a consumption and usage scenario in modern applications of embedded systems. To support this goal were carried out a comparative studies of performance between systems and between libraries capable of assisting in the use of multicore processors resources. To prove the potential of the subject matter and explain the purpose of this study, it was performed a benchmark in the form of a sequence of tests, targeting a model application that runs Sobel filter algorithm on a stream of images captured from a webcam. The application was performed directly on the embbedded CPU and GPU. As a result, running on GPU via OpenGL ES 2.0 performance achieved nearly 10 times higher with respect to the running CPU, and considering readback times, achieved total performance gain of up to 4 times.
208

Revendo o problema da detecção de retas através dos olhos da aranha. / Straight Line detection revisited: Through the eyes of the spider.

Costa, Felipe Miney Gonçalves da 06 July 1999 (has links)
Visão é um processo que envolve uma grande quantidade de informações, as quais precisam ser otimizadas de alguma forma para propiciar um processamento eficiente. Grande parte das informações visuais estão contidas nos contornos de uma imagem e uma grande redução no volume dos dados pode ser conseguida com a análise dos contornos. Além dos contornos, a detecção de segmentos de reta é o próximo passo na compressão das informações visuais. A detecção de retas ocorre no sistema visual humano, e também no de outros seres vivos. Entre os invertebrados terrestres, o melhor sistema de visão é o das aranhas da família Salticidae e este apresenta características que facilitam a detecção de retas. Este trabalho propõe um novo método de detecção de retas, baseado no sistema visual das aranhas saltadoras, que aborda este problema através de um enfoque inédito, por otimização. O método realiza a busca por retas através de janelas lineares. Para isso, a detecção de retas será feita em um espaço de parâmetros, com a utilização do algoritmo de maximização de funções \"Downhill Simplex\". O método desenvolvido leva em consideração a natureza discreta da imagem e do espaço de parâmetros utilizado, e este trabalho inclui um estudo detalhado destes espaços discretos. O método incorpora, para lidar adequadamente com as peculiaridades do problema, características como \"Simulated Annealing\" e largura adaptativa. O desempenho do método depende de um conjunto de parâmetros cujo comportamento é de difícil previsão, e a escolha de um conjunto foi realizada através de um algoritmo genético. O trabalho envolve também a construção de um protótipo para a realização de testes utilizando o método desenvolvido. Os resultados foram analisados quanto a precisão na detecção de retas, ao tempo de processamento e a movimentação das janelas lineares, relacionada aos esforços na busca por retas. / Vision is a process that involves a large amount of information that need to be somehow optimized to allow efficient processing. Most of the visual information is contained in the contours of an image and a considerable reduction in the amount of data can be achieved by fmding and processing these contours. The next step to further compress the visual data is to fmd straight segments, and represent the contours in terms of these entities. Straight-line segment detection is performed by the human visual system, as well as by other creatures. Among terrestrial invertebrates, the best visual system is that of the Salticidae family of spiders, also known as jumping spiders. This visual system presents some characteristics that facilitate the detection of straight-lines. The present work proposes a new method for straight-line detection, based on the visual system of the jumping spiders, using linear windows. This method approach the straight-line detection problem through an optimization point of view yet unexplored in literature. The detection will be accomplished in a parameter space, using the \"Downhill Simplex\" maximization algorithm. The method considers the discrete nature of both the image and the parameter spaces, and this work includes a detailed analysis of these discrete spaces. The method also incorporates, to adequately deal with the specific characteristics of the problem, resources such as \"Simulated Annealing\" and adaptive width of the linear windows. The performance of the method depends on a set of parameters, which behavior is hard to predict, and the choice of an adequate set was made using a genetic algorithm. The work also involves the project and construction of a prototype, to evaluate the proposed method. Results were analyzed regarding their precision, processing time and the movements of the linear windows, related to the effort made to detect the straight lines.
209

Detecção de movimentos suspeitos em seqüências de vídeo

Soldera, John 28 February 2007 (has links)
Made available in DSpace on 2015-03-05T13:59:41Z (GMT). No. of bitstreams: 0 Previous issue date: 28 / Hewlett-Packard Brasil Ltda / É proposto neste trabalho novas técnicas para automatizar processos em vigilância eletrônica. A entrada (input) do algoritmo descrito são trajetórias das pessoas capturadas de seqüências de vídeo filmadas, as quais são utilizadas para definição de padrões de comportamentos de pedestres. O modelo proposto se baseia em dois critérios para a definição de comportamentos como usuais ou não-usuais: a ocupação espacial e as relações entre as pessoas. O critério de ocupação espacial inclui um determinado tempo de treinamento onde a cena é avaliada para gerar uma base de dados que contabiliza a ocupação espacial em cada região da cena. Através desta base de dados, novas trajetórias são classificadas como usuais ou não-usuais. As trajetórias usuais são aquelas coerentes com o banco de dados gerado pelo treinamento, correspondendo às áreas mais ocupadas, enquanto que as trajetórias não-usuais são aquelas nas quais andaram em regiões de baixa ocupação espacial. O critério das relações interpessoais utiliza Diagramas de V / It’s proposed in this work new techniques to automate processes in electronic surveillance systems. The input of the algorithm described is the trajectories of people captured from real filmed sequences, which are used to define pedestrian behavior patterns. The proposed model is based in two criteria to define behaviors as usual or unusual: spatial occupancy and relations among people. The spatial occupancy criterion includes a certain training period when the scene is evaluated in order to generate a database which accounts for the spatial occupancy in each scene region. Through this database, new trajectories are classified as usual or unusual. Usual trajectories are those coherent with the training database, corresponding to the most occupied areas; whereas unusual trajectories are those that occur in low spatial occupancy regions. The interpersonal relation analysis criterion employs Voronoi Diagrams in order to evaluate a set of parameters (such as distance between neighbors and other psychosocial char
210

Rastreamento de objetos usando descritores estatísticos / Object tracking using statistical descriptors

Dihl, Leandro Lorenzett 13 March 2009 (has links)
Made available in DSpace on 2015-03-05T14:01:20Z (GMT). No. of bitstreams: 0 Previous issue date: 13 / Nenhuma / O baixo custo dos sistemas de aquisição de imagens e o aumento no poder computacional das máquinas disponíveis têm causado uma demanda crescente pela análise automatizada de vídeo, em diversas aplicações, como segurança, interfaces homem-computador, análise de desempenho esportivo, etc. O rastreamento de objetos através de câmeras de vídeo é parte desta análise, e tem-se mostrado um problema desafiador na área de visão computacional. Este trabalho apresenta uma nova abordagem para o rastreamento de objetos baseada em fragmentos. Inicialmente, a região selecionada para o rastreamento é dividida em sub-regiões retangulares (fragmentos), e cada fragmento é rastreado independentemente. Além disso, o histórico de movimentação do objeto é utilizado para estimar sua posição no quadro seguinte. O deslocamento global do objeto é então obtido combinando os deslocamentos de cada fragmento e o deslocamento previsto, de modo a priorizar fragmentos com deslocamento coerente. Um esquema de atualização é aplicado no modelo / The low cost of image acquisition systems and increase the computational power of available machines have caused a growing demand for automated video analysis in several applications, such as surveillance, human-computer interfaces, analysis of sports performance, etc. Object tracking through the video sequence is part of this analysis, and it has been a challenging problem in the computer vision area. This work presents a new approach for object tracking based on fragments. Initially, the region selected for tracking is divided into rectangular subregions (patches, or fragments), and each patch is tracked independently. Moreover, the motion history of the object is used to estimate its position in the subsequent frames. The overall displacement of the object is then obtained combining the displacements of each patch and the predicted displacement vector in order to priorize fragments presenting consistent displacement. An update scheme is also applied to the model, to deal with illumination and appearance c

Page generated in 0.1195 seconds