• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3123
  • 110
  • 95
  • 94
  • 94
  • 90
  • 65
  • 29
  • 26
  • 24
  • 23
  • 23
  • 3
  • 3
  • 3
  • Tagged with
  • 3309
  • 1751
  • 1178
  • 747
  • 644
  • 638
  • 486
  • 380
  • 365
  • 348
  • 343
  • 326
  • 297
  • 293
  • 288
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Super-resolução simultânea para sequência de imagens

Zibetti, Marcelo Victor Wüst January 2007 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-23T09:21:29Z (GMT). No. of bitstreams: 1 239017.pdf: 3211030 bytes, checksum: 05f5db2ff9bad2763f83f79b3febd3dc (MD5) / Esta tese apresenta duas contribuições: uma nova classe de algoritmos de super-resolução (SR) simultânea e um novo método de determinação dos coeficientes de regularização. Os algoritmos SR buscam produzir imagens com resolução superior à fornecida pelo dispositivo de aquisição. Os algoritmos de super-resolução simultânea, por sua vez, produzem toda uma seqüência de imagens de alta resolução num único processo. O algoritmo SR simultâneo existente \cite{Borman-1999} é capaz de produzir imagens de qualidade superior à dos métodos tradicionais \cite{Kang-2003}, porque explora a similaridade entre as imagens em alta resolução. Contudo, o custo computacional deste método é alto e ele apresenta baixa robustez aos grandes erros de movimento. A primeira contribuição desta tese foi o aprimoramento dos métodos SR simultâneos. As expressões que exploram similaridade entre as imagens em alta resolução foram preservadas e generalizadas, ao passo que algumas expressões relacionadas aos dados, que são sensíveis aos grandes erros de movimento e são redundantes para a solução do problema, foram removidas. Este aprimoramento reduziu o custo computacional e possibilitou um maior controle sobre os grandes erros de movimento, aumentando a robustez do método e mantendo a qualidade superior das estimativas. A determinação dos coeficientes de regularização é uma etapa necessária nos algoritmos SR estudados nesta tese. Os métodos clássicos de determinação dos coeficientes, que possuem boa qualidade de estimativa e grande estabilidade, têm alto custo computacional no problema de super-resolução; por outro lado, métodos rápidos de determinação dos coeficientes, ou têm pouca qualidade na estimativa, ou são instáveis. Logo, a segunda contribuição proposta nesta tese é um novo método determinação dos coeficientes de regularização. Este método, baseado na teoria estatística Bayesiana JMAP e nos métodos baseados na Curva-L, alcança boa qualidade e grande estabilidade de estimativa, além de obter um baixo custo computacional.
22

Localização de sítios astronômicos através de imagens dos satélites NOAA

Mazzuca Junior, Juarez January 1999 (has links)
Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.
23

"Echo Offline" : uma ferramenta para medidas ecocardiográficas pós-exame

Zuccolotto, Marcos January 2003 (has links)
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.
24

Detecção de movimento, acompanhamento e extração de informações de objetos móveis

Haupt, Alexandre Gaspary January 2004 (has links)
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
25

O uso da transformada Wavelet bi-dimensional no conceito do espaço de escala

Doering, Dionísio January 2005 (has links)
O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.
26

Um estudo sobre a transformada rápida de Fourier e aplicações

Gonçalves, Louis Augusto January 2004 (has links)
Este trabalho é uma síntese da transformada de Fourier na forma discreta e uma de suas principais aplicações à computação gráfica, a restauração de imagens corrompidas por movimento, seja do aparelho óptico ou da própria imagem.
27

Análise de eventos tornádicos ocorridos no Rio Grande do Sul utilizando imagens dos satélites GOES e METEOSAT e o modelo regional RAMS / Analisys of events tornadolike occured in the Rio Grande do Sul using images of satellites goes and meteosat and regional model rams GOES

Simões, Débora de Souza January 2005 (has links)
A ocorrência de tornados sobre o Rio Grande do Sul é mais frequente do que imagina a maioria de seus habitantes. Em 08 de julho de 2003 em São Francisco de Paula, 11 de dezembro de 2003 em Antônio Prado e 11 de janeiro de 2004 em Palmares do Sul, houve a formação de um tornado que causou destruição e até mortes nestas cidades. Neste trabalho foram estudados tais eventos através da análise de imagens dos satélites GOES-12 e METEOSAT-7 nos canais do visível, do vapor d'água e do infravermelho termal, e também através de simulações obtidas com o modelo de mesoescala RAMS. Com esta finalidade efetuou-se um profundo estudo sobre o ambiente convectivo gerador de tornados. Os resultados da análise das imagens de satélite mostraram que todos os casos foram gerados em complexos convectivos associados com áreas de instabilidade. Nos casos São Francisco de Paula e Antônio Prado havia a presença de um jato de baixos níveis que transportava umidade da Bacia Amazônica alimentando os complexos convectivos. No caso Palmares do Sul a umidade foi fornecida pelo Oceano Atlântico devido ao intenso escoamento de leste do vento horizontal e ficou caracterizada a formação de nuvem do tipo vírgula invertida. A interpretação das simulações com o RAMS mostram a eficiência deste modelo em identificar áreas de convergência , divergência e vorticidade horizontal, capazes de gerar tornados. No entanto o modelo subestimou em até quatro vezes os dados de velocidade do vento horizontal e concluiu-se que o mesmo aconteceu para a velocidade vertical. Dos casos estudados, o de São Francisco de Paula foi o que apresentou o comportamento atmosférico mais compatível com o comportamento de ambiente tornádico descrito por outros autores. / The occurrence of twisters in Rio Grande do Sul is more frequent than most of its citzens can imagine. In July 08, 2003 in São Francisco de Paula, December 11, 2003 in Antônio Prado and January 11, 2004 in Palmares do Sul, was registered the formation of twisters that cause destruction and even deaths in these cities. This work analises such events through the images of satellites GOES-12 and METEOSAT-7 in the visible channel, in the water vapour and in the infra-red ray, and also through simulations with the RAMS mesoscale model. With this purpose a deep study was made on the convective environment wich produces the twister. The results of the satellite images analisis shown that all the cases had been generated in convective complexes associates with instability areas. In the São Francisco de Paula and Antônio Prado cases it had the presence of a jet of low levels that carried humidity from the Amazonian Basin feeding the convective complexes. In the Palmares do Sul case the humidity was supplied by the Atlantic Ocean due to the intense draining from east of the horizontal wind and ocurrs the formation of cloud system inverted comma. The interpretation of the RAMS simulations shows the efficiency of this model in identifying horizontal convergence, divergence and vorticity areas, able to generate twisters. However, the model under estimate in up to four times the data of the wind' s horizontal speed and we concluded that the same happenes with the vertical one. From the studied cases, the São Francisco de Paula presentes the more compatible atmospheric behavior with the one wich describes the twister like environment behavior for other authors.
28

Arrastamento de partículas submetidas a variações de velocidade

Rodrigues, Ronaldo do Espírito Santo January 2003 (has links)
A visualização de escoamentos e a medição de campos de velocidades têm sido instrumentos de grande valia na compreensão de fenômenos na Mecânica dos Fluidos. Há muito tempo existem processos de medição de velocidade tais como tubo de Pitot ou de Venturi. Entretanto estes métodos são denominados invasivos. Na década de 70 surgiu o método não invasivo de determinação de velocidade e ficou conhecido como Velocimetria de Laser Doppler, em alusão ao fenômeno físico envolvido no processo de medição. Na década de 80, também do século passado, surgiram técnicas como Velocimetria por Speckle e Velocimetria por Imagem de Partículas. Estas, apesar de serem incluídas como não invasivas, na realidade devem colocar partículas traçadoras e/ou marcadoras (dependendo da técnica). Primeiramente, deve-se fazer considerações a respeito do quão intrusivo é a colocação de uma determinada partícula em um determinado escoamento. Em segundo lugar, deve-se efetuar uma análise do quanto o movimento da partícula reflete o movimento do escoamento, principalmente naqueles em que existem fortes gradientes de velocidade. Estas são questões cruciais para estes processos. O objetivo do presente trabalho é fazer uma avaliação do acompanhamento ou não de uma partícula, esférica, em um escoamento com gradientes de velocidade. Será estudada a influência do diâmetro da partícula. Para tanto será utilizado um perfil de Venturi e a técnica será a de Velocimetria de Imagem de Partículas (PIV em inglês), utilizando o tamanho do rastro deixado pelas partículas dispersas no fluido, determinando sua velocidade. Para determinação deste valor, foi desenvolvido um método de análise de histograma. / The flow visualization and measurements of velocity fields have been important instruments to phenomena understanding in Fluid Mechanics. Process of velocity measurements have been used a long time ago, like Pitot and Venturi pipes. Those methods are named invasive. In seventies of the last century rised a method non invasive to determine velocity in flows known as Laser Doppler Velocimetry (LDV), in respect of the physical phenomena involved in measurement process. In eighties, of last century too, rised techniques like Laser Speckle Velocimetry (LSV) and Particle Image Velocimetry (PIV). These techniques, although have been classified as non intrusive, actually must spread out tracer and/or marker particles, depending upon what technique is been used. First, one has to analyze of how non intrusive is to spread out particles in one specified flow. Second, it is necessary to study of how a particle movement reflects the flow, mainly in those flows submitted upon high velocity gradients. Those questions are essentials in this kind of measurement. The aim of this present work is to evaluate of how suitable the particle movement is to flow movement. The particle will be considered as spherical, in a flow with velocity gradients. Will be studied the influence of particle diameter. To implement this work, the pipe profile chosen was Venturi and the technique will be Particle Image Velocimetry, using the length of particle streaks to evaluate its velocity. It was developed a method that analyzes the histogram.
29

Localização e leitura automática de caracteres alfanuméricos : uma aplicação na identificação de veículos

Souza, Fernando Peixoto Coelho de January 2000 (has links)
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
30

Classificação hierárquica orientada a objeto em imagens de alta resolução espacial empregando atributos espaciais e espectrais / Hierarchical object-oriented classification for images of high spatial resolution using spatials and spectrals datas

Batista, Marlos Henrique January 2006 (has links)
A alta resolução espacial, incorporada aos novos sensores remotos imageadores, apresenta um cenário que promove uma captura excessiva das variações espectrais das classes, funcionando mais como ruído e aumentando desnecessariamente a variância interna das classes. Estas características geram prejuízos no processo de classificação, pois aumentam o erro de Bayes e conseqüentemente pioram a acurácia da classificação. Por isso, a necessidade de abandonar o pixel como unidade de classificação e passar adotar regiões obtidas por segmentação prévia da imagem. Buscando introduzir no processo de classificação variáveis que pudessem se adequar a essas novas características, o presente estudo propõe-se investigar a utilização de atributos de forma e textura em adição aos atributos espectrais. Para poder avaliar a eficácia de cada atributo no processo de classificação, será utilizado um algoritmo de classificação em múltiplos estágios e entre os possíveis critérios de separabilidade será utilizada a distância de Bhattacharrya. A aplicação do algoritmo proposto foi testado sobre os dados imagem do sistema Quickbird e a implementação em ambiente Matlab. / High spatial resolution image data are becoming increasingly available to the users community. The obvious advantages introduced by high resolution data also pose some new challenges. Chief among them is the problem of digital image classification. The traditional pixel based classification procedures frequently yield poor results when applied to high spatial resolution image data. The small ground pixel size frequently captures an unnecessary high level of detail resulting in large class-variances which increase the confusion among classes. In this context, it is normally more convenient to replace individual pixels by image segments, also known as objects, as individuals to be labeled according with the existing classes. One of the main advantages of employing smaller pixels is the ability of capturing spatial information such as shape and texture which may be conveniently added to the spectral data to increase the accuracy in the resulting thematic map. In this study, it is investigated the combined use of spectral and spatial attributes in a classifier. As the data dimensionality may increase substantially due to the larger amount of data used, a feature extraction process are used in the classification procedure, rather than the original spectral and spatial data themselves. A binary decision tree classifier is used in this study to label every image segment. In a binary tree, only two classes are considered at a time on every node. The feature extraction procedure has to optimize the distance between a pair of classes. In this study, the criterion used to define the linear transformation for feature extraction is the Bhattacharyya distance. The proposed methodology is tested using high spatial resolution image data acquired by the sensor system Quickbird. Results are presented and commented.

Page generated in 0.0504 seconds