• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5395
  • 422
  • 156
  • 128
  • 128
  • 125
  • 70
  • 58
  • 56
  • 56
  • 55
  • 31
  • 6
  • 3
  • 2
  • Tagged with
  • 5975
  • 2379
  • 1751
  • 977
  • 964
  • 911
  • 895
  • 881
  • 697
  • 692
  • 672
  • 553
  • 515
  • 459
  • 441
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Super-resolução simultânea para sequência de imagens

Zibetti, Marcelo Victor Wüst January 2007 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-23T09:21:29Z (GMT). No. of bitstreams: 1 239017.pdf: 3211030 bytes, checksum: 05f5db2ff9bad2763f83f79b3febd3dc (MD5) / Esta tese apresenta duas contribuições: uma nova classe de algoritmos de super-resolução (SR) simultânea e um novo método de determinação dos coeficientes de regularização. Os algoritmos SR buscam produzir imagens com resolução superior à fornecida pelo dispositivo de aquisição. Os algoritmos de super-resolução simultânea, por sua vez, produzem toda uma seqüência de imagens de alta resolução num único processo. O algoritmo SR simultâneo existente \cite{Borman-1999} é capaz de produzir imagens de qualidade superior à dos métodos tradicionais \cite{Kang-2003}, porque explora a similaridade entre as imagens em alta resolução. Contudo, o custo computacional deste método é alto e ele apresenta baixa robustez aos grandes erros de movimento. A primeira contribuição desta tese foi o aprimoramento dos métodos SR simultâneos. As expressões que exploram similaridade entre as imagens em alta resolução foram preservadas e generalizadas, ao passo que algumas expressões relacionadas aos dados, que são sensíveis aos grandes erros de movimento e são redundantes para a solução do problema, foram removidas. Este aprimoramento reduziu o custo computacional e possibilitou um maior controle sobre os grandes erros de movimento, aumentando a robustez do método e mantendo a qualidade superior das estimativas. A determinação dos coeficientes de regularização é uma etapa necessária nos algoritmos SR estudados nesta tese. Os métodos clássicos de determinação dos coeficientes, que possuem boa qualidade de estimativa e grande estabilidade, têm alto custo computacional no problema de super-resolução; por outro lado, métodos rápidos de determinação dos coeficientes, ou têm pouca qualidade na estimativa, ou são instáveis. Logo, a segunda contribuição proposta nesta tese é um novo método determinação dos coeficientes de regularização. Este método, baseado na teoria estatística Bayesiana JMAP e nos métodos baseados na Curva-L, alcança boa qualidade e grande estabilidade de estimativa, além de obter um baixo custo computacional.
52

"Echo Offline" : uma ferramenta para medidas ecocardiográficas pós-exame

Zuccolotto, Marcos January 2003 (has links)
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.
53

Detecção de movimento, acompanhamento e extração de informações de objetos móveis

Haupt, Alexandre Gaspary January 2004 (has links)
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
54

O uso da transformada Wavelet bi-dimensional no conceito do espaço de escala

Doering, Dionísio January 2005 (has links)
O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.
55

Visualização simultânea e multi-nível de informações de monitoramento de cluster

Schnorr, Lucas Mello January 2005 (has links)
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
56

Um estudo sobre a transformada rápida de Fourier e aplicações

Gonçalves, Louis Augusto January 2004 (has links)
Este trabalho é uma síntese da transformada de Fourier na forma discreta e uma de suas principais aplicações à computação gráfica, a restauração de imagens corrompidas por movimento, seja do aparelho óptico ou da própria imagem.
57

Arrastamento de partículas submetidas a variações de velocidade

Rodrigues, Ronaldo do Espírito Santo January 2003 (has links)
A visualização de escoamentos e a medição de campos de velocidades têm sido instrumentos de grande valia na compreensão de fenômenos na Mecânica dos Fluidos. Há muito tempo existem processos de medição de velocidade tais como tubo de Pitot ou de Venturi. Entretanto estes métodos são denominados invasivos. Na década de 70 surgiu o método não invasivo de determinação de velocidade e ficou conhecido como Velocimetria de Laser Doppler, em alusão ao fenômeno físico envolvido no processo de medição. Na década de 80, também do século passado, surgiram técnicas como Velocimetria por Speckle e Velocimetria por Imagem de Partículas. Estas, apesar de serem incluídas como não invasivas, na realidade devem colocar partículas traçadoras e/ou marcadoras (dependendo da técnica). Primeiramente, deve-se fazer considerações a respeito do quão intrusivo é a colocação de uma determinada partícula em um determinado escoamento. Em segundo lugar, deve-se efetuar uma análise do quanto o movimento da partícula reflete o movimento do escoamento, principalmente naqueles em que existem fortes gradientes de velocidade. Estas são questões cruciais para estes processos. O objetivo do presente trabalho é fazer uma avaliação do acompanhamento ou não de uma partícula, esférica, em um escoamento com gradientes de velocidade. Será estudada a influência do diâmetro da partícula. Para tanto será utilizado um perfil de Venturi e a técnica será a de Velocimetria de Imagem de Partículas (PIV em inglês), utilizando o tamanho do rastro deixado pelas partículas dispersas no fluido, determinando sua velocidade. Para determinação deste valor, foi desenvolvido um método de análise de histograma. / The flow visualization and measurements of velocity fields have been important instruments to phenomena understanding in Fluid Mechanics. Process of velocity measurements have been used a long time ago, like Pitot and Venturi pipes. Those methods are named invasive. In seventies of the last century rised a method non invasive to determine velocity in flows known as Laser Doppler Velocimetry (LDV), in respect of the physical phenomena involved in measurement process. In eighties, of last century too, rised techniques like Laser Speckle Velocimetry (LSV) and Particle Image Velocimetry (PIV). These techniques, although have been classified as non intrusive, actually must spread out tracer and/or marker particles, depending upon what technique is been used. First, one has to analyze of how non intrusive is to spread out particles in one specified flow. Second, it is necessary to study of how a particle movement reflects the flow, mainly in those flows submitted upon high velocity gradients. Those questions are essentials in this kind of measurement. The aim of this present work is to evaluate of how suitable the particle movement is to flow movement. The particle will be considered as spherical, in a flow with velocity gradients. Will be studied the influence of particle diameter. To implement this work, the pipe profile chosen was Venturi and the technique will be Particle Image Velocimetry, using the length of particle streaks to evaluate its velocity. It was developed a method that analyzes the histogram.
58

Projeto de sistemas distribuídos

Santos, Salvador Antonio dos January 1987 (has links)
É proposta uma metodologia de desenvolvimento de sistemas, que reúne técnicas de PED - Processamento Eletrônico de Dados, 0&M - Organização & Métodos e PO - Pesquisa Operacional, possibilitando a ação integrada dos especialistas, na elaboração de um projeto de sistemas distribuídos. Os produtos da metodologia são a configura0o do "hardware" e o "software" aplicativo. 0 "hardware" 6 configurado de forma estruturada em três níveis: topologia, configuração básica e configuração final. Cada nível é projetado através de programa0o linear, métodos heurísticos e simula0o. Para viabilizar o use destas técnicas só apresentados procedimentos de obtendo e organização de dados quantitativos. 0 "software" é considerado uma extenso do trabalho das pessoas, sendo projetado através da integração das técnicas estruturadas de desenvolvimento de sistemas, tempos e movimentos, bem como analise de arranjo físico. São discutidos os modelos físico e lógico dos sistemas de informação, sendo proposto um terceiro: modelo homem/máquina. A metodologia possibilita projetar o sistema em módulos, permitindo que o mesmo crença progressivamente com a empresa. / A system development methodology is presented. It encloses techniques from EDP - Electronic Data Processing, 08M - Organization 8 Method, OR - Operations Research and stimulates the experts from these areas to work together, to achieve the results of a distributed system design. The main products are the hardware configuration and the aplication software. The hardware configuration is structured at three levels: topology, basic configuration and final configuration. Each level is designed through linear programming, heuristic and simulation. To suport these techniques, procedures for gathering and organizing quantitative data are presented. The software is treated as an extension of the user tasks. Techniques such as structured system development, time 8 motion study and layout analysis are used in the software design process. The physical and logical models of information systems are presented and a new one is introduced: the man/machine model. This methodology enables the design of a system in modules, which provides evolutionary growth with the business expansion.
59

Localização e leitura automática de caracteres alfanuméricos : uma aplicação na identificação de veículos

Souza, Fernando Peixoto Coelho de January 2000 (has links)
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
60

Estudo do processamento das memórias de curta e longa duração

Quevedo, João Luciano de January 2002 (has links)
(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.

Page generated in 0.0916 seconds