• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1435
  • 71
  • 60
  • 60
  • 60
  • 36
  • 36
  • 24
  • 23
  • 22
  • 22
  • 9
  • 2
  • Tagged with
  • 1516
  • 1516
  • 625
  • 620
  • 461
  • 335
  • 244
  • 212
  • 210
  • 194
  • 193
  • 161
  • 160
  • 158
  • 155
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Geração e leitura de QR Codes coloridos

Melgar, Max Eduardo Vizcarra 21 March 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia Elétrica, 2013. / Submitted by Luiza Silva Almeida (luizaalmeida@bce.unb.br) on 2013-07-18T17:25:03Z No. of bitstreams: 1 2013_MaxEduardoVizcarraMelgar.pdf: 13851700 bytes, checksum: 0da5da400a3d7a23f6407557540d7774 (MD5) / Approved for entry into archive by Leandro Silva Borges(leandroborges@bce.unb.br) on 2013-07-18T19:41:34Z (GMT) No. of bitstreams: 1 2013_MaxEduardoVizcarraMelgar.pdf: 13851700 bytes, checksum: 0da5da400a3d7a23f6407557540d7774 (MD5) / Made available in DSpace on 2013-07-18T19:41:34Z (GMT). No. of bitstreams: 1 2013_MaxEduardoVizcarraMelgar.pdf: 13851700 bytes, checksum: 0da5da400a3d7a23f6407557540d7774 (MD5) / Colored Quick Response Code ou CQR Code é um código matricial ou código de barra de duas dimensões que utiliza cores com o objetivo de conseguir maior quantidade de armazenamento de dados, os CQR Codes foram desenvolvidos pelo autor dessa dissertação nos anos 2011 e 2012. O CQR Code possui a mesma estrutura física do tradicional Quick Response Code ou QR Code. O primeiro modelo do CQR Code armazena o dobro de quantidade de dados e o segundo modelo armazena o triplo de quantidade de dados em comparação à mesma área de impressão do QR Code tradicio- nal. Nessa dissertação sería mostrada a geração (codificação) e a leitura (decodificação) de dois novos modelos de CQR Codes no ambiente de simulação iterativo MATLAB. A geração e leitura dos CQR Codes teve como base teórica o padrão internacional ISO/IEC 18004:2005. O primeiro modelo de CQR Code conta com cinco cores (branco, preto, vermelho, verde e azul) e armazena exatamente 1024 bits de informa¸c˜ao e 3092 bits de redundˆancia. O segundo modelo de CQR Code conta com nove cores (branco, preto, vermelho, verde, azul, ciano, amarelo, magenta e cinza) e armazena exatamente 2048 bits de informa¸c˜ao e 4576 bits de redundância. A quantidade de 1024 e 2048 bits de informação que os dois modelos de CQR Codes armazenam foi projetada para futuramente poder armazenar e transmitir protocolos de criptografia desses comprimentos. ______________________________________________________________________________ ABSTRACT / Colored Quick Response Code or CQR Code is a matrix code or a two-dimensional bar code which uses colors in order to achieve higher data storage capacity, CQR Codes were developed by the author of this document in 2011 and 2012. CQR Code has the same physical structure of the traditional Quick Response Code or QR Code. The first CQR Code model stores twice the data amount as compared with the traditional QR Code. The second CQR Code model stores triple the data amount as compared with the traditional QR Code. In this document we show the generation (coding) and recognition (decoding) of two proposed CQR Code models created in the MATLAB simulation environment. The generation and recognition of the CQR Codes has been developed based on the document ISO/IEC 18004:2005. The first model of CQR Code uses five colors (white, black, red, green and blue) and stores exactly 1024 information bits and 3392 redundancy bits. The second model of CQR Code uses nine colors (white, black, red, green, blue, cyan, yellow, magenta and gray) and stores exactly 2048 information bits and 4576 redundancy bits. The amount of 1024 and 2048 information bits that the two CQR Code models can store was designed for future storage and transmission of cryptography protocols of these sizes.
2

Um algoritmo morfologico para processamento de fotomosaicos

Araujo Junior, Francisco Pinto 20 March 1996 (has links)
Orientador: Neucimar Jeronimo Leite / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T03:12:57Z (GMT). No. of bitstreams: 1 AraujoJunior_FranciscoPinto_M.pdf: 4817739 bytes, checksum: 1dc8ac0c393cd690bf60c79049adda94 (MD5) Previous issue date: 1996 / Resumo: Nós definimos, neste trabalho, um método morfológico para combinar imagens que se interceptam através de um processo denominado photomosaicking. Um fotomosaico é definido considerando a região de interseção, entre duas imagens, na qual uma linha de costura é detectada. O método descrito aqui utiliza a noção de linha de divisor de águas de uma função para extrair informações globais de uma imagem representando a homogeneidade entre as regiões de interseção. A partir destas informações globais, nós obtemos uma linha de costura conexa e irregular, e portanto mais realista do que aquelas definidas pelos métodos existentes. / Abstract: We define a morphological algorithm for combining two overlapping images into a single one by a process named photomosaicking. A photomosaic is defined considering an overlap region between two or more images, in which we detect a join line or seam. The method described here considers the notion of the watersheds of a function to extract global informations of an image denoting the homogeneity between two overlapping regions. By taking into account global informations of the overlap region, the watershed algorithm defines a seam which is connected, irregular and thus more realistic than the existing methods for photomosaicking. / Mestrado / Mestre em Ciência da Computação
3

Uma abordagem multi-escala para segmentação de imagens

Teixeira, Marta Duarte 11 August 1999 (has links)
Orientador : Neucimar Jeronimo Leite / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-28T18:17:44Z (GMT). No. of bitstreams: 1 Teixeira_MartaDuarte_M.pdf: 3796362 bytes, checksum: aea0b2e94cf60bffcde10b8739ab51cb (MD5) Previous issue date: 1999 / Resumo: Neste trabalho abordamos o problema de segmentação de imagens através da sua representação multi-escala. Para tanto, consideramos a teoria do espaço-escala morfológico, recentemente introduzida na literatura, denominada MMDE (Multiscale Morphological DilationErosion). Este método, associado à LDA, reduz monotonicamente o número de extremos de uma imagem e, consequentemente, o número de regiões segmentadas, a partir de uma suavização da imagem original. No entanto, quando associado à segmentação de imagens, o espaço-escala MMDE apresenta dois grandes problemas: o deslocamento espacial da LDA ao longo das escalas e a dificuldade de se caracterizar o conjunto de extremos presente nos diferentes níveis de representação. O primeiro problema é abordado em nosso trabalho a partir de uma modificação homotópica da imagem. Para o espaço-escala MMDE é garantido que a posição e a altura dos mínimos (para escalas negativas) e dos máximos (para escalas positivas) são mantidas ao longo das escalas. Assim, esta propriedade permite que o conjunto de mínimos (máximos) obtidos em uma determinada escala seja utilizado como marcador num processo de reconstrução geodésica e segmentação. Garantida a preservação das estruturas da imagem, consideramos uma análise do modo como os seus extremos se fundem ao longo das escalas, e definimos um novo espaço-escala morfológico no qual a suavização é dada por uma operação idempotente. Para este espaço-escala, apresentamos critérios de controle monotônico da fusão dos extremos, obtendo um melhor conjunto de marcadores para a segmentação. Estes métodos consistem em definir, a partir de informações estritamente locais, pontos da imagem original que não devem ser transformados durante a suavização, evitando, assim, que extremos significativos se fundam / Abstract: ln this work we consider the problem of image segmentation by means of a multiscale representation. This multiscale representation is based on a recently proposed morphological scale-space theory, the Multiscale Morphological Dilation-Erosion - MMDE, which associated to the watershed transform, reduces monotonicly the number of extrema of an image and, consequently, the number of its segmented regions. This method has two basic problems concerning image segmentation: the spatial shifting of the watershed lines throughout the scales and the di:fficulty to characterize the set of the image extrema across these different scales. The first problem is considered here by means of a homotopic modification of the original image. The MMDE approach states that the position and the amplitude of the extrema in the original and transformed images do not change across scales. This property allows us to use a set of these extrema, present at a certain scale, as marker in a homotopic modification and segmentation of the original image. Also, we consider an analysis of the way the image extrema merge across scales and introduce a new morphological scale-space in which the monotonic reduction of the image extrema is given by an idempotent operation. For this scale-space, We consider some monotonic-preserving merging criteria, taking into account only local information, which can be used to prevent significant image extrema from merging and to define better sets of markers for segmentation / Mestrado / Mestre em Ciência da Computação
4

Texturas em sintese de imagens

Velasquez Alegre, Irene Andrea 13 April 1994 (has links)
Orientador: Leo Pini Magalhaes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-19T19:03:34Z (GMT). No. of bitstreams: 1 VelasquezAlegre_IreneAndrea_M.pdf: 8758028 bytes, checksum: a9367a907469d2d00d08e56ab55084d9 (MD5) Previous issue date: 1994 / Resumo: Neste trabalho apresenta.-se um estudo da Textura em ambientes de Síntese de Imagens. É apresentada uma revisão dos métodos mais conhecidos na modela.gem e aplicação de texturas a objetos sintetizados por computador. Com base em experiências de texturização e no estudo do fenômeno físico por detrás da textura observada sã.o propostos um Modelo Geral de Texturas e a especificação para um Módulo de Síntese de Texturas, no contexto do projeto ProSIm. Finalmente, algumas imagens são apresentadas para evidenciar os resultados desta conceitualização. Pretende-se com este trabalho incrementar nossa experiência de texturização e fornecer as bases para o desenvolvimento de um sistema de textura no ProSIm / Abstract: This work presents a study of textures in Image Synthesis environments. A review of some well known methods for modeling textures and applying them to synthetic objects is presented. Based on our experience in texturing and the study of physical phenomena related to the observed texture a General Model for Textures and the specification for a Texture Module in the ProSIm context are proposed. Some images are included to show the results obtained using this framework. This work intends to enhance our experience in texturing and provide the basis for development of a texture system in the context of project ProSIm / Mestrado / Mestre em Engenharia Elétrica
5

Método de superfícies ativas usando local binary patterns (LBP) aplicado na segmentação de lobos pulmonares em imagens de tomografia computadorizada do tórax

Cavalcante, Tarique da Silveira 21 March 2016 (has links)
CAVALCANTE, T. S. Método de superfícies ativas usando local binary patterns (LBP) aplicado na segmentação de lobos pulmonares em imagens de tomografia computadorizada do tórax. 2016. 181 f. Tese (Doutorado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-09-13T17:02:51Z No. of bitstreams: 1 2016_Tese_tscavalcante.pdf: 12172675 bytes, checksum: a4f69559319313702095b478de3a549d (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-09-13T17:09:11Z (GMT) No. of bitstreams: 1 2016_Tese_tscavalcante.pdf: 12172675 bytes, checksum: a4f69559319313702095b478de3a549d (MD5) / Made available in DSpace on 2016-09-13T17:09:11Z (GMT). No. of bitstreams: 1 2016_Tese_tscavalcante.pdf: 12172675 bytes, checksum: a4f69559319313702095b478de3a549d (MD5) Previous issue date: 2016-03-21 / In several applications involving medical image analysis, the process of image segmentation, be it automatic or manual, is a present task. An accurate segmentation provides information for inspection of anatomical structures, to identify diseases and monitoring of its progress, and even for surgical planning and simulation. Thus, the role of image segmentation is essential in any medical image analysis system. Among the segmentation techniques in the literature, the active models technique is one of the most popular approaches of the last two decades and has been widely used in medical image segmentation, achieving considerable success. Active models that are applied on three-dimensional applications are called Active Surfaces Methods (ASM), which has been widely used in the segmentation of 3D objects, evolving under the influence of their energy to converge to the desired surface. So, knowing how essential surface extraction is to obtain an accurate segmentation, this thesis conducts a study on ASM, identifying its advantages and limitations, and proposes a new ASM to the segmentation of pulmonary lobes on CT images. The new ASM has as contributions internal forces for unstructured meshes, external energies based on LBP texture and Hessian matrix, and automatic initialization for each lobe. In order to validate this proposal, a comparative study of the performance of the internal forces in synthetic images, along with the comparison of the segmentation of lung lobes obtained by the proposed method with the segmentation of a gold standard carried out by an expert medical board will be conducted. The results show that the internal forces performs well, providing synthetic images segmentation with average distance of less than 1 voxel and adjustment measures of 0.95. The automatic initialization has also achieved significant results, with overall hit rate of 94%. Finally, the rates obtained for pulmonary lobe segmentation allows validation of the proposed method with average distance values of 1.93 mm and rates of size and form adjustment of 0.98 and 0.89, respectively. Thus, it is concluded that the obtained metric is sufficient to validate the lobar segmentation obtained in this thesis / Em diversas aplica¸c˜oes de an´alise de imagens m´edicas, o processo de segmenta¸c˜ao de imagens, seja autom´atico ou manual, ´e uma tarefa presente. Uma segmenta¸c˜ao correta fornece informa¸c˜oes para inspe¸c˜ao de estruturas anatˆomicas, para a identifica¸c˜ao de doen¸cas e acompanhamento de seu progresso e at´e mesmo para o planejamento cir´urgico e simula¸c˜ao. Logo, o papel da segmenta¸c˜ao de imagens ´e essencial em qualquer sistema de an´alise de imagens m´edicas. Dentre as t´ecnicas de segmenta¸c˜ao presentes na literatura, a t´ecnica de modelos ativos ´e uma das abordagens mais populares durante as duas ´ultimas d´ecadas e tem sido amplamente utilizada em segmenta¸c˜ao de imagens m´edicas, obtendo um sucesso consider´avel. Os modelos ativos que atuam em aplica¸c˜oes tridimensionais s˜ao denominados de M´etodos de Superf´ıcies Ativas (MSA), que por sua vez tˆem sido bastante utilizados na segmenta¸c˜ao de objetos 3D, evoluindo sob a influˆencia de suas energias at´e convergir para a superf´ıcie desejada. Neste sentido, tendo em vista que a extra¸c˜ao de superf´ıcie ´e essencial para a obten¸c˜ao de uma correta segmenta¸c˜ao, a presente tese realiza um estudo sobre MSA, identificando suas vantagens e limita¸c˜oes, e prop˜oe um novo MSA para a segmenta¸c˜ao de lobos pulmonares em imagens de TC. Esta novo MSA tem como contribui¸c˜oes for¸cas internas para malhas n˜ao estruturadas, energias externas baseadas em textura LBP e matriz Hessiana, al´em de inicializa¸c˜ao autom´atica por lobo pulmonar. Para validar a proposta ´e realizado um estudo comparativo da atua¸c˜ao das for¸cas internas em imagens sint´eticas, al´em da compara¸c˜ao da segmenta¸c˜ao dos lobos pulmonares obtida pelo m´etodo proposto com a segmenta¸c˜ao de um padr˜ao ouro realizado por uma junta m´edica especialista. Os resultados comprovam que as for¸cas internas apresentam bom desempenho na segmenta¸c˜ao de imagens sint´eticas com valores de distˆancia m´edia menores que 1 voxel e com medidas de ajuste maiores do que 0,95. A inicializa¸c˜ao autom´atica tamb´em obteve resultados relevantes, com taxa de acerto geral igual a 94%. Por fim, os valores obtidos para a segmenta¸c˜ao dos lobos pulmonares permitem validar o m´etodo proposto com valores de distˆancia m´edia igual a 1,93 mm e valores de ajuste de tamanho e de forma de 0,98 e 0,89, respectivamente. Neste contexto, conclui-se que as m´etricas apresentadas neste trabalho s˜ao suficientes para validar a segmenta¸c˜ao lobar obtida nesta tese
6

Optimum path snakes : novo método de contornos ativos adaptativo e não-paramétrico / Optimum Path Snake: A Novel Adaptiveand Non-ParametricAlgorithm for SegmentationImages (Inglês)

Barros, Antonio Carlos da Silva 04 July 2016 (has links)
Made available in DSpace on 2019-03-30T00:05:59Z (GMT). No. of bitstreams: 0 Previous issue date: 2016-07-04 / Novel segmentationmethodsbasedonmodelsofdeformableactivecontours are constantlyproposedandvalidated in differentfieldsofknowledge, lookingto customize thedetectionstepfrom a certainregionofinterest. In thiscontext, thispaperaimstodevelop a new adaptivealgorithmandfreeparametersto define the total energy, withinitializationand stop criteriaautomatics, calledOptimum Path Snakes (OPS). The OPS validationiscarried out fromthoraxand cranial computedtomography (CT) scanimages, consideringthesegmentationofthelungsbyspecialists, and vector fieldconvolution, gradient vector flow, SISDEP, CRAD segmentationalgorithms. For thesegmentationofregionswithstroke, themethodsbasedongrowthregions, watershedand LSCPM wereconsidered. StatisticalvalidationsmetricsusingDicecoefficient (DC) andHausdorffdistance (HD) werealsoanalyzed, as well as processing time. In addition, a novel attributeextractor, denominatedAnalysisofHumanTissueDensities (ADH) hasbeenproposed. Basedontheresults, it canbeverifiedthatthe OPS, combinedwiththe ADH, are a promising tool for imagesegmentation, presentingsatisfactoryresults for DC and HD, and, many times, superior tothecomparedalgorithms, includingthosegeneratedbyscpelistis. Anotheradvantageofthe PS, sassociatedtothefactofnotbeingdedicatedtospecifictypesofimages. Keywords: Active ContourMethod, Optimum Path Florest, Snakes, ImageSegmentation. / Novos métodos de segmentação baseados em modelos de contornos ativos deformáveis são constantemente propostos e validados em diferentes áreas do conhecimento, buscando customizar a etapa de detecção de uma determinada região de interesse. Neste contexto, este trabalho tem como objetivo desenvolver um novo algoritmo adaptativo e livre de parâmetros para definição da energia total, com inicialização e critério de parada automático, denominado de Optimum Path Snakes (OPS). A validação do OPS é realizada em imagens de tomografia computadorizada (TC) do tórax e do crânio, sendo considerada a segmentação dos pulmões realizada por especialistas e comparação com os algoritmos Fluxo do Vetor Gradiente, Convolução do Vetor de Campo, SISDEP, e o recente Crisp Adaptativo. Para a segmentação das regiões com acidente vascular cerebral, os métodos de Crescimento de Regiões, Watershed e LSCPM foram considerados. Métricas de validações estatística baseadas no coeficiente de Dice (DC) e distância Hausdorff (HD) foram analisadas, bem como o tempo de processamento. Além do mais, um novo extrator de atributos, Análise das Densidades dos Tecidos Humanos (ADH), foi proposto. A partir dos resultados, pode-se constatar que o OPS, combinado com o ADH, formam uma ferramenta bastante promissora para segmentação de imagens, apresentando valores bastante satisfatórios para DC e HD, e, muitas vezes, superiores aos métodos comparados, incluindo os gerados pelos especialistas. Outra vantagem do OPS, está relacionada ao fato de não ser dedicado para determinados tipos de imagens. Palavras-chave: Método de Contornos Ativos, Snakes, Segmentação de imagens, Floresta de Caminhos Ótimos.
7

Segmentação do ventrículo esquerdo utilizando técnicas de processamento de imagens / Left ventricle segmentation using image processing techniques

Lacerda, Saulo Guerreiro January 2008 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Suelen Silva dos Santos (suelenunb@yahoo.com.br) on 2009-09-23T17:48:34Z No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) / Approved for entry into archive by Tania Milca Carvalho Malheiros(tania@bce.unb.br) on 2009-10-02T18:25:02Z (GMT) No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) / Made available in DSpace on 2009-10-02T18:25:02Z (GMT). No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) Previous issue date: 2008 / Técnicas de processamento de imagens são largamente utilizadas atualmente em conjunto com outras áreas da ciência, incluindo a medicina. Estas técnicas são utilizadas principalmente como auxílios em exames médicos, agilizando a execução dos mesmos e reduzindo a influência dos observadores na sua execução. O presente trabalho apresenta um método, composto por várias técnicas de processamento de imagens, que tem como objetivo principal realizar a segmentação da cavidade interna do ventrículo esquerdo em imagens de ecocardiografia bidimensional, tanto de eixo curto quanto de eixo longo. Inicialmente a imagem é recortada. Depois são aplicados filtros de alto-reforço, limiarização, morfológico de elevação e LoG. Em seguida a segmentação watershed é realizada seguida da busca radial, interpolação dos pontos candidatos e atenuação da borda obtida. Uma etapa extra, que consiste na utilização de informação prévia de um contorno anteriormente obtido, é utilizada na segmentação de seqüências de imagens. Os resultados obtidos são comparados com a segmentação manual realizada por um médico especialista, utilizando três medidas de erro distintas. Os resultados das medidas de erro mostram que o método proposto alcançou bons resultado. _________________________________________________________________________________________ ABSTRACT / Image processing techniques are largely used with various areas of science, including medicine. These techniques are used mainly as a way to improve medical exams, making then faster and reducing the observer´s influence on their execution. This work presents a method that combines various image processing techniques and has as it’s main objective to extract the left ventricle internal cavity border on 2-D echocardiography images, using both short-axis and long-axis images. First the images were cut. Then the program applies the high boost filtering, thresholding, elevation filtering and LoG. Then watershed is applied, followed by radial search, interpolation on the candidate points and border attenuation. The program also uses an extra step to obtain the borders on image sequences. This extra step consists on using information from a previous obtained segmentation. The results obtained from the presented method are compared with the manual segmentation made by a specialist medic. Three different error measures are used, and results from these tests shows that the semi-automatic method presented achieved good results.
8

Ferramenta computacional para a medição de campos de velocidade utilizando processamento digital de imagens

Gutkoski, Lucas Luis January 2001 (has links)
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
9

Super-resolução simultânea para sequência de imagens

Zibetti, Marcelo Victor Wüst January 2007 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-23T09:21:29Z (GMT). No. of bitstreams: 1 239017.pdf: 3211030 bytes, checksum: 05f5db2ff9bad2763f83f79b3febd3dc (MD5) / Esta tese apresenta duas contribuições: uma nova classe de algoritmos de super-resolução (SR) simultânea e um novo método de determinação dos coeficientes de regularização. Os algoritmos SR buscam produzir imagens com resolução superior à fornecida pelo dispositivo de aquisição. Os algoritmos de super-resolução simultânea, por sua vez, produzem toda uma seqüência de imagens de alta resolução num único processo. O algoritmo SR simultâneo existente \cite{Borman-1999} é capaz de produzir imagens de qualidade superior à dos métodos tradicionais \cite{Kang-2003}, porque explora a similaridade entre as imagens em alta resolução. Contudo, o custo computacional deste método é alto e ele apresenta baixa robustez aos grandes erros de movimento. A primeira contribuição desta tese foi o aprimoramento dos métodos SR simultâneos. As expressões que exploram similaridade entre as imagens em alta resolução foram preservadas e generalizadas, ao passo que algumas expressões relacionadas aos dados, que são sensíveis aos grandes erros de movimento e são redundantes para a solução do problema, foram removidas. Este aprimoramento reduziu o custo computacional e possibilitou um maior controle sobre os grandes erros de movimento, aumentando a robustez do método e mantendo a qualidade superior das estimativas. A determinação dos coeficientes de regularização é uma etapa necessária nos algoritmos SR estudados nesta tese. Os métodos clássicos de determinação dos coeficientes, que possuem boa qualidade de estimativa e grande estabilidade, têm alto custo computacional no problema de super-resolução; por outro lado, métodos rápidos de determinação dos coeficientes, ou têm pouca qualidade na estimativa, ou são instáveis. Logo, a segunda contribuição proposta nesta tese é um novo método determinação dos coeficientes de regularização. Este método, baseado na teoria estatística Bayesiana JMAP e nos métodos baseados na Curva-L, alcança boa qualidade e grande estabilidade de estimativa, além de obter um baixo custo computacional.
10

"Echo Offline" : uma ferramenta para medidas ecocardiográficas pós-exame

Zuccolotto, Marcos January 2003 (has links)
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.

Page generated in 0.1236 seconds