• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3122
  • 110
  • 95
  • 94
  • 94
  • 90
  • 65
  • 29
  • 26
  • 24
  • 23
  • 23
  • 3
  • 3
  • 3
  • Tagged with
  • 3308
  • 1751
  • 1177
  • 747
  • 644
  • 638
  • 486
  • 380
  • 365
  • 348
  • 343
  • 326
  • 297
  • 293
  • 288
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] A SYSTEM TO CODE IMAGES USING TWO CHANNELS / [pt] UM SISTEMA DE CODIFICAÇÃO DE IMAGEM VIA DOIS CANAIS

DIEGO PINTO DE GARRIDO 17 September 2009 (has links)
[pt] Neste trabalho é desenvolvida uma técnica de compressão de imagens onde a imagem a ser comprimida é inicialmente dividida em duas partes: uma de baixa freqüência, que representa o brilho geral, sem os contornos abruptos, e outra de alta freqüência, contendo a informação de bordas abruptas. A imagem de baixa freqüência é codificada então através de uma transformada ortonormal, enquanto a de alta freqüência é codificada através de quantização vetorial. A qualidade visual da imagem reconstruída é comparável aos codificadores existentes de igual complexidade, para taxas na faixa de 0.6 a 0.8 bits/pixel. / [en] In this work it is presented na image compression technique where the image to be compressed is first split into two parts: a low-pass one, which represents the general área brightness, without Sharp contours, and a high-pass part, containing Sharp edge information. The low-frequency image in then coded by a orthonormal transform technique and the high-frequency one is coded using vector quantization. The visual quality of the reconstructed image is comparable to that produced by existing coders with similar complexity, for rates in the range 0.6-0.8 bits/pixel.
12

Representação de Imagens Através de Grafos Utilizando o Algoritmo Split And Merge Combinado Com Descritores de Cor e Textura

VENTURA, V. A. 27 August 2009 (has links)
Made available in DSpace on 2016-08-29T15:33:09Z (GMT). No. of bitstreams: 1 tese_2815_.pdf: 3059796 bytes, checksum: a6d79c5c2a1e17afae9982552dffcc95 (MD5) Previous issue date: 2009-08-27 / Desde os tempos mais remotos, o homem procura e desenvolve ferramentas para facilitar sua vida. O ser humano busca maneiras de serem mais produtivos, eliminando, se possível, as limitações que encontram em seu caminho. Uma das maiores limitações é a ausência de recursos para automatizar tarefas que sem alguma ferramenta significam muito trabalho braçal e muito risco agregado. Limites de orçamento, prazos e recursos também se fazem presentes no cotidiano de pessoas que acabam sendo nem tão eficientes quanto podem, nem tão eficazes quanto querem. Não obstante, automação de determinadas tarefas representa um aumento substancial de produtividade e diminuição de riscos. Ter ferramentas para auxiliar neste trabalho é ter um recurso que permite a várias áreas se comunicar de maneira linear e multi-direcional. Não é diferente na área de reconhecimento de cenas, uma das linhas de pesquisa mais importantes da área de processamento de imagens. Como o sistema de inspeção visual adotado por algumas empresas é manual, realizado a olho nu, e totalmente dependente do fator humano utilizado no processo, o mesmo não pode garantir totalmente a correspondência entra uma imagem e outra, além de ser uma tarefa trabalhosa, cara e demorada. Muitos algoritmos que tratam do problema de reconhecimento de cenas utilizam a representação da imagem através de grafos em seus trabalhos. Nessas representações, vértices representam objetos e arestas representam as relações espaciais entre os objetos, e informações relevantes ao processo de reconhecimento podem ser extraídos da cena e representadas como atributos do grafo. O reconhecimento de uma imagem através da comparação com um modelo, quando ambas são representadas por grafos, caracteriza um problema de correspondência de grafos, onde o critério para a correspondência é medido a partir de um valor que mede a similaridade entre vértices (resp. arestas) do modelo e a imagem a ser reconhecida, comumente armazenados em uma matriz de similaridade entre vértices (resp. arestas). Por vezes, a representação das imagens e a criação das matrizes de similaridades entre vértices (resp. arestas) eram feitos manualmente. Para suprir essa carência, uma interface para a manipulação das imagens e o desenho dos grafos correspondentes, denominada ImGraph, foi construída. A ferramenta permite a criação de grafos de atributos que representem imagens fornecidas como entrada. Dentre suas funcionalidades, destaca-se a geração de grafos para representação de imagens usadas como modelos e imagens a serem reconhecidas a partir dos modelos. Para isso, a ferramenta permite a segmentação manual (no caso do modelo) e automática (no caso da imagem a ser reconhecida) das imagens, além de utilizar funções que combinem os atributos em valores de similaridade. Portanto, esta dissertação consiste em uma extensão dessa interface. Como aperfeiçoamento da ferramenta, foi sugerida uma nova abordagem para a segmentação automática de imagens, incluindo uma análise mais detalhada da fase de pré-processamento, que consiste na segmentação e extração de características da imagem, ao qual a mesma é submetida antes de ser convertida em um grafo. Uma combinação de características de cor e textura para segmentação automática de imagens é investigada com o objetivo de aperfeiçoar sua representação através de grafos de atributos. Quanto melhor a segmentação da imagem, melhor será sua representação através de grafos. A análise de informações de cor nem sempre provê informações suficientemente acuradas para segmentação. Daí, características adicionais podem ser consideradas para aprimorar sua representação. A abordagem de segmentação split-and-merge é usada, dividindo a imagem recursivamente em regiões homogêneas cada vez menores, e então unindo-as de acordo com alguma medida de similaridade, computadas nesta dissertação através de medidas de distâncias probabilísticas. Também foi analisada a combinação com o descritor de textura denominado Local Binary Pattern (LBP) com o descritor de cor, partindo da premissa que algumas regiões da imagem avaliada podem ser melhor descritas não apenas por um descritor específico, mas por uma combinação dos mesmos. Também foi analisada a utilização do PCA (Principal Components Analysis - Análise de Componentes Principais), em que o espaço de cor RGB foi reduzido de três dimensões para uma dimensão através do método. Segmentada a imagem, a mesma será representada através de grafos de atributos que serão utilizados para a criação das Matrizes de Similaridade, que deverão conter informações acerca da similaridade entre vértices (resp. arestas) entre dois grafos de entrada: o grafo modelo e o grafo que se pretende reconhecer neste modelo. Para a construção das matrizes, foram estudadas duas funções para se verificar a similaridade entre vértices e de arestas Experimentos foram realizados utilizando-se uma imagem aérea de alta-resolução espacial do Rio Jucu, estado do Espírito Santo. Ao final, todas as novas contribuições foram acrescentadas ao ambiente.
13

Retificação de imagens de documentos capturados por dispositivos móveis utilizando transformada de hough e histogramas de gradientes orientados

MONTENEGRO, Robson David 12 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-21T17:41:28Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ROBSON_MONTENEGRO.pdf: 58981994 bytes, checksum: e45d214c496ec66b4a7f5a16803daf59 (MD5) / Made available in DSpace on 2015-10-21T17:41:28Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ROBSON_MONTENEGRO.pdf: 58981994 bytes, checksum: e45d214c496ec66b4a7f5a16803daf59 (MD5) Previous issue date: 2015-06-12 / Diversas maneiras de armazenamento e transmissão de informação em meio digital estão disponíveis devido ao contínuo crescimento tecnológico. Porém, grande parte das informações relevantes permanece armazenada em meio físico, como: livros, certidões, contratos e documentos pessoais. Existe um grande esforço para realizar a transposição dessas informações para meios digitais de forma a facilitar o acesso e utilização de meios de comunicação mais modernos. Os scanners fornecem a maneira mais popular de se obter esta transposição, porém, estes dispositivos muitas vezes não oferecem portabilidade e custo adequados. A utilização de dispositivos móveis, tais como celulares, para captura de imagens de documento tem se mostrado uma alternativa viável aos tradicionais scanners de mesa. Isto se deve a sua facilidade de uso, portabilidade e barateamento de seu hardware que facilitou sua popularização. Porém, por se tratar de captura em um ambiente menos controlado, documentos digitalizados desta forma apresentam distorções que comprometem a sua legibilidade tais como: perspectiva, embassamento, baixa resolução, interação do conteúdo com o background e curvatura das linhas de texto. Trabalhos recentes tratam este problema utilizando diferentes abordagens, muitos destes, de maneira eficaz. Entretanto, estas técnicas são fortemente dependentes do conteúdo textual presente nos documentos. Esta dissertação apresenta uma nova abordagem para realizar correção de imagens capturadas por dispositivos móveis baseado-se apenas em características morfológicas do documento. O método é dividido em três etapas. A primeira é o pré-processamento responsável por ajustar o contraste da imagem. Depois, as bordas do documento são definidas utilizando uma abordagem híbrida do descritor de Gradiente de Histogramas Orientados com a Transformada de Hough. Por último, a superfície deformada do documento é mapeada para uma superfície retangular corrigida. O algoritmo foi experimentado em diversas configurações de seus parâmetros livres em uma base de documentos pessoais coletada para este trabalho. O menor erro obtido foi de 4,08% e, além disto, as imagens corrigidas foram processadas por sistemas de OCRs e os resultados quantitativos mostram que o algoritmo proposto melhorou substancialmente a legibilidade das imagens. / Several ways of information storage and transmission in digital media emerged due to technological progress. However, much of the relevant information remains stored on physical media, such as books, certificates, contracts and personal documents. Much effort has been made to carry out the transposition of this information to digital media in order to facilitate access and use modern communication channels. The scanners provide the most popular way to obtain this transposition, however, these devices often do not offer adequate portability and are usually expensive. The use of mobile devices such as cell phones, for document imaging has proven to be a suitable alternative to traditional table scanners. This is due to its ease of use, portability and cheapness of their hardware which facilitated its popularization. However, documents acquired in a less controlled environment, have distortions that muddle its readability such as perspective, blur, low resolution, interaction of the content and the background and curled text lines. Recent works address this problems using different approaches, many of these, efficiently. However, these techniques are strongly dependent on the textual content in the document images. This dissertation presents a new algorithm to rectify images acquired by mobile devices based only on morphological features of the document image. The method is divided into three steps. First is the preprocessing when the image contrast is adjusted. Then, the document edges are determined using a hybrid approach of Hough Transform and Histogram of Oriented Gradients descriptor. Finally, the warped surface of the document is mapped to a rectangular surface. The algorithm has been tested in several configurations in a personal document image base collected for this work. The best error rate was 4.08 % and, moreover, the corrected images were processed by OCR systems and quantitative results shows that the proposed algorithm has significantly improved readability of the images.
14

Metodo robusto e simples de compressão de imagens baseado no algoritmo EZW

Gusmão, Andrezza Almeida 02 August 2018 (has links)
Orientador : Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-02T08:36:15Z (GMT). No. of bitstreams: 1 Gusmao_AndrezzaAlmeida_M.pdf: 1547214 bytes, checksum: cc9e0a40cf5f63688a8dc84924409c11 (MD5) Previous issue date: 2002 / Mestrado
15

Optimum path snakes : novo método de contornos ativos adaptativo e não-paramétrico / Optimum Path Snake: A Novel Adaptiveand Non-ParametricAlgorithm for SegmentationImages (Inglês)

Barros, Antonio Carlos da Silva 04 July 2016 (has links)
Made available in DSpace on 2019-03-30T00:05:59Z (GMT). No. of bitstreams: 0 Previous issue date: 2016-07-04 / Novel segmentationmethodsbasedonmodelsofdeformableactivecontours are constantlyproposedandvalidated in differentfieldsofknowledge, lookingto customize thedetectionstepfrom a certainregionofinterest. In thiscontext, thispaperaimstodevelop a new adaptivealgorithmandfreeparametersto define the total energy, withinitializationand stop criteriaautomatics, calledOptimum Path Snakes (OPS). The OPS validationiscarried out fromthoraxand cranial computedtomography (CT) scanimages, consideringthesegmentationofthelungsbyspecialists, and vector fieldconvolution, gradient vector flow, SISDEP, CRAD segmentationalgorithms. For thesegmentationofregionswithstroke, themethodsbasedongrowthregions, watershedand LSCPM wereconsidered. StatisticalvalidationsmetricsusingDicecoefficient (DC) andHausdorffdistance (HD) werealsoanalyzed, as well as processing time. In addition, a novel attributeextractor, denominatedAnalysisofHumanTissueDensities (ADH) hasbeenproposed. Basedontheresults, it canbeverifiedthatthe OPS, combinedwiththe ADH, are a promising tool for imagesegmentation, presentingsatisfactoryresults for DC and HD, and, many times, superior tothecomparedalgorithms, includingthosegeneratedbyscpelistis. Anotheradvantageofthe PS, sassociatedtothefactofnotbeingdedicatedtospecifictypesofimages. Keywords: Active ContourMethod, Optimum Path Florest, Snakes, ImageSegmentation. / Novos métodos de segmentação baseados em modelos de contornos ativos deformáveis são constantemente propostos e validados em diferentes áreas do conhecimento, buscando customizar a etapa de detecção de uma determinada região de interesse. Neste contexto, este trabalho tem como objetivo desenvolver um novo algoritmo adaptativo e livre de parâmetros para definição da energia total, com inicialização e critério de parada automático, denominado de Optimum Path Snakes (OPS). A validação do OPS é realizada em imagens de tomografia computadorizada (TC) do tórax e do crânio, sendo considerada a segmentação dos pulmões realizada por especialistas e comparação com os algoritmos Fluxo do Vetor Gradiente, Convolução do Vetor de Campo, SISDEP, e o recente Crisp Adaptativo. Para a segmentação das regiões com acidente vascular cerebral, os métodos de Crescimento de Regiões, Watershed e LSCPM foram considerados. Métricas de validações estatística baseadas no coeficiente de Dice (DC) e distância Hausdorff (HD) foram analisadas, bem como o tempo de processamento. Além do mais, um novo extrator de atributos, Análise das Densidades dos Tecidos Humanos (ADH), foi proposto. A partir dos resultados, pode-se constatar que o OPS, combinado com o ADH, formam uma ferramenta bastante promissora para segmentação de imagens, apresentando valores bastante satisfatórios para DC e HD, e, muitas vezes, superiores aos métodos comparados, incluindo os gerados pelos especialistas. Outra vantagem do OPS, está relacionada ao fato de não ser dedicado para determinados tipos de imagens. Palavras-chave: Método de Contornos Ativos, Snakes, Segmentação de imagens, Floresta de Caminhos Ótimos.
16

Pesquisa em imagens combinando informação visual e informação textual

Moura, Ricardo Pereira January 2004 (has links)
Tese de mestrado. Gestão de Informação. 2004. Faculdade de Engenharia. Universidade do Porto
17

Processador de correspondências entre imagens estéreo em tempo real

Resende, Carlos Alexandre Teixeira do Amaral January 2009 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores. Faculdade de Engenharia. Universidade do Porto. 2009
18

Segmentação do ventrículo esquerdo utilizando técnicas de processamento de imagens / Left ventricle segmentation using image processing techniques

Lacerda, Saulo Guerreiro January 2008 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Suelen Silva dos Santos (suelenunb@yahoo.com.br) on 2009-09-23T17:48:34Z No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) / Approved for entry into archive by Tania Milca Carvalho Malheiros(tania@bce.unb.br) on 2009-10-02T18:25:02Z (GMT) No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) / Made available in DSpace on 2009-10-02T18:25:02Z (GMT). No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) Previous issue date: 2008 / Técnicas de processamento de imagens são largamente utilizadas atualmente em conjunto com outras áreas da ciência, incluindo a medicina. Estas técnicas são utilizadas principalmente como auxílios em exames médicos, agilizando a execução dos mesmos e reduzindo a influência dos observadores na sua execução. O presente trabalho apresenta um método, composto por várias técnicas de processamento de imagens, que tem como objetivo principal realizar a segmentação da cavidade interna do ventrículo esquerdo em imagens de ecocardiografia bidimensional, tanto de eixo curto quanto de eixo longo. Inicialmente a imagem é recortada. Depois são aplicados filtros de alto-reforço, limiarização, morfológico de elevação e LoG. Em seguida a segmentação watershed é realizada seguida da busca radial, interpolação dos pontos candidatos e atenuação da borda obtida. Uma etapa extra, que consiste na utilização de informação prévia de um contorno anteriormente obtido, é utilizada na segmentação de seqüências de imagens. Os resultados obtidos são comparados com a segmentação manual realizada por um médico especialista, utilizando três medidas de erro distintas. Os resultados das medidas de erro mostram que o método proposto alcançou bons resultado. _________________________________________________________________________________________ ABSTRACT / Image processing techniques are largely used with various areas of science, including medicine. These techniques are used mainly as a way to improve medical exams, making then faster and reducing the observer´s influence on their execution. This work presents a method that combines various image processing techniques and has as it’s main objective to extract the left ventricle internal cavity border on 2-D echocardiography images, using both short-axis and long-axis images. First the images were cut. Then the program applies the high boost filtering, thresholding, elevation filtering and LoG. Then watershed is applied, followed by radial search, interpolation on the candidate points and border attenuation. The program also uses an extra step to obtain the borders on image sequences. This extra step consists on using information from a previous obtained segmentation. The results obtained from the presented method are compared with the manual segmentation made by a specialist medic. Three different error measures are used, and results from these tests shows that the semi-automatic method presented achieved good results.
19

Análise de eventos tornádicos ocorridos no Rio Grande do Sul utilizando imagens dos satélites GOES e METEOSAT e o modelo regional RAMS / Analisys of events tornadolike occured in the Rio Grande do Sul using images of satellites goes and meteosat and regional model rams GOES

Simões, Débora de Souza January 2005 (has links)
A ocorrência de tornados sobre o Rio Grande do Sul é mais frequente do que imagina a maioria de seus habitantes. Em 08 de julho de 2003 em São Francisco de Paula, 11 de dezembro de 2003 em Antônio Prado e 11 de janeiro de 2004 em Palmares do Sul, houve a formação de um tornado que causou destruição e até mortes nestas cidades. Neste trabalho foram estudados tais eventos através da análise de imagens dos satélites GOES-12 e METEOSAT-7 nos canais do visível, do vapor d'água e do infravermelho termal, e também através de simulações obtidas com o modelo de mesoescala RAMS. Com esta finalidade efetuou-se um profundo estudo sobre o ambiente convectivo gerador de tornados. Os resultados da análise das imagens de satélite mostraram que todos os casos foram gerados em complexos convectivos associados com áreas de instabilidade. Nos casos São Francisco de Paula e Antônio Prado havia a presença de um jato de baixos níveis que transportava umidade da Bacia Amazônica alimentando os complexos convectivos. No caso Palmares do Sul a umidade foi fornecida pelo Oceano Atlântico devido ao intenso escoamento de leste do vento horizontal e ficou caracterizada a formação de nuvem do tipo vírgula invertida. A interpretação das simulações com o RAMS mostram a eficiência deste modelo em identificar áreas de convergência , divergência e vorticidade horizontal, capazes de gerar tornados. No entanto o modelo subestimou em até quatro vezes os dados de velocidade do vento horizontal e concluiu-se que o mesmo aconteceu para a velocidade vertical. Dos casos estudados, o de São Francisco de Paula foi o que apresentou o comportamento atmosférico mais compatível com o comportamento de ambiente tornádico descrito por outros autores. / The occurrence of twisters in Rio Grande do Sul is more frequent than most of its citzens can imagine. In July 08, 2003 in São Francisco de Paula, December 11, 2003 in Antônio Prado and January 11, 2004 in Palmares do Sul, was registered the formation of twisters that cause destruction and even deaths in these cities. This work analises such events through the images of satellites GOES-12 and METEOSAT-7 in the visible channel, in the water vapour and in the infra-red ray, and also through simulations with the RAMS mesoscale model. With this purpose a deep study was made on the convective environment wich produces the twister. The results of the satellite images analisis shown that all the cases had been generated in convective complexes associates with instability areas. In the São Francisco de Paula and Antônio Prado cases it had the presence of a jet of low levels that carried humidity from the Amazonian Basin feeding the convective complexes. In the Palmares do Sul case the humidity was supplied by the Atlantic Ocean due to the intense draining from east of the horizontal wind and ocurrs the formation of cloud system inverted comma. The interpretation of the RAMS simulations shows the efficiency of this model in identifying horizontal convergence, divergence and vorticity areas, able to generate twisters. However, the model under estimate in up to four times the data of the wind' s horizontal speed and we concluded that the same happenes with the vertical one. From the studied cases, the São Francisco de Paula presentes the more compatible atmospheric behavior with the one wich describes the twister like environment behavior for other authors.
20

Ferramenta computacional para a medição de campos de velocidade utilizando processamento digital de imagens

Gutkoski, Lucas Luis January 2001 (has links)
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.

Page generated in 0.052 seconds