• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3123
  • 110
  • 95
  • 94
  • 94
  • 90
  • 65
  • 29
  • 26
  • 24
  • 23
  • 23
  • 3
  • 3
  • 3
  • Tagged with
  • 3309
  • 1751
  • 1178
  • 747
  • 644
  • 638
  • 486
  • 380
  • 365
  • 348
  • 343
  • 326
  • 297
  • 293
  • 288
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Classificação hierárquica orientada a objeto em imagens de alta resolução espacial empregando atributos espaciais e espectrais / Hierarchical object-oriented classification for images of high spatial resolution using spatials and spectrals datas

Batista, Marlos Henrique January 2006 (has links)
A alta resolução espacial, incorporada aos novos sensores remotos imageadores, apresenta um cenário que promove uma captura excessiva das variações espectrais das classes, funcionando mais como ruído e aumentando desnecessariamente a variância interna das classes. Estas características geram prejuízos no processo de classificação, pois aumentam o erro de Bayes e conseqüentemente pioram a acurácia da classificação. Por isso, a necessidade de abandonar o pixel como unidade de classificação e passar adotar regiões obtidas por segmentação prévia da imagem. Buscando introduzir no processo de classificação variáveis que pudessem se adequar a essas novas características, o presente estudo propõe-se investigar a utilização de atributos de forma e textura em adição aos atributos espectrais. Para poder avaliar a eficácia de cada atributo no processo de classificação, será utilizado um algoritmo de classificação em múltiplos estágios e entre os possíveis critérios de separabilidade será utilizada a distância de Bhattacharrya. A aplicação do algoritmo proposto foi testado sobre os dados imagem do sistema Quickbird e a implementação em ambiente Matlab. / High spatial resolution image data are becoming increasingly available to the users community. The obvious advantages introduced by high resolution data also pose some new challenges. Chief among them is the problem of digital image classification. The traditional pixel based classification procedures frequently yield poor results when applied to high spatial resolution image data. The small ground pixel size frequently captures an unnecessary high level of detail resulting in large class-variances which increase the confusion among classes. In this context, it is normally more convenient to replace individual pixels by image segments, also known as objects, as individuals to be labeled according with the existing classes. One of the main advantages of employing smaller pixels is the ability of capturing spatial information such as shape and texture which may be conveniently added to the spectral data to increase the accuracy in the resulting thematic map. In this study, it is investigated the combined use of spectral and spatial attributes in a classifier. As the data dimensionality may increase substantially due to the larger amount of data used, a feature extraction process are used in the classification procedure, rather than the original spectral and spatial data themselves. A binary decision tree classifier is used in this study to label every image segment. In a binary tree, only two classes are considered at a time on every node. The feature extraction procedure has to optimize the distance between a pair of classes. In this study, the criterion used to define the linear transformation for feature extraction is the Bhattacharyya distance. The proposed methodology is tested using high spatial resolution image data acquired by the sensor system Quickbird. Results are presented and commented.
62

Ferramenta computacional para a medição de campos de velocidade utilizando processamento digital de imagens

Gutkoski, Lucas Luis January 2001 (has links)
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
63

Localização de sítios astronômicos através de imagens dos satélites NOAA

Mazzuca Junior, Juarez January 1999 (has links)
Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.
64

Restauração digital de imagens coloridas de documentos históricos

ROE, Edward 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:36:51Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Edward Roe.pdf: 19085506 bytes, checksum: 6b8817adad23084ffd72efac1f4f9b5c (MD5) / Made available in DSpace on 2016-02-19T18:36:51Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Edward Roe.pdf: 19085506 bytes, checksum: 6b8817adad23084ffd72efac1f4f9b5c (MD5) Previous issue date: 2015-02-27 / Esta Tese apresenta três novos algoritmos para restauração digital de imagens coloridas de documentos antigos, colaborando com soluções econômicas para preservação digital, proporcionando maior democratização e facilidade no acesso aos documentos em museus, bibliotecas e acervos em geral e abrindo possibilidades no uso das imagens em e-books, além de alcançar economia no processo de impressão. Para cada algoritmo, novas técnicas foram desenvolvidas como uma equalização local que elimina artefatos causados pela degradação do papel; um novo filtro bilateral, que reduz ruídos preservando bordas e a criação de critérios para definir qualidade visual em imagens de documentos contendo elementos gráficos. Dos algoritmos propostos, dois têm como finalidade obter uma versão binarizada da imagem e o terceiro visa a restauração digital de cartões postais antigos. Nos três casos, o documento pode apresentar diversos tipos de degradações causadas pela ação do tempo. O primeiro é um novo algoritmo de binarização voltado para imagens de documentos históricos que podem apresentar níveis acentuados de degradações. O método proposto faz uso da equalização local da imagem e uma extensão da diferença entre Gaussianas, o XDoG. A binarização é alcançada através de três passos: remoção de artefatos causados pela ação do tempo, através da equalização local e binarização, com o algoritmo de Otsu. O segundo combina equalização global e o operador de detecção de bordas, XDoG, para a binarização do texto. O passo final combina os resultados dos dois passos anteriores, efetuando em seguida a remoção de artefatos remanescentes. O segundo algoritmo foi desenvolvido para binarização de imagens de documentos históricos contendo, além de texto, elementos gráficos. Os objetivos deste método são: aperfeiçoar o processo de binarização, de forma que a qualidade visual dos elementos gráficos seja mantida e proporcionar economia de tinta no processo de impressão em preto e branco. O método utiliza um filtro bilateral para remover ruídos, preservando as bordas e a equalização local para remover degradações causadas pelo tempo e problemas de iluminação. O terceiro algoritmo propõe uma forma automática para restauração digital de imagens de cartões postais coloridos antigos, empregando técnicas combinadas de equalização de imagem, segmentação do fundo, realce das cores e remoção de manchas. Para realçar as cores, a degradação geral do documento é considerada como um problema de iluminação, permitindo a aplicação de algoritmos de constância de cores. / This Thesis presents three new algorithms for digital restoration of color images of old documents, collaborating with economical solutions for digital preservation and for greater democracy and ease of access to documents in museums, libraries and archives in general, opening possibilities for the use of images in e-books, also achieving economy in the printing process. For each of the algorithms, new techniques were developed as a local equalization, which eliminates images artifacts caused by the paper degradation, a new bilateral filter, that reduces noise while preserving edges and the creation of criteria for defining visual quality of document images containing graphic elements. Two of these methods convert the image to bilevel, while the third aims a color restoration of old postcards. In all three cases, the document may have various types of degradation caused by time. The first thresholding algorithm is suitable for color images of degraded historical documents. The proposed method makes use of local image equalization and an extension to the standard difference of Gaussians, the XDoG. The binarization is achieved after three main steps: the first step removes undesirable degradation artifacts using a local image equalization and Otsu binarization algorithm. The second step uses global image equalization and XDoG edge detection operator to binarize the text. The final step combines the two images generated by the previous steps, performing a cleanup to remove remaining degradations artifacts and fix possible missing text or area, to produce the final result. The second algorithm proposes a new binarization method for color images of historical document containing graphical elements. The objectives of this method are: to improve the binarization process, such that the visual quality of the drawings is not lost in the final bi-level image; to provide economy of ink in the printing process. The proposal uses a new bilateral-like filter, to remove noise but preserving edges, and a local image equalization algorithm to enhance edges, remove aging degradations and illumination artifacts. The third algorithm proposes an automatic system for the restoration of digital images of vintage colored postcards, employing the combined techniques of image equalization, background segmentation based on edge detection (using an extension of the standard difference of Gaussians filter), color enhancement, and noisy spots removal. Equalization and background segmentation are used to make easier the background spot removal. To enhance colors, the overall document degradation is regarded as an illumination problem, thereby allowing the use of color constancy algorithms.
65

Aspectos Computacionais do Processamento de Imagens de Documentos Históricos

MELLO, Carlos Alexandre Barros de January 2002 (has links)
Made available in DSpace on 2014-06-12T15:53:11Z (GMT). No. of bitstreams: 2 arquivo4986_1.pdf: 7522254 bytes, checksum: f384eca043128f0eabf85ef228f843bd (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / Este trabalho apresenta novos aspectos quanto ao processamento de imagens de documentos históricos. Um novo algoritmo para segmentação de imagens baseado em Entropia é proposto e analisado e comparado com diversos outros métodos, com a finalidade de gerar imagens monocromáticas de alta qualidade para inspeção visual, impressão e para inserção em ferramentas de Reconhecimento Óptico de Caracteres. Com a aplicação desse novo algoritmo, um sistema de síntese de imagens de documentos históricos é proposto, onde a textura do papel é criada automaticamente a partir de informações estatísticas da textura original. À essa textura é adicionada a imagem de textual, também sintetizada, apresentando a imagem final do documento com características perceptualmente similares à imagem original e com diferenças estatisticamente não-significantes
66

Reconhecimento de expressões faciais utilizando estimação de movimento

SANTIAGO, Hemir da Cunha 07 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T21:40:31Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) / Made available in DSpace on 2018-06-25T21:40:31Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) Previous issue date: 2017-02-07 / As expressões faciais fornecem informações sobre a resposta emocional e exercem um papel fundamental na interação humana e como forma de comunicação não-verbal. Contudo, o reconhecimento das expressões ainda é algo considerado complexo para o computador. Neste trabalho, propomos um novo extrator de características que utiliza a estimação de movimento para o reconhecimento de expressões faciais. Nesta abordagem, o movimento facial entre duas expressões é codificado usando uma estimação dos deslocamentos de regiões entre duas imagens, que podem ser da mesma face ou de faces similares. A imagem da expressão facial é comparada a outra imagem mais similar em cada expressão facial da base de treinamento, a maior similaridade é obtida usando a medida de Similaridade Estrutural (SSIM - Structural Similarity Index). Após a identificação das imagens mais similares na base de treinamento, são calculados os vetores de movimento entre a imagem cuja expressão facial será reconhecida e a outra mais similar em uma das expressões da base. Para calcular os vetores de movimento é proposto o algoritmo MARSA(Modified Adaptive Reduction of the Search Area). Todos os vetores de movimento são comparados às coordenadas com as maiores ocorrências dentre todos os vetores de movimento obtidos durante a fase de treinamento, a partir dessa comparação são gerados os vetores de características que servem de dados de entrada para uma SVM (Support Vector Machine),que irá realizar a classificação da expressão facial. Diversas bases de imagens e vídeos de faces, reproduzindo expressões faciais, foram utilizadas para os experimentos. O critério adotado para a escolha das bases foi a frequência com que são utilizadas em outros trabalhos do estado da arte, portanto foram escolhidas: Cohn-Kanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI e CMU Pose, Illumination, and Expression (CMU-PIE). Os resultados experimentais demostram taxas de reconhecimento das expressões faciais compatíveis a outros trabalhos recentes da literatura, comprovando a eficiência do método apresentado. / Facial expressions provide information on the emotional response and play an essential role in human interaction and as a form of non-verbal communication. However, there cognition of expressions is still something considered complex for the computer. In this work, it is proposed a novel feature extractor that uses motion estimation for Facial Expression Recognition (FER). In this approach, the facial movement between two expressions is coded using an estimation of the region displacements between two images, which may be of the same face or the like. The facial expression image is compared to another more similar image in each facial expression of the training base, the best match is obtained using the Structural Similarity Index (SSIM). After identifying the most similar images in the training base, the motion vectors are calculated between the reference image and the other more similar in one of the expressions of the base. To calculate the motion vectors is proposed the MARSA (Modified Adaptive Reduction of the Search Area) algorithm. All motion vectors are compared to the coordinates with the highest occurrences of all motion vectors obtained during the training phase, from this comparison the feature vectors are generated that serve as input data for a SVM (Support Vector Machine), which will perform the classification of facial expression. Several databases of images and videos of faces reproducing facial expressions were used for the experiments, the adopted criteria for selection of the bases was the frequency which they are used in the state of the art, then were chosen: CohnKanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI, and CMU Pose, Illumination, and Expression (CMU-PIE). The experimental results demonstrate that there cognition rates of facial expressions are compatible to recent literature works proving the efficiency of the presented method.
67

Reconhecimento de instâncias guiado por algoritmos de atenção visual

MESQUITA, Rafael Galvão de 24 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T22:48:16Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) / Made available in DSpace on 2018-06-25T22:48:16Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) Previous issue date: 2017-02-24 / CNPQ / Atenção visual é o processo pelo qual o cérebro humano prioriza e controla o processamento de estímulos visuais e é, dentre outras características do sistema visual, responsável pela forma rápida com que seres humanos interagem com o meio ambiente, mesmo considerando uma grande quantidade de informações a ser processada. A atenção visual pode ser direcionada pelo mecanismo bottom-up, em que estímulos de baixo nível da cena, como cor, guiam o foco atentivo para aquelas regiões mais salientes, ou seja, que se distinguam da sua vizinhança ou do restante da cena; ou pelo mecanismo top-down, em que fatores cognitivos, como expectativas do indivíduo ou o objetivo de concluir certa tarefa, definem a região de atenção. Esta Tese investiga o uso de algoritmos de atenção visual para guiar (e acelerar) a busca por objetos em imagens digitais. Inspirado no funcionamento do mecanismo bottom-up, um algoritmo de detecção de saliências baseado na estimativa do background da cena combinado com o resultado de um operador Laplaciano, denominado de BLS (Background Laplacian Saliency), é proposto. Além disso, uma modificação no detector/descritor de características locais SURF (Speeded-UpRobust Features), denominado depatch-based SURF, é desenvolvida para que o reconhecimento ocorra iterativamente em certos locais em foco da cena, ao invés de executar o modo clássico de reconhecimento (busca clássica), em que toda a cena é analisada de uma só vez. O modo de busca em que opatch-based SURF é aplicado e a ordem das regiões analisadas da imagem é definida por um algoritmo de detecção de saliência é referenciado como Busca Guiada por Mapa de Saliência (BGMS). O BLS e outros nove algoritmos de detecção de saliências são experimentados na BGMS. Resultados indicam, em média, uma redução para (i) 73% do tempo de processamento da busca clássica apenas pela aplicação do patch-based SURF em uma busca aleatória, (ii) e para 53% desse tempo quando a busca é guiada pelo BLS. Utilizando outros algoritmos de detecção de saliências do estado da arte, entre 55% e 133% do tempo da busca clássica são necessários para o reconhecimento. Além disso, inspirado pelo mecanismo top-down, é proposta a Busca Guiada por Características do Objeto (BGCO) por meio da priorização de descritores extraídos da cena em função da distância Hamming para os descritores de um determinado objeto alvo. A BGCO utiliza filtros de Bloom para representar vetores de características similares aos descritores do objeto buscado e possui complexidade de espaço e tempo constantes em relação ao número de elementos na base de descritores do alvo. Experimentos demonstram uma redução do tempo de processamento para 80% do tempo necessário quando a busca clássica é executada. Concluindo, a partir da integração entre a BGMS e a BGCO (BGMS+BGCO) é possível reduzir o tempo de execução da busca para 44% do tempo da busca clássica. / Visual attention is the process by which the human brain prioritizes and controls visual stimuli and it is, among other characteristics of the visual system, responsible for the fast way in which human beings interact with the environment, even considering a large amount of information to be processed. Visual attention can be driven by abottom-up mechanism, in which low level stimuli of the analysed scene, like color, guides the focused region to salient regions (regions that are distinguished from its neighborhood or from the whole scene); orbyatop-down mechanism, in which cognitive factors, like expectations or the goal of concluding certain task, define the attended location. This Thesis investigates the use of visual attention algorithms to guide (and to accelerate) the search for objects in digital images. Inspired by the bottom-up mechanism, a saliency detector based on the estimative of the scene’s background combined with the result of a Laplacian-based operator, referred as BLS (BackgroundLaplacianSaliency), is proposed. Moreover, a modification in SURF (Speeded-Up Robust Features) local feature detector/descriptor, named as patch-based SURF, is designed so that the recognition occurs iteratively in each focused location of the scene, instead of performing the classical recognition (classic search), in which the whole scene is analysed at once. The search mode in which the patch-based SURF is applied and the order of the regions of the image to be analysed is defined by a saliency detection algorithm is called BGMS. The BLS and nine other state-of-the-art saliency detection algorithms are experimented in the BGMS. Results indicate, in average, a reduction to (i) 73% of the classic search processing time just by applyingpatch-basedSURF in a random search, (ii) and to 53% of this time when the search is guided by BLS. When using other state-of-the-art saliency detection algorithms, between 55% and 133% of the processing time of the classic search is needed to perform recognition. Moreover, inspired by thetop-down mechanism, it is proposed the BGCO, in which the visual search occurs by prioritizing scene descriptors according to its Hamming distance to the descriptors of a given target object. The BGCO uses Bloom filters to represent feature vectors that are similar to the descriptors of the searched object and it has constant space and time complexity in relation to the number of elements in the set of the descriptors of the target. Experiments showed a reduction in the processing time to 80% of the required time when the classic search is performed. Finally, by using the BGMS and the BGCO in an integrated way, the processing time of the search was reduced to 44% of the execution time required by the classic search.
68

Consenso de segmentações de imagens usando classificação de padrões

OLIVEIRA, Wendeson da Silva 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:05:13Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Wendeson da Silva Oliveira.pdf: 6642155 bytes, checksum: e280283f3dc04c84da6f92e144a5155d (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T20:09:40Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Wendeson da Silva Oliveira.pdf: 6642155 bytes, checksum: e280283f3dc04c84da6f92e144a5155d (MD5) / Made available in DSpace on 2018-08-16T20:09:40Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Wendeson da Silva Oliveira.pdf: 6642155 bytes, checksum: e280283f3dc04c84da6f92e144a5155d (MD5) Previous issue date: 2017-02-22 / FACEPE / O processamento e a análise de imagens caracterizam-se em 5 fases: aquisição, préprocessamento, segmentação, representação/descrição, e reconhecimento de imagens. Este trabalho situa-se na área de segmentação de imagens médicas 2D. O principal objetivo da segmentação consiste em dividir uma imagem em regiões ou objetos que a compõem. A segmentação de imagens é alvo de vários estudos e pesquisas para o desenvolvimento de métodos mais abrangentes e computacionalmente mais eficientes, principalmente em imagens médicas. Uma etapa crucial para a extração de informações automatizadas em imagens médicas, geralmente envolve a segmentação das regiões da imagem a fim de quantificar volumes e áreas de interesse de tecidos biológicos para posterior diagnóstico e localização de patologias. Um desafio importante que deve ser levado em consideração no desenvolvimento de algoritmos de segmentação de imagens médicas é como avaliar o desempenho do método. Este tipo de avaliação de desempenho geralmente é feito através da comparação dos resultados de algoritmos automáticos versus uma segmentação de referência, denominada de ground-truth. Em particular, a estimativa de ground-truth em imagens médicas pode ser obtida através do contorno manual ou ainda através de métodos interativos de segmentação. No entanto, essas abordagens podem ser extremamente trabalhosas e sujeitas a variabilidades inter e intra usuários. Uma alternativa para diminuir essa variabilidade é a segmentação utilizando o consenso da resposta de vários usuários para uma mesma imagem. Um método de consenso de segmentações tem a finalidade de combinar várias segmentações de uma mesma imagem. Este trabalho tem como principal objetivo propor uma abordagem para estimar o ground-truth em imagens médicas. A abordagem consiste nas duas principais contribuições deste trabalho. Na primeira, um novo sistema colaborativo COSE (Collaborative Segmentation) foi desenvolvido para obter várias segmentações de uma mesma imagem com o intuito de estimar o ground-truth. Já a segunda, propõe um novo método para o consenso de segmentações de imagens médicas, denominado ISECO (Intelligent SEgmentation COnsensus). Os principais métodos de consenso de segmentações utilizam apenas informações binárias. No entanto, o ISECO apresenta como principal diferencial o fato de utilizar informações extraídas da imagem em nível de cinza para auxiliar na classificação dos pixels em foreground ou background utilizando um modelo de aprendizagem. A extração de características é baseada em três extratores de textura: filtros de Gabor, Local Binary Pattern (LBP) e Local Directional Pattern (LDP). Outra abordagem para o consenso de segmentações, denominada Distance Transform Merge (DTM) também é proposta neste trabalho tendo como objetivo ser um método simples e rápido. Os métodos de consenso propostos são avaliados e comparados com outras abordagens disponíveis na literatura utilizando 4 bases de imagens. A avaliação das abordagens mostra que o ISECO apresenta resultado tão bom ou melhor que os principais métodos da literatura. / Image processing is characterized by five steps: acquisition, pre-processing, segmentation, representation/description and image recognition. In this thesis, we work with the problem the 2D medical image segmentation. The main purpose of image segmentation is to divide an image into regions. Image segmentation has been a subject of several studies and research for the development of more comprehensive and computationally more efficient methods, especially in medical imaging. A challenge that must be taken into account in the development of medical image segmentation algorithms is how to evaluate the performance of the method. This type of performance evaluation is usually done by comparing the results of automatic algorithms versus a reference segmentation, called the ground-truth. In particular, the estimation of ground-truth in medical images can be obtained through manual segmentation or interactive segmentation methods. However, these approaches can be extremely subjective and subject to both intra and inter user variability. An alternative to reduce this variability is image segmentation using the consensus of multiple segmentations of a single image. A segmentation consensus method has the purpose of combining multiple segmentations of the same image. This work proposes an approach to estimate the ground-truth in medical images. The approach consists of two parts. At first, we development a collaborative system called COSE (Collaborative SEgmentation) to obtain various segmentations of the same image in order to estimate the ground-truth. The second proposals is a new method for the consensus of medical image segmentations, called ISECO (Intelligent SEgmentation CCnsensus). The main consensus segmentation methods in the state-of-the-art uses only binary information. However, the ISECO proposes to use gray-scale image information to classify pixels in foreground or background. However, ISECO has as main differential the use of information extracted from the image in gray-scale to assist in the classification of pixels in foreground or background using a learning model. The features extraction is based on three texture extractors: Gabor filters, Local Binary Pattern (LBP) and Local Directional Pattern (LDP). Another approach to segmentation consensus, called Distance Transform Merge (DTM), is also proposed in this work, aiming to be a simple and fast method. The proposed consensus methods are evaluated and compared with other approaches available in the literature using 4 image database. Evaluation of the approaches shows that the ISECO presents better results than the main methods of the literature.
69

Identificação e Monitoramento de Dormentes de Ferrovias usando Processamento de Imagens

FRANCA, A. S. 29 May 2017 (has links)
Made available in DSpace on 2018-08-02T00:00:45Z (GMT). No. of bitstreams: 1 tese_11031_André Stanzani Franca.pdf: 7177903 bytes, checksum: d242880f1213767800f5b7bbf8661aa6 (MD5) Previous issue date: 2017-05-29 / A ferrovia é importante motor da economia mundial. Eficiente, segura e de grande capacidade e velocidade, esse meio de transporte de mais de 200 anos, ainda sofre com as dificuldades de manutenção, majoritariamente devido aos seus ativos de grande extensão, dispersão geográfica, quantidade e peso. Em vista disso, iniciativas em inspeção automática de ativos ferroviários vem se desenvolvendo. Em particular, a inspeção de dormentes ferroviários, que por vezes é feita manualmente, carece de desenvolvimento e consolidação. Esta dissertação apresenta um método para inventariar, identificar o tipo e defeitos em dormentes baseando-se em processamento de imagens, heurística e fusão de características de forma não-supervisionada. Utiliza-se transformada de Haar e imagens integrais, além de outras técnicas de processamento de imagens como detecção de bordas e cálculo de entropia acompanhadas de aspectos da própria topologia da ferrovia para alcançar os objetivos propostos. O desenvolvimento ocorreu sobre imagens reais, não classificadas previamente, do cotidiano ferroviário e que estavam sujeitas a diversos ruídos e variações de uma operação ferroviária autêntica. O método foi validado através de experimentos com um banco de imagens que possuem aproximadamente 33 mil dormentes. Os resultados alcançados são promissores, com acurácia de 97% na assertividade do tipo de dormente identificado e 93% na identificação de defeitos visíveis em dormentes.
70

Algoritmos de afinamento de imagens 3-d : uma analise teorica e pratica

Bezerra, Francisco Nivando 11 April 1997 (has links)
Orientador: Neucimar Jeronimo Leite / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-22T06:43:38Z (GMT). No. of bitstreams: 1 Bezerra_FranciscoNivando_M.pdf: 1868137 bytes, checksum: 850c4ef8f5e74ba6aa091bb37de3ae03 (MD5) Previous issue date: 1997 / Resumo: O afinamento de imagens tem sido bastante estudado em Processamento Digital de Imagens. O caso de imagens bidimensionais, extensivamente considerado na literatura, apresenta um conjunto significativo de algoritmos com diferentes métodos e caracterizações. O mesmo não ocorre com imagens em três dimensões em que as limitações tecnológicas de alguns anos atrás refletem, ainda, a pouca abordagem neste sentido. Esta dissertação apresenta uma análise comparativa dos algoritmos de afinamento de imagens tridimensionais. São discutidos problemas tais como performance, características geométricas das imagens resultantes, e apresentadas algumas equivalências entre os principais métodos. Algumas extensões de técnicas de processamento de imagens bidimensionais ao caso tridimensional são consideradas. Estas técnicas incluem eliminação de ruídos nas imagens afinadas, e definição de divisores de água de uma função. São apresentadas, ainda, técnicas de otimização para os algoritmos estudados. / Abstract: The problem of thinning binary images has been extensively studied in the digital image processing field. Particularly to the bidimensional images, there is a large number of methods leading to different results. In the three-dimensional case, due to the technological limitations, the number of such algorithms is rather limited. This work discusses some problems concerned with the definition of thinning algorithms to three-dimensional images. It describes the main algorithms presented in the literature and analyses them in a comparative way. We consider different aspects of the thinning problem such as execution time, geometric characteristics, and define formally some equivalences between the methods. We also consider some extensions from the bidimensional image processing algorithms to the three-dimensional case. These extensions include noise reduction of thinned images and the watersheds of a function. Finally, some general optimization techniques are defined for the implementation of the algorithms. / Mestrado / Mestre em Ciência da Computação

Page generated in 0.0396 seconds