• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 65
  • 17
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 96
  • 96
  • 66
  • 62
  • 36
  • 25
  • 20
  • 18
  • 18
  • 18
  • 18
  • 17
  • 16
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

A Gaussian Mixture Model based Level Set Method for Volume Segmentation in Medical Images

Webb, Grayson January 2018 (has links)
This thesis proposes a probabilistic level set method to be used in segmentation of tumors with heterogeneous intensities. It models the intensities of the tumor and surrounding tissue using Gaussian mixture models. Through a contour based initialization procedure samples are gathered to be used in expectation maximization of the mixture model parameters. The proposed method is compared against a threshold-based segmentation method using MRI images retrieved from The Cancer Imaging Archive. The cases are manually segmented and an automated testing procedure is used to find optimal parameters for the proposed method and then it is tested against the threshold-based method. Segmentation times, dice coefficients, and volume errors are compared. The evaluation reveals that the proposed method has a comparable mean segmentation time to the threshold-based method, and performs faster in cases where the volume error does not exceed 40%. The mean dice coefficient and volume error are also improved while achieving lower deviation.
22

Análise da eficiência de recuperação por conteúdo de imagens médicas, utilizando extratores de textura baseados em Wavelet e Wavelet Packet / Efficiency analysis of content-based medical image retrieval, using texture extractors based on Wavelet and Wavelet Packet

Ana Cláudia Paris 31 March 2008 (has links)
Aplicações computacionais voltadas para o auxílio ao diagnóstico (Computer-Aided Diagnosis - CAD) estão se tornando cada vez mais freqüentes. O objetivo dessas aplicações é fornecer ao profissional da área médica ferramentas que auxiliem na detecção precoce de patologias diversas. Nesse contexto, algoritmos que satisfaçam o interesse do usuário em encontrar imagens semelhantes a um caso específico podem ser desenvolvidos. Essas buscas devem ser feitas por similaridade, considerando a informação visual da imagem e não utilizando os recursos do processo convencional de busca textual, o qual compara parâmetros fornecidos pelo usuário com valores de atributos armazenados. As técnicas que permitem esse desenvolvimento são descritas na literatura como recuperação de imagens baseada em conteúdo (Content-Based Image Retrieval - CBIR). O maior desafio nessa abordagem é determinar o conjunto de características que descrevem o conteúdo da imagem adequadamente. No presente trabalho foram implementados algoritmos para extrair as características das imagens médicas utilizando as transformadas Wavelet e Wavelet Packet. A transformada Wavelet Packet tem maior capacidade para distinguir as freqüências quando comparada com a transformada Wavelet \"tradicional\". Esse estudo explora tal propriedade e analisa o desempenho dessas abordagens matemáticas na recuperação das imagens médicas por conteúdo. Ao final do estudo pôde-se estabelecer um comparativo entre os resultados obtidos com os vetores gerados a partir dos dados extraídos por ambas transformadas. Considerando-se que na área médica a precisão na obtenção das informações tem importância fundamental, a transformada Wavelet Packet revelou vantagens relevantes sobre os métodos tradicionais que aplicam a transformada Wavelet. Gráficos recall x precision e confusion matrix forneceram medidas da eficácia de recuperação. / Computer-Aided Diagnosis (CAD) applications are becoming more frequent each day. This application\'s objective is to provide tools for the medical professional that help in the precocious detection of different pathologies. On this context, algorithms that satisfy the user interest to find similar images related to a singular case can be developed. Such searches must be done considering the visual information instead of using common resources employed in textual conventional procces\'s searches, which compares parameters provide by the user to attribute\'s values stored. The techniques that admit such development are depicted in the literature as Content-Based Image Retrieval (CBIR). The great challenge here is to define the features that represent the image appropriately. In the present research were implemented algorithms to extract the images features using the Wavelet transform and Wavelet Packet transform. A Wavelet Packet transform distinguish frequencies better than the \"tradicional\" Wavelet transform. Therefore this study explores such properties and analyze the both mathematics approaches performance in the medical images retrieval. A comparative can be estabilished between the results obtained with the vectors produced using extracted data in both transforms. Considering that in the medical area the precision to obtain informations has fundamental importance, the Wavelet Packet transform revealed relevant advantages compared to the traditional methods that use the Wavelet transform. Recall x precision graphs and confusion matrix provides retrieval efficiency measures.
23

Explorando superpixels para a segmentação semiautomática de imagens médicas para recuperação por conteúdo / Exploring superpixels to semi automatic medical image segmentation for content-based image retrieval

Paulo Duarte Barbieri 03 June 2016 (has links)
Nesse trabalho foi desenvolvido o método VBSeg, um método de segmentação semiautomático de corpos vertebrais, que utiliza superpixels para aumentar a eficiência de técnicas de segmentação de imagens já estabelecidas na literatura, sem perder qualidade do resultado final. Experimentos mostraram que o uso de superpixels melhorou o resultado da segmentação dos corpos vertebrais em até 18%, além de aumentar a eficiência desses métodos, deixando a execução dos algoritmos de segmentação pelo menos 38% mais rápida. Além disso, o método desenvolvido possui baixa dependência do nível de especialidade do usuário e apresentou resultados comparáveis ao método Watershed, um método bem estabelecido na área de segmentação de imagens. Contudo, o método VBSeg segmentou 100% dos corpos vertebrais das imagens analisadas, enquanto que o método Watershed deixou de segmentar 44% dos corpos. / This work presents the development of a semiautomatic vertebral body segmentation method VBSeg, which uses superpixels to increase effi- ciency of well established image segmentation methods without losing quality. Experiments have shown motivating results with superpixels im- proving vertebral bodies segmentation in 18% and making segmentation algorithms at least 38% faster. Furthermore, our VBSeg method has low dependency on the level of expertise and got similar results to Watershed method, a well-established image segmentation method. However, VB- Seg method was able to segment 100% of the analyzed vertebral bodies while Watershed method missed 44% of those.
24

Aplicação de técnicas de content-based image retrieval (CBIR) em imagens radiográficas / Application of techniques of content- based image retrieval (CBIR) in radiographic images

Macena Júnior, Elias Borges 30 September 2016 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2016-10-17T13:34:17Z No. of bitstreams: 2 Dissertação - Elias Borges Macena Junior - 2016.pdf: 9321304 bytes, checksum: ca477b8a1eeb56b690f41c443b0ca638 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-10-17T17:17:50Z (GMT) No. of bitstreams: 2 Dissertação - Elias Borges Macena Junior - 2016.pdf: 9321304 bytes, checksum: ca477b8a1eeb56b690f41c443b0ca638 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-10-17T17:17:50Z (GMT). No. of bitstreams: 2 Dissertação - Elias Borges Macena Junior - 2016.pdf: 9321304 bytes, checksum: ca477b8a1eeb56b690f41c443b0ca638 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-09-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In order to improve the diagnostic process several research centers have focused on the development of information systems applying powerful techniques of computer-aided diagnosis (CAD). In this context, the creation of content-based image retrieval (CBIR) is an important step in developing an efficient CAD system. This work proposes the validation of recovery with a hybrid CBIR method based on 2D medical images. The results of the techniques applied, indicate a hit rate of 90.25% and indicate a gain of 35% in the performance of techniques, that is, the time search and retrieval of images, paving the way for the development of information systems more efficient to build support generic diagnostic systems. / Com o objetivo de melhorar o processo de diagnóstico vários centros de pesquisas têm focado no desenvolvimento de sistemas de informação aplicando poderosas técnicas de diagnóstico auxiliado por computador (Computer-Aided Diagnosis-CAD). Neste contexto, a criação de métodos de recuperação de imagens baseado em conteúdo (Content-based image retrieval - CBIR) é um passo importante para desenvolver um sistema CAD eficiente. Este trabalho propõe a validação de técnicas de recuperação com um método híbrido CBIR baseado em imagens médicas 2D. Os resultados das técnicas aplicadas, indicam uma taxa de acerto de 90,25% e ainda indicam um ganho de 35% no desempenho das técnicas, isto é, no tempo de busca e recuperação das imagens, abrindo caminho para o desenvolvimento de sistemas de informação mais eficientes para construção de sistemas de apoio ao diagnóstico genéricos.
25

Sistema JAVA para gerenciamento de esquema CADx em mamografia / JAVA system for mammographic CADx managing

Bruno Roberto Nepomuceno Matheus 17 September 2015 (has links)
Estudos mostram que a maior parte dos erros de diagnóstico mamográfico estão ligados a dificuldades de classificação e não de detecção (MEYER, EBERLEIN, et al., 1990; KARSSEMEIJER, 2011; SCHIABEL, 2014). Uma possível solução a este problema é a estruturação de um esquema CADx (Computer-aided Diagnosis), ou seja, um sistema computacional que analisa as informações disponíveis e tenta apresentar um diagnóstico com base nos dados fornecidos pela imagem processada. Este trabalho tem como intuito apresentar um esquema CADe/Dx completo e funcional para uso por radiologistas. O software final poderá ser usado em qualquer sistema operacional, ou mesmo via Internet, permitindo que qualquer médico interessado acesse e utilize o sistema como segunda opinião sem restrições. A formação da biblioteca JAVA também visa a permitir que outros desenvolvedores possam fazer uso das ferramentas desenvolvidas em projetos futuros, facilitando ampliações e melhorias no esquema CADx. Vários módulos de processamento previamente desenvolvidos para o protótipo do esquema CADx-LAPIMO tiveram que ser reconstruídos, e outros elaborados completamente, produzindo novos resultados que são analisados neste trabalho, assim como suas vantagens e limitações. Estes módulos estão divididos em duas partes: o pré-processamento, que inclui a correção baseada na curva característica do digitalizador (técnica BCC), amplamente testada neste trabalho, e o processamento propriamente, incluindo detecção de microcalcificações e detecção e classificação de nódulos. O programa CADx desenvolvido neste trabalho foi separado em duas versões (cada uma com uma versão online correspondente): um é o esquema CADe/Dx que envolve tanto a detecção como a classificação da estrutura encontrada e o outro é um esquema CADx semiautomático, cujas regiões que devem ser classificadas são previamente demarcadas pelo usuário. Os principais resultados obtidos neste trabalho estão associados ao detector de microcalcificações e ao classificador de nódulos. Para o detector de microcalcificações atingiu-se 89% de sensibilidade com 1,4 falso-positivo por imagem quando usado em imagens digitais de sistemas FFDM e 99% de sensibilidade com 5,4 falsos-positivos quando usado em imagens digitalizadas de mamas densas . Já o classificador de nódulos apresentou 72% de acurácia, usando apenas 4 atributos associados a contorno, densidade e textura, resultando em um sistema robusto e de fácil treinamento. / Studies show that most diagnostic errors are linked to classification difficulties and not detection (MEYER, EBERLEIN, et al., 1990; KARSSEMEIJER, 2011; SCHIABEL, 2014). A possible solution for this problem is the construction of a CAD (Computer aided Diagnosis), a computational system that analyses the available information e tries to present a diagnosis based on the data offered by the processed image. This thesis presents a complete and functional mammographic CADe/Dx scheme for radiologist use. The software is designed to function in any operational system, or even online, allowing any interested radiologist to access the software as a second opinion. The formation of a JAVA library also allows any future developers can use all tools developed for this system, easing future improvements in the CADx scheme. Several modules of the scheme previously developed for the CADx-LAPIMO prototype had to be rebuilt or completely developed, generating new results that are analyzed in here, as are their advantages and limitations. Those modules are divided in two parts, the preprocessing, that includes the scanner\'s characteristic curve based correction, detailed tested in this thesis and the processing itself, including detection of microcalcifications, and detections and classification of masses. The CADx scheme developed here was separated in two versions (each one with a corresponding online version): one is a CADe/Dx scheme that involves both detection and classification of the found structures and the other is a CADx semi-automatic scheme, where the classified regions are previously marked by the user. The main results obtained in this thesis are associated with the microcalcifications detector and the mass classification. The microcalcifications detector obtained a 89% sensibility with 1,4 false-positives per image when used in digital FFDM systems and 99% sensibility with 5,4 false-positives per image in digitalized images of dense breasts. The mass classification module presented a 72% accuracy, using only 4 attributes associated to contour, density and texture, resulting in a robust system and of easy training.
26

Pokročilé možnosti zabezpečení medicínských obrazových dat / Advanced Security Methods of Medical Image

Roček, Aleš January 2017 (has links)
Medical institutions adapt digital based archiving of patients records images to fulfil its advantages like availability, easy sharing, high resolution etc. Digital form of records brings apart from advantages also disadvantages at security risks. It is easier attacking, stealing, using without authorization etc. This thesiss deals with this security issues, describes the needs and approaches to security, explains the reasons for deployment of watermarking. It names three main methods of medical image watermarking and compares their plus and cons: zero, reversible and watermarking in Region Of Non Interest (RONI). New method of Zero-reversible-RONI watermarking, that combine advantages of described methods, is proposed. For practical tests of properities of proposed method was used huge database of medical images. Application of the proposed method on this database delivers very promising results. Practical results discussion and comparison with other medical imaging watermarkikng methods are at the end of this thesis.
27

Self-learning for 3D segmentation of medical images from single and few-slice annotation

Lassarat, Côme January 2023 (has links)
Training deep-learning networks to segment a particular region of interest (ROI) in 3D medical acquisitions (also called volumes) usually requires annotating a lot of data upstream because of the predominant fully supervised nature of the existing stateof-the-art models. To alleviate this annotation burden for medical experts and the associated cost, leveraging self-learning models, whose strength lies in their ability to be trained with unlabeled data, is a natural and straightforward approach. This work thus investigates a self-supervised model (called “self-learning” in this study) to segment the liver as a whole in medical acquisitions, which is very valuable for doctors as it provides insights for improved patient care. The self-learning pipeline utilizes only a single-slice (or a few-slice) groundtruth annotation to propagate the annotation iteratively in 3D and predict the complete segmentation mask for the entire volume. The segmentation accuracy of the tested models is evaluated using the Dice score, a metric commonly employed for this task. Conducting this study on Computed Tomography (CT) acquisitions to annotate the liver, the initial implementation of the self-learning framework achieved a segmentation accuracy of 0.86 Dice score. Improvements were explored to address the drifting of the mask propagation, which eventually proved to be of limited benefits. The proposed method was then compared to the fully supervised nnU-Net baseline, the state-of-the-art deep-learning model for medical image segmentation, using fully 3D ground-truth (Dice score ∼ 0.96). The final framework was assessed as an annotation tool. This was done by evaluating the segmentation accuracy of the state-of-the-art nnU-Net trained with annotation predicted by the self-learning pipeline for a given expert annotation budget. While the self-learning framework did not generate accurate enough annotation from a single slice annotation yielding an average Dice score of ∼ 0.85, it demonstrated encouraging results when two ground-truth slice annotations per volume were provided for the same annotation budget (Dice score of ∼ 0.90). / Att träna djupinlärningsnätverk för att segmentera en viss region av intresse (ROI) i medicinska 3D-bilder (även kallade volymer) kräver vanligtvis att en stor mängd data kommenteras uppströms på grund av den dominerande helt övervakade karaktären hos de befintliga toppmoderna modellerna. För att minska annoteringsbördan för medicinska experter samt den associerade kostnaden är det naturligt och enkelt att utnyttja självlärande modeller, vars styrka ligger i förmågan att tränas med omärkta data. Detta arbete undersöker således en självövervakad modell (“kallas ”självlärande” i denna studie) för att segmentera levern som helhet i medicinska skanningar, vilket är mycket värdefullt för läkare eftersom det ger insikter för förbättrad patientvård. Den självlärande pipelinen använder endast en enda skiva (eller några få skivor) för att sprida annotationen iterativt i 3D och förutsäga den fullständiga segmenteringsmasken för hela volymen. Segmenteringsnoggrannheten hos de testade modellerna utvärderas med hjälp av Dice-poängen, ett mått som vanligtvis används för denna uppgift. Vid genomförandet av denna studie på CT-förvärv för att annotera levern uppnådde den initiala implementeringen av det självlärande ramverket en segmenteringsnoggrannhet på 0,86 Dice-poäng. Förbättringar undersöktes för att hantera driften av maskutbredningen, vilket så småningom visade sig ha begränsade fördelar. Den föreslagna metoden jämfördes sedan med den helt övervakade nnU-Net-baslinjen, den toppmoderna djupinlärningsmodellen för medicinsk bildsegmentering, med hjälp av helt 3D-baserad sanning (Dice-poäng ∼ 0, 96). Det slutliga ramverket bedömdes som ett annoteringsverktyg. Detta gjordes genom att utvärdera segmenteringsnoggrannheten hos det toppmoderna nnU-Net som tränats med annotering som förutspåtts av den självlärande pipelinen för en given budget för expertannotering. Det självlärande ramverket genererade inte tillräckligt noggranna annoteringar från baserat på endast en snittannotering och resulterade i en genomsnittlig Dice-poäng på ∼ 0, 85, men uppvisade uppmuntrande resultat när två verkliga snittannoteringar per volym tillhandahölls för samma anteckningsbudget (Dice-poäng på ∼ 0, 90).
28

Vinculação de imagens para busca e visualização a partir de um sistema de informação em radiologia (RIS) / Bonding of images to search and visualization to inicial of radiology information system (RIS)

Caritá, Edilson Carlos 12 March 2002 (has links)
Este trabalho apresenta o estudo e implementação de um sistema para vinculação e visualização de imagens de ressonância magnética nuclear e tomografia computadorizada a partir de um sistema de informação em radiologia (RIS), possibilitando a recuperação e disponibilização dos exames (laudos e imagens), através de rede \"ethernet\", para visualização a partir de uma interface desenvolvida para \"browser\". Os exames podem ser recuperados através do número de registro (RGHC) ou do nome do paciente. As imagens utilizadas no trabalho estão nos padrões DICOM 3.0 (Digital Imaging and Communications in Medicine) e JPEG (Joint Photographic Experts Group). Para a vinculação dos exames que possuem suas imagens em JPEG foi desenvolvida uma interface para inclusão das informações necessárias que garantem a consistência deste processo. Para os exames que possuem suas imagens em formato DICOM 3.0 as informações foram extraídas automaticamente dos cabeçalhos e armazenadas no banco de dados. O sistema possui uma interface amigável ao usuário, podendo ser rapidamente incorporada ao projeto de um PACS (Picture Archiving and Communication System). A implementação foi idealizada para servir ao Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (HCFMRP/USP), com base no seu sistema de informação em radiologia. Os resultados demonstram que o tempo de retorno das imagens é clinicamente satisfatório e considerado bom pela avaliação qualitativa dos médicos. / This work presents the study and implementation of a system aiming the indexing and visualization of the images of nuclear magnetic resonance and computerized tomography from a radiology information system (RIS), allowing the retrieval and availability of the exams (results and images), through an ethernet net for visualization beginning with an interface developed to a browser. The exams may be recovered either through their register number (RGHC) or the patient\'s name. The images employed in the work follow the DICOM 3.0 (Digital Imaging and Communications in Medicine) and JPEG (Joint Photographic Experts Group) patterns. For the indexing of the exams that present images in JPEG, an interface was developed to include the information required to guarantee the consistency of the process. For the exams presenting the DICOM 3.0 format, information was extracted automatically from the heading and filed in the database. The system has a friendly interface for the user, it may be rapidly incorporated to the project of an PACS (Picture Archiving and Communication System). The implementation was idealized to serve the Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto, of the Universidade de São Paulo (HCFMRP/USP), based on its radiology information system (RIS). The results demonstrated that the time of retrieval of the images is satisfactory and considered good by evaluation qualified of the doctors.
29

Seleção de características por meio de algoritmos genéticos para aprimoramento de rankings e de modelos de classificação / Feature selection by genetic algorithms to improve ranking and classification models

Silva, Sérgio Francisco da 25 April 2011 (has links)
Sistemas de recuperação de imagens por conteúdo (Content-based image retrieval { CBIR) e de classificação dependem fortemente de vetores de características que são extraídos das imagens considerando critérios visuais específicos. É comum que o tamanho dos vetores de características seja da ordem de centenas de elementos. Conforme se aumenta o tamanho (dimensionalidade) do vetor de características, também se aumentam os graus de irrelevâncias e redundâncias, levando ao problema da \"maldição da dimensionalidade\". Desse modo, a seleção das características relevantes é um passo primordial para o bom funcionamento de sistemas CBIR e de classificação. Nesta tese são apresentados novos métodos de seleção de características baseados em algoritmos genéticos (do inglês genetic algorithms - GA), visando o aprimoramento de consultas por similaridade e modelos de classificação. A família Fc (\"Fitness coach\") de funções de avaliação proposta vale-se de funções de avaliação de ranking, para desenvolver uma nova abordagem de seleção de características baseada em GA que visa aprimorar a acurácia de sistemas CBIR. A habilidade de busca de GA considerando os critérios de avaliação propostos (família Fc) trouxe uma melhora de precisão de consultas por similaridade de até 22% quando comparado com métodos wrapper tradicionais para seleção de características baseados em decision-trees (C4.5), naive bayes, support vector machine, 1-nearest neighbor e mineração de regras de associação. Outras contribuições desta tese são dois métodos de seleção de características baseados em filtragem, com aplicações em classificação de imagens, que utilizam o cálculo supervisionado da estatística de silhueta simplificada como função de avaliação: o silhouette-based greedy search (SiGS) e o silhouette-based genetic algorithm search (SiGAS). Os métodos propostos superaram os métodos concorrentes na literatura (CFS, FCBF, ReliefF, entre outros). É importante também ressaltar que o ganho em acurácia obtido pela família Fc, e pelos métodos SiGS e SiGAS propostos proporcionam também um decréscimo significativo no tamanho do vetor de características, de até 90% / Content-based image retrieval (CBIR) and classification systems rely on feature vectors extracted from images considering specific visual criteria. It is common that the size of a feature vector is of the order of hundreds of elements. When the size (dimensionality) of the feature vector is increased, a higher degree of redundancy and irrelevancy can be observed, leading to the \"curse of dimensionality\" problem. Thus, the selection of relevant features is a key aspect in a CBIR or classification system. This thesis presents new methods based on genetic algorithms (GA) to perform feature selection. The Fc (\"Fitness coach\") family of fitness functions proposed takes advantage of single valued ranking evaluation functions, in order to develop a new method of genetic feature selection tailored to improve the accuracy of CBIR systems. The ability of the genetic algorithms to boost feature selection by employing evaluation criteria (fitness functions) improves up to 22% the precision of the query answers in the analyzed databases when compared to traditional wrapper feature selection methods based on decision-tree (C4.5), naive bayes, support vector machine, 1-nearest neighbor and association rule mining. Other contributions of this thesis are two filter-based feature selection algorithms for classification purposes, which calculate the simplified silhouette statistic as evaluation function: the silhouette-based greedy search (SiGS) and the silhouette-based genetic algorithm search (SiGAS). The proposed algorithms overcome the state-of-the-art ones (CFS, FCBF and ReliefF, among others). It is important to stress that the gain in accuracy of the proposed methods family Fc, SiGS and SIGAS is allied to a significant decrease in the feature vector size, what can reach up to 90%
30

Optimal transport applied to eye fundus image registration / Transporte ótimo de massa aplicado ao registro de imagens de fundo do olho

Motta, Danilo Andrade 29 November 2018 (has links)
Optimal transport has emerged as a promising and effective tool for supporting modern image processing, geometric processing, and even machine learning. Indeed, the optimal transport theory enables great flexibility in modeling problems, as different optimization resources can be successfully employed while preserving a context relevant property that can be interpreted as mass. In this research, we introduce a novel automatic technique for eye fundus image registration which is based on optimal transport theory, image processing filters, graph matching, and geometric transformations into a concise and unified framework. Given two ocular fundus images, we construct representative graphs which embed in their structures spatial and topological information from the eyes blood vessels. The graphs produced are then used as input by our optimal transport model in order to establish a correspondence between their sets of nodes. We also proposed a new measure that estimates the register quality and an extension of an outlier removal technique called DeSAC. Finally, the best geometric transformation is performed on the image to properly accomplish the registration task. Our method relies on a solid mathematical foundation, is easy-to-implement and performs well when dealing with outliers created during the matching stage, producing deterministic and accurate solutions. We demonstrate the accuracy and effectiveness of the proposed methodology through a comprehensive set of qualitative and quantitative comparisons against various representative state-of-the-art methods on different fundus image databases. / O transporte ótimo se tornou uma ferramenta promissora e eficaz para apoiar o processamento de imagens moderno, processamento geométrico e até aprendizado de máquina. De fato, a teoria do transporte ótimo permite uma grande flexibilidade na modelagem de problemas, pois diferentes recursos de otimização podem ser empregados enquanto se preserva uma propriedade relevante ao contexto que pode ser interpretada como massa. Nesta pesquisa, nós introduzimos uma nova técnica automática para o registro da imagem do fundo do olho que é baseada na teoria óptima do transporte, filtros de processamento de imagem, correspondência de grafos e transformações geométricas em uma estrutura concisa e unificada . Dadas duas imagens de fundo ocular, construímos grafos representativos que incorporam em suas estruturas informações espaciais e topológicas dos vasos sanguíneos do olho. Os grafos produzidos são usados como entrada pelos nossos modelo de transporte ótimo, a fim de estabelecer uma correspondência entre seus conjuntos de nós. Propomos também uma nova medida que estima a qualidade do registro e uma extensão de uma tecnica de removeção de outliers chamada DeSAC. Finalmente, transformações geométricas são realizadas entre as imagens para realizar adequadamente a tarefa de registro. Nosso método baseia-se em uma sólida base matemática, é fácil de implementar e funciona bem lidando com outliers criados durante o estágio de correspondência, produzindo soluções determinísticas e precisas. Demonstramos a exatidão e eficácia da metodologia proposta por meio de uma abordagem abrangente de comparações qualitativas e quantitativas contra vários métodos representativos do estado da arte em diferentes bases de dados de imagens de fundo de olho.

Page generated in 0.0566 seconds