• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Automatic segmentation of the bony structure of the shoulder

Nguyen, Nhat Tan 11 April 2018 (has links)
Plusieurs problèmes dans le placement d'endoprothèses sont dus à une compréhension pré-opératoire limitée de l'état du patient. La plupart des patients souffrent de l'arthrite rhumatoïde, ce qui affect la qualité et la forme de l'os en question: souvent la cavité glénoïde de l'omoplate s'est rétractée. Le plan de l'opération doit être planifiée à l'aide d'images Roentgen 2-D. Pendant la chirurgie, l'espace de travail de l'opération est très limité, seule la surface articulaire du scapula est exposée. Le patient est placé sur le côté, avec l'épaule endommagé pointant vers le haut, ce qui entraine un glissement vers le bas de l'omoplate. Pendant la chirurgie, la technique la plus souvent utilisée implique l'enlèvement du cartilage restant, le moulage de la forme de l'endoprothèse dans l'os trabeculaire, l'application d'une certaine quantité de ciment d'os, le placement de l'endoprothèse et l'insertion de vis pour une fixation préliminaire. D'autres préfèrent approcher l'espace d'opération du côté arrière du patient en fendant le scapula en deux. La technique préférée est de supporter l'endoprothèse sur l'os corticale et d'essayer de rétablir une position et une orientation fonctionnelles. Une prothèse faite sur mesure est donc nécessaire en plus d'une bonne vue de l'omoplate. La segmentation automatique des structures osseuses dans les bases de données agiographiques IRM est une étape préliminaire essentielle pour la plupart des tâches de visualisation et d'analyse. Afin d'obtenir une meilleure compréhension de l'épaule en santé et de l'épaule arthrosique pathologique, ce projet développera une méthode pour la segmentation des structures de l'épaule à partir de bases de données de l'IRM. Le développement de techniques convenables pour la segmentation du scapula et de l'humérus dans une base de données bidimensionnelle de l'IRM constitue une partie majeure de ce projet. Actuellement nous nous penchons sur des techniques de segmentation basées sur les contours, c'est-à-dire un point de l'os est défini d'abord. Les contours de l'os sont extraits dans une deuxième étape. / Image segmentation is an important area in the general field of image processing and computer vision. It is a fundamental part of the 'low level' aspects of computer vision and has many practical applications such as in medical imaging, industrial automation and satellite imagery. Traditional methods for image segmentation have approached the problem either from localization in class space using region information, or from localization in position, using edge or boundary information. More recently, however, attempts have been made to combine both region and boundary information in order to overcome the inherent limitations of using either approach alone. The shoulder has the widest range of motion than any joint in the body. Normally, shoulder stability is maintained through complex interaction between static and dynamic stabilizing mechanisms, including the bony glenoid, the labrum, the glenohumeral ligaments and joint capsule, and the muscles and tendons of the rotator cuff. Due to the complicated mechanisms involved in glenohumeral stability, a clinical evaluation can be very challenging. The primary motivation behind this research is to improve the accurate clinical evaluation of shoulder pathology. In this thesis, a new approach to image segmentation is presented that integrates region and boundary information. Our ultimate goal is to develop a framework for integrating boundary finding and region-based segmentation. This would lead to a System where the two modules would operate respectively so that at each step the outputs of each module get updated using information from the outputs of both the modules from the previous iteration. The main objective we present in this thesis is aimed at using the results of boundary detection to assist region-based segmentation. Unlike most of other existing methods, it integrates boundary-based segmentation with region growing rather than edge detection, thereby making it resistant to the problems of false and broken edges while at the same time having well localized boundaries. This method is successful in segmenting the set of slices of MR images of the shoulder. The experiments show that the results given by the method archive 96.32% correspondence to results given by a specialist does segment manually.
262

Hierarchical scene categorization : exploiting fused local & global features and outdoor & indoor information

Shahriari, Mana 27 January 2024 (has links)
Récemment, le problème de la compréhension de l’image a été l’objet de beaucoup d’attentions dans la littérature. La catégorisation de scène peut être vue comme un sous-ensemble de la compréhension d’image utilisée pour donner un contexte à la compréhension d’image ainsi qu’à la reconnaissance d’objet afin de faciliter ces tâches. Dans cette thèse, nous revisitons les idées classiques de la catégorisation des scènes à la lumière des approches modernes. Le modèle proposé s’inspire considérablement de la façon dont le système visuel humain comprend et perçoit son environnement. À cet égard, je soute qu’ajouter un niveau de classificateur extérieur – intérieur combiné à des caractéristiques globales et locales de scène permet d’atteindre une performance de pointe. Ainsi, un tel modèle requiert ces deux éléments afin de gérer une grande variété d’éclairage et points de vue ainsi que des objets occultés à l’intérieur des scènes. Le modèle que je propose est un cadre hiérarchique en deux étapes qui comprend un classificateur extérieur – intérieur à son stade initial et un modèle de scène contextuelle au stade final. Je monte ensuite que les fonctionnalités locales introduites, combinées aux caractéristiques globales, produisent des caractéristiques de scène plus stables. Par conséquent, les deux sont des ingrédients d’un modèle de scène. Les caractéristiques de texture des scène extérieures agissent comme caractéristique locale, tandis que leur apparence spatiale agit comme caractéristique globale. Dans les scènes d’intérieur, les caractéristiques locales capturent des informations détaillées sur les objets alors que les caractéristiques globales représentent l’arrière-plan et le contexte de la scène. Enfin, je confirme que le modèle présenté est capable de fournir des performances de pointe sur trois jeux de données de scène qui sont des standards de facto; 15 – Scene Category, 67 –Indoor Scenes, et SUN 397. / Recently the problem of image understanding has drawn lots of attention in the literature. Scene categorization can be seen as a subset of image understanding utilized to give context to image understanding also to object recognition in order to ease these tasks. In this thesis, I revisit the classical ideas, model driven approaches, in scene categorization in the light of modern approaches, data driven approaches. The proposed model is greatly inspired by human visual system in understanding and perceiving its environment. In this regard, I argue that adding a level of outdoor – indoor classifier combined with global and local scene features, would reach to the state-of-the-art performance. Thus, such a model requires both of these elements in order to handle wide variety of illumination and viewpoint as well as occluded objects within scenes. The proposed model is a two-stage hierarchical model which features an outdoor – indoor classifier at its initial stage and a contextual scene model at its final stage. I later show that the introduced local features combined with global features produce more stable scene features, hence both are essential components of a scene model. Texture-like characteristics of outdoor scenes act as local feature meanwhile their spatial appearance act as the global feature. In indoor scenes, local features capture detailed information on objects, while global features represent background and the context of the scene. Finally, I have confirmed that the presented model is capable of delivering state-of-the-art performance on 15 – Scene Category, 67 – Indoor Scenes, and SUN 397, three de-facto standard scene datasets
263

Nettoyage d'une carte de primitives par appariement et relaxation

Filiatrault, Alexandre 12 April 2018 (has links)
Ce mémoire présente une étape intermédiaire de traitement dans le but d'isoler les objets principaux d'une scène. Les calculs sont effectués à partir de la sortie du logiciel Magno, qui a pour but de segmenter une image numérique en segments de droites et en arcs de cercles. L'objectif du projet est de nettoyer la carte de primitives ; garder celles qui sont disposées à former un objet multi-parties et rejeter celles qui vraisemblablement représentent l'arrière-scène. L'approche retenue implique un appariement de toutes les paires de primitives possibles et y ajoute une phase de relaxation pour stabiliser les résultats.
264

Rehaussement des primitives de contours à l'aide d'une segmentation multi-échelle en arbre quaternaire

Bergeron, Vincent 13 April 2018 (has links)
Ce mémoire présente une approche permettant de rehausser la silhouette d'un objet multie-parties dans une image. L'entrée est une carte de CCPs (Constant Curvature Primitives) provenant d'une segmentation de l'image originale par le logiciel MAGNO. Ces CCPs sont en fait des arcs de cercle et des segments de droite. L'objectif est de rehausser la silhouette de l'objet, c'est-à-dire de conserver les CCPs se trouvant sur la silhouette de l'objet et d'éliminer les autres. L'approche retenue est d'utiliser l'image originale (avant la segmentation par le logiciel MAGNO) et de la diviser en utilisant l'algorithme de l'arbre quaternaire. Une fois l'image divisée en carrés, ces derniers sont superposés à la carte de CCPs et cinq critères permettent à la fois d'éliminer et de donner un poids à chacun des CCPs. Les CCPs ayant les plus grands poids sont plus susceptibles de se trouver sur la silhouette de l'objet
265

Augmentation de la profondeur de champs par encoddage du front d'onde

Desaulniers, Pierre 13 April 2018 (has links)
Une augmentation de la profondeur de champs d'un système d'analyse cytologique par introduction d'un masque de phase couplé à un traitement numérique des images est proposée. La conception et l'optimisation des paramètres d'un masque de phase cubique ont été faites à l'aide du logiciel de conception optique Zemax®. Les masques de phase optimisés ont été réalisés selon 2 méthodes de fabrication. L'algorithme de traitement d'image par déconvolution ainsi que l'ajustement des pas de discrétisation des spectres nécessaires à ce traitement sont aussi démontrés dans ce mémoire. Finalement, les images résultantes présentent une profondeur de champs 20 fois plus grande que celle du système initial. / This thesis displays an extension of the depth of field of a cytologic System by introduction of a phase mask coupled with post-digital image processing. The phase masks parameters have been optimized using the Zemax® optical design software. The optimized cubic phase masks were fabricated using two different methods. An analysis of the fabricated phase masks and their performances are shown. The image processing deconvolution algorithm and the resulting depth extended images are also presented in this thesis. Finally, the depth of field of the cytologic System has been extended by 20 times.
266

New algorithms for the analysis of live-cell images acquired in phase contrast microscopy

Juneau, Pierre-Marc 23 April 2018 (has links)
La détection et la caractérisation automatisée des cellules constituent un enjeu important dans de nombreux domaines de recherche tels que la cicatrisation, le développement de l'embryon et des cellules souches, l’immunologie, l’oncologie, l'ingénierie tissulaire et la découverte de nouveaux médicaments. Étudier le comportement cellulaire in vitro par imagerie des cellules vivantes et par le criblage à haut débit implique des milliers d'images et de vastes quantités de données. Des outils d'analyse automatisés reposant sur la vision numérique et les méthodes non-intrusives telles que la microscopie à contraste de phase (PCM) sont nécessaires. Comme les images PCM sont difficiles à analyser en raison du halo lumineux entourant les cellules et de la difficulté à distinguer les cellules individuelles, le but de ce projet était de développer des algorithmes de traitement d'image PCM dans Matlab® afin d’en tirer de l’information reliée à la morphologie cellulaire de manière automatisée. Pour développer ces algorithmes, des séries d’images de myoblastes acquises en PCM ont été générées, en faisant croître les cellules dans un milieu avec sérum bovin (SSM) ou dans un milieu sans sérum (SFM) sur plusieurs passages. La surface recouverte par les cellules a été estimée en utilisant un filtre de plage de valeurs, un seuil et une taille minimale de coupe afin d'examiner la cinétique de croissance cellulaire. Les résultats ont montré que les cellules avaient des taux de croissance similaires pour les deux milieux de culture, mais que celui-ci diminue de façon linéaire avec le nombre de passages. La méthode de transformée par ondelette continue combinée à l’analyse d'image multivariée (UWT-MIA) a été élaborée afin d’estimer la distribution de caractéristiques morphologiques des cellules (axe majeur, axe mineur, orientation et rondeur). Une analyse multivariée réalisée sur l’ensemble de la base de données (environ 1 million d’images PCM) a montré d'une manière quantitative que les myoblastes cultivés dans le milieu SFM étaient plus allongés et plus petits que ceux cultivés dans le milieu SSM. Les algorithmes développés grâce à ce projet pourraient être utilisés sur d'autres phénotypes cellulaires pour des applications de criblage à haut débit et de contrôle de cultures cellulaires. / Automated cell detection and characterization is important in many research fields such as wound healing, embryo development, immune system studies, cancer research, parasite spreading, tissue engineering, stem cell research and drug research and testing. Studying in vitro cellular behavior via live-cell imaging and high-throughput screening involves thousands of images and vast amounts of data, and automated analysis tools relying on machine vision methods and non-intrusive methods such as phase contrast microscopy (PCM) are a necessity. However, there are still some challenges to overcome, since PCM images are difficult to analyze because of the bright halo surrounding the cells and blurry cell-cell boundaries when they are touching. The goal of this project was to develop image processing algorithms to analyze PCM images in an automated fashion, capable of processing large datasets of images to extract information related to cellular viability and morphology. To develop these algorithms, a large dataset of myoblasts images acquired in live-cell imaging (in PCM) was created, growing the cells in either a serum-supplemented (SSM) or a serum-free (SFM) medium over several passages. As a result, algorithms capable of computing the cell-covered surface and cellular morphological features were programmed in Matlab®. The cell-covered surface was estimated using a range filter, a threshold and a minimum cut size in order to look at the cellular growth kinetics. Results showed that the cells were growing at similar paces for both media, but their growth rate was decreasing linearly with passage number. The undecimated wavelet transform multivariate image analysis (UWT-MIA) method was developed, and was used to estimate cellular morphological features distributions (major axis, minor axis, orientation and roundness distributions) on a very large PCM image dataset using the Gabor continuous wavelet transform. Multivariate data analysis performed on the whole database (around 1 million PCM images) showed in a quantitative manner that myoblasts grown in SFM were more elongated and smaller than cells grown in SSM. The algorithms developed through this project could be used in the future on other cellular phenotypes for high-throughput screening and cell culture control applications.
267

Segmentation d'un patron de lumière structurée : vision 3D active et codée utilisant la lumière blanche

Paradis, Nicolas 17 April 2018 (has links)
Les capteurs basés sur la lumière structurée codée prennent une ampleur grandissante dans le domaine de la numérisation 3D. Ce type de capteur permet une numérisation plus rapide de la surface d'un objet comparativement aux capteurs laser ou aux systèmes de palpage (i.e. numérisation avec contact). De plus, les capteurs fonctionnant par la projection d'une seule trame offrent la possibilité de numériser des scènes en mouvement, ce qui est un avantage indéniable sur la majorité des capteurs commercialisés depuis quelques années. Le projet de recherche traité dans ce mémoire a été réalisé dans le cadre du développement d'un capteur basé sur la lumière blanche structurée, conçu par l'équipe de vision 3D du Laboratoire de Vision et Systèmes Numériques de l'Université Laval. Un tel capteur utilise un projecteur afin de projeter un patron de lumière codée sur la scène. Ce patron se déforme au contact de la surface et sa réflexion est captée par une caméra. Cette déformation permet de déduire la profondeur de la surface et ainsi calculer la position de points 3D représentant la surface de l'objet. Le rôle de ce mémoire est de développer et implanter un algorithme de segmentation d'images qui a comme objectif d'extraire le patron de la scène. Les images acquises par le capteur sont traitées en utilisant une approche basée sur les arêtes pour détecter les primitives contenue dans le patron. Chacune de ces primitives encode un symbole formant un mot codé. Le but de l'algorithme est donc de déterminer la position et l'étiquette (i.e. la valeur du symbole) associées à ces primitives. L'apparence de la scène complique cette tâche, car les propriétés de la surface (e.g. texture, déformations géométriques, type de matériaux) peuvent interférer avec la réflexion du patron. Par exemple, un objet de couleur foncée réfléchira très peu la lumière projetée, tandis qu'une surface géométriquement complexe déformera le patron, pouvant rendre les symboles flous et difficiles à détecter. La robustesse de l'algorithme face à ces défis est analysée et nous soulevons les limitations d'une telle approche de segmentation.
268

Description incrémentale d'objets déformables dans des séquences vidéo

Drouin, Stéphane 13 April 2018 (has links)
Cette thèse propose une méthode pour la description incrémentale d'objets formés de plusieurs parties en mouvement observées dans des séquences vidéo. La principale contribution de ce travail est l'automatisation de la modélisation incrémentale des objets en mouvement. L'approche proposée permet l'initialisation entièrement automatique des modèles. Puisque cette opération n'est plus distincte, la topologie des modèles n'a pas à être connue à l'avance et les objets observés n'ont pas à être segmentés correctement à un instant prédéterminé. Afin de décrire automatiquement les mouvements d'un objet déformable, les parties rigides qui le composent sont segmentées selon leur déplacement dans les images. Un algorithme de segmentation combinant le mouvement des points d'intérêt et le déplacement de patrons d'arêtes est proposé afin de rendre les résultats moins dépendants de la texture présente dans les images. De plus, l'utilisation de la mesure de quantité de mouvement est introduite afin d'assurer une certaine indépendance face à l'échelle temporelle. La segmentation n'est activée que localement, quand les parties existantes ne peuvent plus être suivies correctement. Les parties ainsi segmentées sont automatiquement intégrées dans un modèle formé de parties rigides qui est ensuite utilisé pour le suivi de l'objet. La gestion des occultations de même que la création et la validation de modèles articulés sont toutes deux réalisées lors du suivi. Cette approche permet d'intégrer l'initialisation des modèles et leur suivi dans une boucle de rétroaction entre la segmentation et le suivi. Une mémoire des modèles favorise l'émergence des meilleurs modèles en renforçant ceux qui sont souvent réobservés et en pénalisant les autres. Les objets qui peuvent être représentés par cette nouvelle approche sont composés de parties rigides et ils sont déformables. Dans ce contexte, la déformation d'un objet est définie comme un déplacement relatif de ses parties. Des exemples montrent l'application du système sur des objets manufacturés composés d'une ou de plusieurs parties, des personnes et des personnes qui transportent des objets.
269

Amélioration des performances des systèmes d'imagerie panoramiques et Panomorphes

Larivière Bastien, Martin 20 April 2018 (has links)
En raison de leur grand champ de vue, les systèmes d’imagerie panoramiques et Panomorphes sont des cas particuliers du point de vue de la conception optique. Le champ de vue élevé introduit une quantité importante d’aberrations qui doivent être corrigées. Pour obtenir la qualité d’image voulue, les aberrations sont minimisées par l’optimisation de certaines composantes physiques. Cette approche a cependant ses limites. Ce projet a donc pour but d’explorer d’autres techniques qui permettront de dépasser ces limites. Trois types de techniques sont étudiés : les techniques matérielles, logicielles et hybrides. Dans la section des techniques matérielles, le senseur courbé et les lentilles de champ de forme libre sont étudiés. Il est démontré qu’avec ces techniques, il est possible de créer l’effet de meilleur foyer sur toute l’image. De plus, le senseur courbé permet la conception de systèmes monocentriques qui permettent une conception plus simple et des performances accrues. La section des techniques logicielles montre les gains qu’il est possible d’obtenir par le traitement d’image. Malgré la variation importante de la PSF, la déconvolution réussit à améliorer la qualité de l’image en général. La correction de la couleur latérale amène une amélioration complémentaire à la déconvolution. Les deux méthodes sont suffisamment rapides pour envisager une application vidéo. La dernière section présente une technique appelée encodage de front d’onde. Deux méthodes d’optimisation sont présentées, l’optimisation par la MTF et par la variance entre l’image et l’objet. L’optimisation par la variance nécessite plus de temps de calcul, mais considère l’étape de la reconstruction et le bruit, et donne donc de meilleurs résultats. Des simulations sont aussi effectuées pour comparer l’efficacité et le domaine d’application de deux types de masques. Il est montré que le masque cubique est plus efficace pour corriger le défocus et l’astigmatisme et que le masque quartique est plus efficace en présence de coma et de bruit blanc gaussien. En utilisant les informations acquises lors des simulations, un prototype basé sur la lentille IMV1 d’ImmerVision a été fabriqué. Le masque cubique fabriqué présente cependant une rugosité de surface trop importante et les images obtenues sont affectées par le bruit. / Because of their large field of view, panoramic and Panomorph imagers are modules of interest in optical design. An important field of view introduces many aberrations in a system. To obtain the desired image quality, aberrations are generally minimized by the optimization of certain optical components, but this practice has its limits. The goal of this project is hence to investigate other techniques that would allow breaking these limits. Three types of techniques are investigated: hardware, software and hybrid. In the hardware section, the curved sensor and the freeform field lens are analyzed. It is shown that they allow for a best focus effect on the whole image. The curved sensor can also be used to create a monocentric system which simplifies the optical design and gives increased performances compared to the traditional system. In the software section, the gains obtainable by image processing are highlighted. It is shown that even with the important variation of the PSF across the field of view, deconvolution still increases image quality as a whole. Lateral color correction gives additional improvement of the image. Both methods are sufficiently fast to consider a video application. The last section addresses wavefront coding. Two methods of optimization are presented: optimization by the MTF and optimization by the variance between object and image. The optimization by the variance requires more computation time but gives better results because it considers the effect of image reconstruction and noise. In this section, simulations are also used to compare the performances and the applicability of two phase mask types. It is shown that the cubic phase mask is more useful to correct defocus and astigmatism while the quartic phase mask is better for coma and Gaussian white noise. Using the information obtained with the simulations, a prototype based on the IMV1 ImmerVision lens was built. Unfortunately the cubic phase mask manufactured had a surface roughness that was too high and the resulting images are noisy.
270

Partial shape matching using CCP map and weighted graph transformation matching

Nikjoo Soukhtabandani, Ali 20 April 2018 (has links)
La détection de la similarité ou de la différence entre les images et leur mise en correspondance sont des problèmes fondamentaux dans le traitement de l'image. Pour résoudre ces problèmes, on utilise, dans la littérature, différents algorithmes d'appariement. Malgré leur nouveauté, ces algorithmes sont pour la plupart inefficaces et ne peuvent pas fonctionner correctement dans les situations d’images bruitées. Dans ce mémoire, nous résolvons la plupart des problèmes de ces méthodes en utilisant un algorithme fiable pour segmenter la carte des contours image, appelée carte des CCPs, et une nouvelle méthode d'appariement. Dans notre algorithme, nous utilisons un descripteur local qui est rapide à calculer, est invariant aux transformations affines et est fiable pour des objets non rigides et des situations d’occultation. Après avoir trouvé le meilleur appariement pour chaque contour, nous devons vérifier si ces derniers sont correctement appariés. Pour ce faire, nous utilisons l'approche « Weighted Graph Transformation Matching » (WGTM), qui est capable d'éliminer les appariements aberrants en fonction de leur proximité et de leurs relations géométriques. WGTM fonctionne correctement pour les objets à la fois rigides et non rigides et est robuste aux distorsions importantes. Pour évaluer notre méthode, le jeu de données ETHZ comportant cinq classes différentes d'objets (bouteilles, cygnes, tasses, girafes, logos Apple) est utilisé. Enfin, notre méthode est comparée à plusieurs méthodes célèbres proposées par d'autres chercheurs dans la littérature. Bien que notre méthode donne un résultat comparable à celui des méthodes de référence en termes du rappel et de la précision de localisation des frontières, elle améliore significativement la précision moyenne pour toutes les catégories du jeu de données ETHZ. / Matching and detecting similarity or dissimilarity between images is a fundamental problem in image processing. Different matching algorithms are used in literature to solve this fundamental problem. Despite their novelty, these algorithms are mostly inefficient and cannot perform properly in noisy situations. In this thesis, we solve most of the problems of previous methods by using a reliable algorithm for segmenting image contour map, called CCP Map, and a new matching method. In our algorithm, we use a local shape descriptor that is very fast, invariant to affine transform, and robust for dealing with non-rigid objects and occlusion. After finding the best match for the contours, we need to verify if they are correctly matched. For this matter, we use the Weighted Graph Transformation Matching (WGTM) approach, which is capable of removing outliers based on their adjacency and geometrical relationships. WGTM works properly for both rigid and non-rigid objects and is robust to high order distortions. For evaluating our method, the ETHZ dataset including five diverse classes of objects (bottles, swans, mugs, giraffes, apple-logos) is used. Finally, our method is compared to several famous methods proposed by other researchers in the literature. While our method shows a comparable result to other benchmarks in terms of recall and the precision of boundary localization, it significantly improves the average precision for all of the categories in the ETHZ dataset.

Page generated in 0.0804 seconds