• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Flexible needle steering using ultrasound visual servoing / Insertion robotisée d'une aiguille flexible par asservissement visuel échographique

Chevrie, Jason 13 December 2017 (has links)
Le guidage robotisé d'une aiguille a été le sujet de nombreuses recherches ces dernières années afin de fournir une assistance aux cliniciens lors des procédures médicales d'insertion d'aiguille. Cependant le contrôle précis et robuste d'un système robotique pour l'insertion d'aiguille reste un grand défi à cause de l'interaction complexe entre une aiguille flexible et des tissus ainsi qu'à cause de la difficulté à localiser l'aiguille dans les images médicales. Dans cette thèse nous nous concentrons sur le contrôle automatique de la trajectoire d'une aiguille flexible à pointe biseautée en utilisant la modalité échographique comme retour visuel. Nous proposons un modèle 3D de l'interaction entre l'aiguille et les tissus ainsi qu'une méthode de suivi de l'aiguille dans une séquence de volumes échographiques 3D qui exploite les artefacts visibles autour de l'aiguille. Ces deux éléments sont combinés afin d'obtenir de bonnes performances de suivi et de modélisation de l'aiguille même lorsque des mouvements des tissus sont observés. Nous développons également une approche de contrôle par asservissement visuel pouvant être adaptée au guidage de différents types d'outils longilignes. Cette approche permet d'obtenir un contrôle précis de la trajectoire de l'aiguille vers une cible tout en s'adaptant aux mouvements physiologiques du patient. Les résultats de nombreux scénarios expérimentaux sont présentés et démontrent les performances des différentes méthodes proposées. / The robotic guidance of a needle has been the subject of a lot of research works these past years to provide an assistance to clinicians during medical needle insertion procedures. However, the accurate and robust control of a needle insertion robotic system remains a great challenge due to the complex interaction between a flexible needle and soft tissues as well as the difficulty to localize the needle in medical images. In this thesis we focus on the ultrasound-guided robotic control of the trajectory of a flexible needle with a beveled-tip. We propose a 3D model of the interaction between the needle and the tissues as well as a needle tracking method in a sequence of 3D ultrasound volumes that uses the artifacts appearing around the needle. Both are combined in order to obtain good performances for the tracking and the modeling of the needle even when motions of the tissues can be observed. We also develop a control framework based on visual servoing which can be adapted to the steering of several kinds of needle-shaped tools. This framework allows an accurate placement of the needle tip and the compensation of the physiological motions of the patient. Experimental results are provided and demonstrate the performances of the different methods that we propose.
372

Perceptual content and tone adaptation for HDR display technologies / Adaptation perceptuelle du contenu et des tons pour les technologies d'affichage HDR

Abebe, Mekides Assefa 07 October 2016 (has links)
Les technologies de capture et d'affichage d'images ont fait un grand pas durant la dernière décennie en termes de capacités de reproduction de la couleur, de gamme de dynamique et de détails des scènes réelles. Les caméras et les écrans à large gamme de dynamique (HDR: high dynamic range) sont d'ores et déjà disponibles, offrant ainsi plus de flexibilité pour les créateurs de contenus afin de produire des scènes plus réalistes.Dans le même temps, à cause des limitations des appareils conventionnels, il existe un gap important en terme de reproduction de contenu et d'apparence colorée entre les deux technologies. Cela a accentué le besoin pour des algorithmes prenant en compte ces considérations et assurant aux créateurs de contenus une reproduction cross-média fidèle.Dans cette thèse, nous focalisons sur l'adaptation et la reproduction des contenus à gamme de dynamique standard sur des dispositifs HDR. Tout d'abord, les modèles d'apparence colorée ainsi que les opérateurs de mappage tonal inverse ont été étudiés subjectivement quant à leur fidélité couleur lors de l'expansion de contenus antérieurs. Par la suite, les attributs perceptuels de clarté, chroma et saturation ont été analysés pour des stimuli émissifs ayant des niveaux de luminance de plus hautes gammes et ce en menant une étude psychophysique basée sur la méthode de mise à l'échelle de partitions. Les résultats expérimentaux ont permis de mener à la définition d'un nouvel espace couleur HDR efficace et précis, optimisé pour les applications d'adaptation de la gamme de dynamique. Enfin, dans l'optique de récupérer les détails perdus lors de captures d'images standard et d'améliorer la qualité perçue du contenu antérieur avant d'être visualisé sur un dispositif HDR, deux approches de correction des zones surexposées ou ayant subi un écrêtage couleur ont été proposées. Les modèles et algorithmes proposés ont été évalués en comparaison avec une vérité terrain HDR, menant à la conclusion que les résultats obtenus sont plus proches des scènes réelles que les autres approches de la littérature. / Camera and display technologies have greatly advanced in their capacities of reproducing color, dynamic range and details of real scenes in recent years. New and powerful high dynamic range (HDR) camera and display technologies are currently available in the market and, recently, these new HDR technologies offer higher flexibility to content creators, allowing them to produce a more precise representation of real world scenes.At the same time, limitations of conventional camera and display technologies mean that there is a significant gap in terms of content and color appearance reproduction between new and existing technologies. These mismatches lead to an increased demand for appearance studies and algorithms which take such under consideration and help content creators to perform accurate cross-media reproductions.In this thesis we mainly considered the adaptation and reproduction of standard dynamic range content towards HDR displays. First, existing color appearance models and reverse tone mapping operators were subjectively studied for their color fidelity during dynamic range expansion of legacy contents. Then perceptual lightness, chroma and saturation attributes were analyzed for emissive stimuli with higher range of luminance levels using adapted psycho-visual experimental setups based on the partition scaling method. The experimental results lead to a new, more efficient and accurate HDR color space, specifically optimized for dynamic range adaptation applications. Finally, to recover lost details and enhance the visual quality of legacy content before visualizing on an HDR display, two methods for color-clipping and over-exposure correction were introduced. The models and algorithms presented, were evaluated relative to HDR ground truth content, showing that our results are closer to the real scene than can be achieved with previous methods.
373

Méthodes algorithmiques de traitement d'images en holographie digitale

Monnom, Olivier 14 September 2006 (has links)
Le présent travail traite de problèmes particuliers en traitement de signal soulevés par l'holographie digitale. Le premier chapitre présente l'holographie et l'holographie digitale. Le deuxième chapitre aborde le problème des artéfacts apparaissant sur le bord des hologrammes lorsque ceux-ci sont propagés numériquement. Le troisième chapitre propose une méthode automatique pour éliminer la phase de fond d'un hologramme. Le quatrième chapitre montre comment améliorer la visibilité des hologrammes en supprimant les objets diffractants. Le cinquième chapitre expose un logiciel d'aide à l'analyse des hologrammes enregistrés dans le temps. On montre la capacité du logiciel à effectuer du tracking d'objets en trois dimensions à posteriori. Le sixième chapitre traite de la reconnaissance de forme dans les hologrammes, le problème de la reconnaissance de particules micrométriques est abordé. Des conclusions et perspectives terminent le travail. / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
374

Représentations parcimonieuses et apprentissage de dictionnaires pour la compression et la classification d'images satellites / Sparse representations and dictionary learning for the compression and the classification of satellite images

Aghaei Mazaheri, Jérémy 20 July 2015 (has links)
Cette thèse propose d'explorer des méthodes de représentations parcimonieuses et d'apprentissage de dictionnaires pour compresser et classifier des images satellites. Les représentations parcimonieuses consistent à approximer un signal par une combinaison linéaire de quelques colonnes, dites atomes, d'un dictionnaire, et ainsi à le représenter par seulement quelques coefficients non nuls contenus dans un vecteur parcimonieux. Afin d'améliorer la qualité des représentations et d'en augmenter la parcimonie, il est intéressant d'apprendre le dictionnaire. La première partie de la thèse présente un état de l'art consacré aux représentations parcimonieuses et aux méthodes d'apprentissage de dictionnaires. Diverses applications de ces méthodes y sont détaillées. Des standards de compression d'images sont également présentés. La deuxième partie traite de l'apprentissage de dictionnaires structurés sur plusieurs niveaux, d'une structure en arbre à une structure adaptative, et de leur application au cas de la compression d'images satellites en les intégrant dans un schéma de codage adapté. Enfin, la troisième partie est consacrée à l'utilisation des dictionnaires structurés appris pour la classification d'images satellites. Une méthode pour estimer la Fonction de Transfert de Modulation (FTM) de l'instrument dont provient une image est étudiée. Puis un algorithme de classification supervisée, utilisant des dictionnaires structurés rendus discriminants entre les classes à l'apprentissage, est présenté dans le cadre de la reconnaissance de scènes au sein d'une image. / This thesis explores sparse representation and dictionary learning methods to compress and classify satellite images. Sparse representations consist in approximating a signal by a linear combination of a few columns, known as atoms, from a dictionary, and thus representing it by only a few non-zero coefficients contained in a sparse vector. In order to improve the quality of the representations and to increase their sparsity, it is interesting to learn the dictionary. The first part of the thesis presents a state of the art about sparse representations and dictionary learning methods. Several applications of these methods are explored. Some image compression standards are also presented. The second part deals with the learning of dictionaries structured in several levels, from a tree structure to an adaptive structure, and their application to the compression of satellite images, by integrating them in an adapted coding scheme. Finally, the third part is about the use of learned structured dictionaries for the classification of satellite images. A method to estimate the Modulation Transfer Function (MTF) of the instrument used to capture an image is studied. A supervised classification algorithm, using structured dictionaries made discriminant between classes during the learning, is then presented in the scope of scene recognition in a picture.
375

Détection et caractérisation par des approches statistiques locales d'évènements dynamiques dans des séquences d'images : application à la fusion membranaire en microscopie TIRF / Detection and characterization by local statistical approaches of dynamical events in image sequences : application to membrane fusion in TIRF microscopy

Basset, Antoine 21 December 2015 (has links)
Notre travail de thèse porte sur la détection et la modélisation de configurations dynamiques dans des séquences d'images. Nous développons des approches statistiques locales sans apprentissage supervisé. Notre application principale est la microscopie de fluorescence, un outil fondamental de la biologie cellulaire moderne. Deux cas peuvent se présenter : 1. les objets étudiés n'interagissent pas, et les dynamiques individuelles peuvent être analysées indépendamment ; 2. les objets étudiés interagissent, et la dynamique à analyser est celle du groupe entier d'objets. En ce qui concerne les dynamiques individuelles, nous nous intéressons à des séquences d’images biologiques dans lesquelles des protéines évoluent au sein de la cellule. Plus précisément, nous étudions la fusion de vésicules à la frontière de la cellule, appelée membrane plasmique. Les vésicules sont des intermédiaires de transport qui véhiculent des molécules dans la cellule. À la fin du processus d’exocytose, la fusion des vésicules avec la membrane s’accompagne d’une diffusion desdites protéines. Les images sont acquises en microscopie de fluorescence par réflexion totale interne (TIRF). Afin de repérer les évènements de fusion, nous proposons une nouvelle méthode de détection de spots. Puis, nous modélisons les dynamiques des protéines et estimons les paramètres biophysiques associés dans les séquences TIRF. La dynamique de groupe, quant à elle, est notamment rencontrée dans les mouvements de tissus cellulaires, le développement embryonnaire ou dans d’autres domaines, comme les mouvements de foules dans des vidéos. Nous proposons une nouvelle méthode d’estimation du mouvement de groupe permettant de caractériser le mouvement à la fois de façon quantitative et qualitative. Elle est utilisée pour classifier le mouvement de groupe, retrouver les chemins principaux dans la scène et détecter des anomalies locales. Dans l'un ou l'autre cas d'étude, nous abordons les problématiques selon une démarche commune, essentiellement dirigée par les données et mettant en œuvre des tests statistiques. Par ailleurs, nous avons le souci de proposer des méthodes nécessitant le réglage d'un faible nombre de paramètres qui sont, de plus, peu sensibles ou calibrés avec des règles statistiques. Enfin, nous adoptons des approches locales, qui ont l’avantage d’être rapides, flexibles et peu sensibles aux variations de contexte, qu’elles soient spatiales (arrière-plan variable) ou temporelles (changement d’illumination globale comme le photoblanchiment en microscopie de fluorescence). / In this thesis, we investigate statistical methods to detect, estimate and characterize dynamical events in image sequences. Our main focus is on fluorescence microscopy images, which represent a fundamental tool for cell biology. There are two cases : 1. Studied objects do not interact, and individual dynamics can be independently analyzed ; 2. Studied objects interact, and group dynamics must be analyzed as a whole. In the case of individual dynamics, our primary focus is on biological image sequences showing proteins evolving in a cell, and more precisely at the cell frontier named plasma membrane. Proteins transported in the cell by vesicles, are observed in total internal reflection fluorescence microscopy (TIRFM), an observation technique well adapted to plasma membrane dynamics analysis. At the end of the exocytosis process, vesicles fuse to the plasma membrane and release proteins, which then diffuse. We first propose a new spot detection method aimed at localizing fusion events. Then, we model the protein dynamics and estimate the biophysical parameters in TIRFM image sequences for further biological analysis. We also address the processing of image sequences at lower magnifications, that is, depicting groups of cells, instead of an isolated cell. We propose a method to jointly estimate quantitative and qualitative motion measurements. It is used to classify the group motion, recover principal paths followed in the scene, and detect localized anomalies. Since they are free of appearance model, the developed methods are quite general and also applied to other applications including crowd motion analysis in videos. Whether it is for spot detection, protein dynamics estimation or group motion analysis, a common approach is ubiquitous, however. First, statistical arguments are used to automatically infer the method parameters. Secondly, we rely on local approaches, which have the advantage of being computationally efficient. Local modeling handles spatially varying image statistics much more easily and more accurately than global modeling. Local approaches also allow neglecting contextual variations such as spatially varying background contrast or, in fluorescence microscopy, temporal fading known as photobleaching.
376

Vers un système de vision auto-adaptatif à base de systèmes multi-agents. / Towards an auto-adaptive vision system based on multi-agents systems.

Mahdjoub, Jason 15 December 2011 (has links)
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées.Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous encrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons. / Although several image processing approaches exist, each of them was introduced in order to be used in a specific set of applications. In fact, image processing algorithms are fundamentally too different in order to be merged in a natural way. Moreover, due to their rigidity, they are unable to adapt themselves when a non-previously programmed problem appears as it could be the case in our framework. Indeed vision is an auto-adaptive phenomenon which can deal with singular situations by providing particular and adapted treatments. It is also a complex information processing. Therefore, vision should not be reduced to reductionist and simplifying representation. According to this thesis, a vision system could be developed as a whole in which each part adapts itself with others. Its parts cannot be considered separately due to the extreme tensions generated by the complexity and the intricacy of information. Each of them contributes locally to the vision and it is directed by a global objective incomprehensible at its level. We consider vision as a system whose agents deliberate according to an interference produced by the decision potential of each agent. This deliberation is undertaken as the result produced by interferences of a solution superposition. Then, it emerges from the agent-based system a common decision which directs local actions of each agent or of each part of the system. After describing the main shape descriptors and segmentation algorithms and after introducing multi-agent systems on the image processing domain, we discuss on approaches for which vision is considered as a multi-agent system able to manage the inherent complexity of visual information. Then, we give two multi-agent models. The first one deals with an adaptive segmentation which doesn't need manual calibration through thresholds. The second one deals with shape representations through the search of pertinent wavelet coefficients. These two models respect classical image processing criteria. They also are case studies that should be developed in the search of an auto-adaptive vision system.
377

Analyse statique et dynamique de cartes de profondeurs : application au suivi des personnes à risque sur leur lieu de vie / Static and dynamic analysis of depth maps : application to the monitoring of the elderly at their living place

Cormier, Geoffroy 10 November 2015 (has links)
En France, les chutes constituent la première cause de mortalité chez les plus de 75 ans, et la seconde chez les plus de 65 ans. On estime qu'elle engendre un coût de 1 à 2 milliards d'euros par an pour la société. L'enjeu humain et socio-économique est colossal, sachant que le risque de chute est multiplié par 20 après une première chute, que le risque de décès est multiplié par 4 dans l'année qui suit une chute, que les chutes concernent 30% des personnes de plus de 65 ans et 50% des personnes de plus de 85 ans, et que l'on estime que d'ici 2050, plus de 30% de la population sera âgée de plus de 65 ans. Cette thèse propose un dispositif de détection de présence au sol se basant sur l'analyse de cartes de profondeurs acquises en temps réel, ainsi qu'une amélioration du dispositif proposé utilisant également un capteur thermique. Les cartes de profondeurs et les images thermiques nous permettent de nous affranchir des conditions d'illumination de la scène observée, et garantissent l'anonymat des personnes qui évoluent dans le champ de vision du dispositif. Cette thèse propose également différentes méthodes de détection du plan du sol dans une carte de profondeurs, le plan du sol constituant une référence géométrique nécessaire au dispositif proposé. Une enquête psychosociale a été réalisée, qui nous a permis d'évaluer l'acceptabilité a priori dudit dispositif. Cette enquête a démontré sa bonne acceptabilité, et a fourni des préconisations quant aux points d'amélioration et aux écueils à éviter. Enfin, une méthode de suivi d'objets dans une carte de profondeurs est proposée, un objectif à plus long terme consistant à mesurer l'activité des individus observés. / In France, fall is the first death cause for people aged 75 and more, and the second death cause for people aged 65 and more. It is considered that falls generate about 1 to 2 billion euros health costs per year. The human and social-economical issue is crucial, knowing that for the mentioned populations, fall risk is multiplied by 20 after a first fall; that the death risk is multiplied by 4 in the year following a fall; that per year, 30% of the people aged 65 and more and 50% of the people aged 85 and more are subject to falls; and that it is estimated that more than 30% of the French population whill be older than 65 years old by 2050. This thesis proposes a ground lying event detection device which bases on the real time analysis of depth maps, and also proposes an improvement of the device, which uses an additional thermal sensor. Depth maps and thermal images ensure the device is independent from textures and lighting conditions of the observed scenes, and guarantee that the device respects the privacy of those who pass into its field of view, since nobody can be recognized in such images. This thesis also proposes several methods to detect the ground plane in a depth map, the ground plane being a geometrical reference for the device. A psycho-social inquiry was conducted, and enabled the evaluation of the a priori acceptability of the proposed device. This inquiry demonstrated the good acceptability of the proposed device, and resulted in recommendations on points to be improved and on pitfalls to avoid. Last, a method to separate and track objects detected in a depth map is proposed, the measurement of the activity of observed individuals being a long term objective for the device.
378

Reconstruction et segmentation d'image 3D de tomographie électronique par approche "problème inverse" / Reconstruction and segmentation of electron tomography by “inverse problem” approach

Tran, Viet Dung 14 October 2013 (has links)
Dans le domaine du raffinage, les mesures morphologiques de particules sont devenues indispensables pour caractériser les supports de catalyseurs. À travers ces paramètres, on peut remonter aux spécificités physico-chimiques des matériaux étudiés. Une des techniques d'acquisition utilisées est la tomographie électronique (ou nanotomographie). Des volumes 3D sont reconstruits à partir de séries de projections sous différents angles obtenues par microscopie électronique en transmission (MET). Cette technique permet d'acquérir une réelle information tridimensionnelle à l'échelle du nanomètre. Les projections sont obtenues en utilisant les possibilités d'inclinaison du porte objet d'un MET. À cause des limitations mécaniques de ce porte objet (proximité avec les lentilles magnétiques et déplacement nanométrique), on ne peut acquérir qu'un nombre assez restreint de projections, celles-ci étant limitées à un intervalle angulaire fixe. D'autre part, l'inclinaison du porte objet est accompagnée d'un déplacement mécanique nanométrique non parfaitement contrôlé. Ces déplacements doivent être corrigés après l'acquisition par un alignement des projections suivant le même axe 3D de rotation. Cette étape est un pré-requis à la reconstruction tomographique. Nous suggérons d'utiliser une méthode de reconstruction tomographique par une approche de type "problème inverse". Cette méthode permet d'aligner des projections et de corriger les lacunes de l'acquisition de l'objet observé en introduisant de façon pertinente des informations a priori. Ces informations sont donc basées à la fois sur la physique de l'acquisition (nature physique des images MET, géométrie et limitation spécifique de l'acquisition des projections, etc...) et sur la nature des objets à reconstruire (nombre et répartition des phases, critères morphologiques de type de connexité, etc...). L'algorithme proposé permet de réaliser la reconstruction nanotomographique avec une grande précision et un temps de calculs réduit considérablement par rapport à la technique classique. Nous avons testé avec succès notre méthode pour les projections réelles de différents supports de catalyseur / In oil refining industry, morphological measurements of particles have become an essential part in the characterization of catalyst supports. Through these parameters, one can infer the specific physicochemical properties of the studied materials. One of the main acquisition techniques is electron tomography (or nanotomography). 3D volumes are reconstructed from sets of projections from different angles made by a transmission electron microscope (TEM). This technique provides a real three-dimensional information at the nanometric scale. Projections are obtained by tilting the specimen port in the microscope. The tilt mechanism has two drawbacks: a rather limited angular range and mechanical shifts, which are difficult to deal with, knowing that these shifts must be corrected after the acquisition by an alignment of projections. This alignment step is a prerequisite for the tomographic reconstruction. Our work deals with a wholly "inverse problem" approach for aligning projections and reducing artifacts due to missing projections by introducing in a relevant way certain a priori informations. These informations are jointly based on the physics of acquisition (physical nature of the TEM images, geometry and specific limitation on the acquisition of projections...) and on the nature of objects to be reconstructed (number and distribution of phases, morphological criteria such as connectivity ...). This approach is described in an algorithmic way. The implementation of this algorithm shows higher precision reconstruction and smaller computation time compared to earlier techniques. We successfully tested our method for real projections of different catalyst supports
379

Assistance visuelle des malvoyants par traitement d’images adaptatif / Visual assistance of visual impaired people by adaptive image processing

Froissard, Benoit 27 February 2014 (has links)
Cette thèse s’inscrit dans le cadre de l’analyse des besoins de personnes malvoyantes dans le but de développer de nouvelles solutions d’assistance visuelle en utilisant le principe de réalité augmentée. Le principal objectif de ces travaux était le développement d’un dispositif d’assistance visuelle pour faciliter la mobilité de personnes malvoyantes grâce à un algorithme qui en temps réel adapte sa réponse en fonction des besoins de l’utilisateur et de la situation dans laquelle il évolue. Le premier postulat de cette thèse est d’utiliser l’acuité résiduelle fonctionnelle des malvoyants afin de leur permettre de percevoir un certain nombre d’informations. Le second postulat est d’utiliser les seules informations pertinentes, utiles à un malvoyant, afin d’améliorer sa perception du monde dans lequel il évolue. Le premier axe de recherche a consisté à analyser les besoins des malvoyants afin de recenser, les indices visuels utiles à rehausser afin d’améliorer la perception des malvoyants. Cette étude a été réalisée en immersion et une enquête précise a été menée auprès de malvoyants. Cette étude permet de mieux comprendre les besoins des malvoyants, les méthodes qu’ils utilisent ainsi que leurs usages des dispositifs actuels. Le deuxième axe de recherche a consisté à concevoir et à mettre en oeuvre un algorithme de traitement d’images répondant aux besoins identifiés. Un outil interactif a été développé qui permet de sélectionner la quantité de contours en fonction de la situation. Ce détecteur de contour optimise sa détection afin d’obtenir des contours plus exploitables pour les malvoyants, comparés aux résultats des autres méthodes de l’état de l’art. Cet outil a été testé et validé auprès d’une population donnée de personnes malvoyantes. Ces tests réalisés sur écran ont démontré que les contours constituent des indices visuels très importants qui peuvent être d’une grande aide dans l’analyse d’une scène. Le troisième axe de travail a consisté au développement d’un système de réalité augmentée permettant d’utiliser ce détecteur de contours dans un contexte de mobilité. L’analyse des besoins des malvoyants vis-à-vis d’un tel dispositif nous a permis de définir les caractéristiques indispensables pour le système de calcul, la caméra et le dispositif d’affichage. Concernant le système d’affichage, l’analyse des besoins des malvoyants en termes de profil, de couleur, de largeur des contours, nous a permis de définir les paramètres nécessaires pour un affichage qui répond à ces besoins. Il a également été pris en compte dans les développements les paramètres physiologiques de chaque observateur afin que les images affichées soient visuellement confortables / This thesis was done in the context of visual impaired needs analysis with the goal of new augmented reality visual assistance device development. The main goal of this work was the development of assistive device for mobility of visual impaired people by the use real-time image processing algorithm which take into account user needs and the context. The first postulate is the use of residual visual acuity of visual impaired people to allow them to see more information. The second postulate is the use only most useful information for visual impaired people for the understanding of the situation where are they. The first research axis was an analysis of needs of visual impaired to identify visual cues, which one we need to enhance to help them. To do this, I have done an immersive stage into a re-adaptation clinic for visually impaired. I have also done a questionnaire to identify and understand how current products answers partially to their needs. The second research axis was the development of a new image processing to answer identified needs. I have developed an interactive tools that allow the user to select the amount of edges for each situation, context. This detector optimizes its result to provide better results than others state of the art evaluated methods. This tool was evaluated and validated during visual test by visual impaired people. We have demonstrated that edges are one of the most important visual cues for visual impaired people to analyze a scene. The third research axis was the development of the augmented reality system to use my tool in a context of mobility. To do this, I have analyzed the needs of visual impaired people for this type of devices. I have also defined main requirements of the desired device for the processing unit, the camera and the display module. For display module, I have analyzed physiologic needs of visually impaired, in terms of profile, colors, and thickness to answer their needs. I have also developed an image generation model which takes into account many physiologic parameters of each observer to create visually comfortable images
380

Towards an automated framework for coronary lesions detection and quantification in cardiac CT angiography / Vers un système automatisé pour la détection et la quantification des lésions coronaires dans des angiographies CT cardiaques

Melki, Imen 22 June 2015 (has links)
Les maladies coronariennes constituent l'ensemble des troubles affectant les artères coronaires. Elles sont la première cause mondiale de mortalité. Par conséquent, la détection précoce de ces maladies en utilisant des techniques peu invasives fournit un meilleur résultat thérapeutique, et permet de réduire les coûts et les risques liés à une approche interventionniste. Des études récentes ont montré que la tomodensitométrie peut être utilisée comme une alternative non invasive et fiable pour localiser et quantifier ces lésions. Cependant, l'analyse de ces examens, basée sur l'inspection des sections du vaisseau, reste une tâche longue et fastidieuse. Une haute précision est nécessaire, et donc seulement les cliniciens hautement expérimentés sont en mesure d'analyser et d'interpréter de telles données pour établir un diagnostic. Les outils informatiques sont essentiels pour réduire les temps de traitement et assurer la qualité du diagnostic. L'objectif de cette thèse est de fournir des outils automatisés de traitement d'angiographie CT, pour la visualisation et l'analyse des artères coronaires d'une manière non invasive. Ces outils permettent aux pathologistes de diagnostiquer et évaluer efficacement les risques associés aux maladies cardio-vasculaires tout en améliorant la qualité de l'évaluation d'un niveau purement qualitatif à un niveau quantitatif. Le premier objectif de ce travail est de concevoir, analyser et valider un ensemble d'algorithmes automatisés utiles pour la détection et la quantification de sténoses des artères coronaires. Nous proposons un nombre de techniques couvrant les différentes étapes de la chaîne de traitement vers une analyse entièrement automatisée des artères coronaires. Premièrement, nous présentons un algorithme dédié à l'extraction du cœur. L'approche extrait le cœur comme un seul objet, qui peut être utilisé comme un masque d'entrée pour l'extraction automatisée des coronaires. Ce travail élimine l'étape longue et fastidieuse de la segmentation manuelle du cœur et offre rapidement une vue claire des coronaires. Cette approche utilise un modèle géométrique du cœur ajusté aux données de l'image. La validation de l'approche sur un ensemble de 133 examens montre l'efficacité et la précision de cette approche. Deuxièmement, nous nous sommes intéressés au problème de la segmentation des coronaires. Dans ce contexte, nous avons conçu une nouvelle approche pour l'extraction de ces vaisseaux, qui combine ouvertures par chemin robustes et filtrage sur l'arbre des composantes connexes. L'approche a montré des résultats prometteurs sur un ensemble de 11 examens CT. Pour une détection et quantification robuste de la sténose, une segmentation précise de la lumière du vaisseau est cruciale. Par conséquent, nous avons consacré une partie de notre travail à l'amélioration de l'étape de segmentation de la lumière, basée sur des statistiques propres au vaisseau. La validation avec l'outil d'évaluation en ligne du challenge de Rotterdam sur la segmentation des coronaires, a montré que cette approche présente les mêmes performances que les techniques de l'état de l'art. Enfin, le cœur de cette thèse est consacré à la problématique de la détection et la quantification des sténoses. Deux approches sont conçues et évaluées en utilisant l'outil d'évaluation en ligne de l'équipe de Rotterdam. La première approche se base sur l'utilisation de la segmentation de la lumière avec des caractéristiques géométriques et d'intensité pour extraire les sténoses coronaires. La seconde utilise une approche basée sur l'apprentissage. Durant cette thèse, un prototype pour l'analyse automatisée des artères coronaires et la détection et quantification des sténoses a été développé. L'évaluation qualitative et quantitative sur différents bases d'examens cardiaques montre qu'il atteint le niveau de performances requis pour une utilisation clinique / Coronary heart diseases are the group of disorders that affect the coronary artery vessels. They are the world's leading cause of mortality. Therefore, early detection of these diseases using less invasive techniques provides better therapeutic outcome, as well as reduces costs and risks, compared to an interventionist approach. Recent studies showed that X-ray computed tomography (CT) may be used as an alternative to accurately locate and grade heart lesions in a non invasive way. However, analysis of cardiac CT exam for coronaries lesions inspection remains a tedious and time consuming task, as it is based on the manual analysis of the vessel cross sections. High accuracy is required, and thus only highly experienced clinicians are able to analyze and interpret the data for diagnosis. Computerized tools are critical to reduce processing time and ensure quality of diagnostics. The goal of this thesis is to provide automated coronaries analysis tools to help in non-invasive CT angiography examination. Such tools allow pathologists to efficiently diagnose and evaluate risks associated with CVDs, and to raise the quality of the assessment from a purely qualitative level to a quantitative level. The first objective of our work is to design, analyze and validate a set of automated algorithms for coronary arteries analysis with the final purpose of automated stenoses detection and quantification. We propose different algorithms covering different processing steps towards a fully automated analysis of the coronary arteries. Our contribution covers the three major blocks of the whole processing chain and deals with different image processing fields. First, we present an algorithm dedicated to heart volume extraction. The approach extracts the heart as one single object that can be used as an input masque for automated coronary arteries segmentation. This work eliminates the tedious and time consuming step of manual removing obscuring structures around the heart (lungs, ribs, sternum, liver...) and quickly provides a clear and well defined view of the coronaries. This approach uses a geometric model of the heart that is fitted and adapted to the image data. Quantitative and qualitative analysis of results obtained on a 114 exam database shows the efficiency and the accuracy of this approach. Second, we were interested to the problem of coronary arteries enhancement and segmentation. In this context, we first designed a novel approach for coronaries enhancement that combines robust path openings and component tree filtering. The approach showed promising results on a set of 11 CT exam compared to a Hessian based approach. For a robust stenoses detection and quantification, a precise and accurate lumen segmentation is crucial. Therefore, we have dedicated a part of our work to the improvement of lumen segmentation step based on vessel statistics. Validation on the Rotterdam Coronary Challenge showed that this approach provides state of the art performances. Finally, the major core of this thesis is dedicated to the issue of stenosis detection and quantification. Two different approaches are designed and evaluated using the Rotterdam online evaluation framework. The first approach get uses of the lumen segmentation with some geometric and intensity features to extract the coronary stenosis. The second is using a learning based approach for stenosis detection and stenosis. The second approach outperforms some of the state of the art works with reference to some metrics. This thesis results in a prototype for automated coronary arteries analysis and stenosis detection and quantification that meets the level of required performances for a clinical use. The prototype was qualitatively and quantitatively validated on different sets of cardiac CT exams

Page generated in 1.0233 seconds