• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle

Chevaillier, Béatrice 09 March 2010 (has links) (PDF)
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
172

Atlas numérique tridimensionnel pour le dépistage des chirurgies laser de la cornée humaine

Mriss, Khalid January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
173

Removing camera shake blur and unwanted occluders from photographs / Restauration des images par l'élimination du flou et des occlusions

Whyte, Oliver 15 March 2012 (has links)
Cette thèse se concerne avec la restauration des images par l'élimination des occlusions indésirables et du flou attribué au mouvement de l'appareil. Ce flou est modélisé par un ensemble pondéré des poses de l'appareil, qui induit des transformations projectives sur l'image. Le flou est caractérisé par les poids, qui décrivent complètement le flou à tous les pixels de l'image. Nous montrons l'estimation directe de ces poids à partir des images seuls et des pairs d'images, en adaptent des algorithmes existants pour le défloutage (spatiellement-invariant) des images. Ceci nous permet de retrouver un version nette d'une image floue de manière automatique. Pour réduire le coût de l'utilisation de notre modèle, nous proposons une approximation fondée sur l'uniformité locale du flou. En groupant les pixels dans quelques régions locales, avec une seule fonction d'étalement du point (PSF) pour chaque région, nous pouvons utiliser des convolutions efficaces 2D pour calculer le flou. Ensuite, nous considérons le défloutage des images qui contiennent des pixels saturés et modifions notre modèle du flou pour inclure cette non-linéarité. Avec cette modèle, nous redérivons l'algorithme Richardson-Lucy en le modifiant afin de réduire le "ringing" attribué à celui-ci. Pour éliminer les occlusions indésirables, nous retrouvons automatiquement de l'Internet un ensemble d'images de la même scène. Nous obtenons une correspondance entre les pixels de chacune de ces images et de l'image cible avec des homgographies, et combinons plusieurs de ces images dans l'image cible pour remplacer les pixels occlus, en résoudrant un problème de minimisation d'énergie. / This thesis investigates the removal of spatially-variant blur from photographs degraded by camera shake, and the removal of large occluding objects from photographs of popular places. Spatially-variant blur caused by camera shake is modelled using a weighted set of camera poses, which induce homographies on the image. The blur in an image is parameterised by the set of weights, which fully describe the spatially-variant blur at all pixels. We demonstrate direct estimation of the blur weights from single and multiple images captured by conventional cameras, by adapting existing (spatially-invariant) deblurring algorithms. This permits a sharp image to be recovered from a blurry "shaken" image without any user interaction. To reduce the computational cost of our model, we introduce an approximation based on local-uniformity of the blur. By grouping pixels into local regions which share a single PSF, we can use fast 2D convolutions to perform the blur computation. For deblurring images with saturated pixels, we modify the forward model to include this non-linearity, and re-derive the Richardson-Lucy algorithm. To prevent ringing appearing in the output, we propose separate updates for pixels affected/not affected by saturation. In order to remove large occluders from photos, we automatically retrieve a set of exemplar images of the same scene from the Internet. We extract homographies between each of these images and the target image to provide pixel correspondences. Finally we combine pixels from several exemplars in a seamless manner to replace the occluded pixels, by solving an energy minimisation problem.
174

Reproducible research, software quality, online interfaces and publishing for image processing / Recherche reproductible, qualité logicielle, publication et interfaces en ligne pour le traitement d'image

Limare, Nicolas 21 June 2012 (has links)
Cette thèse est basée sur une étude des problèmes de reproductibilité rencontrés dans la recherche en traitement d'image. Nous avons conçu, créé et développé un journal scientifique, Image Processing On Line (IPOL), dans lequel les articles sont publiés avec une implémentation complète des algorithmes décrits, validée par les rapporteurs. Un service web de démonstration des algorithmes est joint aux articles, permettant de les tester sur données libres et de consulter l'historique des expériences précédentes. Nous proposons également une politique de droits d'auteur et licences, adaptée aux manuscrits et aux logiciels issus de la recherche, et des règles visant à guider les rapporteurs dans leur évaluation du logiciel. Le projet scientifique que constitue IPOL nous apparaît très bénéfique à la recherche en traitement d'image. L'examen détaillé des implémentations et les tests intensifs via le service web de démonstration ont permis de publier des articles de meilleure qualité. La fréquentation d'IPOL montre que ce journal est utile au-delà de la communauté de ses auteurs, qui sont globalement satisfaits de leur expérience et apprécient les avantages en terme de compréhension des algorithmes, de qualité des logiciels produits, de diffusion des travaux et d'opportunités de collaboration. Disposant de définitions claires des objets et méthodes, et d'implémentations validées, il devient possible de construire des chaînes complexes et fiables de traitement des images. / This thesis is based on a study of reproducibility issues in image processing research. We designed, created and developed a scientific journal, Image Processing On Line (IPOL), in which articles are published with a complete implementation of the algorithms described, validated by the rapporteurs. A demonstration web service is attached, allowing testing of the algorithms with freely submitted data and an archive of previous experiments. We also propose copyrights and license policy, suitable for manuscripts and research software software, and guidelines for the evaluation of software. The IPOL scientific project seems very beneficial to research in image processing. With the detailed examination of the implementations and extensive testing via the demonstration web service, we publish articles of better quality. IPOL usage shows that this journal is useful beyond the community of its authors, who are generally satisfied with their experience and appreciate the benefits in terms of understanding of the algorithms, quality of the software produced, and exposure of their works and opportunities for collaboration. With clear definitions of objects and methods, and validated implementations, complex image processing chains become possible.
175

Towards a software architecture for generic image processing / Vers une architecture logicielle pour le traitement d'images générique

Levillain, Roland 15 November 2011 (has links)
Dans le cadre du génie logiciel en traitement d'images (TDI), nous nous intéressons à la notion de réutilisabilité des algorithmes. Dans de nombreux outils logiciels, l'implémentation d'un algorithme est souvent dépendante du type des données traitées. Au sens le plus général, les formes que peuvent prendre les images numériques discrètes sont nombreuses (image 2D classiques, volumes 3D, graphes non réguliers, complexes cellulaires, etc.) conduisant à une explosion combinatoire du nombre théorique d'implémentations. La programmation générique (PG) est un cadre adapté au développement d'outils logiciels réutilisables. Nous présentons un paradigme de programmation basé sur la PG conçu pour la création de logiciels scientifiques tels ceux dédiés au TDI. Cette approche concilie réutilisabilité, puissance d'expression, extensibilité et performance. Nous proposons ensuite une architecture logicielle pour le TDI basée sur ce paradigme de programmation, s'appuyant sur une bibliothèque générique de TDI. Les fondations de ce cadre définissent des concepts fondamentaux du TDI, qui permettent l'écriture d'algorithmes réutilisables sur de nombreux types d'images. Nous présentons enfin une stratégie pour construire des outils haut niveau au dessus de cette bibliothèque tels que des ponts vers des langages dynamiques ou des interfaces graphiques. Ce mécanisme est conçu pour préserver la généricité et la performance des outils logiciels sous-jacents, tout en permettant un usage plus simple et plus flexible de ceux-ci / In the context of software engineering for image processing (IP), we consider the notion of reusability of algorithms. In many software tools, an algorithm's implementation often depends on the type of processed data. In a broad definition, discrete digital images may have various forms : classical 2D images, 3D volumes, non-regular graphs, cell complexes, and so on : thus leading to a combinatorial explosion of the theoretical number of implementations. Generic programming (GP) is a framework suited to the development of reusable software tools. We present a programming paradigm based on GP designed for the creation of scientific software such as IP tools. This approach combines the benefits of reusability, expressive power, extensibility, and efficiency. We then propose a software architecture for IP using this programming paradigm based on a generic IP library. The foundations of this framework define essential IP concepts, enabling the development of algorithms compatible with many image types. We finally present a strategy to build high-level tools on top of this library, such as bridges to dynamic languages or graphical user interfaces. This mechanism has been designed to preserve the genericity and efficiency of the underlying software tools, while making them simpler to use and more flexible
176

Acquisition et traitement d'images 3D couleur temps réel / Acquisition and real time image processing for 3D color images

Itthirad, Frédéric 15 September 2011 (has links)
Les capteurs 3D existants sont encore peu utilisés et ne permettent que l’acquisition de données 3D. En cas de nécessité de données 2D monochrome ou couleur, il faut alors obligatoirement ajouter un capteur supplémentaire et procéder au recalage des données. La société NT2I a décidé de développer sa propre solution afin de pouvoir rester maître de la chaîne d’acquisition. Mon travail a consisté en la conception d’un capteur spécifique intégrant couleur et calibration et au traitement des images issues de celui-ci. Pour cela, j’ai été amené à travailler sur l’extension du modèle LIP (Logarithmic Image Processing) pour des images couleur et à l’implémentation d’algorithmes temps réel / The existing 3D sensors aren’t much used and are only capable of capturing 3D dat. When 2D data are necessary, one has to use another camera and correlate the 2 images. NT2I has decided to develop its own solution in order to control the acquisition chain. My work has been to develop a specific camera with color, calibration, and image processing algorithms. In that purpose, I've worked on the extension of the LIP model (Logarithmic Image Processing) for color images and on the implementation of real time algorithms
177

Modélisation du soudage MIG/MAG en mode short-arc / Modelling of GMA welding in short-arc mode

Planckaert, Jean-Pierre 01 July 2008 (has links)
Il existe aujourd'hui de nombreux procédés de soudage répondant à la très grande variété d'assemblage à réaliser et aux caractéristiques des métaux utilisés. Le premier chapitre décrit les différentes sources d'énergie utilisées en soudage. Suite à cela, une explication plus détaillée du soudage à l'arc électrique est donnée. Enfin nous présentons la conception d'une plateforme d'essai de soudage. Il est possible, bien sûr, d'utiliser une approche empirique pour optimiser un procédé. Néanmoins il y a des avantages à choisir une approche analytique puisqu'on peut en attendre des avancées significatives dans la compréhension des interactions dynamiques présentes dans l'arc. C'est pourquoi nous présentons dans le chapitre 2 les connaissances théoriques de la physique quant au comportement du métal liquide transféré en soudage MIG/MAG. Ce travail comporte donc également un aspect expérimental nécessaire à l'élaboration des bases de données utilisées pour la construction des modèles. Les différents enregistrements ont été effectués au CTAS sur une plate forme équipée d'un système d'acquisition de données pour les mesures de tension, courant, vitesse fil et d'un système de vidéo rapide. Le chapitre 3 présente notre recherche d'une méthode de segmentation permettant d'obtenir le suivi de variables pertinentes. Nous y proposons un capteur logiciel basé sur la théorie des contours actifs et montrons de bons résultats obtenus sur des vidéos expérimentales. Une étape d'ajustement de certains paramètres est indispensable. Elle est donnée dans le chapitre 4. Le simulateur créé permet d’interpréter certains phénomènes importants en soudage, de réaliser une étude de sensibilité « sans risque » et de donner les signatures théoriques de défauts. / Nowadays there is a lot of welding processes giving an answer to the great diversity of joints to realize and to the characteristics of the metals employed. The first chapter describes the different power sources used in welding. After that, a more detailed explanation of arc welding is given. Finally we present the design of a welding test bed. One can, of course, use an empirical approach to optimize a process. Nevertheless there are advantages in choosing an analytical approach since we can expect significant progress in the understanding of the dynamical interactions in the arc. That’s why we present in the second chapter the theoretical knowledge concerning the behaviour of the molten metal transferred during Gas Metal Arc Welding. This work involves as well an experimental aspect required for the elaboration of the databases used to build the model. The recordings were made at CTAS on a test bed equipped with an acquisition system for measuring voltage, current, wire feed speed and high speed videos. The third chapter presents our research of a segmentation method to measure some relevant quantities. We propose a software sensor based on the active contour theory and we show good results on experimental movies. An adjustment step of the model is needed and described in the fourth chapter. The created simulator allows us to interpret some important phenomena in welding, to make a sensitive study “without risk” and to give theoretical defects signatures.
178

Utilisation de méthodes variationnelles en traitement d'image

Aujol, Jean-François 27 May 2009 (has links) (PDF)
Ce travail présente des recherches en Mathématiques appliquées au traitement d'image, en utilisant des approches de type variationnel. En fonction du problème de traitement d'image considéré, on construit une fonctionnelle dont le minimiseur correspond à l'image recherchée. Outre leur grande flexibilité, l'intérêt de ces approches est de pouvoir connaître des résultats qualitatifs sur les solutions obtenues, et ainsi de pouvoir évaluer l'efficacité des modèles.<br /> On présente d'une part des contributions à la<br />modélisation mathématique des images, et notamment des textures, et d'autre part des solutions à des problèmes en imagerie satellitaire.
179

Modèles déformables et multirésolution pour la détection de contours de traitement d'images

Elomary, Youssef 24 October 1994 (has links) (PDF)
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.<br /><br />Notre propos dans cette thèse est d'étudier ces modèles dans un environnement multirésolution.<br /><br />Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.<br /><br />Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation<br /><br />d'énergie.<br /><br />Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'aggrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle<br /><br />associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon<br /><br />une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
180

Equations aux dérivées partielles et réseaux de neurones pour le traitement d'images

Elayyadi, Mohamed 14 October 1997 (has links) (PDF)
Ce travail porte sur des techniques à base d'équations aux dérivées partielles et de réseaux de neurones pour le traitement d'images. L'approximation des réseaux de neurones par des systèmes de réaction-diffusion nous a permis de définir un nouveau modèle de diffusion anisotrope de type Volterra pour le filtrage sélectif d'images bruitées. La loi d'évolution régissant le tenseur de diffusion traduit des lois d'apprentissage synaptiques naturelles. L'étude de la dynamique de ces réseaux à synapses adaptatives montre qu'ils possèdent des propriétés d'attractivité et de stabilité asymptotique au sens de Lyapunov. Les images traitées sont donc obtenues sur les asymptotiques en temps du modèle. Les techniques présentées dans cette thèse améliorent de manière importante le pré-traitement d'images car elles ne nécessitent qu'une connaissance (\em a priori) d'un paramètre de contraste sur l'image désirée et permettent la restauration des images ayant subi jusqu'à 90\% de niveau de bruit et la segmentation des images médicales d'echographie

Page generated in 0.0218 seconds