• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 151
  • 57
  • 1
  • 1
  • Tagged with
  • 502
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 69
  • 64
  • 61
  • 61
  • 56
  • 53
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Segmentation et construction de descripteurs appliqués à des nuages de points à grande échelle pour la géolocalisation d'un véhicule semi-autonome

Rousseau, Kévin 21 October 2021 (has links)
Dans ce mémoire nous présentons une méthode pour référencer deux nuages de points denses. Cette méthode commence par l'analyse d'un nuage de points de grand volume, composé d’environ 2 millions de points recueillis par un LiDAR (Light Detection And Ranging) monté sur une voiture, afin de le segmenter en surfaces représentatives pertinentes en termes de géométrie et de localisation. Ensuite, nous présentons la construction de descripteurs pour chacun des segments trouvés afin d’obtenir des caractéristiques significatives des segments. Ces descripteurs sont le FPFH (Fast Point Feature Histograms) et l’histogramme des orientations de surface. Pour finir, les descripteurs recueillis sur deux nuages de points différents du même environnement extérieur sont comparés pour repérer les segments similaires et ainsi permettre la localisation du véhicule par rapport à l'environnement extérieur. / In this work we present a method to reference two dense point clouds. We begin by analyzing a point cloud of a large number of points, approximately 2 million points collected by a LiDAR mounted on a car, in order to segment this point cloud into surfaces that feature representative regions of the point cloud that are interesting in terms of geometry. Then the construction of descriptors for each segment found is made to identify significant features. These descriptors are the FPFH (Fast Point Feature Histograms) and the surface orientation histogram. Finally, the descriptors collected on two different point clouds of the same outdoor environment are compared to identify similar segments and thus to allow the location of the vehicle in relation to the outdoor environment.
12

Conception et optimisation d'architectures radiofréquences pour la réjection de la fréquence image : applications aux systèmes de radiocommunications et liaisons de proximité

Frioui, Oussama 08 December 2011 (has links)
Le développement de la radiocommunication sans fil et notamment, son explosion sur le marché grand public, a été rendu possible grâce au progrès du secteur de la microélectronique. En effet, l’intégration toujours croissante de fonctions au sein d’une même puce a permis le développement de ces nouvelles technologies basses consommations et à un moindre coût. Les travaux de recherche présentés dans ce manuscrit s’inscrivent dans le cadre de ces deux caractéristiques (faible coût et faible consommation). Nous avons donc développé deux solutions innovantes d’architectures radiofréquences : « half-complex » et « full-complex » en technologie CMOS. En effet, cette technologie représente la meilleure alternative car elle permet l’implémentation de fonctions RF analogique et numérique sur une même puce réduisant ainsi le coût du système. / Le développement de la radiocommunication sans fil et notamment, son explosion sur le marché grand public, a été rendu possible grâce au progrès du secteur de la microélectronique. En effet, l’intégration toujours croissante de fonctions au sein d’une même puce a permis le développement de ces nouvelles technologies basses consommations et à un moindre coût. Les travaux de recherche présentés dans ce manuscrit s’inscrivent dans le cadre de ces deux caractéristiques (faible coût et faible consommation). Nous avons donc développé deux solutions innovantes d’architectures radiofréquences : « half-complex » et « full-complex » en technologie CMOS. En effet, cette technologie représente la meilleure alternative car elle permet l’implémentation de fonctions RF analogique et numérique sur une même puce réduisant ainsi le coût du système.
13

Manipulations d'image expressives pour une variété de représentations visuelles

Bousseau, Adrien 15 October 2009 (has links) (PDF)
La communication visuelle tire profit de la grande variété d'apparences qu'une image peut avoir. En ignorant les détails, les images simplifiées concentrent l'attention de l'observateur sur le contenu essentiel à transmettre. Les images stylisées, qui diffèrent de la réalité, peuvent suggérer une information subjective ou imaginaire. Des variations plus subtiles, comme le changement de l'éclairage dans une photographie, ont également un impact direct sur la façon dont le message transmis va être interprété. Le but de cette thèse est de permettre à un utilisateur de manipuler le contenu visuel et créer des images qui correspondent au message qu'il cherche à transmettre. Nous proposons plusieurs manipulations qui modifient, simplifient ou stylisent des images pour augmenter leur pouvoir d'expression. Nous présentons d'abord deux méthodes pour enlever les détails d'une photographie ou d'une vidéo. Le résultat de cette simplification met en valeur les structures importantes de l'image. Nous introduisons ensuite une nouvelle primitive vectorielle, nommée Courbe de Diffusion, qui facilite la création de dégradés de couleurs et de flou dans des images vectorielles. Les images créées avec des courbes de diffusion présentent des effets complexes qui sont difficiles à reproduire avec les outils vectoriels existants. Dans une seconde partie, nous proposons deux algorithmes pour la création d'animations stylisées à partir de vidéos et de scènes 3D. Ces deux méthodes produisent des animations qui ont l'apparence 2D de média traditionnels comme l'aquarelle. Nous décrivons enfin une approche pour décomposer l'information d'illumination et de réflectance dans une photographie. Nous utilisons des indications utilisateurs pour résoudre ce problème sous-contraint. Les différentes manipulations d'image proposées dans ce mémoire facilitent la création d'une variété de représentations visuelles, comme illustré par nos résultats.
14

Segmentation d'images et morphologie mathématique

Beucher, Serge 05 June 1990 (has links) (PDF)
La segmentation d'images par la morphologie mathématique est une méthodologie basée sur les concepts de ligne de partage des eaux et de modification de l'homotopie. Ces deux outils sont construits à partir de transformations morphologiques élémentaires présentées dans la première partie de ce mémoire. Ces transformations élémentaires sont les transformations morphologiques sur images à teintes de gris et en particulier les opérations d'amincissement et d'épaississement, ainsi que les transformées géodésiques. Ces outils de base permettent l'élaboration de transformations plus sophistiqués. Parmi elles, le gradient morphologique et sa régularisation, opérateursimportants dans la segmentation d'images de gris et la ligne de partage des eaux. Après avoir introduit cette notion et mis en lumière ces liens avec les opérateurs géodésiques et les épaississements homotopiques, divers algorithmes permettant de la réaliser sont présentés par le biais du squelette de fonction et surtout au moyen d'une représentation des images à teintes de gris sous forme d'un graphe de fléchage.<br />La deuxième partie est consacrée à l'usage de ces outils. On montre en particulier comment le concept de marquage des régions à segmenter permet d'obtenir, en combinant la modification d'homotopie et la ligne de partage des eaux, une segmentation de l'image de bonne qualité. L'usage de ces outils est illustré dans le cas de segmentations plus complexes. On introduit alors une hiérarchisation de l'image, toujours basée sur la ligne de partage des eaux, et on montre comment cette hiérarchie permet la segmentation de certaines scènes où le marquage est moins évident. Un autre exemple, montrant la difficulté du marquage mais aussi les avantages de ce concept est également présenté.
15

Image analysis of cement paste: relation to diffusion transport

Tariel, Vincent 19 February 2009 (has links) (PDF)
Depuis l'émergence des techniques d'imagerie, IRM, tomographie, il est maintenant possible d'observer directement l'organisation géométrique de systèmes tels l'os, le ciment, le papier, le verre, les roches. Comme les propriétés physiques et mécaniques dépendent de l'organisation géométrique, il existe un intérêt scientifique et industriel de comprendre et de définir cette relation de dépendance à l'aide de ces techniques d'imagerie. S'inscrivant dans ce contexte, le but de cette thèse est de développer un ensemble d'outils numériques pour l'analyse d'image de la géométrie d'un matériau, puis d'appliquer ces outils dans l'étude de l'évolution de la porosité de la pâte de ciment. En première partie, nous présentons les deux techniques d'imageries sélectionnées, la microscopie électronique à balayage et la tomographie par synchrotron, pour l'analyse de la pâte de ciment et le protocole expérimental pour la préparation des échantillons. En deuxième partie, nous proposons une méthodologie générique, efficace et simple de segmentation. La segmentation est la transformation de l'image en niveaux de gris en une image labellisée où chaque label représente une phase du matériau. L'implémentation de l'ensemble des algorithmes optimisés associés à cette méthodologie est rendue possible grâce à la conceptualisation théorique de la croissance de régions. En dernière partie, nous quantifions statistiquement la morphologie et la topologie de la géométrie du matériau. Puis, nous décomposons une phase en éléments élémentaires suivant deux conventions: l'une morphologique, l'autre topologique. Enfin, nous utilisons l'information stéréologique estimée sur une coupe 2D pour reconstruire un modèle 3D à l'aide de l'algorithme optimisé du recuit simulé. Une validation de la reconstruction 3D est effectuée par un suivi des propriétés de transport diffusif.
16

Conception de métaheuristiques d'optimisation pour la segmentation d'images : application aux images IRM du cerveau et aux images de tomographie par émission de positons / Metaheuristics optimisation for image segmentation : application to brain MRI images and positron emission tomography images

Benaichouche, Ahmed Nasreddine 10 December 2014 (has links)
La segmentation d'image est le processus de partitionnement d'une image numérique en régions, non chevauchées, homogènes vis-à-vis de certaines caractéristiques, telles que le niveau de gris, la texture, le mouvement, etc. Elle a des applications dans plusieurs domaines comme l'imagerie médicale, la détection d'objets, la biométrie, l'imagerie par satellite, la navigation de robot, la vidéosurveillance, etc. Le processus de segmentation représente une étape cruciale dans les systèmes de vision par ordinateur, car les caractéristiques et décisions sont extraites et prises à partir de son résultat. Les premiers algorithmes de segmentation d'image ont vu le jour dans les années 1970. Depuis, de nombreuses techniques et méthodes de segmentation ont été expérimentées pour essayer d'améliorer les résultats. Néanmoins, jusqu'à nos jours, aucun algorithme de segmentation d'image n'arrive à fournir des résultats parfaits sur une large variété d'images. Les "métaheuristiques" sont des procédures conçues pour résoudre des problèmes d'optimisation dits difficiles. Ce sont en général des problèmes aux données incomplètes, incertaines, bruitées ou confrontés à une capacité de calcul limitée. Les métaheuristiques ont connu un succès dans une large variété de domaines. Cela découle du fait qu'elles peuvent être appliquées à tout problème pouvant être exprimé sous la forme d'un problème d'optimisation de critère(s). Ces méthodes sont, pour la plupart, inspirées de la physique (recuit simulé), de la biologie (algorithmes évolutionnaires) ou de l'éthologie (essaims particulaires, colonies de fourmis).Ces dernières années, l'introduction des métaheuristiques dans le domaine du traitement d'images a permis d'étudier la segmentation sous un angle différent, avec des résultats plus ou moins réussis. Dans le but d'apporter notre contribution et d'améliorer davantage les performances des méthodes de segmentation, nous avons proposé des algorithmes basés régions, contours et hybrides, mettant en œuvre des métaheuristiques d'optimisation dans des approches mono et multiobjectif. Les méthodes proposées ont été évaluées sur des bases de données expérimentales composées d'images synthétiques, d'images IRM simulées et d'images IRM réelles ainsi que des images de tomographie par émission de positons (TEP). Les résultats obtenus sont significatifs et prouvent l'efficacité des idées proposées / Image segmentation is the process of partitioning a digital image into homogeneous non-overlapped regions with respect to some characteristics, such as gray value, motion, texture, etc. It is used in various applications like medical imaging, objects detection, biometric system, remote sensing, robot navigation, video surveillance, etc. The success of the machine vision system depends heavily on its performance, because characteristics and decisions are extracted and taken from its result. The first image segmentation algorithms were introduced in the 70's. Since then, various techniques and methods were experimented to improve the results. Nevertheless, up till now, no method produces a perfect result for a wide variety of images. Metaheuristics are a high level procedure designed to solve hard optimization problems. These problems are in general characterized by their incomplete, uncertain or noised data, or faced to low computing capacity. Metaheuristics have been extremely successful in a wide variety of fields and demonstrate significant results. This is due to the fact that they can applied to solve any problem which can be formulated as an optimization problem. These methods are, mainly, inspired from physics (simulated annealing), biology (evolutionary algorithms), or ethology (particle swarm optimization, ant colony optimization).In recent years, metaheuristics are starting to be exploited to solve segmentation problems with varying degrees of success and allow to consider the problem with different perspectives. Bearing this in mind, we propose in this work three segmentation and post-segmentation approaches based on mono or multiobjective optimization metaheuristics. The proposed methods were evaluated on databases containing synthetic images, simulated MRI images, real MRI images and PET images. The obtained results show the efficiency of the proposed ideas
17

Concepts et outils fractals pour l'analyse et la synthèse en imagerie couleur

Chauveau, Julien 11 February 2011 (has links) (PDF)
Les images naturelles sont des structures complexes. Leur modélisation est essentielle à de nombreuses tâches en traitement d'images, et des progrès restent encore à réaliser dans ce sens. Des propriétés d'autosimilarité en échelle ont été observées dans l'organisation spatiale des images naturelles. Au-delà de leur organisation spatiale, nous abordons ici leur organisation colorimétrique. Différents outils de caractérisation fractale sont identifiés et mis en oeuvre. L'application de ces outils sur les histogrammes tridimensionnels des images couleur nous permet de mettre en évidence, et de caractériser, des propriétés fractales dans leur organisation colorimétrique. Par ailleurs, nous abordons aussi, en synthèse d'images, de nouvelles applications des concepts fractals pour les images couleur, le contrôle de leurs propriétés et la génération automatique de motifs décoratifs. Des collaborations applicatives ont été développées durant la thèse en vue de valoriser ces travaux, notamment dans le cadre du dispositif de doctorant-conseil, et en direction de l'industrie du textile-habillement.
18

Relevé de planètes géantes autour d'étoiles proches par imagerie directe et optimisation d'une technique d'imagerie multibande

Lafrenière, David January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
19

Tatouage d'image semi-fragile pour appareil mobile intégré dans une chaîne de certification / Semi-fragile watermarking for digital-capture image on handheld device within a certification chain

Stadler, Yves 29 November 2012 (has links)
Les smartphones équipent désormais toutes les couches de la population, indépendamment de l'âge ou de la profession. Ces équipements sont de plus en plus utilisés pour créer, manipuler et diffuser des informations contraintes par la sécurité (confidentialité, intégrité, authenticité). Plusieurs moyens de protection existent selon le type d'informations et les contraintes de sécurité (droit d'auteur, traçabilité, etc.). Cette thèse propose une solution de tatouage spécifique à l'image capturée depuis un smartphone afin de la rendre valable en justice. Son objectif est de lier la preuve à l'image et d'empêcher toute modification du contenu de l'image ainsi que des éléments de preuve. La confidentialité de l?image n'étant pas recherchée, le tatouage présente l'intérêt de conserver la lisibilité de l'image probante et donc autorise sa diffusion. La preuve est aussi constituée des données contextuelles de l'image: son auteur, la date de prise de vue ou encore sa position géographique. Peu de moyens sont disponibles pour vérifier cette géolocalisation. La seconde partie de la thèse propose ainsi des méthodes logicielles permettant la mise en oeuvre de contrôles destinés à améliorer l'authenticité de la géolocalisation. Enfin, le dernier chapitre propose une analyse critique des travaux de sécurité concernant les autres besoins d'authentification nécessaire à la réalisation d'une bonne preuve / Smartphones are nowadays ubiquitous, they can be found in anybody's hands with no consideration of one's age or work. They are used to create, manipulate and broadcast security constrained pieces of information (in term of confidentiality, integrity or authenticity). Different protection types can be found, with regard to the security constraints (copyrights, document tracking, etc.). This thesis presents a watermarking scheme tailored for smartphone-captured images, which scheme allows the use of the image as an evidence. The goal is linking the evidence to the image and forbidding any content modification. Confidentiality not being a constraint, the scheme keeps the image visible and allow its broadcast. Contextual pieces of data are part of the evidence: author name, date of shot and geographic location (geolocation). Few means are available to assess this geolocation. The second part of the thesis aims to fill this gap by proposing software based countermeasures to enhanced geolocation authenticity. Finally, the last chapter presents a critic of security works on the other authentication methods required to forge a strong proof
20

Traitement logarithmique d’images couleur / Color Logarithmic Image Processing

Gouinaud, Hélène 05 April 2013 (has links)
Cette thèse de doctorat porte sur l'extension du modèle LIP (Logarithmic Image Processing) aux images en couleurs. Le modèle CoLIP (Color Logarithmic Image Processing) est défini, étudié et appliqué au traitement d'image dans ce manuscrit.Le modèle LIP est un cadre mathématique original complet, développé pour le traitement d'images à niveaux de gris, rigoureusement établi mathématiquement, compatible avec les lois physiques de formation d'image, et mieux adapté que l'approche classique pour modéliser la perception visuelle humaine de l'intensité de la lumière. Après une étude de la vision des couleurs et de la science des couleurs, le modèle CoLIP est construit en suivant les étapes de la perception humaine des couleurs, tout en intégrant le cadre mathématique du modèle LIP. Dans un premier temps, le CoLIP est construit en suivant les étapes de la photoréception, de la compression lumineuse et du codage antagoniste. Il est donc développé comme un espace couleur représentant une image couleur par un ensemble de trois fonctions de tons antagonistes, sur lesquelles sont définies les opérations CoLIP d'addition et de multiplication par un scalaire, qui confèrent à cet espace couleur la structure d'espace vectoriel couleur. Ensuite, l'espace couleur CoLIP étant un espace de type luminance-chrominance uniforme, les attributs relatifs et absolus de la perception humaine des couleurs (teinte, chroma, coloration, luminosité, clarté, et saturation) peuvent être définis. Cette construction fait du CoLIP à la fois un espace vectoriel couleur bien structuré mathématiquement, et un modèle d'apparence couleur. Dans un deuxième temps, un grand nombre de justifications physiques, mathématiques, et psychophysiques du modèle CoLIP sont proposées, notamment la comparaison des formes des ellipses de MacAdam dans l'espace de couleur uniforme CoLIP et dans d'autres modèles uniformes, sur des critères d'aire et d'excentricité des ellipses. Enfin, diverses applications utilisant la structure d'espace vectoriel couleur du modèle CoLIP sont proposées, telles que le rehaussement de contraste, le rehaussement d'image et la détection de contour. Des applications utilisant la structure de modèle d'apparence couleur, qui permet de travailler sur les notions de teinte, de luminosité et de saturation, sont également développées. Une application spécifique permettant de mesurer la viabilité des cellules sur des images de lames obtenues par cytocentrifugation et marquage couleur est également proposée. / This doctoral thesis introduces the extension of the LIP (Logarithmic Image Processing) model to color images. The CoLIP (Color Logarithmic Image Processing) model is defined, studied and applied to image processing in this manuscript. The Logarithmic Image Processing (LIP) approach is a mathematical framework developed for the representation and processing of images valued in a bounded intensity range. The LIP theory is physically and psychophysically well justified since it is consistent with several laws of human brightness perception and with the multiplicative image formation model. Following a study of color vision and color science, the CoLIP model is constructed according to the human color perception stages, while integrating the mathematical framework of the LIP.Initially, the CoLIP is constructed by following the photoreception, non-linear cone compression, and opponent processing human color perception steps. It is developed as a color space representing a color image by a set of three antagonists tones functions, that can be combined by means of specific CoLIP operations: addition, scalar multiplication, and subtraction, which provide to the CoLIP framework a vector space structure. Then, as the CoLIP color space is a luminance-chrominance uniform color space, relative and absolute perception attributes (hue, chroma, colorfulness, brightness, lightness, and saturation) can be defined. Thus, the CoLIP framework combines advantages of a mathematically well structured vector space, and advantages of a color appearance model. In a second step, physical, mathematical, physiological and psychophysical justifications are proposed including a comparison of MacAdam ellipses shapes in the CoLIP uniform model, and in other uniform models, based on ellipses area and eccentricity criterions. Finally, various applications using the CoLIP vector space structure are proposed, such as contrast enhancement, image enhancement and edge detection. Applications using the CoLIP color appearance model structure, defined on hue, brightness and saturation criterions are also proposed. A specific application dedicated to the quantification of viable cells from samples obtained after cytocentrifugation process and coloration is also presented.

Page generated in 0.0484 seconds