• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 16
  • 10
  • Tagged with
  • 60
  • 60
  • 30
  • 23
  • 18
  • 17
  • 16
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Approches de topologie algébrique pour l'analyse d'images / Algebraic topology approaches for image analysis

Assaf, Rabih 19 January 2018 (has links)
La topologie algébrique, bien que domaine abstrait des mathématiques, apporte de nouveaux concepts pour le traitement d'images. En effet, ces tâches sont complexes et restent limitées par différents facteurs tels que la nécessité d’utiliser un paramétrage, l'influence de l'arrière-plan ou la superposition d'objets. Nous proposons ici des méthodes dérivées de la topologie algébrique qui diffèrent des méthodes classiques de traitement d'images par l’intégration d’informations locales vers des échelles globales grâce à des invariants topologiques. Une première méthode de segmentation d'images a été développée en ajoutant aux caractéristiques statistiques classiques d’autres de nature topologique calculées par homologie persistante. Une autre méthode basée sur des complexes topologiques a été développée dans le but de segmenter les objets dans des images 2D et 3D. Cette méthode segmente des objets dans des images multidimensionnelles et fournit une réponse à certains problèmes habituels en restant robuste vis à vis du bruit et de la variabilité de l'arrière-plan. Son application aux images de grande taille peut se faire en utilisant des superpixels. Nous avons également montré que l'homologie relative détecte le mouvement d’objets dans une séquence d'images qui apparaissent et disparaissent du début à la fin. Enfin, nous posons les bases d’un ensemble de méthodes d'analyse d'images basé sur la théorie des faisceaux qui permet de fusionner des données locales en un ensemble cohérent. De plus, nous proposons une seconde approche qui permet de comprendre et d'interpréter la structure d’une image en utilisant les invariants fournis par la cohomologie des faisceaux. / Algebraic topology, which is often appears as an abstract domain of mathematics, can bring new concepts in the execution of the image processing tasks. Indeed, these tasks might be complex and limited by different factors such as the need of prior parameters, the influence of the background, the superposition of objects. In this thesis, we propose methods derived from algebraic topology that differ from classical image processing methods by integrating local information at global scales through topological invariants. A first method of image segmentation was developed by adding topological characteristics calculated through persistent homology to classical statistical characteristics. Another method based on topological complexes built from pixels was developed with the purpose to segment objects in 2D and 3D images. This method allows to segment objects in multidimensional images but also to provide an answer to known issues in object segmentation remaining robust regarding the noise and the variability of the background. Our method can be extended to large scale images by using the superpixels concept. We also showed that the relative version of homology can be used effectively to detect the movement of objects in image sequences. This method can detect and follow objects that appear and disappear in a video sequence from the beginning to the end of the sequence. Finally, we lay the foundations of a set of methods of image analysis based on sheaf theory that allows the merging of local data into a coherent whole. Moreover, we propose a second approach that allows to understand and interpret scale analysis and localization by using the sheaves cohomology.
22

Apprentissage automatique pour la détection d'anomalies dans les données ouvertes : application à la cartographie / Satellite images analysis for anomaly detection in open geographical data.

Delassus, Rémi 23 November 2018 (has links)
Dans cette thèse nous étudions le problème de détection d’anomalies dans les données ouvertes utilisées par l’entreprise Qucit ; aussi bien les données métiers de ses clients, que celles permettant de les contextualiser. Dans un premier temps, nous nous sommes intéressés à la détection de vélos défectueux au sein des données de trajets du système de vélo en libre service de New York. Nous cherchons des données reflétant une anomalie dans la réalité. Des caractéristiques décrivant le comportement de chaque vélo observé sont partitionnés. Les comportements anormaux sont extraits depuis ce partitionnement et comparés aux rapports mensuels indiquant le nombre de vélos réparés ; c’est un problème d’apprentissage à sortie agrégée. Les résultats de ce premier travail se sont avérés insatisfaisant en raison de la pauvreté des données. Ce premier volet des travaux a ensuite laissé place à une problématique tournée vers la détection de bâtiments au sein d’images satellites. Nous cherchons des anomalies dans les données géographiques qui ne reflètent pas la réalité. Nous proposons une méthode de fusion de modèles de segmentation améliorant la métrique d’erreur jusqu’à +7% par rapport à la méthode standard. Nous évaluons la robustesse de notre modèle face à la suppression de bâtiments dans les étiquettes, afin de déterminer à quel point les omissions sont susceptibles d’en altérer les résultats. Ce type de bruit est communément rencontré au sein des données OpenStreetMap, régulièrement utilisées par Qucit, et la robustesse observée indique qu’il pourrait être corrigé. / In this thesis we study the problem of anomaly detection in the open data used by the Qucit company, both the business data of its customers, as well as those allowing to contextualize them.We are looking for data that reflects an anomaly in reality. Initially, we were interested in detecting defective bicycles in the trip data of New York’s bike share system. Characteristics describing the behaviour of each observed bicycle are clustered. Abnormal behaviors are extracted from this clustering and compared to monthly reports indicating the number of bikes repaired; this is an aggregate learning problem. The results of this first work were unsatisfactory due to the paucity of data. This first part of the work then gave way to a problem focused on the detection of buildings within satellite images. We are looking for anomalies in the geographical data that do not reflect reality. We propose a method of merging segmentation models that improves the error metric by up to +7% over the standard method. We assess the robustness of our model to the removal of buildings from labels to determine the extent to which omissions are likely to alter the results. This type of noise is commonly encountered within the OpenStreetMap data, regularly used by Qucit, and the robustness observed indicates that it could be corrected.
23

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles / Ultrasound image segmentation using local statistics with an adaptative scale selection

Yang, Qing 15 March 2013 (has links)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche. / Image segmentation is an important research area in image processing and a large number of different approaches have been developed over the last few decades. The active contour approach is one of the most popular among them. Within this framework, this thesis aims at developing robust algorithms, which can segment images with intensity inhomogeneities. We focus on the study of region-based external energies within the level set framework. We study the use of local image statistics for the design of external energies. Precisely, we address the difficulty of choosing the scale of the spatial window that defines locality. Our main contribution is to propose an adaptive scale for local region-based segmen¬tation methods. We use the Intersection of Confidence Intervals approach to define this pixel-dependent scale for the estimation of local image statistics. The scale is optimal in the sense that it gives the best trade-off between the bias and the variance of a Local Polynomial Approximation of the observed image conditional on the current segmenta¬tion. Additionally, for the segmentation model based on a Bayesian interpretation with two local kernels, we suggest to consider their values separately. Our proposition gives a smoother segmentation with less mis-localisations Chan the original method.Comparative experiments of our method to other local region-based segmentation me¬thods are carried out. The quantitative results, on simulated ultrasound B-mode images, show that the proposed scale selection strategy gives a robust solution to the intensity inhomogeneity artifact of this imaging modality. More general experiments on real images also demonstrate the usefulness of our approach.
24

Segmentation d'objets mobiles par fusion RGB-D et invariance colorimétrique / Mooving objects segmentation by RGB-D fusion and color constancy

Murgia, Julian 24 May 2016 (has links)
Cette thèse s'inscrit dans un cadre de vidéo-surveillance, et s'intéresse plus précisément à la détection robustesd'objets mobiles dans une séquence d'images. Une bonne détection d'objets mobiles est un prérequis indispensableà tout traitement appliqué à ces objets dans de nombreuses applications telles que le suivi de voitures ou depersonnes, le comptage des passagers de transports en commun, la détection de situations dangereuses dans desenvironnements spécifiques (passages à niveau, passages piéton, carrefours, etc.), ou encore le contrôle devéhicules autonomes. Un très grand nombre de ces applications utilise un système de vision par ordinateur. Lafiabilité de ces systèmes demande une robustesse importante face à des conditions parfois difficiles souventcausées par les conditions d'illumination (jour/nuit, ombres portées), les conditions météorologiques (pluie, vent,neige) ainsi que la topologie même de la scène observée (occultations). Les travaux présentés dans cette thèsevisent à améliorer la qualité de détection d'objets mobiles en milieu intérieur ou extérieur, et à tout moment de lajournée.Pour ce faire, nous avons proposé trois stratégies combinables :i) l'utilisation d'invariants colorimétriques et/ou d'espaces de représentation couleur présentant des propriétésinvariantes ;ii) l'utilisation d'une caméra stéréoscopique et d'une caméra active Microsoft Kinect en plus de la caméra couleurafin de reconstruire l'environnement 3D partiel de la scène, et de fournir une dimension supplémentaire, à savoirune information de profondeur, à l'algorithme de détection d'objets mobiles pour la caractérisation des pixels ;iii) la proposition d'un nouvel algorithme de fusion basé sur la logique floue permettant de combiner les informationsde couleur et de profondeur tout en accordant une certaine marge d'incertitude quant à l'appartenance du pixel aufond ou à un objet mobile. / This PhD thesis falls within the scope of video-surveillance, and more precisely focuses on the detection of movingobjects in image sequences. In many applications, good detection of moving objects is an indispensable prerequisiteto any treatment applied to these objects such as people or cars tracking, passengers counting, detection ofdangerous situations in specific environments (level crossings, pedestrian crossings, intersections, etc.), or controlof autonomous vehicles. The reliability of computer vision based systems require robustness against difficultconditions often caused by lighting conditions (day/night, shadows), weather conditions (rain, wind, snow...) and thetopology of the observed scene (occultation...).Works detailed in this PhD thesis aim at reducing the impact of illumination conditions by improving the quality of thedetection of mobile objects in indoor or outdoor environments and at any time of the day. Thus, we propose threestrategies working as a combination to improve the detection of moving objects:i) using colorimetric invariants and/or color spaces that provide invariant properties ;ii) using passive stereoscopic camera (in outdoor environments) and Microsoft Kinect active camera (in outdoorenvironments) in order to partially reconstruct the 3D environment, providing an additional dimension (a depthinformation) to the background/foreground subtraction algorithm ;iii) a new fusion algorithm based on fuzzy logic in order to combine color and depth information with a certain level ofuncertainty for the pixels classification.
25

Classification floue et modélisation IRM: Application à la quantification de la graisse pour une évaluation optimale des risques pathologiques associés à l'obésité.

Roullier, Vincent 17 June 2008 (has links) (PDF)
Les travaux présentés dans cette thèse traitent de l'apport de l'incertitude, de l'imprécision et de l'a priori en traitement d'images médicales, dans le cadre d'outils d'aide au diagnostic des pathologies conséquentes de l'obésité et du surpoids. Deux parties composent ce travail : une modélisation du signal IRM d'une séquence prototype fournie par GE, et une méthode de classification floue adaptée pour répondre aux attentes des experts radiologistes et anatomopathologistes. Le signal IRM est issu des différents constituants du voxel. Afin de déterminer la proportion de graisse dans le tissu, les signaux issus de l'eau et de la graisse sont déterminées par régression à partir des images IRM obtenues en prenant en compte un a priori sur le bruit présent sur les images. Considéré de Gauss sur les images réelles et imaginaires, et de Rice sur les images amplitudes, cet a priori sur le bruit a permis de mettre en évidence l'apport de l'utilisation des données brutes lors de la quantification de la proportion de graisse et d'eau par rapport à une quantification uniquement effectuée sur les données amplitudes. La méthode de classification présentée ici permet une dépendance à longue distance lors du calcul des centroïdes. Cette méthode combinée à un algorithme de connectivité floue est adaptée à la mesure de la graisse viscérale et souscutanée. Elle fut également utilisée pour la quantification des vacuoles de triglycérides présentes sur des biopsies hépatiques. De part la proportion très hétérogène des vacuoles de stéatose, fonction du degré de la pathologie, nous avons amélioré l'algorithme de classification par une supervision permettant d'orienter la classification afin de se dédouaner de cette hétérogénéité. La classification est ensuite combinée à un système expert permettant d'éliminer les erreurs de classification survenues. L'ensemble des méthodes fut évalué dans le cadre d'expérimentations animales et de différents protocoles de recherche clinique.
26

Conception d'un environnement de développement pour la résolution de problèmes : apport de l'intelligence artificielle distribuée et application à la vision

Baujard, Olivier 12 October 1992 (has links) (PDF)
L'objectif de cette thèse a été de concevoir un environnement de développement pour la resolution de problèmes, s'inspirant des langages a objets et de l'intelligence artificielle distribuée. Un environnement de programmation multi-agents a été conçu dans ce cadre. Cet environnement (maps) est fonde sur la distinction de deux classes d'agents, dédiées a la modélisation et a l'exploitation des connaissances figuratives (agent ks ou knowledge server) et des connaissances opératoires (agent kp ou knowledge processor). Ces classes peuvent alors etre spécialisées a l'aide d'un langage de programmation dedie. Une première version de cet environnement nous a permis de valider ces concepts de base, par la conception d'applications, en vision par ordinateur (système kiss), en diagnostic biomédical (système kids), en compréhension de la parole et en acquisition des connaissances. Le système kiss, décrit dans cette thèse, a été conçu pour manipuler les connaissances introduites par les phases d'analyse de bas niveau, de niveau intermédiaire et de haut niveau, dans une approche de type coopération région/contour. Dans notre approche multi-agents, ces connaissances sont distribuées au sein d'agents ks et kp, formant un réseau. Plusieurs améliorations ont été envisagées pour pallier un certain nombre de faiblesses de cet environnement et le rapprocher des plates-formes de conception en intelligence artificielle distribuée. Des améliorations fonctionnelles concernent l'introduction d'un mode d'exécution parallèle. Ces améliorations ont conduit a la définition d'un nouvel environnement. Des améliorations structurelles, encore a l'étude, concernent la définition d'agents hétérogènes et une structuration en couche des agents
27

Mise en place d'une chaîne complète d'analyse de l'arbre trachéo-bronchique à partir d'examen(s) issus d'un scanner-CT : de la 3D vers la 4D

Balacey, Hugo 28 February 2013 (has links) (PDF)
Afin de répondre au problème de santé publique que représente l'asthme, l'imagerie tomodensitométrique associé aux traitements informatiques permettent la quantification et le suivi des dommages subis par les bronches. Le but de l'imagerie bronchique, lors d'un examen de type scanner-CT est de disposer de mesures fiables et reproductibles des différents paramètres bronchiques qui sont des marqueurs de l'importance de la pathologie et de son évolution sous traitements. Ces marqueurs correspondent à deux mesures LA ( Lumen Area) et WA ( Wall Area) prises sur des coupes perpendiculaires à la bronche. La mise en place d'une chaîne de traitements constitué de maillons d'extraction et de squelettisation de l'arbre trachéo-bronchique permet l'obtention de tels mesures. Durant cette thèse nous nous sommes focalisés sur la création d'une chaîne de traitements en proposant une contribution sur chacun des maillons. Notre chaîne est modulable et adaptée au travail en 4D (différentes phases respiratoires) et à fait l'objet d'une implémentation logiciel intitulée Neko4D.
28

Estimation 3D conjointe forme/structure/mouvement dans des séquences dynamiques d'images : Application à l'obtention de modèles cardiaques patients spécifiques anatomiques et fonctionnels

Casta, Christopher 30 November 2012 (has links) (PDF)
Dans le cadre de cette thèse, nous nous somme focalisés sur deux objectifs complémentaires. Le premier concerne l'évolution de la méthode du Gabarit Déformable Elastique (GDE) pour l'extraction semi-automatique de l'anatomie et du mouvement cardiaque, développée au laboratoire Creatis. Un travail a d'abord été réalisé sur une base de données de 45 patients afin de mettre en évidence les points forts et les points faibles de l'algorithme, notamment la difficulté à suivre des déformations trop importantes ou des formes inhabituelles. Puis, différents types de contraintes ont été intégrées au modèle GDE afin d'en améliorer les performances : prescription locale ou dense de déplacements, directionnalité de la déformation contrainte par celle des fibres. Les contraintes proposées sont évaluées sur des données de synthèse et des données réelles en IRM ciné et de marquage tissulaire acquises chez l'homme. Parallèlement, une étude a été réalisée pour mettre en place la méthodologie nécessaire à l'extraction et l'analyse statistique de la déformation des fibres myocardiques. Ce travail a été effectué en collaboration avec une équipe du Auckland Bioengineering Institute en Nouvelle-Zélande. Un modèle biomécanique par éléments finis intègre la direction principale des fibres en tout point du ventricule gauche issue d'acquisitions en IRM du tenseur de diffusion (IRM-TD) sur coeurs humains ex vivo et le mouvement issu de séquences IRM marquées. Cette combinaison permet l'estimation de la déformation des fibres et sa variation durant le cycle cardiaque. La variabilité dans la déformation des fibres est étudiée statistiquement à travers le croisement d'une base de données IRM-TD et d'une base de données IRM marquées.
29

Logique floue en segmentation d'images : seuillage par entropie et structures pyramidales irrégulières

Braviano, Gilson 03 October 1995 (has links) (PDF)
Contrairement à la logique classique, la logique floue permet de manipuler d'autres valeurs de vérité que le 'vrai' et le 'faux' absolus. Dans ce travail, nous étudions l'introduction de cette logique dans les processus de segmentation d'images. Des techniques de premier et de deuxième ordres sont présentées et appliquées à plusieurs images. Deux méthodes de seuillage basées sur l'entropie floue sont développées. Une coopération entre ces méthodes et l'entropie adaptée classique est proposée pour la segmentation d'images cytologiques. Nous présentons les méthodes de segmentation de deuxième ordre utilisant la notion de pyramide. Les pyramides irrégulières sont étudiées et leur support théorique, basé en théorie de graphes, est formalisé. L'introduction d'un facteur d'incertitude dans le processus de segmentation, basé sur la pyramide de graphes, est proposée. Cela se fait à l'aide de sommets et arêtes floues, créant la pyramide floue. Toutes les procédures restent parallélisables et l'ordre d'évaluation des élements des graphes représentant les niveaux de la pyramide n'a pas d'importance.
30

Segmentation d'images de façades de bâtiments acquises d'un point de vue terrestre

Burochin, Jean-Pascal, Burochin, Jean-Pascal 02 May 2012 (has links) (PDF)
L'analyse de façades (détection, compréhension et reconstruction) à partir d'images acquises depuis la rue est aujourd'hui un thème de recherche très actif en photogrammétrie et en vision par ordinateur de part ses nombreuses applications industrielles. Cette thèse montre des avancées réalisées dans le domaine de la segmentation générique de grands volumes de ce type d'images, contenant une ou plusieurs zones de façades (entières ou tronquées).Ce type de données se caractérise par une complexité architecturale très riche ainsi que par des problèmes liés à l'éclairage et au point de vue d'acquisition. La généricité des traitements est un enjeu important. La contrainte principale est de n'introduire que le minimum d'a priori possible. Nous basons nos approches sur les propriétés d'alignements et de répétitivité des structures principales de la façade. Nous proposons un partitionnement hiérarchique des contours de l'image ainsi qu'une détection de grilles de structures répétitives par processus ponctuels marqués. Sur les résultats, la façade est séparée de ses voisines et de son environnement (rue, ciel). D'autre part, certains éléments comme les fenêtres, les balcons ou le fond de mur, sans être reconnus, sont extraits de manière cohérente. Le paramétrage s'effectue en une seule passe et s'applique à tous les styles d'architecture rencontrés. La problématique se situe en amont de nombreuses thématiques comme la séparation de façades, l'accroissement du niveau de détail de modèles urbains 3D générés à partir de photos aériennes ou satellitaires, la compression ou encore l'indexation à partir de primitives géométriques (regroupement de structures et espacements entre elles

Page generated in 0.5204 seconds