• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 65
  • 27
  • 1
  • Tagged with
  • 199
  • 199
  • 122
  • 99
  • 98
  • 92
  • 91
  • 76
  • 75
  • 71
  • 62
  • 56
  • 53
  • 45
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Apprentissage de Représentations Visuelles Profondes

Goh, Hanlin 12 July 2013 (has links) (PDF)
Les avancées récentes en apprentissage profond et en traitement d'image présentent l'opportunité d'unifier ces deux champs de recherche complémentaires pour une meilleure résolution du problème de classification d'images dans des catégories sémantiques. L'apprentissage profond apporte au traitement d'image le pouvoir de représentation nécessaire à l'amélioration des performances des méthodes de classification d'images. Cette thèse propose de nouvelles méthodes d'apprentissage de représentations visuelles profondes pour la résolution de cette tache. L'apprentissage profond a été abordé sous deux angles. D'abord nous nous sommes intéressés à l'apprentissage non supervisé de représentations latentes ayant certaines propriétés à partir de données en entrée. Il s'agit ici d'intégrer une connaissance à priori, à travers un terme de régularisation, dans l'apprentissage d'une machine de Boltzmann restreinte. Nous proposons plusieurs formes de régularisation qui induisent différentes propriétés telles que la parcimonie, la sélectivité et l'organisation en structure topographique. Le second aspect consiste au passage graduel de l'apprentissage non supervisé à l'apprentissage supervisé de réseaux profonds. Ce but est réalisé par l'introduction sous forme de supervision, d'une information relative à la catégorie sémantique. Deux nouvelles méthodes sont proposées. Le premier est basé sur une régularisation top-down de réseaux de croyance profonds à base de machines des Boltzmann restreintes. Le second optimise un cout intégrant un critère de reconstruction et un critère de supervision pour l'entrainement d'autoencodeurs profonds. Les méthodes proposées ont été appliquées au problème de classification d'images. Nous avons adopté le modèle sac-de-mots comme modèle de base parce qu'il offre d'importantes possibilités grâce à l'utilisation de descripteurs locaux robustes et de pooling par pyramides spatiales qui prennent en compte l'information spatiale de l'image. L'apprentissage profonds avec agrégation spatiale est utilisé pour apprendre un dictionnaire hiérarchique pour l'encodage de représentations visuelles de niveau intermédiaire. Cette méthode donne des résultats très compétitifs en classification de scènes et d'images. Les dictionnaires visuels appris contiennent diverses informations non-redondantes ayant une structure spatiale cohérente. L'inférence est aussi très rapide. Nous avons par la suite optimisé l'étape de pooling sur la base du codage produit par le dictionnaire hiérarchique précédemment appris en introduisant introduit une nouvelle paramétrisation dérivable de l'opération de pooling qui permet un apprentissage par descente de gradient utilisant l'algorithme de rétro-propagation. Ceci est la première tentative d'unification de l'apprentissage profond et du modèle de sac de mots. Bien que cette fusion puisse sembler évidente, l'union de plusieurs aspects de l'apprentissage profond de représentations visuelles demeure une tache complexe à bien des égards et requiert encore un effort de recherche important.
172

Contributions en segmentation statistique d'images et reconnaissance de formes 2D

Derrode, Stéphane 29 April 2008 (has links) (PDF)
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
173

Contraintes et opportunités pour l'automatisation de l'inspection visuelle au regard du processus humain / Constraints and opportunities for automation of visual inspection with regard to the human process

Désage, Simon-Frédéric 24 November 2015 (has links)
Ces travaux de recherche ont pour ambition de contribuer à l'automatisation de l'inspection visuelle, dans le cadre du contrôle qualité de pièces métalliques à géométrie complexe. En soi, de nombreuses techniques d'optique, de numérisation, d'implémentation de rendu photo-réaliste, de classification d'images ou de données, et de reconnaissance de formes sont déjà fortement développées et appliquées chacune dans des domaines particuliers. Or, elles ne sont pas, ou rarement pour des cas particuliers, combinées pour obtenir une méthode complète de numérisation de l'apparence jusqu'à la reconnaissance, effective et perceptuelle, de l'objet et des anomalies esthétiques.Ces travaux ont profité des avancements des thèses précédentes sur la formalisation du contrôle qualité ainsi que sur un système agile de numérisation d'aspect de surface permettant la mise en évidence de toute la diversité d'anomalies esthétiques de surfaces. Ainsi, la contribution majeure réside dans l'adaptation des méthodes de traitement d'images à la structure formalisée du contrôle qualité, au format riche des données d'apparence et aux méthodes de classification pour réaliser la reconnaissance telle que le contrôleur humain.En ce sens, la thèse propose un décryptage des différentes méthodologies liées au contrôle qualité, au comportement du contrôleur humain, aux anomalies d'aspect de surface, aux managements et traitements de l'information visuelle, jusqu'à la combinaison de toutes ces contraintes pour obtenir un système de substitution partielle au contrôleur humain. L'objectif de la thèse, et du décryptage, est d'identifier et de réduire les sources de variabilité pour obtenir un meilleur contrôle qualité, notamment par l'automatisation intelligente et structurée de l'inspection visuelle. A partir d'un dispositif de vision par ordinateur choisi, la solution proposée consiste à analyser la texture visuelle. Celle est considérée en tant que signature globale de l'information d'apparence visuelle supérieure à une unique image contenant des textures images. L'analyse est effectuée avec des mécanismes de reconnaissance de formes et d'apprentissage machine pour établir la détection et l'évaluation automatiques d'anomalies d'aspect. / This research has the ambition to contribute to the automation of visual inspection, in the quality control of complex geometry metal parts. Firstly, many optical techniques, scanning, implementation of photorealistic rendering, classification of images or data, and pattern recognition are already highly developed and applied in each particular areas. But they are not, or rarely, in special cases, combined for a complete scanning method of appearance to the recognition, effective and perceptual, of object and aesthetic anomalies.This work benefited from the advancements of previous thesis on the formalization of quality control, as well as an agile system of surface appearance scanning to highlight the diversity of aesthetic anomalies surfaces. Thus, the major contribution lies in the adaptation of image processing methods to the formal structure of quality control, rich appearance data format and classification methods to achieve recognition as the human controller.In this sense, the thesis deciphers the different methodologies related to quality control, the human controller processes, surface appearance defects, the managements and processing of visual information, to the combination of all these constraints for a partial substitution system of the human controller. The aim of the thesis is to identify and reduce sources of variability to obtain better quality control, including through the intelligent and structured automation of visual inspection. From a selected computer vision device, the proposed solution is to analyze visual texture. This is regarded as a global signature of superior visual appearance information to a single image containing images textures. The analysis is performed with pattern recognition and machine learning mechanisms to develop automatic detection and evaluation of appearance defects.
174

Étude de systèmes multicapteurs utilisant des capteurs chimiques, électrochimiques et des biocapteurs pour des applications en agroalimentaire / Development of sensors and biosensors for food analysis

Bougrini, Madiha 01 June 2016 (has links)
Les capteurs et les biocapteurs sont des moyens d’analyse en plein essor à la fois rapides, sensibles, sélectifs et peu coûteux, applicables à des domaines très variés (agroalimentaire, environnement, biomédical…). Dans ce travail de recherche, nous nous sommes intéressés au développement de trois dispositifs à savoir un nez et une langue électroniques à base de systèmes multicapteurs pour l’analyse des odeurs et des saveurs ainsi que les biocapteurs. Les deux premiers dispositifs ont permis dans un premier temps de caractériser et de détecter les fraudes dans les produits de l’industrie agroalimentaire. Ainsi, nous sommes parvenus à détecter les pratiques frauduleuses dans l’huile d’argan par le nez et par la langue électroniques. Nous avons, par ailleurs, réussi à caractériser des miels de différentes origines géographiques et botaniques et à détecter l’adultération du miel pur par l’utilisation d’une langue électronique voltammétrique. Enfin, nous avons démontré l’efficacité des systèmes de nez et de langue électroniques à discriminer cinq marques de lait pasteurisé marocain. Des limitations du système de nez et de langue électroniques ont été révélées quant à la discrimination du lait pasteurisé (Jawda) en fonction des jours de stockage. Par contre, la fusion des données des deux systèmes moyennant un niveau d'abstraction intermédiaire a permis d’améliorer cette discrimination. Dans une deuxième étape, nous avons développé deux biocapteurs, le premier est basé sur l’utilisation de Polymère à Empreinte Moléculaire (MIP) dédié à la détection de la tétracycline dans le miel. Alors que le second est un immunocapteur conçu pour la détection de l’ochratoxine A. Le MIP, utilisé dans le premier cas, a été synthétisé à la surface d’électrodes en or par électropolymérisation des nanoparticules d'or fonctionnalisées par le p-aminothiophénol en présence de la tétracycline comme molécule empreinte. Dans le deuxième cas, un nouveau biocapteur capacitif basé sur l’utilisation d’un substrat de Nitrure de Silicium (Si3N4) combiné avec une nouvelle structure de nanoparticules magnétiques (MNPs) pour la détection de l’ochratoxine A a été conçu. En effet, Les MNPs possédant une terminaison carboxylique ont été liés de manière covalente à la monocouche auto-assemblée du silane-amine (3-aminopropyl triéthoxysilane APTES). Enfin, les anticorps anti-ochratoxine A ont été immobilisés sur les MNPs par liaison amide. Les performances des deux biocapteurs (limite de détection, sélectivité, reproductibilité) ont ensuite été évaluées / Sensors and Biosensors are rapid, sensitive, selective and low-cost analytical devices of growing interest for a wide range of application fields (e.g. food, environment, health …). This research focused on the development of three devices namely an electronic nose and tongue and electrochemical biosensors with applications in food analysis. The first two devices allowed the characterization and detection of frauds in the food field. Thus, we have been able to detect fraudulent practices in argan oil by using an electronic nose and tongue systems. In addition, the electronic tongue has successfully classified honeys of different geographical and botanical origins and detects the adulteration of pure honey. Finally, we have demonstrated the ability of the electronic nose and tongue systems to classify five brands of Moroccan pasteurized milk and to discriminate against them based on their storage days. In the second stage, we have developed two biosensors. The first one is based on a molecularly imprinted polymer (MIP) for the detection of tetracycline in honey. The second one is based on an immunosensor devoted for the detection of ochratoxin A. For the first biosensor, imprinted gold nanoparticles composites are assembled on Au surfaces by the electropolymerization of p-amino-thiophenol functionalized gold nanoparticles in the presence of the imprint molecule. In the second case, we have developed a novel capacitance electrochemical biosensor based on silicon nitride substrate (Si3N4) combined with a new structure of mangnetic nanoparticles (MNPs). Indeed, The MNPs with terminated carboxylic acid were covalently bonded to Si3N4 through a Self-Assembled Monolayers (SAMs) of the silane-amine (3-Aminopropyl) triethoxysilane (APTES). Finally anti-ochratoxin A antibodies were immobilized on MNPs by amide bonding. The performances of the two biosensors (limit of detection, selectivity, reproducibility) were then evaluated and the results are generally satisfactory
175

Du diagnostic au pronostic de pannes des entraînements électriques / From the diagnosis to the prognosis of faults in electrical drives

Soualhi, Abdenour 24 September 2013 (has links)
Le diagnostic et le pronostic de pannes des systèmes d'entraînement électriques est un enjeu majeur pour assurer la fiabilité et la sûreté de fonctionnement des outils de production notamment dans les secteurs sensibles (militaire, l'aéronautique, l'aérospatiale et nucléaire, etc.). Le travail de recherche présenté dans cette thèse vise à introduire de nouvelles méthodes de diagnostic et de pronostic des défauts d'une machine asynchrone ainsi que des roulements à rouleaux. Ces méthodes, orientées données, utilisent les données de mesure recueillies à partir de capteurs placés sur un système (machine asynchrone, roulement à rouleaux) afin de construire un vecteur de paramètres indicateur de défaut. Les méthodes de classification développées (supervisée, non supervisée) permettent de classer les observations, décrites par le vecteur de paramètres, par rapport aux différents modes de fonctionnement, connus ou inconnus du système, avec ou sans défauts. Des défauts ont été créés au rotor et aux roulements de la machine asynchrone, alimentée par le biais d'un onduleur de tension. La classification non supervisée, basée sur l'algorithme des fourmis artificielles, permet d'analyser les observations inconnues et inexplorées afin de mettre en évidence les classes regroupant les observations similaires. Cela permet d'améliorer la classification et de détecter l'apparition de nouveaux modes de fonctionnement. La classification supervisée, basée sur les modèles de Markov cachés, permet d'associer un degré d'appartenance (sous forme d'une probabilité) lors de l'affectation d'une observation à une ou plusieurs classes. Cela permet de définir un indice de fiabilité à l'affectation réalisée mais aussi de détecter l'apparition de nouveaux modes de fonctionnement. Ces méthodes ne se limitent pas qu'à diagnostiquer les défauts, elles peuvent aussi contribuer au pronostic des défauts. En effet, le pronostic peut être défini comme une extension du problème de diagnostic. La prédiction d'un défaut est réalisée par trois méthodes basées sur les modèles de Markov cachés pour la détection de l'imminence d'un défaut ainsi que par deux méthodes basées sur le système neuro-flou (ANFIS pour Adaptive Neuro Fuzzy Inference System et le neurone neuro-flou) pour estimer le temps restant avant son apparition. Des données de vieillissement d'un ensemble de roulements à rouleaux ont été utilisées afin de tester les méthodes proposées. Les résultats obtenus montrent l'efficacité de ces méthodes pour le diagnostic et le pronostic des défauts dans les entraînements électriques / Faults diagnosis and prognosis of electrical drives play a key role in the reliability and safety of production tools especially in key sectors (military, aviation, aerospace and nuclear, etc.). The research presented in this thesis aims to introduce new methods for faults diagnosis and prognosis of an induction motors and roller bearings. These methods use measured data collected from sensors placed on the system (induction motor, roller) in order to construct a feature vector which indicates the state of the system. Supervised and unsupervised classification methods are developed to classify measurements (observations) described by the feature vector compared to known or unknown operating modes, with or without failures. Defects were created in the rotor and the bearing of the induction motor, fed by a voltage inverter. The unsupervised classification technique, based on artificial ant-clustering, allows analyzing the unknown and unexplored observations to highlight classes with similar observations. This allows improving the classification and the detection of new operating modes. The supervised classification, based on hidden Markov models, allows associating a degree of similarity when we affect an observation to one or more classes. This defines a reliability index which allows the detection of new operating modes. These methods are not limited to diagnose faults; they can also contribute to the prognosis of faults. Indeed, the prognosis can be defined as an extension of the problem of diagnosis. The prognosis of faults is carried out by three methods based on hidden Markov models for the detection of an impending failure and by two methods based on the neuro-fuzzy system (ANFIS for Adaptive Neuro fuzzy Inference System and the neo-fuzzy neuron) to estimate the remaining time before its appearance. A set of historical data collected on roller bearings is used to validate the proposed methods. The obtained results show the effectiveness of the proposed methods for faults diagnosis and prognosis of electrical drives
176

Recalage hétérogène pour la reconstruction 3D de scènes sous-marines / Heterogeneous Registration for 3D Reconstruction of Underwater Scene

Mahiddine, Amine 30 June 2015 (has links)
Le relevé et la reconstruction 3D de scènes sous-marine deviennent chaque jour plus incontournable devant notre intérêt grandissant pour l’étude des fonds sous-marins. La majorité des travaux existants dans ce domaine sont fondés sur l’utilisation de capteurs acoustiques l’image n’étant souvent qu’illustrative.L’objectif de cette thèse consiste à développer des techniques permettant la fusion de données hétérogènes issues d’un système photogrammétrique et d’un système acoustique.Les travaux présentés dans ce mémoire sont organisés en trois parties. La première est consacrée au traitement des données 2D afin d’améliorer les couleurs des images sous-marines pour augmenter la répétabilité des descripteurs en chaque point 2D. Puis, nous proposons un système de visualisation de scène en 2D sous forme de mosaïque.Dans la deuxième partie, une méthode de reconstruction 3D à partir d’un ensemble non ordonné de plusieurs images a été proposée. Les données 3D ainsi calculées seront fusionnées avec les données provenant du système acoustique dans le but de reconstituer le site sous-marin.Dans la dernière partie de ce travail de thèse, nous proposons une méthode de recalage 3D originale qui se distingue par la nature du descripteur extrait en chaque point. Le descripteur que nous proposons est invariant aux transformations isométriques (rotation, transformation) et permet de s’affranchir du problème de la multi-résolution. Nous validons à l’aide d’une étude effectuée sur des données synthétiques et réelles où nous montrons les limites des méthodes de recalages existantes dans la littérature. Au final, nous proposons une application de notre méthode à la reconnaissance d’objets 3D. / The survey and the 3D reconstruction of underwater become indispensable for our growing interest in the study of the seabed. Most of the existing works in this area are based on the use of acoustic sensors image.The objective of this thesis is to develop techniques for the fusion of heterogeneous data from a photogrammetric system and an acoustic system.The presented work is organized in three parts. The first is devoted to the processing of 2D data to improve the colors of the underwater images, in order to increase the repeatability of the feature descriptors. Then, we propose a system for creating mosaics, in order to visualize the scene.In the second part, a 3D reconstruction method from an unordered set of several images was proposed. The calculated 3D data will be merged with data from the acoustic system in order to reconstruct the underwater scene.In the last part of this thesis, we propose an original method of 3D registration in terms of the nature of the descriptor extracted at each point. The descriptor that we propose is invariant to isometric transformations (rotation, transformation) and addresses the problem of multi-resolution. We validate our approach with a study on synthetic and real data, where we show the limits of the existing methods of registration in the literature. Finally, we propose an application of our method to the recognition of 3D objects.
177

Intelligent pattern recognition techniques for photo-realistic 3D modeling of urban planning objects / Techniques intelligentes motif de reconnaissance pour photo-réaliste modélisation 3D de la planification urbaine objets

Tsenoglou, Theocharis 28 November 2014 (has links)
Modélisation 3D réaliste des bâtiments et d'autres objets de planification urbaine est un domaine de recherche actif dans le domaine de la modélisation 3D de la ville, la documentation du patrimoine, tourisme virtuel, la planification urbaine, la conception architecturale et les jeux d'ordinateur. La création de ces modèles, très souvent, nécessite la fusion des données provenant de diverses sources telles que les images optiques et de numérisation de nuages ​​de points laser. Pour imiter de façon aussi réaliste que possible les mises en page, les activités et les fonctionnalités d'un environnement du monde réel, ces modèles doivent atteindre de haute qualité et la précision de photo-réaliste en termes de la texture de surface (par exemple pierre ou de brique des murs) et de la morphologie (par exemple, les fenêtres et les portes) des objets réels. Rendu à base d'images est une alternative pour répondre à ces exigences. Il utilise des photos, prises soit au niveau du sol ou de l'air, à ajouter de la texture au modèle 3D ajoutant ainsi photo-réalisme.Pour revêtement de texture pleine de grandes façades des modèles de blocs 3D, des images qui dépeignent la même façade doivent être correctement combinée et correctement aligné avec le côté du bloc. Les photos doivent être fusionnés de manière appropriée afin que le résultat ne présente pas de discontinuités, de brusques variations de l'éclairage ou des lacunes. Parce que ces images ont été prises, en général, dans différentes conditions de visualisation (angles de vision, des facteurs de zoom, etc.) ils sont sous différentes distorsions de perspective, mise à l'échelle, de luminosité, de contraste et de couleur nuances, ils doivent être corrigés ou ajustés. Ce processus nécessite l'extraction de caractéristiques clés de leur contenu visuel d'images.Le but du travail proposé est de développer des méthodes basées sur la vision par ordinateur et les techniques de reconnaissance des formes, afin d'aider ce processus. En particulier, nous proposons une méthode pour extraire les lignes implicites à partir d'images de mauvaise qualité des bâtiments, y compris les vues de nuit où seules quelques fenêtres éclairées sont visibles, afin de préciser des faisceaux de lignes parallèles 3D et leurs points de fuite correspondants. Puis, sur la base de ces informations, on peut parvenir à une meilleure fusion des images et un meilleur alignement des images aux façades de blocs. / Realistic 3D modeling of buildings and other urban planning objects is an active research area in the field of 3D city modeling, heritage documentation, virtual touring, urban planning, architectural design and computer gaming. The creation of such models, very often, requires merging of data from diverse sources such as optical images and laser scan point clouds. To imitate as realistically as possible the layouts, activities and functionalities of a real-world environment, these models need to attain high photo-realistic quality and accuracy in terms of the surface texture (e.g. stone or brick walls) and morphology (e.g. windows and doors) of the actual objects. Image-based rendering is an alternative for meeting these requirements. It uses photos, taken either from ground level or from the air, to add texture to the 3D model thus adding photo-realism. For full texture covering of large facades of 3D block models, images picturing the same façade need to be properly combined and correctly aligned with the side of the block. The pictures need to be merged appropriately so that the result does not present discontinuities, abrupt variations in lighting or gaps. Because these images were taken, in general, under various viewing conditions (viewing angles, zoom factors etc) they are under different perspective distortions, scaling, brightness, contrast and color shadings, they need to be corrected or adjusted. This process requires the extraction of key features from their visual content of images. The aim of the proposed work is to develop methods based on computer vision and pattern recognition techniques in order to assist this process. In particular, we propose a method for extracting implicit lines from poor quality images of buildings, including night views where only some lit windows are visible, in order to specify bundles of 3D parallel lines and their corresponding vanishing points. Then, based on this information, one can achieve better merging of the images and better alignment of the images to the block façades. Another important application dealt in this thesis is that of 3D modeling. We propose an edge preserving interpolation, based on the mean shift algorithm, that operates jointly on the optical and the elevation data. It succeeds in increasing the resolution of the elevation data (LiDAR) while improving the quality (i.e. straightness) of their edges. At the same time, the color homogeneity of the corresponding imagery is also improved. The reduction of color artifacts in the optical data and the improvement in the spatial resolution of elevation data results in more accurate 3D building models. Finally, in the problem of building detection, the application of the proposed mean shift-based edge preserving smoothing for increasing the quality of aerial/color images improves the performance of binary building vs non-building pixel classification.
178

Cartographie, analyse et reconnaissance de réseaux vasculaires par Doppler ultrasensible 4D / Cartography, analysis and recognition of vascular networks by 4D ultrasensitive Doppler

Cohen, Emmanuel 19 December 2018 (has links)
Le Doppler ultrasensible est une nouvelle technique d'imagerie ultrasonore permettant d'observer les flux sanguins avec une résolution très fine et sans agent de contraste. Appliquée à l'imagerie microvasculaire cérébrale des rongeurs, cette méthode produit de très fines cartes vasculaires 3D du cerveau à haute résolution spatiale. Ces réseaux vasculaires contiennent des structures tubulaires caractéristiques qui pourraient servir de points de repère pour localiser la position de la sonde ultrasonore et tirer parti des avantages pratiques des appareils à ultrason. Ainsi, nous avons développé un premier système de neuronavigation chez les rongeurs basé sur le recalage automatique d'images cérébrales. En utilisant des méthodes d’extraction de chemins minimaux, nous avons développé une nouvelle méthode isotrope de segmentation pour l’analyse géométrique des réseaux vasculaires en 3D. Cette méthode a été appliquée à la quantification des réseaux vasculaires et a permis le développement d'algorithmes de recalage de nuages de points pour le suivi temporel de tumeurs. / Ultrasensitive Doppler is a new ultrasound imaging technique allowing the observation of blood flows with a very fine resolution and no contrast agent. Applied to cerebral microvascular imaging in rodents, this method produces very fine vascular 3D maps of the brain at high spatial resolution. These vascular networks contain characteristic tubular structures that could be used as landmarks to localize the position of the ultrasonic probe and take advantage of the easy-to-use properties of ultrasound devices such as low cost and portability. Thus, we developed a first neuronavigation system in rodents based on automatic registration of brain images. Using minimal path extraction methods, we developed a new isotropic segmentation framework for 3D geometric analysis of vascular networks (extraction of centrelines, diameters, curvatures, bifurcations). This framework was applied to quantify brain and tumor vascular networks, and finally leads to the development of point cloud registration algorithms for temporal monitoring of tumors.
179

Méta-modèles de positionnement spatial pour la reconnaissance de tracés manuscrits

Delaye, Adrien 09 December 2011 (has links) (PDF)
L'essor des interfaces homme-machine permettant la saisie d'informations à l'aide d'un stylo électronique est accompagné par le développement de méthodes automatiques pour interpréter des données de plus en plus riches et complexes : texte manuscrit, mais aussi expressions mathématiques, schémas, prise de notes libre... Pour interpréter efficacement ces documents manuscrits, il est nécessaire de considérer conjointement les formes des objets qui les constituent et leur positionnement spatial. Nos recherches se concentrent sur la modélisation du positionnement spatial entre des objets manuscrits, en partant du constat qu'il n'est pas exploité dans toute sa richesse par les méthodes actuelles. Nous introduisons le concept de méta-modèle spatial, une modélisation générique pour décrire des relations spatiales entre des objets de nature, complexité et formes variables. Ces modèles, qui peuvent être appris à partir de données, offrent une richesse et une précision inédite car ils autorisent la conduite d'un raisonnement spatial directement dans l'espace image. L'appui sur le cadre de la théorie des sous-ensembles flous et de la morphologie mathématique permet la gestion de l'imprécision et offre une description des relations spatiales conforme à l'intuition. Un méta-modèle est doté d'un pouvoir de prédiction qui permet de décrire la relation spatiale modélisée au sein de l'image, par rapport à un objet de référence. Cette capacité rend possible la visualisation des modèles et fournit un outil pour segmenter les tracés en fonction de leur contexte. En exploitant ces modèles, nous proposons une représentation pour des objets manuscrits à la structure complexe. Cette représentation repose uniquement sur la modélisation de leurs informations spatiales, afin de démontrer l'importance de ces informations pour l'interprétation d'objets manuscrits structurés. La segmentation des tracés en primitives structurelles est guidée par les modèles de positionnement, via leur capacité de prédiction. Les résultats expérimentaux, portant sur des objets de complexité et de natures diverses (caractères chinois, gestes d'édition, symboles mathématiques, lettres), confirment la bonne qualité de description du positionnement offerte par les méta-modèles. Les tests de reconnaissance de symboles par l'exploitation de leur information spatiale attestent d'une part de l'importance de cette information et valident d'autre part la capacité des méta-modèles à la représenter avec une grande précision. Ces résultats témoignent donc de la richesse de l'information spatiale et du potentiel des méta-modèles spatiaux pour l'amélioration des techniques de traitement du document manuscrit.
180

Vers un système de vision auto-adaptatif à base de systèmes multi-agents

Mahdjoub, Jason 15 December 2011 (has links) (PDF)
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. La généralisation ou la mise en collaboration de ces traitements pour un système plus complet et plus robuste est un problème mal posé. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux-mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées. Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous ancrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons.

Page generated in 0.0769 seconds