• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Méthode de sélection de caractéristiques pronostiques et prédictives basée sur les forêts aléatoires pour le suivi thérapeutique des lésions tumorales par imagerie fonctionnelle TEP / Prognostic and predictive characteristics selection method based on random forests for therapeutic monitoring of tumor lesions using PET functional imaging

Desbordes, Paul 29 June 2017 (has links)
La radiomique propose de combiner des caractéristiques images avec celles issues de la clinique, de la génomique, de la protéomique, etc . . .afin de mettre en place une médecine personnalisée dans la prise en charge du cancer. L’objectif est d’anticiper, à partir d’un examen initial, les chances de survie du patient ou la probabilité de la maladie de répondre à un traitement. En médecine, des méthodes statistiques classiques sont généralement utilisées comme l’analyse de Mann-Whitney pour les études prédictives et l’analyse des courbes de survie de Kaplan-Meier pour les études pronostiques. Cependant, l’augmentation du nombre de caractéristiques étudiées pose des problèmes pour l’utilisation de ces statistiques. C’est pour cela que nous nous sommes orientés vers l’utilisation des algorithmes d’apprentissage automatique et des méthodes de sélectionde caractéristiques. Ces méthodes sont résistantes aux grandes dimensions, ainsi qu’aux relations non-linéaires entre caractéristiques. Nous avons proposé 2 méthodes de sélection des caractéristiques basées sur la méthode d’apprentissage automatique des forêts aléatoires. Nos méthodes ont permis la sélection de sous-ensembles de caractéristiques prédictives et pronostiques sur 2 bases de données (cancer de l’oesophage et du poumon). Nos algorithmes ont montré les meilleures performances de classification comparées aux méthodes statistiques classiques et aux autres méthodes de sélection des caractéristiques étudiées. / Radiomics proposes to combine image features with those extracted from other modalities (clinical, genomic, proteomic) to set up a personalized medicine in the management of cancer. From an initial exam, the objective is to anticipate the survival rate of the patient or the treatment response probability. In medicine, classical statistical methods are generally used, such as theMann-Whitney analysis for predictive studies and analysis of Kaplan-Meier survival curves for prognostic studies. Thus, the increasing number of studied features limits the use of these statistics. We have focused our works on machine learning algorithms and features selection methods. These methods are resistant to large dimensions as well as non-linear relations between features. We proposed two features selection strategy based on random forests. Our methods allowed the selection of subsets of predictive and prognostic features on 2 databases (oesophagus and lung cancers). Our algorithms showed the best classification performances compared to classical statistical methods and other features selection strategies studied.
382

Inpainting de modèles 3D pour la réalité diminuée : "couper/coller" réaliste pour l'aménagement d'intérieur / Inpainting of 3D models applied to the Diminished Reality : realistic "Cut/Paste" for indoor arrangement

Fayer, Julien 19 April 2019 (has links)
Par opposition à la Réalité Augmentée qui consiste à ajouter des éléments virtuels à un environnement réel, la Réalité Diminuée consiste à supprimer des éléments réels d'un environnement. Le but est d'effectuer un rendu visuel d'une scène 3D où les éléments "effacés" ne sont plus présents : la difficulté consiste à créer une image de sorte que la diminution ne soit pas perceptible par l'utilisateur. Il faut donc venir compléter la scène initialement cachée par ces éléments, en effectuant une opération d'inpainting qui prenne en compte la géométrie de la pièce, sa texture (structurée ou non), et la luminosité ambiante de l'environnement. Par exemple, l’œil humain est sensible à la régularité d'une texture. L'un des objectifs d'Innersense, entreprise spécialisée dans l'aménagement virtuel d’intérieurs, est de développer un produit capable d'enlever des éléments présents dans une pièce d'intérieur. Une fois la suppression virtuelle des meubles existants effectuée , il sera alors possible d'ajouter des meubles virtuels dans l'espace laissé vacant. L'objectif de cette thèse CIFRE est donc de mettre en place un scénario de réalité diminuée pouvant être exécuté sur un système mobile (tablette IOS ou Android) qui génère des images photo-réalistes de la scène diminuée. Pour cela, à partir d’un modèle géométrique de la pièce d'intérieur que l'on veut altérer, nous adaptons et améliorons des procédures d'effacement d'éléments d'une image appelées inpainting dans une image 2D. Ensuite, nous appliquons ces techniques dans le contexte 3D intérieur pour tenir compte de la géométrie de la scène. Enfin, nous analysons la luminosité pour augmenter le réalisme des zones complétées.Dans cette thèse, nous rappelons d'abord les différents travaux académiques et les solutions industrielles existantes. Nous évoquons leurs avantages et leurs limites. Nous abordons ensuite les différentes techniques d'inpainting existantes pour introduire notre première contribution qui propose d'adapter une des méthodes de l’état de l’art pour prendre en compte de la structure du motif de la texture. La problématique de la luminosité est ensuite abordée en proposant un processus qui traite séparément la texture et la variation de la luminosité. Nous présentons ensuite une troisième contribution qui propose un critère de confiance basé sur des considérations radiométriques pour sélectionner une information selon sa qualité dans le processus d'inpainting. Nous proposons une dernière contribution basée sur la complétion de texture de modèles 3D non planaires reconstruits à partir de peu d’images et donc présentant une texture incomplète. Enfin, nous montrons les applications développées grâce à ces travaux dans le contexte des scènes d'intérieur considérées par Innersense / In contrast to Augmented Reality, which consists in adding virtual elements to a real environment,Diminished Reality consists in removing real elements from an environment. The goal is to visuallyrender a 3D scene where the "deleted" elements are no longer present: the difficulty is to createan image so that the processing is not perceptible to the user. It is therefore necessary tocomplete the scene initially hidden by these elements, by performing an inpainting operation thattakes into account the geometry of the part, its texture (structured or not), and the ambientbrightness of the environment. For example, the human eye is sensitive to the regularity of atexture. One of the objectives of Innersense, a company specializing in virtual interior design, is todevelop a product that can remove elements from an interior room. Once the virtual removal ofexisting furniture has been completed, it will then be possible to add virtual furniture in the vacantspace. The objective of this CIFRE thesis is therefore to set up a scenario of diminished realitythat can be executed on a mobile system (IOS or Android tablet) that generates photorealisticimages of the diminished scene. To do this, based on a geometric model of the interior part thatwe want to alter, we adapt and improve procedures for erasing elements of an image calledinpainting in a 2D image. Then, we apply these techniques in the 3D indoor context to take intoaccount the geometry of the scene. Finally, we analyze the brightness to increase the realism ofthe completed areas. In this thesis, we first review the various academic works and existingindustrial solutions. We discuss their advantages and limitations. We then discuss the differentexisting inpainting techniques to introduce our first contribution which proposes to adapt one of thestate of the art methods to take into account the structure of the texture pattern. The problem ofbrightness is then discussed by proposing a process that deals separately with texture andvariation of brightness. We then present a third contribution that proposes a confidence criterionbased on radiometric considerations to select information according to its quality in the inpaintingprocess. We propose a last contribution based on the texture completion of non-planar 3D modelsreconstructed from few images and therefore presenting an incomplete texture. Finally, we showthe applications developed through this work in the context of the interior scenes considered byInnersense.
383

Sélection de caractéristiques stables pour la segmentation d'images histologiques par calcul haute performance / Robust feature selection for histology images through high performance computing

Bouvier, Clément 18 January 2019 (has links)
L’histologie produit des images à l’échelle cellulaire grâce à des microscopes optiques très performants. La quantification du tissu marqué comme les neurones s’appuie de plus en plus sur des segmentations par apprentissage automatique. Cependant, l’apprentissage automatique nécessite une grande quantité d’informations intermédiaires, ou caractéristiques, extraites de la donnée brute multipliant d’autant la quantité de données à traiter. Ainsi, le nombre important de ces caractéristiques est un obstacle au traitement robuste et rapide de séries d’images histologiques. Les algorithmes de sélection de caractéristiques pourraient réduire la quantité d’informations nécessaires mais les ensembles de caractéristiques sélectionnés sont peu reproductibles. Nous proposons une méthodologie originale fonctionnant sur des infrastructures de calcul haute-performance (CHP) visant à sélectionner des petits ensembles de caractéristiques stables afin de permettre des segmentations rapides et robustes sur des images histologiques acquises à très haute-résolution. Cette sélection se déroule en deux étapes : la première à l’échelle des familles de caractéristiques. La deuxième est appliquée directement sur les caractéristiques issues de ces familles. Dans ce travail, nous avons obtenu des ensembles généralisables et stables pour deux marquages neuronaux différents. Ces ensembles permettent des réductions significatives des temps de traitement et de la mémoire vive utilisée. Cette méthodologie rendra possible des études histologiques exhaustives à haute-résolution sur des infrastructures CHP que ce soit en recherche préclinique et possiblement clinique. / In preclinical research and more specifically in neurobiology, histology uses images produced by increasingly powerful optical microscopes digitizing entire sections at cell scale. Quantification of stained tissue such as neurons relies on machine learning driven segmentation. However such methods need a lot of additional information, or features, which are extracted from raw data multiplying the quantity of data to process. As a result, the quantity of features is becoming a drawback to process large series of histological images in a fast and robust manner. Feature selection methods could reduce the amount of required information but selected subsets lack of stability. We propose a novel methodology operating on high performance computing (HPC) infrastructures and aiming at finding small and stable sets of features for fast and robust segmentation on high-resolution histological whole sections. This selection has two selection steps: first at feature families scale (an intermediate pool of features, between space and individual feature). Second, feature selection is performed on pre-selected feature families. In this work, the selected sets of features are stables for two different neurons staining. Furthermore the feature selection results in a significant reduction of computation time and memory cost. This methodology can potentially enable exhaustive histological studies at a high-resolution scale on HPC infrastructures for both preclinical and clinical research settings.
384

Ensemble Methods for Pedestrian Detection in Dense Crowds / Méthodes d'ensembles pour la détection de piétons en foules denses

Vandoni, Jennifer 17 May 2019 (has links)
Cette thèse s’intéresse à la détection des piétons dans des foules très denses depuis un système mono-camera, avec comme but d’obtenir des détections localisées de toutes les personnes. Ces détections peuvent être utilisées soit pour obtenir une estimation robuste de la densité, soit pour initialiser un algorithme de suivi. Les méthodologies classiques utilisées pour la détection de piétons s’adaptent mal au cas où seulement les têtes sont visibles, de part l’absence d’arrière-plan, l’homogénéité visuelle de la foule, la petite taille des objets et la présence d’occultations très fortes. En présence de problèmes difficiles tels que notre application, les approches à base d’apprentissage supervisé sont bien adaptées. Nous considérons un système à plusieurs classifieurs (Multiple Classifier System, MCS), composé de deux ensembles différents, le premier basé sur les classifieurs SVM (SVM- ensemble) et le deuxième basé sur les CNN (CNN-ensemble), combinés dans le cadre de la Théorie des Fonctions de Croyance (TFC). L’ensemble SVM est composé de plusieurs SVM exploitant les données issues d’un descripteur différent. La TFC nous permet de prendre en compte une valeur d’imprécision supposée correspondre soit à une imprécision dans la procédure de calibration, soit à une imprécision spatiale. Cependant, le manque de données labellisées pour le cas des foules très denses nuit à la génération d’ensembles de données d’entrainement et de validation robustes. Nous avons proposé un algorithme d’apprentissage actif de type Query-by- Committee (QBC) qui permet de sélectionner automatiquement de nouveaux échantillons d’apprentissage. Cet algorithme s’appuie sur des mesures évidentielles déduites des fonctions de croyance. Pour le second ensemble, pour exploiter les avancées de l’apprentissage profond, nous avons reformulé notre problème comme une tâche de segmentation en soft labels. Une architecture entièrement convolutionelle a été conçue pour détecter les petits objets grâce à des convolutions dilatées. Nous nous sommes appuyés sur la technique du dropout pour obtenir un ensemble CNN capable d’évaluer la fiabilité sur les prédictions du réseau lors de l’inférence. Les réalisations de cet ensemble sont ensuite combinées dans le cadre de la TFC. Pour conclure, nous montrons que la sortie du MCS peut être utile aussi pour le comptage de personnes. Nous avons proposé une méthodologie d’évaluation multi-échelle, très utile pour la communauté de modélisation car elle lie incertitude (probabilité d’erreur) et imprécision sur les valeurs de densité estimées. / This study deals with pedestrian detection in high- density crowds from a mono-camera system. The detections can be then used both to obtain robust density estimation, and to initialize a tracking algorithm. One of the most difficult challenges is that usual pedestrian detection methodologies do not scale well to high-density crowds, for reasons such as absence of background, high visual homogeneity, small size of the objects, and heavy occlusions. We cast the detection problem as a Multiple Classifier System (MCS), composed by two different ensembles of classifiers, the first one based on SVM (SVM-ensemble) and the second one based on CNN (CNN-ensemble), combined relying on the Belief Function Theory (BFT) to exploit their strengths for pixel-wise classification. SVM-ensemble is composed by several SVM detectors based on different gradient, texture and orientation descriptors, able to tackle the problem from different perspectives. BFT allows us to take into account the imprecision in addition to the uncertainty value provided by each classifier, which we consider coming from possible errors in the calibration procedure and from pixel neighbor's heterogeneity in the image space. However, scarcity of labeled data for specific dense crowd contexts reflects in the impossibility to obtain robust training and validation sets. By exploiting belief functions directly derived from the classifiers' combination, we propose an evidential Query-by-Committee (QBC) active learning algorithm to automatically select the most informative training samples. On the other side, we explore deep learning techniques by casting the problem as a segmentation task with soft labels, with a fully convolutional network designed to recover small objects thanks to a tailored use of dilated convolutions. In order to obtain a pixel-wise measure of reliability about the network's predictions, we create a CNN- ensemble by means of dropout at inference time, and we combine the different obtained realizations in the context of BFT. Finally, we show that the output map given by the MCS can be employed to perform people counting. We propose an evaluation method that can be applied at every scale, providing also uncertainty bounds on the estimated density.
385

Développement et validation de biomarqueurs quantitatifs d'imagerie cardiaque : association entre structure et fonction myocardique / Implementation and validation of quantitative biomarkers of cardiac imaging : association between structure and function

Lamy, Jérôme 24 April 2018 (has links)
Les maladies cardiovasculaires, qui restent l’une des premières causes de mortalité dans le monde, sont le résultat d’altérations interdépendantes de la structure et de la fonction cardiaque couplées aux effets aggravants des maladies métaboliques, du vieillissement et du mode de vie. Dans ce contexte, l’objectif de ma thèse est de proposer et de valider de nouveaux biomarqueurs quantitatifs en imagerie cardiaque, robustes et rapides, pour l’étude de la fonction et de la structure myocardiques ainsi que de leurs liens. Un premier travail a été consacré au développement d’une méthode d’évaluation de la fonction cardiaque, plus précisément de la cinétique de déformation du myocarde sur toutes les cavités cardiaques à partir d’images standards d’IRM ciné. La méthode développée s’est montrée reproductible avec une capacité diagnostique supérieure aux indices cliniques conventionnels. Elle était aussi capable de détecter des altérations cardiaques infra-cliniques liées à l’âge. Le second travail présenté est le développement d’une méthode de quantification de la graisse atriale, à partir d’images de scanner tomodensitométrique, suivi de son évaluation sur une cohorte de sujets sains et de sujets atteints de fibrillation atriale. Finalement, l’interaction entre les paramètres myocardiques structurels et fonctionnels a été étudiée au travers de la première validation chez l’homme de la littérature IRM de la fonction de déformation cardiaque, évaluée avec notre méthode, face à la quantification histologique du substrat tissulaire « graisse-fibrose ». / Cardiovascular diseases, which are still one of the leading causes of death worldwide, are the result of interdependent alterations of the heart structure and function coupled with the aggravating effects of metabolic diseases, aging and lifestyle. In this context, the goal of my thesis is to design and validate new, robust and fast cardiac imaging quantitative biomarkers to characterize myocardial function and structure as well as their relationships. A first work was focused on the development of a method to evaluate cardiac function, specifically myocardial deformation kinetics on all cardiac chambers from standard cine MRI images. The designed method was reproducible and its diagnostic ability was superior to conventional clinical indices. It was also able to detect subclinical age-related heart alterations. The aims of the second study were to develop a method for atrial fat quantification, based on CT images, and to evaluate it on a cohort of healthy subjects and patients with atrial fibrillation. Finally, the interaction between structural and functional myocardial indices was studied through the first in vivo validation in the MRI literature of cardiac deformation function, evaluated using our method, against histological quantification of the “fibro-fatty” tissue substrate.
386

Earth Observation and Stereo Vision / Observation de la Terre et stéréoscopie

De Franchis, Carlo 05 October 2015 (has links)
Cette thèse étudie les problèmes posés par l’estimation automatique de modèles numériques d’élévation de la surface terrestre à partir de photographies prises par des satellites. Ce travail a bénéficié d’une collaboration avec le CNES (Centre National d’Etudes Spatiales) sur le développement d’outils de vision stéréoscopique pour Pléiades, le premier satellite d’observation de la Terre capable de produire des paires ou triplets d’images quasi-simultanées. Le premier chapitre de la thèse décrit un modèle simplifié de caméra pushbroom destiné aux satellites d’observation de la Terre, et aborde le problème de la correction des données de calibration en faisant intervenir des mesures externes. Ce chapitre propose un nouvel algorithme pour affiner les paramètres d’orientation du satellite à partir d’un jeu de points de contrôle. Il est utilisable pour tous les satellites munis de caméras pushbroom. Dans le but d’appliquer aux images satellitaires les nombreux algorithmes de mise en correspondance stéréoscopique développés en traitement d’images et en vision par ordinateur, le deuxième chapitre explore l’adaptation de la théorie de la rectification épipolaire aux images prises par des caméras pushbroom. La rectification épipolaire est utilisée habituellement pour réduire la complexité du problème de mise en correspondance stéréoscopique, et permet d’appliquer les algorithmes les plus récents à des images satellitaires. Le chapitre suivant étudie les effets des erreurs de calibration géométrique sur la rectification et propose une méthode pour éliminer leur impact sur la mise en correspondance. Le quatrième chapitre décrit et analyse en détails une implémentation de l’algorithme Semi-Global Matching (SGM), classé actuellement parmi les meilleurs algorithmes de mise en correspondance stéréoscopique. En se fondant sur une réinterprétation récente de SGM, ce chapitre en propose une variante qui permet de réduire d’un facteur cinq son écart en énergie par rapport aux algorithmes de référence pour la minimisation de champs aléatoires de Markov. En assemblant les blocs algorithmiques décrits dans les chapitres précédents, le cinquième chapitre décrit S2P, une chaîne stéréoscopique complète qui produit des modèles numériques d’élévation à partir d’images satellitaires. Un modèle d’évolution de paysage est présenté dans le sixième chapitre comme exemple d’application. Le modèle est utilisé pour simuler numériquement la structure fine du réseau hydrographique sur des modèles numériques d’élévation obtenus à partir d’images prises par Pléiades. Le code source de la chaîne S2P2 est distribué en tant que logiciel open source. Afin d’assurer la reproductibilité des résultats obtenus, les algorithmes implémentés dans S2P sont en cours de publication dans le journal IPOL, accompagnés de descriptions et d’analyses détaillées, de codes sources documentés et de démonstrateurs en ligne. / This thesis deals with the problem of computing accurate digital elevationmodels of the Earth's surface from optical images taken by pushbroomobservation satellites. It takes advantage of the collaboration of thedefendant with CNES (the French Space Agency) on the development ofstereo vision tools for Pléiades, the first Earth observation satelliteproducing quasi simultaneous stereo pairs or triplets with small baseline.The first chapter describes a simple pushbroom camera model for observationsatellites orbiting around the Earth and addresses the correction of theacquisition geometry by involving extrinsic information. This chapter proposesa new algorithm to refine the orientation parameters from a set of groundcontrol points, applicable to all pushbroom satellites.With the goal of testing for satellite imaging the thriving exploration ofstereo matching by the computer vision community, the second chapter exploresthe adaptation of the theory of epipolar resampling to pushbroom images.Epipolar resampling is traditionally used in stereo to reduce the matchingcomputational cost, and permits to test for satellite imaging the mostcompetitive computer vision algorithms. The third chapter discusses the effectsof geometric calibration inaccuracies and proposes a method to cancel itsimpact on stereo matching.The fourth chapter analyzes and describes a detailed implementation of theSemi-Global Matching (SGM) algorithm, which is currently among the top-rankedstereo vision algorithms. Based on a recently proposed interpretation of SGM asa min-sum Belief Propagation algorithm, a variant is proposed that allows toreduce by a factor five the energy gap of SGM with respect to referencealgorithms for Markov Random Fields with truncated smoothness terms.By wrapping together the algorithmic blocks described in the previous chapters,the fifth chapter describes S2P, a complete stereo pipeline for producingdigital elevation models from satellite images. As an application, a landscapeevolution model is presented in the sixth chapter. The model is used tosimulate numerically the fine structure of the river networks on digitalelevation models obtained from Pléiades Earth observation images.The source code of the S2P stereo pipeline is distributed as open source. Toensure reproducibility, the algorithms implemented in each step of the S2Ppipeline are submitted to the IPOL journal, with detailed descriptions of thealgorithms, documented source codes and online demonstrations for each block ofthe pipeline.
387

Human motion tracking from movie sequences

Nguyen, Nhat Tan 18 April 2018 (has links)
Cette thèse présente un ensemble d'outils ou cadre de développement (paradigme) pour suivre le mouvement de personnages humains dans les films. Beaucoup d'applications en forte demande, telle que la surveillance pour la sécurité ou l'interaction homme-machine, profiteraient d'un système qui pourrait détecter et suivre automatiquement des humains. L'exécution de séquences de film réelles pose un défi particulier compte tenu de la non-rigidité du mouvement du corps humains, ainsi que l'influence qu'ont plusieurs facteurs sur son apparence. Parmi eux se trouvrent la différence dans la gamme de conditions d'acquisition, la variation de l'environnement et de l'illumination, le mouvement de caméra et le peu de connaissances a priori dans le positionnement de la caméra. En tant que complément à l'analyse du mouvement humain, ce système vise à aider son utilisateur à détecter de façon automatique le mouvement de la caméra, à diviser la séquence de film en petits segments appelés "prises de vue" et à extraire des informations du mouvement humain en présence d'un arrière-scène complexe. Pour atteindre cet objectif, une estimation précise du flux optique est employée. Un processus d'image par image peut identifier six différents mouvements de la caméra, incluant une camera statique, en utilisant des gabarits prédéterminés. Il peut ensuite fournir une base de données de mouvements de caméra pour la séquence du film. Ces données sont très utiles pour l'annotation, l'indexage et la recherche de séquences vidéos. De plus, une Mixture de Gaussiennes (MoG) dotée d'un espace de couleur RGB normalisé est utilisée pour soustraire un arrière-scène statique, qui permet d'éviter les effets d'ombres. Lors d'un mouvement de caméra, nous optons pour une technique appelée "codage de couleur" pour convertir les champs de vecteurs de mouvement en image colorée et appliquer la soustraction d'arrière-plan conventionnelle à cette image de flux optique de couleurs. Ceci dit, un système de suivi multicouches déployé dans deux directions (d'ordre chronologique et d'ordre anti-chronologique) est aussi décrit dans la thèse. Finalement, l'évaluation de la performance du système est réalisée sur plusieurs séquences extraites des films réels. Les séquences ont été entièrement analysées indépendamment par un observateur humain pour fournir une base de référence réelle sur les mouvements de caméra aussi bien que sur le mouvement humain dans les séquences vidéos. La comparaison entre les résultats et la base de référence indique une performance très prometteuse des approches proposées tant par l'analyse de films que par les applications de surveillance.
388

Algorithmes évolutionnaires appliqués à la reconnaissance des formes et à la conception optique

Gagné, Christian 11 April 2018 (has links)
Les algorithmes évolutionnaires (AE) constituent une famille d’algorithmes inspirés de l’évolution naturelle. Ces algorithmes sont particulièrement utiles pour la résolution de problèmes où les algorithmes classiques d’optimisation, d’apprentissage ou de conception automatique sont incapables de produire des résultats satisfaisants. On propose dans cette thèse une approche méthodologique pour le développement de systèmes intelligents basés sur les AE. Cette approche méthodologique repose sur cinq principes : 1) utiliser des algorithmes et des représentations adaptés au problème ; 2) développer des hybrides entre des AE et des heuristiques du domaine d’application ; 3) tirer profit de l’optimisation évolutionnaire à plusieurs objectifs ; 4) faire de la co-évolution pour résoudre simultanément plusieurs sous-problèmes d’une application ou favoriser la robustesse ; et 5) utiliser un outil logiciel générique pour le développement rapide d’AE non conventionnels. Cette approche méthodologique est illustrée par quatre applications des AE à des problèmes difficiles. De plus, le cinquième principe est appuyé par l’étude sur la généricité dans les outils logiciels d’AE. Le développement d’applications complexes avec les AE exige l’utilisation d’un outil logiciel générique. Six critères sont proposés ici pour évaluer la généricité des outils d’AE. De nombreux outils logiciels d’AE sont disponibles dans la communauté, mais peu d’entre eux peuvent être véritablement qualifiés de génériques. En effet, une évaluation de quelques outils relativement populaires nous indique que seulement trois satisfont pleinement à tous ces critères, dont la framework d’AE Open BEAGLE, développée durant le doctorat. Open BEAGLE est organisé en trois couches logicielles principales, avec à la base les fondations orientées objet, sur lesquelles s’ajoute une framework gén érique comprenant les mécanismes généraux de l’outil, ainsi que plusieurs frameworks spécialisées qui implantent différentes saveurs d’AE. L’outil comporte également deux extensions servant à distribuer des calculs sur plusieurs ordinateurs et à visualiser des résultats. Ensuite, trois applications illustrent différentes approches d’utilisation des AE dans un contexte de reconnaissance des formes. Premièrement, on optimise des classifieurs basés sur la règle du plus proche voisin avec la sélection de prototypes par un algorithme génétique, simultanément à la construction de mesures de voisinage par programmation génétique (PG). À cette co-évolution coopérative à deux espèces, on ajoute la co-évolution compétitive d’une troisième espèce pour la sélection de données de test, afin d’améliorer la capacité de généralisation des solutions. La deuxième application consiste en l’ingénierie de représentations par PG pour la reconnaissance de caractères manuscrits. Cette ingénierie évolutionnaire s’effectue par un positionnement automatique de régions dans la fenêtre d’attention jumelé à la sélection d’ensembles flous pour l’extraction de caractéristiques. Cette application permet d’automatiser la recherche de représentations de caractères, opération généralement effectuée par des experts humains suite à un processus d’essais et erreurs. Pour la troisième application en reconnaissance des formes, on propose un système extensible pour la combinaison hiérarchique de classifieurs dans un arbre de décision flou. Dans ce système, la topologie des arbres est évoluée par PG alors que les paramètres numériques des unités de classement sont détermin és par des techniques d’apprentissage spécialisées. Le système est testé avec trois types simples d’unités de classement. Pour toutes ces applications en reconnaissance des formes, on utilise une mesure d’adéquation à deux objectifs afin de minimiser les erreurs de classement et la complexité des solutions. Une dernière application démontre l’efficacité des AE pour la conception de syst` emes de lentilles. On utilise des stratégies d’évolution auto-adaptatives hybridées avec une technique d’optimisation locale spécialisée pour la résolution de deux problèmes complexes de conception optique. Dans les deux cas, on démontre que les AE hybrides sont capables de générer des résultats comparables ou supérieurs à ceux produits par des experts humains. Ces résultats sont prometteurs dans la perspective d’une automatisation plus poussée de la conception optique. On présente également une expérience supplémentaire avec une mesure à deux objectifs servant à maximiser la qualité de l’image et à minimiser le coût du système de lentilles. / Evolutionary Algorithms (EA) encompass a family of robust search algorithms loosely inspired by natural evolution. These algorithms are particularly useful to solve problems for which classical algorithms of optimization, learning, or automatic design cannot produce good results. In this thesis, we propose a common methodological approach for the development of EA-based intelligent systems. This methodological approach is based on five principles : 1) to use algorithms and representations that are problem specific ; 2) to develop hybrids between EA and heuristics from the application field ; 3) to take advantage of multi-objective evolutionary optimization ; 4) to do co-evolution for the simultaneous resolution of several sub-problems of a common application and for promoting robustness ; and 5) to use generic software tools for rapid development of unconventional EA. This methodological approach is illustrated on four applications of EA to hard problems. Moreover, the fifth principle is explained in the study on genericity of EA software tools. The application of EA to complex problems requires the use of generic software tool, for which we propose six genericity criteria. Many EA software tools are available in the community, but only a few are really generic. Indeed, an evaluation of some popular tools tells us that only three respect all these criteria, of which the framework Open BEAGLE, developed during the Ph.D. Open BEAGLE is organized into three main software layers. The basic layer is made of the object oriented foundations, over which there is the generic framework layer, consisting of the general mechanisms of the tool, and then the final layer, containing several specialized frameworks implementing different EA flavors. The tool also includes two extensions, respectively to distribute the computations over many computers and to visualize results. Three applications illustrate different approaches for using EA in the context of pattern recognition. First, nearest neighbor classifiers are optimized, with the prototype selection using a genetic algorithm simultaneously to the Genetic Programming (GP) of neighborhood metrics. We add to this cooperative two species co-evolution a third coevolving competitive species for selecting test data in order to improve the generalization capability of solutions. A second application consists in designing representations with GP for handwritten character recognition. This evolutionary engineering is conducted with an automatic positioning of regions in a window of attention, combined with the selection of fuzzy sets for feature extraction. This application is used to automate character representation search, which is usually conducted by human experts with a trial and error process. For the third application in pattern recognition, we propose an extensible system for the hierarchical combination of classifiers into a fuzzy decision tree. In this system, the tree topology is evolved with GP while the numerical parameters of classification units are determined by specialized learning techniques. The system is tested with three simple types of classification units. All of these applications in pattern recognition have been implemented using a two-objective fitness measure in order to minimize classification errors and solutions complexity. The last application demonstrate the efficiency of EA for lens system design. Selfadaptative evolution strategies, hybridized with a specialized local optimisation technique, are used to solve two complex optical design problems. In both cases, the experiments demonstrate that hybridized EA are able to produce results that are comparable or better than those obtained by human experts. These results are encouraging from the standpoint of a fully automated optical design process. An additional experiment is also conducted with a two-objectives fitness measure that tries to maximize image quality while minimizing lens system cost.
389

Approches spectro-spatiales pour la classification d'images hyperspectrales

Tarabalka, Yuliya 14 June 2010 (has links) (PDF)
L'imagerie hyperspectrale enregistre un spectre detaillé de la lumière reçue dans chaque position spatiale de l'image. Comme des matières différentes manifestent des signatures spectrales différentes, l'imagerie hyperspectrale est une technologie bien adaptée pour la classification précise des images, ce qui est une tâche importante dans beaucoup de domaines appliqués. Cependant, la grande dimension des données complique l'analyse des images. La plupart des techniques de classification proposées précédemment traitent chaque pixel indépendamment, sans considérer l'information sur les structures spatiales. Cependant, la recherche récente en traitement d'images a souligné l'importance de l'incorporation du contexte spatial dans les classifieurs. Dans cette thèse, nous proposons et développons des nouvelles méthodes et algorithmes spectro-spatiaux pour la classification précise des données hyperspectrales. D'abord, l'intégration de la technique des Machines à Vecteurs de Support (SVM) dans le cadre des Champs Aléatoires de Markov (MRFs) pour la classification contextuelle est étudiée. Les SVM et les modèles markoviens sont les deux outils efficaces pour la classification des données de grande dimension et pour l'analyse contextuelle d'images, respectivement. Dans un second temps, nous avons proposé des méthodes de classification qui utilisent des voisinages spatiaux adaptatifs dérivés des résultats d'une segmentation. Nous avons étudié différentes techniques de segmentation et nous les avons adaptées pour le traitement des images hyperspectrales. Ensuite, nous avons développé des approches pour combiner les régions spatiales avec l'information spectrale dans un classifieur. Nous avons aussi étudié des techniques pour réduire la sur-segmentation en utilisant des marqueurs des structures spatiales d'intérêt afin d'effectuer la segmentation par marqueurs. Notre proposition est d'analyser les résultats de la classification probabiliste afin de sélectionner les pixels les plus fiablement classés comme des marqueurs des régions spatiales. Nous avons proposé plusieurs méthods pour la sélection des marqueurs, qui utilisent soit des classifieurs individuels, soit un ensemble de classifieurs. Ensuite, nous avons développé des techniques pour la segmentation par croissance de régions issues des marqueurs, en utilisant soit la ligne de partage d'eaux, soit une forêt couvrante de poids minimal, qui ont pour résultat les cartes de segmentation et de classification contextuelle. Finalement, nous considerons les possibilités du calcul parallèle à haute performance sur les processeurs d'un usage commode afin de réduire la charge du calcul. Les nouvelles méthodes développées dans cette thèse améliorent les résultats de classification par rapport aux méthodes proposées précédemment, et ainsi montrent un grand potentiel pour les différents scénarios de l'analyse d'image.
390

Image processing methods for dynamical intracellular processes analysis in quantitative fluorescence microscopy / Méthodes numériques pour l’analyse de processus intracellulaires dynamiques en microscopie quantitative

Roudot, Philippe 22 May 2014 (has links)
Nous présentons dans la première partie du document une étude portant sur l'imagerie de temps de vie de fluorescence sur structures dynamiques dans le domaine de fréquence (FD FLIM). Une mesure en FD FLIM est définie par une série d'images présentant une variation d'intensité sinusoïdale. La variation d'un temps de vie se traduit par une variation dans la phase de la sinusoïde décrite par l'intensité. Notre étude comporte deux contributions principales: une modélisation du processus de formation de l'image et du bruit inhérent au système d'acquisition (capteur ICCD) ; une méthode robuste d'estimation du temps vie sur des structures mobiles et des vésicules intracellulaires. Nous présentons ensuite une étude en microscopie de fluorescence portant sur la quantification du transport hétérogène dans un environnement intracellulaire dense. Les transitions entre la diffusion Brownienne dans le cytoplasme et les transports actifs supportés par le cytosquelette sont en effet des scénarios très couramment observés dans des cellules vivantes. Nous montrons que les algorithmes classiques de suivi d'objets nécessaires dans ce contexte, ne sont pas conçus pour détecter les transitions entre ces deux types de mouvement. Nous proposons donc un nouvel algorithme, inspiré de l'algorithme u-track [Jaqaman et al., 2008], qui s'appuie sur plusieurs filtrages de Kalman adaptés à différents types de transport (Brownien, Dirigé ...), indépendamment pour chaque objet suivi. Nous illustrons sur séquences simulées et expérimentales (vimentine, virus) l'aptitude de notre algorithme à détecter des mouvements dirigés rares. / We propose in this manuscript a study of the instrumentation required for the quantification in frequency domain fluorescence lifetime imaging microscopy (FD FLIM). A FD FLIM measurement is defined as a series of images with sinusoidal intensity variations. The fluorescence lifetime is defined as the nanosecond-scale delay between excitation and emission of fluorescence. We propose two main contributions in the area: a modeling of the image process and noise introduced by the acquisition system (ICCD sensor); a robust statistical method for lifetime estimation on moving structures and intracellular vesicles. The second part presents a contribution to the tracking of multiple particles presenting heterogeneous transports in dense conditions. We focus here on the switching between confined diffusion in the cytosol and motor-mediated active transport in random directions. We show that current multiple model filtering and gating strategies fail at estimating unpredictable transitions between Brownian and directed displacements. We propose a new algorithm, based on the u-track algorithm [Jaqaman et al., 2008], based on a set of Kalman filters adapted to several motion types, for each tracked object. The algorithm has been evaluated on simulated and real data (vimentin, virus) data. We show that our method outperforms competing methods in the targeted scenario, but also on more homogeneous types of dynamics challenged by density.

Page generated in 0.031 seconds