• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 76
  • 11
  • 2
  • Tagged with
  • 210
  • 90
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Contributions à l’apprentissage automatique pour l’analyse d’images cérébrales anatomiques / Contributions to statistical learning for structural neuroimaging data

Cuingnet, Rémi 29 March 2011 (has links)
L'analyse automatique de différences anatomiques en neuroimagerie a de nombreuses applications pour la compréhension et l'aide au diagnostic de pathologies neurologiques. Récemment, il y a eu un intérêt croissant pour les méthodes de classification telles que les machines à vecteurs supports pour dépasser les limites des méthodes univariées traditionnelles. Cette thèse a pour thème l'apprentissage automatique pour l'analyse de populations et la classification de patients en neuroimagerie. Nous avons tout d'abord comparé les performances de différentes stratégies de classification, dans le cadre de la maladie d'Alzheimer à partir d'images IRM anatomiques de 509 sujets de la base de données ADNI. Ces différentes stratégies prennent insuffisamment en compte la distribution spatiale des \textit{features}. C'est pourquoi nous proposons un cadre original de régularisation spatiale et anatomique des machines à vecteurs supports pour des données de neuroimagerie volumiques ou surfaciques, dans le formalisme de la régularisation laplacienne. Cette méthode a été appliquée à deux problématiques cliniques: la maladie d'Alzheimer et les accidents vasculaires cérébraux. L'évaluation montre que la méthode permet d'obtenir des résultats cohérents anatomiquement et donc plus facilement interprétables, tout en maintenant des taux de classification élevés. / Brain image analyses have widely relied on univariate voxel-wise methods. In such analyses, brain images are first spatially registered to a common stereotaxic space, and then mass univariate statistical tests are performed in each voxel to detect significant group differences. However, the sensitivity of theses approaches is limited when the differences involve a combination of different brain structures. Recently, there has been a growing interest in support vector machines methods to overcome the limits of these analyses.This thesis focuses on machine learning methods for population analysis and patient classification in neuroimaging. We first evaluated the performances of different classification strategies for the identification of patients with Alzheimer's disease based on T1-weighted MRI of 509 subjects from the ADNI database. However, these methods do not take full advantage of the spatial distribution of the features. As a consequence, the optimal margin hyperplane is often scattered and lacks spatial coherence, making its anatomical interpretation difficult. Therefore, we introduced a framework to spatially regularize support vector machines for brain image analysis based on Laplacian regularization operators. The proposed framework was then applied to the analysis of stroke and of Alzheimer's disease. The results demonstrated that the proposed classifier generates less-noisy and consequently more interpretable feature maps with no loss of classification performance.
122

Binary tomography reconstruction of bone microstructures from a limited number of projections / Reconstruction tomographique binaire de microstructures de l'os à partir d'un nombre limité de projections

Wang, Lin 08 June 2016 (has links)
La reconstruction en tomographie discrète de la microstructure de l’os joue un role très important pour le diagnostic de l’ostéoporse, une maladie des os très fréquente. Le diagnostic clinique est basé sur l’absortiométrie duale de rayons X. Avec la tomographie de rayons X, une résolution spatiale élevée avec des images reconstruites in vivo requiert une dose d’irradiation élevée et un temps de balayage long, ce qui est dangereux pour le patient. Une des méthodes pour résoudre ce problème est de limiter le nombre de projections. Cependant, avec cette méthode le problème de reconstruction devient mal posé. Deux types de régularisation par Variation Totale minimisées avec la méthode Alternate Direction of Minimization Method (ADMM) et deux schémas basés sur les méthodes de régularisation Level-set sont appliquées à deux images d’os expérimentales acquises avec un synchrotron (pixel size: 15 μm). Des images de tailles variées et avec différents niveaux de bruit Gaussien additifs ajoutés aux projections sont utlisées pour étudier l’efficacité des méthodes de régularisation. Des minima locaux sont obtenus avec ces méthodes déterministes. Une approche globale d’optimisation est nécessaire pour améliorer les résultats. Des perturbations stochastiques peuvent être un moyen très utile pour échapper aux minima locaux. Dans une première approche, une équation différentielle stochastique basée sur la régularisation level-set est étudiée. Cette méthode améliore les résultats de reconstruction mais ne modifie que les frontières entre les régions 0 et 1. Ensuite une équation aux dérivées partielles stochastique est obtenue avec la régularisation TV pour améliorer la méthode stochastique level-set. A la fin de notre travail, nous avons étendu la méthode de régularisation à des images 3D avec des données réelles. Cette algorithme a été implémenté avec RTK. Nous avons aussi étendu l’approche level-set utilisée pour la tomographie binaire au cas multi-level. / Discrete tomography reconstruction of bone microstructure is important in diagnosis of osteoporosis. One way to reduce the radiation dose and scanning time in CT imaging is to limit the number of projections. This method makes the reconstruction problem highly ill-posed. A common solution is to reconstruct only a finite number of intensity levels. In this work, we investigate only binary tomography reconstruction problem. First, we consider variational regularization methods. Two types of Total Variation (TV) regularization approaches minimized with the Alternate Direction of Minimization Method (ADMM) and two schemes based on Level-set (LS) regularization methods are applied to two experimental bone cross-section images acquired with synchrotron micro-CT. The numerical experiments have shown that good reconstruction results were obtained with TV regularization methods and that level-set regularization outperforms the TV regularization for large bone image with complex structures. Yet, for both methods, some reconstruction errors are still located on the boundaries and some regions are lost when the projection number is low. Local minima were obtained with these deterministic methods. Stochastic perturbations is a useful way to escape the local minima. As a first approach, a stochastic differential equation based on level-set regularization was studied. This method improves the reconstruction results but only modifies the boundaries between the 0 and 1 regions. Then partial stochastic differential equation obtained with the TV regularization semi-norm were studied to improve the stochastic level-set method. The random change of the boundary are performed in a new way with the gradient or wavelet decomposition of the reconstructed image. Random topological changes are included to find the lost regions in the reconstructed images. At the end of our work, we extended the TV regularization method to 3D images with real data on RTK (Reconstruction Toolkit). And we also extended the level-set to the multi-level cases.
123

Contributions au démélange non-supervisé et non-linéaire de données hyperspectrales / Contributions to unsupervised and nonlinear unmixing of hyperspectral data

Ammanouil, Rita 13 October 2016 (has links)
Le démélange spectral est l’un des problèmes centraux pour l’exploitation des images hyperspectrales. En raison de la faible résolution spatiale des imageurs hyperspectraux en télédetection, la surface représentée par un pixel peut contenir plusieurs matériaux. Dans ce contexte, le démélange consiste à estimer les spectres purs (les end members) ainsi que leurs fractions (les abondances) pour chaque pixel de l’image. Le but de cette thèse estde proposer de nouveaux algorithmes de démélange qui visent à améliorer l’estimation des spectres purs et des abondances. En particulier, les algorithmes de démélange proposés s’inscrivent dans le cadre du démélange non-supervisé et non-linéaire. Dans un premier temps, on propose un algorithme de démelange non-supervisé dans lequel une régularisation favorisant la parcimonie des groupes est utilisée pour identifier les spectres purs parmi les observations. Une extension de ce premier algorithme permet de prendre en compte la présence du bruit parmi les observations choisies comme étant les plus pures. Dans un second temps, les connaissances a priori des ressemblances entre les spectres à l’échelle localeet non-locale ainsi que leurs positions dans l’image sont exploitées pour construire un graphe adapté à l’image. Ce graphe est ensuite incorporé dans le problème de démélange non supervisé par le biais d’une régularisation basée sur le Laplacian du graphe. Enfin, deux algorithmes de démélange non-linéaires sont proposés dans le cas supervisé. Les modèles de mélanges non-linéaires correspondants incorporent des fonctions à valeurs vectorielles appartenant à un espace de Hilbert à noyaux reproduisants. L’intérêt de ces fonctions par rapport aux fonctions à valeurs scalaires est qu’elles permettent d’incorporer un a priori sur la ressemblance entre les différentes fonctions. En particulier, un a priori spectral, dans un premier temps, et un a priori spatial, dans un second temps, sont incorporés pour améliorer la caractérisation du mélange non-linéaire. La validation expérimentale des modèles et des algorithmes proposés sur des données synthétiques et réelles montre une amélioration des performances par rapport aux méthodes de l’état de l’art. Cette amélioration se traduit par une meilleure erreur de reconstruction des données / Spectral unmixing has been an active field of research since the earliest days of hyperspectralremote sensing. It is concerned with the case where various materials are found inthe spatial extent of a pixel, resulting in a spectrum that is a mixture of the signatures ofthose materials. Unmixing then reduces to estimating the pure spectral signatures and theircorresponding proportions in every pixel. In the hyperspectral unmixing jargon, the puresignatures are known as the endmembers and their proportions as the abundances. Thisthesis focuses on spectral unmixing of remotely sensed hyperspectral data. In particular,it is aimed at improving the accuracy of the extraction of compositional information fromhyperspectral data. This is done through the development of new unmixing techniques intwo main contexts, namely in the unsupervised and nonlinear case. In particular, we proposea new technique for blind unmixing, we incorporate spatial information in (linear and nonlinear)unmixing, and we finally propose a new nonlinear mixing model. More precisely, first,an unsupervised unmixing approach based on collaborative sparse regularization is proposedwhere the library of endmembers candidates is built from the observations themselves. Thisapproach is then extended in order to take into account the presence of noise among theendmembers candidates. Second, within the unsupervised unmixing framework, two graphbasedregularizations are used in order to incorporate prior local and nonlocal contextualinformation. Next, within a supervised nonlinear unmixing framework, a new nonlinearmixing model based on vector-valued functions in reproducing kernel Hilbert space (RKHS)is proposed. The aforementioned model allows to consider different nonlinear functions atdifferent bands, regularize the discrepancies between these functions, and account for neighboringnonlinear contributions. Finally, the vector-valued kernel framework is used in orderto promote spatial smoothness of the nonlinear part in a kernel-based nonlinear mixingmodel. Simulations on synthetic and real data show the effectiveness of all the proposedtechniques
124

PatchUp : a feature-space block-level regularization technique for convolutional neural networks

Faramarzi, Mojtaba 07 1900 (has links)
Les modèles d’apprentissage profond à large capacité ont souvent tendance à présenter de hauts écarts de généralisation lorsqu’ils sont entrainés avec une quantité limitée de données étiquetées. Dans ce cas, des réseaux de neurones très profonds et larges auront tendance à mémoriser les échantillons de données et donc ils risquent d’être vulnérables lors d’un léger décalage dans la distribution des données au moment de tester. Ce problème produit une généralisation pauvre lors de changements dans la répartition des données au moment du test. Pour surmonter ce problème, certaines méthodes basées sur la dépendance et l’indépendance de données ont été proposées. Une récente classe de méthodes efficaces pour aborder ce problème utilise plusieurs manières de contruire un nouvel échantillon d’entrainement, en mixant une paire (ou plusieurs) échantillons d’entrainement. Dans cette thèse, nous introduisons PatchUp, une régularisation de l’espace des caractéristiques au niveau des blocs dépendant des données qui opère dans l’espace caché en masquant des blocs contigus parmi les caractéristiques mappées, sélectionnés parmi une paire aléatoire d’échantillons, puis en mixant (Soft PatchUp) ou en échangeant (Hard PatchUp) les blocs contigus sélectionnés. Notre méthode de régularisation n’ajoute pas de surcharge de calcul significative au CNN pendant l’entrainement du modèle. Notre approche améliore la robustesse des modèles CNN face au problème d’intrusion du collecteur qui pourrait apparaitre dans d’autres approches de mixage telles que Mixup et CutMix. De plus, vu que nous mixons des blocs contigus de caractéristiques dans l’espace caché, qui a plus de dimensions que l’espace d’entrée, nous obtenons des échantillons plus diversifiés pour entrainer vers différentes dimensions. Nos expériences sur les ensembles de données CIFAR-10, CIFAR-100, SVHN et Tiny-ImageNet avec des architectures ResNet telles que PreActResnet18, PreActResnet34, WideResnet-28-10, ResNet101 et ResNet152 montrent que PatchUp dépasse ou égalise les performances de méthodes de régularisation pour CNN considérée comme état de l’art actuel. Nous montrons aussi que PatchUp peut fournir une meilleure généralisation pour des transformations affines d’échantillons et est plus robuste face à des attaques d’exemples contradictoires. PatchUp aide aussi les modèles CNN à produire une plus grande variété de caractéristiques dans les blocs résiduels en comparaison avec les méthodes de pointe de régularisation pour CNN telles que Mixup, Cutout, CutMix, ManifoldMixup et Puzzle Mix. Mots clés: Apprentissage en profondeur, Réseau Neuronal Convolutif, Généralisation,Régularisation, Techniques de régularisation dépendantes et indépendantes des données, Robustesse aux attaques adverses. / Large capacity deep learning models are often prone to a high generalization gap when trained with a limited amount of labeled training data. And, in this case, very deep and wide networks have a tendency to memorize the samples, and therefore they might be vulnerable under a slight distribution shift at testing time. This problem yields poor generalization for data outside of the training data distribution. To overcome this issue some data-dependent and data-independent methods have been proposed. A recent class of successful methods to address this problem uses various ways to construct a new training sample by mixing a pair (or more) of training samples. In this thesis, we introduce PatchUp, a feature-space block-level data-dependent regularization that operates in the hidden space by masking out contiguous blocks of the feature map of a random pair of samples, and then either mixes (Soft PatchUp) or swaps (Hard PatchUp) these selected contiguous blocks. Our regularization method does not incur significant computational overhead for CNNs during training. Our approach improves the robustness of CNN models against the manifold intrusion problem that may occur in other state-of-the-art mixing approaches like Mixup and CutMix. Moreover, since we are mixing the contiguous block of features in the hidden space, which has more dimensions than the input space, we obtain more diverse samples for training towards different dimensions. Our experiments on CIFAR-10, CIFAR-100, SVHN, and Tiny-ImageNet datasets using ResNet architectures including PreActResnet18, PreActResnet34, WideResnet-28-10, ResNet101, and ResNet152 models show that PatchUp improves upon, or equals, the performance of current state-of-the-art regularizers for CNNs. We also show that PatchUp can provide a better generalization to affine transformations of samples and is more robust against adversarial attacks. PatchUp also helps a CNN model to produce a wider variety of features in the residual blocks compared to other state-of-the-art regularization methods for CNNs such as Mixup, Cutout, CutMix, ManifoldMixup, and Puzzle Mix. Key words: Deep Learning, Convolutional Neural Network, Generalization, Regular-ization, Data-dependent and Data-independent Regularization Techniques, Robustness to Adversarial Attacks.
125

Étude des conditions d'extinction d'un système prédateur-proie généralisé avec récolte contrôlée

Courtois, Julien 09 1900 (has links)
Dans ce mémoire, nous étudions un système prédateur-proie de Gause généralisé avec une récolte de proie contrôlée et une fonction de réponse de Holling de type III généralisée. Nous introduisons une fonction de récolte contrôlée sur les proies tenant compte du nombre de proies et dépendant d'un seuil de récolte. Ceci permet de rendre le système réaliste, d'optimiser la récolte, et de prévenir la possibilité d'extinction des espèces que le système avec récolte constante pouvait avoir pour toutes valeurs de paramètres. Ce type de fonction de récolte implique a priori la manipulation d'un système discontinu: nous étudions donc des techniques de lissage de ces discontinuités par régularisation. Nous faisons d'abord un retour sur les systèmes sans et avec récolte de proie constante en traçant les diagrammes de bifurcations exacts et les portraits de phase de ces systèmes. Ensuite, nous étudions le système discontinu et les méthodes de régularisation afin de choisir la plus optimale. Finalement, nous assemblons le tout avec l'étude du système avec récolte de proie régularisé, en passant par l'étude complète du système avec approvisionnement de proie, et donnons les différents effets sur les portraits de phase selon les conditions initiales. / In this master thesis, we study a generalized Gause predator-prey system with controlled prey harvest and a generalized Holling response function of type III. We introduce a controlled prey harvesting function taking into account the number of preys with a harvesting threshold. This makes the system realistic, it optimizes the harvesting, and it prevents the possibility of species' extinction which exists in the system with constant harvest for all parameters. This type of harvesting function a priori implies handling a discontinuous system : therefore we study smoothing techniques of such discontinuities by regularization. We first return on systems without and with constant harvest by drawing the exact bifurcation diagrams and phase portraits of those systems. Then, we study the discontinuous system and the regularization methods in order to choose the optimal one. Finally, we put together everything by studying the regularized prey harvesting system through a complete study of the prey stocking system, and we highlight the different effects on the phase portraits under the initial conditions.
126

Imagerie par susceptibilité magnétique appliquée aux seins

Rochon-Coutu, Sébastien 12 1900 (has links)
Le manuscrit suivant porte sur le développement d’une méthodologie de cartographie de la susceptibilité magnétique. Cette méthodologie a été appliquée au niveau des seins à des fins de détection de microcalcifications. Afin de valider ces algorithmes, un fantôme numérique ainsi qu’un fantôme réel ont été créés. À l’aide de ces images, les paramètres modifiables de notre méthodologie ont été ajustés. Par la suite, les problèmes reliés à l’imagerie du sein ont été explorés, tel la présence de gras ainsi que la proximité des poumons. Finalement, des images in vivo, acquises à 1.5 et 7.0 Tesla ont été analysées par notre méthodologie. Sur ces images 1.5T, nous avons réussi à observer la présence de microcalcifications. D’un autre côté, les images 7.0T nous ont permis de présenter un meilleur contraste que les images standards de magnitude. / The following manuscript is about the development of a methodology called quantitative susceptibility mapping. This methodology was applied to the breast with the purpose of detecting microcalcifications. To validate these algorithms, a digital phantom and a water phantom were created. Using these images, adjustable parameters were adjusted on our methodology. Thereafter, problems related to breast imaging, like the presence of fat and the proximity of the lungs, were explored. Finally, in vivo images, acquired at 1.5 and 7.0 Tesla were analyzed by our methodology. On these 1.5T images, we successfully observed the presence of microcalcifications. On the other hand, the 7.0T images allowed us to provide a better contrast than the standard magnitude images.
127

Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse.

Kudawoo, Ayaovi Dzifa 22 November 2012 (has links)
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés.Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de « Lagrangien stabilisé » initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de « Lagrangien augmenté ». Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée. / This work deals with computational contact mechanics between deformable solids. The aim of this work is to improve the performance, the reliability and the robustness of the algorithms and numerical models set in Code_Aster which is finite element code developped by Électricité De France (EDF) for its engineering needs. The proposed algorithms are used to solve high dimensional industrial problems in order to optimize the computational running times. Several solutions techniques are available in the field of computational contact mechanics but they must take into account the difficulties coming from non-smooth aspects due to Signorini-Coulomb laws coupled to large deformations of bodies and material non linearities. Firstly the augmented Lagrangian formulation so-called « stabilized Lagrangian » is introduced. Successively, the mathematical properties of the discrete operators are highlighted and furthermore a novel energetic function is presented. Secondly the kinematical condition with regard to the normal unknowns are reinforced through unconstrained optimization techniques which result to a novel formulation which is so-called « non standard augmented Lagrangian formulation ». Three types of strategies are implemented in the code. The generalized Newton method is developped : it is a method in which all the non linearities are solved in one loop of iterations. The partial Newton method is an hybrid technique between the generalized Newton one and a fixed point method.
128

Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique / Speed up and regularization techniques for seismic full waveform inversion

Castellanos Lopez, Clara 18 April 2014 (has links)
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension. / Currently, the main limitation to perform 3D elastic full waveform inversion on a production level is the computational cost it represents. With this in mind, we provide two contributions. First, we develop a self adjoint formulation of the isotropic first order velocity-stress elastic equations that allow to implement only one forward modeling operator in the gradient computation. Second, we combine Newton and quasi-Newton optimization methods with source encoding techniques to see to what extent the computational cost could be further reduced. Finally, the optimization process associated to FWI is ill posed and requires regularization constraints. I show that the total variation of the model as a regularization term provides and adequate description of earth models, preserving the discontinuous character of the lithological layers. To improve the quality of the images, we propose a local total variation denoising algorithm based on the incorporation of the information provided by a migrated image.
129

Some aspects on sweeping processes / Quelques résultats sur les processus de rafle

Latreche, Wissam 10 July 2018 (has links)
Dans cette thèse, on s'intéresse à l'étude d'existence de solutions pour les processus de rafle. Ce problème prend la forme d'une inclusion différentielle contrainte avec des cônes normaux qui apparaissent naturellement dans nombreuses applications telles que le mouvement de foule, l'élastoplasticité, les mécaniques, les circuits électroniques, etc. L'objective de ce travail est de rapprocher deux importantes classes d'inclusions différentielles. D'une part, nous établissons quelques résultats d'existence de tube-solutions pour des processus de rafle à des ensembles uniformément prox-réguliers. D'autre part, nous présentons des résultats d'existence de solutions monotone par rapport à un préordre pour un système mixte d'inclusions différentielles projetées. De plus, nous montrons l'existence d'un point-selle pour notre système et nous fournissons deux exemples d'applications. / In this thesis, we were interested in the study of the existence of solutions for sweeping processes. This problem takes the form of a constrained differential inclusion involving normal cones which appears naturally in many applications such as crowd motion, elastoplasticity, mechanics, electrical circuit, etc.The aim of this work is to bring together two classes of differential inclusions. On one hand, we establish some existence results of solutions-tube for sweeping processes with uniformly prox-regular sets. On the other hand, we present existence results of monotone solutions with respect to a preorder for a mixed system of projected differential inclusions. In addition, we show that our system has a saddle-point and we provide two examples of applications.
130

Sélection de variables pour la classification non supervisée en grande dimension / Variable selection in model-based clustering for high-dimensional data

Meynet, Caroline 09 November 2012 (has links)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse. / This thesis deals with variable selection for clustering. This problem has become all the more challenging since the recent increase in high-dimensional data where the number of variables can largely exceeds the number of observations (DNA analysis, functional data clustering...). We propose a variable selection procedure for clustering suited to high-dimensional contexts. We consider clustering based on finite Gaussian mixture models in order to recast both the variable selection and the choice of the number of clusters into a global model selection problem. We use the variable selection property of l1-regularization to build a data-driven model collection in a efficient way. Our procedure differs from classical procedures using l1-regularization as regards the estimation of the mixture parameters: in each model of the collection, rather than considering the Lasso estimator, we calculate the maximum likelihood estimator. Then, we select one of these maximum likelihood estimators by a non-asymptotic penalized criterion. From a theoretical viewpoint, we establish a model selection theorem for maximum likelihood estimators in a density estimation framework with a random model collection. We apply it in our context to determine a convenient penalty shape for our criterion. From a practical viewpoint, we carry out simulations to validate our procedure, for instance in the functional data clustering framework. The basic idea of our procedure, which consists in variable selection by l1-regularization but estimation by maximum likelihood estimators, comes from theoretical results we establish in the first part of this thesis: we provide l1-oracle inequalities for the Lasso in the regression framework, which are valid with no assumption at all contrary to the usual l0-oracle inequalities in the literature, thus suggesting a gap between l1-regularization and l0-regularization.

Page generated in 0.1111 seconds