• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 26
  • 4
  • Tagged with
  • 64
  • 36
  • 25
  • 18
  • 15
  • 15
  • 14
  • 13
  • 11
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sparse and discriminative clustering for complex data : application to cytology / Classification non supervisée discriminante et parcimonieuse pour des données complexes : une application à la cytologie

Brunet, Camille 01 December 2011 (has links)
Les thèmes principaux de ce mémoire sont la parcimonie et la discrimination pour la modélisation de données complexes. Dans un première partie de ce mémoire, nous nous plaçons dans un contexte de modèle de mélanges gaussiens: nous introduisons une nouvelle famille de modèles probabilistes qui simultanément classent et trouvent un espace discriminant tel que cet espace discrimine au mieux les groupes. Une famille de 12 modèles est introduite et se base sur deux idées clefs: tout d'abord, les données réelles vivent dans un sous-espace latent de dimension intrinsèque plus petite que celle de l'espace observé; deuxièmement, un sous-espace de dimensions K-1 est suffisant pour discriminer K groupes; enfin, l'espace observé et celui latent sont liés par une transformation linéaire. Une procédure d'estimation, appelée Fisher-EM, est proposée et améliore la plupart du temps les performances de clustering grâce à l'utilisation du sous-espace discriminant. Puisque chaque axe engendrant le sous-espace discriminant est une combinaison linéaire des variables d'origine, nous avons proposé trois méthodes différentes basées sur des critères pénalisés afin de faciliter l'interprétation des résultats. En particulier, ces méthodes permettent d'introduire de la parcimonie directement dans les composantes de la matrice de projection et peut se traduite comme une étape de sélection de variables discriminantes pour la classification. Dans une seconde partie, nous nous plaçons dans le contexte de la sériation. Nous proposons une mesure de dissimilarités basée sur le voisinage commun qui permet d'introduire de la parcimonie dans les données. Une procédure algorithmique appelée l'algorithme PB-Clus est introduite et permet d'obtenir une représentation diagonale par blocs des données. Cet outil permet de révéler la structure intrinsèque des données même dans le cas de données fortement bruitées ou de recouvrement de groupes. Ces deux méthodes ont été validées dans le cadre d'une application biologique basée sur la détection de cellules cancéreuses. / The main topics of this manuscript are sparsity and discrimination for modeling complex data. In a first part, we focus on the GMM context: we introduce a new family of probabilistic models which both clusters and finds a discriminative subspace chosen such as it best discriminates the groups. A family of 12 DLM models is introduced and is based on two three-ideas: firstly, the actual data live in a latent subspace with an intrinsic dimension lower than the dimension of the observed space; secondly, a subspace of K-1 dimensions is theoretically sufficient to discriminate K groups; thirdly, the observation and the latent spaces are linked by a linear transformation. An estimation procedure, named Fisher-EM is proposed and improves, most of the time, clustering performances owing to the use of a discriminative subspace. As each axis, spanning the discriminative subspace, is a linear combination of all original variables, we therefore proposed 3 different methods based on a penalized criterion in order to ease the interpretation results. In particular, it allows to introduce sparsity directly in the loadings of the projection matrix which enables also to make variable selection for clustering. In a second part, we deal with the seriation context. We propose a dissimilarity measure based on a common neighborhood which allows to deal with noisy data and overlapping groups. A forward stepwise seriation algorithm, called the PB-Clus algorithm, is introduced and allows to obtain a block representation form of the data. This tool enables to reveal the intrinsic structure of data even in the case of noisy data, outliers, overlapping and non-Gaussian groups. Both methods has been validated on a biological application based on the cancer cell detection.
2

Estimation parcimonieuse de biais multitrajets pour les systèmes GNSS

Lesouple, Julien 15 March 2019 (has links) (PDF)
L’évolution des technologies électroniques (miniaturisation, diminution des coûts) a permis aux GNSS (systèmes de navigation par satellites) d’être de plus en plus accessibles et doncutilisés au quotidien, par exemple par le biais d’un smartphone, ou de récepteurs disponibles dans le commerce à des prix raisonnables (récepteurs bas-coûts). Ces récepteurs fournissent à l’utilisateur plusieurs informations, comme par exemple sa position et sa vitesse, ainsi que des mesures des temps de propagation entre le récepteur et les satellites visibles entre autres. Ces récepteurs sont donc devenus très répandus pour les utilisateurs souhaitant évaluer des techniques de positionnement sans développer tout le hardware nécessaire. Les signaux issus des satellites GNSS sont perturbés par de nombreuses sources d’erreurs entre le moment où ils sont traités par le récepteurs pour estimer la mesure correspondante. Il est donc nécessaire decompenser chacune des ces erreurs afin de fournir à l’utilisateur la meilleure position possible. Une des sources d’erreurs recevant beaucoup d’intérêt, est le phénomène de réflexion des différents signaux sur les éventuels obstacles de la scène dans laquelle se trouve l’utilisateur, appelé multitrajets. L’objectif de cette thèse est de proposer des algorithmes permettant de limiter l’effet des multitrajets sur les mesures GNSS. La première idée développée dans cette thèse est de supposer que ces signaux multitrajets donnent naissance à des biais additifs parcimonieux. Cette hypothèse de parcimonie permet d’estimer ces biais à l’aide de méthodes efficaces comme le problème LASSO. Plusieurs variantes ont été développés autour de cette hypothèse visant à contraindre le nombre de satellites ne souffrant pas de multitrajet comme non nul. La deuxième idée explorée dans cette thèse est une technique d’estimation des erreurs de mesure GNSS à partir d’une solution de référence, qui suppose que les erreurs dues aux multitrajets peuvent se modéliser à l’aide de mélanges de Gaussiennes ou de modèles de Markov cachés. Deux méthodes de positionnement adaptées à ces modèles sont étudiées pour la navigation GNSS.
3

Approximations non-linéaires pour l'analyse de signaux sonores

Gribonval, Rémi 07 September 1999 (has links) (PDF)
La classification de signaux en grande dimension rend nécessaire la sélection d'un petit nombre de structures caractéristiques pour représenter chaque signal. Les approximations non-linéaires donnent lieu à des représentations concises, parce qu'elles s'adaptent à la structure de chaque signal analysé. Leur emploi est prometteur. Une première partie du travail du thèse définit des représentations adaptatives rapides de signaux comme combinaisons linéaires d'atomes extraits d'un dictionnaire de vecteurs. A partir de l'algorithme de Matching Pursuit, plusieurs méthodes itératives sont proposées pour mettre en lumière les structures caractéristiques des signaux sonores. Le Matching Pursuit Harmonique décompose un signal en composantes harmoniques élémentaires. Le Matching Pursuit "Chirpé" extrait les variations de fréquence instantanée en tirant parti d'une analyse fine des crêtes du dictionnaire de Gabor multi-échelle. Les approximations fournies par le Matching Pursuit Haute-résolution préservent les transitoires des signaux analysés, en imposant des contraintes de résolution temporelle. Nous accélérons ces techniques en employant des sous-dictionnaires de maxima locaux. Notre travail est consacré dans un second temps à l'étude de l'"Analyse Discriminante Non-linéaire". Pour classifier des signaux, les méthodes d'Analyse Discriminante Linéaire réduisent la dimension en les projetant sur un sous-espace pré-déterminé. Une projection adaptative, en fonction du signal analysé, extrait de celui-ci des caractéristiques qui lui sont propres. Celles-ci le distinguent et permettent de le classifier efficacement. Nous déterminons la stratégie optimale de projection adaptative pour la classification de bruits gaussiens colorés. Afin de classifier des transitoires, nous explorons enfin une méthode utilisant les maxima du module de la transformée en ondelettes et des arbres de décision. Cette approche permet de surmonter les difficultés liées à l'invariance par translation des signaux à classifier.
4

Apprentissage d'arbres de convolutions pour la représentation parcimonieuse / Convolution tree learning for sparse representation

Chabiron, Olivier 08 October 2015 (has links)
Le domaine de l'apprentissage de dictionnaire est le sujet d'attentions croissantes durant cette dernière décennie. L'apprentissage de dictionnaire est une approche adaptative de la représentation parcimonieuse de données. Les méthodes qui constituent l'état de l'art en DL donnent d'excellentes performances en approximation et débruitage. Cependant, la complexité calculatoire associée à ces méthodes restreint leur utilisation à de toutes petites images ou "patchs". Par conséquent, il n'est pas possible d'utiliser l'apprentissage de dictionnaire pour des applications impliquant de grandes images, telles que des images de télédétection. Dans cette thèse, nous proposons et étudions un modèle original d'apprentissage de dictionnaire, combinant une méthode de décomposition des images par convolution et des structures d'arbres de convolution pour les dictionnaires. Ce modèle a pour but de fournir des algorithmes efficaces pour traiter de grandes images, sans les décomposer en patchs. Dans la première partie, nous étudions comment optimiser une composition de convolutions de noyaux parcimonieux, un problème de factorisation matricielle non convexe. Ce modèle est alors utilisé pour construire des atomes de dictionnaire. Dans la seconde partie, nous proposons une structure de dictionnaire basée sur des arbres de convolution, ainsi qu'un algorithme de mise à jour de dictionnaire adapté à cette structure. Enfin, une étape de décomposition parcimonieuse est ajoutée à cet algorithme dans la dernière partie. À chaque étape de développement de la méthode, des expériences numériques donnent un aperçu de ses capacités d'approximation. / The dictionary learning problem has received increasing attention for the last ten years. DL is an adaptive approach for sparse data representation. Many state-of-the-art DL methods provide good performances for problems such as approximation, denoising and inverse problems. However, their numerical complexity restricts their use to small image patches. Thus, dictionary learning does not capture large features and is not a viable option for many applications handling large images, such as those encountered in remote sensing. In this thesis, we propose and study a new model for dictionary learning, combining convolutional sparse coding and dictionaries defined by convolutional tree structures. The aim of this model is to provide efficient algorithms for large images, avoiding the decomposition of these images into patches. In the first part, we study the optimization of a composition of convolutions with sparse kernels, to reach a target atom (such as a cosine, wavelet or curvelet). This is a non-convex matrix factorization problem. We propose a resolution method based on a Gaus-Seidel scheme, which produces good approximations of target atoms and whose complexity is linear with respect to the image size. Moreover, numerical experiments show that it is possible to find a global minimum. In the second part, we introduce a dictionary structure based on convolutional trees. We propose a dictionary update algorithm adapted to this structure and which complexity remains linear with respect to the image size. Finally, a sparse coding step is added to the algorithm in the last part. For each evolution of the proposed method, we illustrate its approximation abilities with numerical experiments.
5

Estimation parcimonieuse de biais multitrajets pour les systèmes GNSS / Sparse estimation of multipath biases for GNSS

Lesouple, Julien 15 March 2019 (has links)
L’évolution des technologies électroniques (miniaturisation, diminution des coûts) a permis aux GNSS (systèmes de navigation par satellites) d’être de plus en plus accessibles et doncutilisés au quotidien, par exemple par le biais d’un smartphone, ou de récepteurs disponibles dans le commerce à des prix raisonnables (récepteurs bas-coûts). Ces récepteurs fournissent à l’utilisateur plusieurs informations, comme par exemple sa position et sa vitesse, ainsi que des mesures des temps de propagation entre le récepteur et les satellites visibles entre autres. Ces récepteurs sont donc devenus très répandus pour les utilisateurs souhaitant évaluer des techniques de positionnement sans développer tout le hardware nécessaire. Les signaux issus des satellites GNSS sont perturbés par de nombreuses sources d’erreurs entre le moment où ils sont traités par le récepteurs pour estimer la mesure correspondante. Il est donc nécessaire decompenser chacune des ces erreurs afin de fournir à l’utilisateur la meilleure position possible. Une des sources d’erreurs recevant beaucoup d’intérêt, est le phénomène de réflexion des différents signaux sur les éventuels obstacles de la scène dans laquelle se trouve l’utilisateur, appelé multitrajets. L’objectif de cette thèse est de proposer des algorithmes permettant de limiter l’effet des multitrajets sur les mesures GNSS. La première idée développée dans cette thèse est de supposer que ces signaux multitrajets donnent naissance à des biais additifs parcimonieux. Cette hypothèse de parcimonie permet d’estimer ces biais à l’aide de méthodes efficaces comme le problème LASSO. Plusieurs variantes ont été développés autour de cette hypothèse visant à contraindre le nombre de satellites ne souffrant pas de multitrajet comme non nul. La deuxième idée explorée dans cette thèse est une technique d’estimation des erreurs de mesure GNSS à partir d’une solution de référence, qui suppose que les erreurs dues aux multitrajets peuvent se modéliser à l’aide de mélanges de Gaussiennes ou de modèles de Markov cachés. Deux méthodes de positionnement adaptées à ces modèles sont étudiées pour la navigation GNSS. / The evolution of electronic technologies (miniaturization, price decreasing) allowed Global Navigation Satellite Systems (GNSS) to be used in our everyday life, through a smartphone for instance, or through receivers available in the market at reasonable prices (low cost receivers). Those receivers provide the user with many information, such as his position or velocity, but also measurements such as propagation delays of the signals emitted by the satellites and processed by the receiver. These receivers are thus widespread for users who want to challenge positioning techniques without developing the whole product. GNSS signals are affected by many error sources between the moment they are emitted and the moment they are processed by the receiver to compute the measurements. It is then necessary to mitigate each of these error sources to provide the user the most accurate solution. One of the most intense research topic in navigation is the phenomenon of reflexions on the eventual obstacles in the scene the receiver is located in, called multipath. The aim of this thesis is to propose algorithms allowing the effects of multipath on GNSS measurements to be reduced. The first idea presented in this thesis is to assume these multipath lead to sparse additive biases. This hypothesis allows us to estimate this biases thanks to efficient methods such as the LASSO problem. The second idea explored in this thesis is an estimation method of GNSS measurement errors corresponding to the proposed navigation algorithm thanks to a reference trajectory, which assumes these errors can be modelled by Gaussian mixtures or Hidden Markov Models. Two filtering methods corresponding to these two models are studied for GNSS navigation.
6

Modélisation et conception préliminaire d'un séchoir solaire pour bois de pin avec stockage d'énergie

Luna Sanchez, David 10 July 2008 (has links) (PDF)
Une étude détaillée des séchoirs solaires existants dans le marché du bois, suivie d'une analyse selon les lois d'évolution des systèmes techniques, conduit à la proposition d'un concept innovant de séchoir avec stockage d'énergie. La conception particulière et innovante et la conduite du séchage par des variables de pilotage imposent une modélisation des diverses unités du système et des milieux extérieurs environnants. Des modèles de chaque unité sont ainsi construits. Ils intègrent nécessairement les variables de conception. Le séchage est décrit par le modèle classique de la courbe caractéristique. Les modèles des autres unités sont écrits de manière parcimonieuse afin de diminuer les temps de calcul. Ils sont également qualifiés en terme de parcimonie, exactitude, précision et spécialisation. Une vision intéressante du milieu extérieur « météorologie » est proposée en exploitant les données correspondant à la zone de l'aéroport de Mexico. Des essais de séchage de planches de pin maritime par léchage ont permis de modéliser la cinétique de séchage. Le modèle global du séchoir est obtenu par concaténation des modèles des différentes unités en intégrant des composants d'interaction (ventilateur et trappes) et via les variables de pilotage. Les résultats obtenus sont analysés en terme de temps de séchage, de qualité du bois et de temps de retour des investissements. Ils aboutissent à la définition de tables de conduite permettant la gestion de la qualité du bois. Le séchoir conçu lors de ces travaux est innovant, rentable et utilisable dans le domaine de séchage du bois au Mexique.
7

Localisation de sources par méthodes à haute résolution et par analyse parcimonieuse

Ma, Hua 24 June 2011 (has links) (PDF)
Cette thèse a pour but d'estimer la position et la puissance de sources sonores ponctuelles à l'aide d'une antenne acoustique. Nous nous intéressons d'abord à la directivité des antennes acoustiques pondérées. On montre qu'une telle antenne, appelée antenne conventionnelle, même si elle est à directivité optimale, est inutilisable pour localiser plusieurs sources sonores. Des traitements adaptatifs d'antenne sont donc exigés et les méthodes dites à haute résolution sont introduites. Elles sont basées sur l'estimation de la matrice de covariance des signaux issus des capteurs et présentent l'avantage de s'affranchir des limitations naturelles du traitement d'antenne conventionnel. Cependant, ces méthodes nécessitent l'emploi d'un modèle de propagation et sont donc par nature peu robustes aux erreurs de modèle, ce qui peut être parfois un handicap et dégrader leurs performances. Par la suite, nous présentons une nouvelle méthode de séparation des sources utilisant une représentation parcimonieuse des signaux. Nous montrons que ses performances sont meilleures que celles obtenues par les méthodes à haute résolution et notre algorithme parvient à une bonne résolution spatiale, même sous des conditions défavorables. Cette méthode est appliquée aux sources corrélées et décorrélées, à bande étroite et à large bande, en champ proche et en champ lointain. Pour finir, nous présentons des méthodes pour estimer la puissance des sources sonores. Des simulations numériques et des expérimentations en chambre anéchoïque sont effectuées afin de vérifier et de valider les analyses et les résultats théoriques
8

Études de Modèles Variationnels et Apprentissage de Dictionnaires

Zeng, Tieyong 09 October 2007 (has links) (PDF)
Ce mémoire porte sur l'utilisation de dictionnaires en analyse et restauration d'images numériques. Nous nous sommes intéressés aux différents aspects mathématiques et pratiques de ce genre de méthodes: modélisation, analyse de propriétés de la solution d'un modèle, analyse numérique, apprentissage du dictionnaire et expérimentation. Après le Chapitre 1, qui retrace les étapes les plus significatives de ce domaine, nous présentons dans le Chapitre 2 notre implémentation et les résultats que nous avons obtenus avec le modèle consistant à résoudre \begin{equation}\label{tv-inf} \left\{\begin{array}{l} \min_{w} TV(w), \\ \mbox{sous les contraintes } |\PS{w-v}{\psi}|\leq \tau, \forall \psi \in \DD \end{array}\right. \end{equation} pour $v\in\RRN$, une donnée initiale, $\tau>0$, $TV(\cdot)$ la variation totale et un dictionnaire {\em invariant par translation} $\DD$. Le dictionnaire est, en effet, construit comme toutes les translations d'un ensemble $\FF$ d'éléments de $\RRN$ (des caractéristiques ou des patchs). L'implémentation de ce modèle avec ce genre de dictionnaire est nouvelle. (Les auteurs avaient jusque là considéré des dictionnaires de paquets d'ondelettes ou de curvelets.) La souplesse de la construction du dictionnaire a permis de conduire plusieurs expériences dont les enseignements sont rapportés dans les Chapitre 2 et 3. Les expériences du Chapitre 2 confirment que, pour obtenir de bons résultats en débruitage avec le modèle ci-dessus, le dictionnaire doit bien représenter la courbure des textures. Ainsi, lorsque l'on utilise un dictionnaire de Gabor, il vaut mieux utiliser des filtres de Gabor dont le support est isotrope (ou presque isotrope). En effet, pour représenter la courbure d'une texture ayant une fréquence donnée et vivant sur un support $\Omega$, il faut que le support, en espace, des filtres de Gabor permette un ``pavage'' avec peu d'éléments du support $\Omega$. Dans la mesure o\`{u}, pour une classe générale d'images, le support $\Omega$ est indépendant de la fréquence de la texture, le plus raisonnable est bien de choisir des filtres de Gabor dont le support est isotrope. Ceci est un argument fort en faveur des paquets d'ondelettes, qui permettent en plus d'avoir plusieurs tailles de supports en espace (pour une fréquence donnée) et pour lesquelles \eqref{tv-inf} peut être résolu rapidement. Dans le Chapitre 3 nous présentons des expériences dans lesquels le dictionnaire contient les courbures de formes connues (des lettres). Le terme d'attache aux données du modèle \eqref{tv-inf} autorise l'apparition dans le résidu $w^*-v$ de toutes les structures, sauf des formes ayant servi à construire le dictionnaire. Ainsi, on s'attend à ce que les forment restent dans le résultat $w^*$ et que les autres structures en soient absente. Nos expériences portent sur un problème de séparation de sources et confirment cette impression. L'image de départ contient des lettres (connues) sur un fond très structuré (une image). Nous montrons qu'il est possible, avec \eqref{tv-inf}, d'obtenir une séparation raisonnable de ces structures. Enfin ce travail met bien en évidence que le dictionnaire $\DD$ doit contenir la {\em courbure} des éléments que l'on cherche à préserver et non pas les éléments eux-mêmes, comme on pourrait le penser na\"{\i}vement. Le Chapitre 4 présente un travail dans lequel nous avons cherché à faire collaborer la méthode K-SVD avec le modèle \eqref{tv-inf}. Notre idée de départ est d'utiliser le fait que quelques itérations de l'algorithme qu'il utilise pour résoudre \eqref{tv-inf} permettent de faire réapparaître des structures absentes de l'image servant à l'initialisation de l'algorithme (et dont la courbure est présente dans le dictionnaire). Nous appliquons donc quelques une de ces itérations au résultat de K-SVD et retrouvons bien les textures perdues. Ceci permet un gain visuel et en PSNR. Dans le Chapitre 5, nous exposons un schéma numérique pour résoudre une variante du Basis Pursuit. Celle-ci consiste à appliquer un algorithme du point proximal à ce modèle. L'intérêt est de transformer un problème convexe non-différentiable en une suite (convergeant rapidement) de problèmes convexes très réguliers. Nous montrons la convergence théorique de l'algorithme. Celle-ci est confirmée par l'expérience. Cet algorithme permet d'améliorer considérablement la qualité (en terme de parcimonie) de la solution par rapport à l'état de l'art concernant la résolution pratique du Basis Pursuit. Nous nous espérons que cet algorithme devrait avoir un impact conséquent dans ce domaine en rapide développement. Dans le Chapitre 6, nous adapte aux cas d'un modèle variationnel, dont le terme régularisant est celui du Basis Pursuit et dont le terme d'attache aux données est celui du modèle \eqref{tv-inf}, un résultat de D. Donoho (voir [55]). Ce résultat montre que, sous une condition liant le dictionnaire définissant le terme régularisant au dictionnaire définissant le terme d'attache aux données, il est possible d'étendre les résultats de D. Donoho aux modèles qui nous intéressent dans ce chapitre. Le résultat obtenu dit que, si la donnée initiale est très parcimonieuse, la solution du modèle est proche de sa décomposition la plus parcimonieuse. Ceci garantie la stabilité du modèle dans ce cadre et fait un lien entre régularisation $l^1$ et $l^0$, pour ce type d'attache aux données. Le Chapitre 7 contient l'étude d'une variante du Matching Pursuit. Dans cette variante, nous proposons de réduire le produit scalaire avec l'élément le mieux corrélé au résidu, avant de modifier le résidu. Ceci pour une fonction de seuillage général. En utilisant des propriétés simples de ces fonctions de seuillage, nons montrons que l'algorithme ainsi obtenu converge vers la projection orthogonale de la donnée sur l'espace linéaire engendré par le dictionnaire (le tout modulo une approximation quantifiée par les caractéristiques de la fonction de seuillage). Enfin, sous une hypothèse faible sur la fonction de seuillage (par exemple le seuillage dur la satisfait), cet algorithme converge en un temps fini que l'on peut déduire des propriétés de la fonction de seuillage. Typiquement, cet algorithme peut-être utilisé pour faire les projections orthogonales dans l'algorithme ``Orthogonal Matching Pursuit''. Ceci nous n'avons pas encore été fait. Le Chapitre 8 explore enfin la problématique de l'apprentissage de dictionnaires. Le point de vue développé est de considerer cette problématique comme un problème d'estimation de paramètres dans une famille de modèles génératifs additifs. L'introduction de switchs aléatoires de Bernoulli activant ou désactivant chaque élément d'un dictionnaire invariant par translation à estimer en permet l'identification dans des conditions assez générales en particulier dans le cas o\`{u} les coefficients sont gaussiens. En utilisant une technique d'EM variationel et d'approximation de la loi a posteriori par champ moyen, nous dérivons d'un principe d'estimation par maximum de vraisemblance un nouvel algorithme effectif d'apprentissage de dictionaire que l'on peut apparenter pour certains aspects à l'algorithme K-SVD. Les résultats expérimentaux sur données synthétiques illustrent la possibilité d'une identification correcte d'un dictionaire source et de plusieurs applications en décomposition d'images et en débruitage.
9

Compartimentation et transfert de contaminants dans les milieux souterrains : interaction entre transport physique, réactivité chimique et activité biologique / Compartimentalization and contaminant transfer in underground media : interaction between transport processes, chemical reactivity and biological activity

Babey, Tristan 08 December 2016 (has links)
Classiquement le transfert des contaminants dans le milieu souterrain est modélisé par un couplage des processus de transport physiques (écoulements contrôlés par les structures géologiques poreuses) et des processus de dégradation ou d'immobilisation chimiques et biologiques. Tant sur les structures géologiques que sur la chimie et la physique, les modèles sont de plus en plus détaillés mais de plus en plus difficiles à calibrer sur des données toujours très parcellaires. Dans cette thèse, nous développons une approche alternative basée sur des modèles parcimonieux sous la forme d’un simple graphe de compartiments interconnectés généralisant les modèles d’interaction de continuums (MINC) ou de transfert à taux multiples (MRMT). Nous montrons que ces modèles sont particulièrement adaptés aux milieux dans lesquels la diffusion de solutés occupe un rôle prépondérant par rapport à l’advection, tels les sols ou les aquifères très hétérogènes comme les aquifères fracturés. L'homogénéisation induite par la diffusion réduit les gradients de concentration, accélère les mélanges entre espèces et fait de la distribution des temps de résidence un excellent proxy de la réactivité. En effet, ces structures simplifiées reconstituées à partir d’informations de temps de résidence se révèlent également pertinentes pour des réactions chimiques non linéaires (e.g. sorption, précipitation/dissolution). Nous montrons finalement comment ces modèles peuvent être adaptés automatiquement à des observations d’essais de traceurs ou de réactions de biodégradation. Ces approches parcimonieuses présentent de nombreux avantages dont la simplicité de développement et de mise en œuvre. Elles permettent d’identifier les déterminants majeurs des échanges entre zones advectives et diffusives ou entre zones inertes et réactives, et d’extrapoler des processus de réactivité à des échelles plus larges. L’utilisation de données de fractionnement isotopique est proposée pour améliorer la dissociation entre l’effet des structures et de la réactivité. / Modelling of contaminant transfer in the subsurface classically relies on a detailed representation of transport processes (groundwater flow controlled by geological structures) coupled to chemical and biological reactivity (immobilization, degradation). Calibration of such detailed models is however often limited by the small amount of available data on the subsurface structures and characteristics. In this thesis, we develop an alternative approach of parsimonious models based on simple graphs of interconnected compartments, taken as generalized multiple interacting continua (MINC) and multiple rate mass transfer (MRMT). We show that this approach is well suited to systems where diffusion-like processes are dominant over advection, like for instance in soils or highly heterogeneous aquifers like fractured aquifers. Homogenization induced by diffusion reduces concentration gradients, speeds up mixing between chemical species and makes residence time distributions excellent proxies for reactivity. Indeed, simplified structures calibrated solely from transit time information prove to provide consistent estimations of non-linear reactivity (e.g. sorption and precipitation/dissolution). Finally, we show how these models can be applied to tracer observations and to biodegradation reactions. Two important advantages of these parsimonious approaches are their facility of development and application. They help identifying the major controls of exchanges between advective and diffusive zones or between inert and reactive zones. They are also amenable to extrapolate reactive processes at larger scale. The use of isotopic fractionation data is proposed to help discriminating between structure-induced effects and reactivity.
10

Représentations redondantes pour les signaux d’électroencéphalographie / Redundant representations for electroencephalography signals

Isaac, Yoann 29 May 2015 (has links)
L’électroencéphalographie permet de mesurer l’activité du cerveau à partir des variations du champ électrique à la surface du crâne. Cette mesure est utilisée pour le diagnostic médical, la compréhension du fonctionnement du cerveau ou dans les systèmes d’interface cerveau-machine. De nombreux travaux se sont attachés au développement de méthodes d’analyse de ces signaux en vue d’en extraire différentes composantes d’intérêt, néanmoins leur traitement pose encore de nombreux problèmes. Cette thèse s’intéresse à la mise en place de méthodes permettant l’obtention de représentations redondantes pour ces signaux. Ces représentations se sont avérées particulièrement efficaces ces dernières années pour la description de nombreuses classes de signaux grâce à leur grande flexibilité. L’obtention de telles représentations pour les mesures EEG présente certaines difficultés du fait d’un faible rapport signal à bruit des composantes recherchées. Nous proposons dans cette thèse de les surmonter en guidant les méthodes considérées vers des représentations physiologiquement plausibles des signaux EEG à l’aide de régularisations. Ces dernières sont construites à partir de connaissances a priori sur les propriétés spatiales et temporelles de ces signaux. Pour chacune d’entre elles, des algorithmes sont proposés afin de résoudre les problèmes d’optimisation associés à l’obtention de ces représentations. L’évaluation des approches proposées sur des signaux EEG souligne l’efficacité des régularisations proposées et l’intérêt des représentations obtenues. / The electroencephalography measures the brain activity by recording variations of the electric field on the surface of the skull. This measurement is usefull in various applications like medical diagnosis, analysis of brain functionning or whithin brain-computer interfaces. Numerous studies have tried to develop methods for analyzing these signals in order to extract various components of interest, however, none of them allows to extract them with sufficient reliabilty. This thesis focuses on the development of approaches considering redundant (overcomoplete) representations for these signals. During the last years, these representations have been shown particularly efficient to describe various classes of signals due to their flexibility. Obtaining such representations for EEG presents some difficuties due to the low signal-to-noise ratio of these signals. We propose in this study to overcome them by guiding the methods considered to physiologically plausible representations thanks to well-suited regularizations. These regularizations are built from prior knowledge about the spatial and temporal properties of these signals. For each regularization, an algorithm is proposed to solve the optimization problem allowing to obtain the targeted representations. The evaluation of the proposed EEG signals approaches highlights their effectiveness in representing them.

Page generated in 0.4875 seconds