1 |
Méthodes entropiques appliqués au problème inverse en magnétoencéphalographieLapalme, Ervig January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Modélisation numérique et assimilation de données de la dispersion de radionucléides en champ proche et à l'échelle continentaleKrysta, Monika 14 September 2006 (has links) (PDF)
La prévision des conséquences de rejets radioactifs dans l'atmosphère repose sur des modèles de dispersion qui fournissent des solutions analytiques (pX 0.1 développé par IRSN/ECL) ou numériques (Polair3D développé au CEREA) de l'équation d'advection-diffusion. Les modèles s'appuient d'une part sur des champs météorologiques possédant une résolution limitée et intègrent d'autre part des processus d'appauvrissement d'un nuage radioactif dont la description est imparfaite. Afin de contourner ces difficultés nous exploitons dans cette thèse les opportunités offertes par le couplage des modèles aux mesures, connu sous le nom d'assimilation de données. Dans un premier temps nous confrontons les modèles utilisés à des observations. Ces dernières sont fournies par des expériences effectuées avec des traceurs passifs ou collectées suite a des rejets de radionucléides. La dispersion sur une maquette de la centrale de Bugey dans une soufflerie en champ proche, l'expérience ETEX-I à l'échelle continentale et les rejets accidentels de Tchernobyl et Algésiras font l'objet d'études dans ce travail. Dans un deuxième temps, les modèles de dispersion sont associés aux mesures dans le but d'améliorer l'évaluation de conséquences de rejets radioactifs et d'inverser leur sources si la qualité du modèle le permet. En champ proche, l'approche variationnelle standard est utilisée. L'adjoint de pX 0.1 est construit à l'aide d'un différenciateur automatique. Les mesures collectées dans la soufflerie sont assimilées afin d'inverser le débit de la source. Dans le but d'obtenir un meilleur accord entre le modèle et les mesures, l'optimisation des paramètres gouvernant la distribution spatiale du panache est ensuite abordée. L'avantage de l'emploi de mesures est conditionné par leur contenu informatif. Ainsi, l'analyse a posteriori du réseau de mesures est effectuée et des possibilités de réduire sa taille en vue des applications opérationnelles sont exploitées. A l'échelle continentale, malgré la restriction aux mailles contenant des sites nucléaires, l'espace engendré par des sources est de dimension considérablement plus grande que l'espace d'observations. Par conséquent le problème inverse de reconstruction de la position et du profil temporel des sources est mal posé. Ce problème est régularisé en utilisant le principe du maximum d'entropie sur la moyenne. Des nouvelles fonctions coût prenant en compte le confinement spatio-temporel des sources accidentelles sont construites dans l'espace d'observations. Le lien entre la source recherchée et les mesures est décrit par l'adjoint de Polair3D. Les observations assimilées par la méthode sont constituées de mesures synthétiques, parfaites ou bruitées. Une série d'expériences se focalisant sur des sensibilités de la méthode est menée et leur qualité évaluée à l'aide d'un indicateur objectif. Un algorithme de réduction des sites suspectés pour des applications opérationnelles est testé. Finalement, les résultats de l'inversion du profil temporel de la source de l'accident d'Algésiras sont présentés.
|
3 |
Estimation de paramètres et planification d'expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteursCanaud, Matthieu 14 September 2011 (has links) (PDF)
Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l'entropie maximale.
|
4 |
Structure et sensibilité des réponses de populations de neurones dans la rétine / Structure and sensitivity of neural population responses in the retinaGardella, Christophe 20 September 2017 (has links)
Les cellules ganglionnaires transfèrent l'information visuelle de l’œil au cerveau, sous une forme encore débattue. Leurs réponses aux stimuli visuels sont non-linéaires, corrélées entre neurones, et une partie de l'information est présente au niveau de la population seulement. J'étudie d'abord la structure des réponses de population. Les cellules du cortex sont influencées par l'activité globale des neurones avoisinants, mais ces interactions manquaient encore de modèle. Je décris un modèle de population qui reproduit le couplage entre neurones et activité globale. Je montre que les neurones de la rétine de salamandre dépendent de l'activité globale de manière surprenante. Je décris ensuite une méthode pour caractériser la sensibilité de populations de neurones de la rétine de rat à des perturbations d'un stimulus. J'utilise des expériences en boucle fermée pour explorer sélectivement l'espace des perturbations autour d'un stimulus donné. Je montre que les réponses à de petites perturbations peuvent être décrites par une linéarisation de leur probabilité. Leur sensibilité présente des signes de codage efficace. Enfin, je montre comment estimer la sensibilité des réponses d'une population de neurones à partir de leur structure. Je montre que les machines de Boltzmann restreintes (RBMs) sont des modèles précis des corrélations neurales. Pour mesurer le pouvoir de discrimination des neurones, je cherche une métrique neurale telle que les réponses à des stimuli différents soient éloignées, et celles à un même stimulus soient proches. Je montre que les RBMs fournissent des métriques qui surpassent les métriques classiques pour discriminer de petites perturbations du stimulus. / Ganglion cells form the output of the retina: they transfer visual information from the eye to the brain. How they represent information is still debated. Their responses to visual stimuli are highly nonlinear, exhibit strong correlations between neurons, and some information is only present at the population level. I first study the structure of population responses. Recent studies have shown that cortical cells are influenced by the summed activity of neighboring neurons. However, a model for these interactions was still lacking. I describe a model of population activity that reproduces the coupling between each cell and the population activity. Neurons in the salamander retina are found to depend in unexpected ways on the population activity. I then describe a method to characterize the sensitivity of rat retinal neurons to perturbations of a stimulus. Closed-loop experiments are used to explore selectively the space of perturbations around a given stimulus. I show that responses to small perturbations can be described by a local linearization of their probability, and that their sensitivity exhibits signatures of efficient coding. Finally, I show how the sensitivity of neural populations can be estimated from response structure. I show that Restricted Boltzmann Machines (RBMs) are accurate models of neural correlations. To measure the discrimination power of neural populations, I search for a neural metric such that responses to different stimuli are far apart and responses to the same stimulus are close. I show that RBMs provide such neural metrics, and outperform classical metrics at discriminating small stimulus perturbations.
|
5 |
Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare / Characterisation of population diversity from quantified measures of a nonlinear model. Application to hyperbaric divingBennani, Youssef 10 December 2015 (has links)
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données. / This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance.
|
6 |
Microtomographie X de matériaux à comportement pseudo-fragile : Identification du réseau de fissuresHauss, Grégory 06 December 2012 (has links) (PDF)
L'étude de l'endommagement des matériaux à comportement pseudo-fragile fait l'objet denombreuses études et la caractérisation du réseau de fissures constitue une étape nécessairepour une meilleure compréhension de leur comportement. L'objectif principal est ici d'identifierde manière la plus fine possible cet espace fissuré en trois dimensions grâce à la techniqued'imagerie nommée microtomographie X. Pour ce faire, une machine d'essai in-situ a étédéveloppée et une procédure d'analyse des images 3D a été validée. L'objectif du dispositif insituest de maintenir l'échantillon dans différents états fissurés pour rendre possible lesacquisitions microtomographiques. Une fois les images 3D reconstruites, la procédure detraitement est appliquée et l'espace fissuré est identifié. Des mesures sont alors réalisées surl'évolution du réseau de fissures au cours de l'endommagement. Ce travail constitue la premièreétape d'un traitement plus général qui a pour objectif de simuler numériquement lecomportement mécanique de ces matériaux en se basant sur leur géométrie réelle.
|
7 |
Variability modeling and numerical biomarkers design in cardiac electrophysiology / Modélisation de la variabilité et design de biomarqueurs numériques en électrophysiologie cardiaqueTixier, Eliott 18 December 2017 (has links)
Cette thèse de doctorat est consacrée à l'étude de la variabilité observée dans les mesures d'électrophysiologie (i.e. l'activité électrique des tissus biologiques) cardiaque et à la conception de biomarqueurs numériques extraits de ces mesures. Les applications potentielles sont nombreuses, pouvant aller d'une meilleure compréhension des modèles électrophysiologiques existants à l'évaluations des effets nocifs de médicaments en passant par le diagnostic de pathologies cardiaques. Les modèles d'électrophysiologie cardiaque présentés dans ce travail sont, soit des équations différentielles ordinaires (EDOs), soit des équations aux dérivées partielles (EDPs), selon qu'ils concernent l'échelle cellulaire ou l'échelle du tissu. Dans les deux cas, ces modèles sont hautement non linéaires et nécessitent d'intenses ressources computationnelles. Nous adoptons l'approche suivante : de prime abord, nous développons des outils numériques afin de répondre à des problèmes généraux, au-delà de l'électrophysiologie. Puis, nous appliquons ces outils à des mesures synthétiques d'électrophysiologie dans différents scénarios réalistes et, lorsque cela est possible, à des mesures expérimentales. Dans la première partie de cette thèse, nous présentons une méthode générale pour estimer la densité de probabilité de paramètres incertains de modèles basés sur des EDOs ou des EDPs. La méthode est non intrusive et repose sur des évaluations "hors-ligne" du modèle direct, ce qui la rend en pratique computationellement moins dispendieuse que d'autres approches plus sophistiquées. La méthode est illustrée avec des mesures synthétiques et expérimentales d'électrophysiologie. Dans la seconde partie de cette thèse, nous présentons une méthode de sélectionde biomarqueurs à partir des sorties de modèles en vue d'effectuer des tâches de classification ou de résoudre des problèmes d'estimation de paramètres. La méthode repose sur la résolution d'un problème d'optimisation creux. La méthode est illustrée avec des modèles simples et ensuite appliquée à des mesures synthétiques, incluant des enregistrements d'électrocardiogramme, et à des données expérimentales obtenues à partir de mesures de matrices de microélectrodes. / This PhD thesis is dedicated to the study of the variability observed in cardiac electrophysiology (i.e. the electrical activity of biological tissues) measurements and to the design of numerical biomarkers extracted from these measurements. The potential applications are numerous, ranging from a better understanding of existing electrophysiology models to the assessment of adverse effects of drugs or the diagnosis of cardiac pathologies. The cardiac electrophysiology models considered in the present work are either ODEs or PDEs depending on whether we focus on the cell scale or the tissue scale. In both cases, these models are highly non-linear and computationally intensive. We proceed as follows: first we develop numerical tools that address general issues and that are applicable beyond the scope of cardiac electrophysiology. Then, we apply those tools to synthetic electrophysiology measurements in various realistic scenarios and, when available, to real experimental data. In the first part of this thesis, we present a general method for estimating the probability density function (PDF) of uncertain parameters of models based on ordinary differential equations (ODEs) or partial differential equations (PDEs). The method is non-instrusive and relies on offline evaluations of the forward model, making it computationally cheap in practice compared to more sophisticated approaches. The method is illustrated with generic PDE and ODE models. It is then applied to synthetic and experimental electrophysiology measurements. In the second part of this thesis, we present a method to extract and select biomarkers from models outputs in view of performing classication tasks or solving parameter identification problems. The method relies on the resolution of a sparse optimization problem. The method is illustrated with simple models and then applied to synthetic measurements, including electrocardiogram recordings, and to experimental data obtained from micro-electrode array measurements.
|
8 |
Recherche de pas par Majoration-Minoration. Application à la résolution de problèmes inverses.Chouzenoux, Emilie 08 December 2010 (has links) (PDF)
La solution des problèmes inverses en traitement du signal et de l'image est souvent définie comme le minimiseur d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés différentiables. Nous discutons plus précisément de la mise en oeuvre algorithmique de l'étape de recherche de pas dans l'algorithme de descente itérative. Les travaux de thèse de Christian Labat [Labat06] ont mené à l'élaboration de la stratégie de pas par Majoration-Minoration quadratique (MMQ 1D). Cette stratégie se démarque des méthodes de pas standards par sa simplicité d'implémentation et ses propriétés de convergence lorsqu'elle est associée à l'algorithme du gradient conjugué non linéaire (GCNL). Nous étendons ces propriétés à la famille des algorithmes à gradient relié. Nous montrons de plus que l'approche MMQ 1D s'étend en une stratégie de pas multi-dimensionnelle MMQ rD assurant la convergence d'algorithmes de sous-espace. Nous illustrons expérimentalement en déconvolution d'image que l'algorithme de super mémoire de gradient SMG + MMQ 2D est préférable à l'algorithme de gradient conjugué non linéaire GCNL + MMQ 1D. Lorsque le critère pénalisé contient une barrière, c'est-à-dire une fonction dont le gradient est non borné, la procédure de pas MMQ est inapplicable. Nous développons une stratégie de pas tenant compte de la singularité de la barrière à travers des approximations majorantes quadratiques augmentées d'un terme logarithmique. La recherche de pas résultante, notée MMLQ 1D, est simple à mettre en \oe{}uvre et garantit la convergence des algorithmes standards de descente itérative. Nous montrons expérimentalement que la méthode MMLQ 1D accroît les performances de l'algorithme de point intérieur primal pour la programmation quadratique. Nous appliquons enfin cette approche à la reconstruction de spectres RMN bi-dimensionnels par maximum d'entropie.
|
9 |
Entropies et RadiotechniqueBercher, Jean-François 01 December 2009 (has links) (PDF)
Ce mémoire présente différentes contributions dans les domaines du traitement et la théorie de l'information (plus particulièrement l'étude et l'exploitation de mesures d'information) et de la radiotechnique (statistique). On présente quelques techniques fondées sur le principe du maximum d'entropie, comprenant le maximum d'entropie sur la moyenne et une extension itérative. On décrit ensuite comment on peut interpréter la technique des superstatistiques de Beck et Cohen comme une conséquence d'un maximum d'entropie avec contraintes aléatoires, et on explicite un cas particulier qui mène aux K-distributions. Pour appliquer pratiquement des résultats impliquant des mesures d'entropie, on propose et on caractérise un estimateur de l'entropie de Shannon, et on décrit quelques applications possibles. On décrit également, à partir d'une inégalité de convolution, comment on peut une utiliser une forme alternative, l'entropie de Rényi, pour des problèmes de déconvolution. On s'intéresse ensuite de manière un peu plus précise aux entropies de Rényi-Tsallis, aux distributions à maximum d'entropie de Rényi-Tsallis que l'on peut en déduire, et à leurs justifications et applications. On montre notamment que les entropies de Rényi-Tsallis peuvent être déduites à partir d'une approche classique de maximum d'entropie, en prenant en compte une contrainte figurant un système dont l'équilibre est déplacé. D'un autre côté, on relie les distributions de Rényi-Tsallis à la distribution des excès en théorie des extrêmes, ce qui fournit une justification potentielle à la relative ubiquité de ces distributions. Comme conséquence des problèmes de maximum d'entropie de Rényi-Tsallis, on peut définir des fonctionnelles entropiques, que l'on étudie et dont on donne quelques propriétés et caractérisations. On s'intéresse également à l'information de Fisher, et on décrit quelques contributions. Plus spécifiquement, nous avons étudié l'extension au cas multivarié, et aux transformations non inversibles, de l'inégalité sur l'information de Fisher. On a considéré également l'utilisation conjointe de l'information de Fisher et l'entropie de Shannon pour l'analyse de signaux, en définissant un plan d'information de Fisher-Shannon. Pour des distributions à support borné, typiquement définies sur R+ ou sur un intervalle, on caractérise les distributions à minimum d'information de Fisher sous contrainte de variance, et on étudie la fonctionnelle d'information de Fisher associée. En ce qui concerne l'aspect radiotechnique, on s'intéresse à des problèmes d'architecture des émetteurs-récepteurs numériques, et au développement d'algorithmes de correction, calibration ou contrôle. Les contraintes posées pour la réalisation des émetteurs radio amènent à sélectionner des solutions de type polaire, où le signal est décomposé en un module (l'enveloppe) et une phase (le cosinus de la phase). On propose ici notamment une évolution de l'architecture EER (Envelope Elimination and Restoration), permettant de fournir à un amplificateur de puissance un signal à enveloppe constante, la restauration de l'enveloppe étant opérée par filtrage passe-bande en sortie de l'émetteur. Au niveau composants, d'autres contributions concernent les boucles à verrouillage de phase entièrement numérique pour lesquelles on propose un modèle comportemental complet du système, ainsi que des algorithmes rapides permettant d'alléger l'implantation. Toujours au niveau composants, on s'intéresse aussi à la réalisation et la stabilisation d'une horloge de référence très haute fréquence, reposant sur l'utilisation d'un BAW, pour laquelle il est important d'établir un modèle direct fiable, d'estimer ses paramètre et de maîtriser la variabilité statistique. Dans les architectures polaires, on étudie et on illustre les conséquences néfastes d'une désynchronisation entre l'enveloppe et la phase sur les différents indicateurs de performance. On propose et on caractérise plusieurs algorithmes, reposant sur des techniques de gradient stochastique, permettant de compenser ces décalages temporels, tout en prenant en charge d'éventuelles distorsions supplémentaires en gain et phase.
|
Page generated in 0.0732 seconds