• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 42
  • 5
  • Tagged with
  • 124
  • 66
  • 39
  • 39
  • 30
  • 28
  • 25
  • 19
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Intégration d'information a priori dans la régression de processus Gaussiens : Applications à l'ingénierie aéronautique / Incorporating Prior Information from Engineering Design into Gaussian Process Regression : with applications to Aeronautical Engineering

Chiplunkar, Ankit 07 December 2017 (has links)
Dans cette thèse, nous proposons de construire de meilleurs modèles Processus Gaussiens (GPs) en intégrant les connaissances antérieures avec des données expérimentales. En raison du coût élevé de l’exécution d’expériences sur les systèmes physiques, les modèles numériques deviennent un moyen évident de concevoir des systèmes physiques. Traditionnellement, ces modèles ont été construits expérimentalement et itérativement; une méthode plus rentable de construction de modèles consiste à utiliser des algorithmes d’apprentissage automatique. Nous démontrons comment créer des modèles en intégrant une connaissance antérieure en modifiant les fonctions de covariance. Nous proposons des modèles GP pour différents phénomènes physiques en mécanique des fluides.De même, les lois physiques entre plusieurs sorties peuvent être appliquées en manipulant les fonctions de covariance. Pour chaque application, nous comparons le modèle proposé avec le modèle de l’état de l’art et démontrons les gains de coût ou de performance obtenus. / In this thesis, we propose to build better Gaussian Process (GP) modelsby integrating the prior knowledge of Aircraft design with experimental data. Due tothe high cost of performing experiments on physical systems, models become an efficientmeans to designing physical systems. We demonstrate how to create efficient models byincorporating the prior information from engineering design, mainly by changing the covariancefunctions of the GP.We propose GP models to detect onset of non-linearity, detectmodal parameters and interpolate position of shock in aerodynamic experiments. Similarly,physical laws between multiple outputs can be enforced by manipulating the covariancefunctions, we propose to integrate flight-mechanics to better identify loads using thesemodels. For each application we compare the proposed model with the state-of-the-artmodel and demonstrate the cost or performance gains achieved.
72

Modélisation probabiliste et inférence par l'algorithme Belief Propagation / Probabilistic Modelling and Inference using the Belief Propagation Algorithm

Martin, Victorin 23 May 2013 (has links)
On s'intéresse à la construction et l'estimation - à partir d'observations incomplètes - de modèles de variables aléatoires à valeurs réelles sur un graphe. Ces modèles doivent être adaptés à un problème de régression non standard où l'identité des variables observées (et donc celle des variables à prédire) varie d'une instance à l'autre. La nature du problème et des données disponibles nous conduit à modéliser le réseau sous la forme d'un champ markovien aléatoire, choix justifié par le principe de maximisation d'entropie de Jaynes. L'outil de prédiction choisi dans ces travaux est l'algorithme Belief Propagation - dans sa version classique ou gaussienne - dont la simplicité et l'efficacité permettent son utilisation sur des réseaux de grande taille. Après avoir fourni un nouveau résultat sur la stabilité locale des points fixes de l'algorithme, on étudie une approche fondée sur un modèle d'Ising latent où les dépendances entre variables réelles sont encodées à travers un réseau de variables binaires. Pour cela, on propose une définition de ces variables basée sur les fonctions de répartition des variables réelles associées. Pour l'étape de prédiction, il est nécessaire de modifier l'algorithme Belief Propagation pour imposer des contraintes de type bayésiennes sur les distributions marginales des variables binaires. L'estimation des paramètres du modèle peut aisément se faire à partir d'observations de paires. Cette approche est en fait une manière de résoudre le problème de régression en travaillant sur les quantiles. D'autre part, on propose un algorithme glouton d'estimation de la structure et des paramètres d'un champ markovien gaussien, basé sur l'algorithme Iterative Proportional Scaling. Cet algorithme produit à chaque itération un nouveau modèle dont la vraisemblance, ou une approximation de celle-ci dans le cas d'observations incomplètes, est supérieure à celle du modèle précédent. Cet algorithme fonctionnant par perturbation locale, il est possible d'imposer des contraintes spectrales assurant une meilleure compatibilité des modèles obtenus avec la version gaussienne de Belief Propagation. Les performances des différentes approches sont illustrées par des expérimentations numériques sur des données synthétiques. / In this work, we focus on the design and estimation - from partial observations - of graphical models of real-valued random variables. These models should be suited for a non-standard regression problem where the identity of the observed variables (and therefore of the variables to predict) changes from an instance to the other. The nature of the problem and of the available data lead us to model the network as a Markov random field, a choice consistent with Jaynes' maximum entropy principle. For the prediction task, we turn to the Belief Propagation algorithm - in its classical or Gaussian flavor - which simplicity and efficiency make it usable on large scale networks. After providing a new result on the local stability of the algorithm's fixed points, we propose an approach based on a latent Ising model, where dependencies between real-valued variables are encoded through a network of binary variables. To this end, we propose a definition of these variables using the cumulative distribution functions of the real-valued variables. For the prediction task, it is necessary to modify the Belief Propagation algorithm in order to impose Bayesian-like constraints on marginal distributions of the binary variables. Estimation of the model parameters can easily be performed using only pairwise observations. In fact, this approach is a way to solve the regression problem by working on quantiles.Furthermore, we propose a greedy algorithm for estimating both the structure and the parameters of a Gauss-Markov random field based on the Iterative Proportional Scaling procedure. At each iteration, the algorithm yields a new model which likelihood, or an approximation of it in the case of partial observations,is higher than the one of the previous model. Because of its local perturbation principle, this algorithm allows us to impose spectral constraints, increasing the compatibility with the Gaussian Belief Propagation algorithm. The performances of all approaches are empirically illustrated on synthetic data.
73

Analyse harmonique et fonctions d'ondes sphéroïdales / Harmonic analysis and spheroidal wave functions

Mehrzi, Issam 20 February 2014 (has links)
Notre travail est motivé par le problème de l'évaluation du déterminant de Fredholm d'un opérateur intégral. Cet opérateur apparait dans l'expression de la probabilité pour qu'un intervalle [?s, s] (s > 0) ne contienne aucune valeur propre d'une matrice aléatoire hermitienne gaussienne. Cet opérateur commute avec un opérateur différentiel de second ordre dont les fonctions propres sont les fonctions d'ondes sphéroïdales de l'ellipsoïde alongé. Plus généralement nous considérons l'opérateur de Legendre perturbé. Nous montrons qu'il existe un opérateur de translation généralisée associé à cet opérateur. En?n, par une méthode d'approximation des solutions de certaines équations différentielles, dite méthode WKB, nous avons obtenu le comportement asymptotique des fonctions d'ondes sphéroïdales de l'ellipsoïde alongé Il s'exprime à l'aide des fonctions de Bessel et d'Airy. Par la même méthode nous avons obtenu le comportement asymptotique des fonctions propres de l'opérateur dfférentiel d'Airy. / Our work is motivated by the problem of evaluating the Fredholm determinant of an integral operator. This operator appears in the expression of the probability, for a random matrix in the Gaussien Unitary Ensemble, to have no eigenvalue in an interval [?s, s]. This operator commutes with a differential operator wich have the spheroidal wave functions as eingenfunctions. More generally, we consider the perturbated Legendre differential operator. We show that there exists a generalized translation operator associated to the perturbated Legendre dfferential operator. Finaly, by using the WKB method, we have determined the asymptotic behavior of the prolate spheroidal wave functions. This asymptotic behavior involves Bessel and Airy functions. By using the same method, we have obtained similar results for asymptotic behavior of the eigenfunctions of the Airy differential operator.
74

Large deviations for the dynamics of heterogeneous neural networks / Grandes déviations pour la dynamique de réseaux de neurones hétérogènes

Cabana, Tanguy 14 December 2016 (has links)
Cette thèse porte sur l'obtention rigoureuse de limites de champ moyen pour la dynamique continue de grands réseaux de neurones hétérogènes. Nous considérons des neurones à taux de décharge, et sujets à un bruit Brownien additif. Le réseau est entièrement connecté, avec des poids de connections dont la variance décroît comme l'inverse du nombre de neurones conservant un effet non trivial dans la limite thermodynamique. Un second type d'hétérogénéité, interprété comme une position spatiale, est considéré au niveau de chaque cellule. Pour la pertinence biologique, nos modèles incluent ou bien des délais, ainsi que des moyennes et variances de connections, dépendants de la distance entre les cellules, ou bien des synapses dépendantes de l'état des deux neurones post- et présynaptique. Ce dernier cas s'applique au modèle de Kuramoto pour les oscillateurs couplés. Quand les poids synaptiques sont Gaussiens et indépendants, nous prouvons un principe de grandes déviations pour la mesure empirique de l'état des neurones. La bonne fonction de taux associée atteint son minimum en une unique mesure de probabilité, impliquant convergence et propagation du chaos sous la loi "averaged". Dans certains cas, des résultats "quenched" sont obtenus. La limite est solution d'une équation implicite, non Markovienne, dans laquelle le terme d'interactions est remplacé par un processus Gaussien qui dépend de la loi de la solution du réseau entier. Une universalité de cette limite est prouvée, dans le cas de poids synaptiques non-Gaussiens avec queues sous-Gaussiennes. Enfin, quelques résultats numérique sur les réseau aléatoires sont présentés, et des perspectives discutées. / This thesis addresses the rigorous derivation of mean-field results for the continuous time dynamics of heterogeneous large neural networks. In our models, we consider firing-rate neurons subject to additive noise. The network is fully connected, with highly random connectivity weights. Their variance scales as the inverse of the network size, and thus conserves a non-trivial role in the thermodynamic limit. Moreover, another heterogeneity is considered at the level of each neuron. It is interpreted as a spatial location. For biological relevance, a model considered includes delays, mean and variance of connections depending on the distance between cells. A second model considers interactions depending on the states of both neurons at play. This last case notably applies to Kuramoto's model of coupled oscillators. When the weights are independent Gaussian random variables, we show that the empirical measure of the neurons' states satisfies a large deviations principle, with a good rate function achieving its minimum at a unique probability measure, implying averaged convergence of the empirical measure and propagation of chaos. In certain cases, we also obtained quenched results. The limit is characterized through a complex non Markovian implicit equation in which the network interaction term is replaced by a non-local Gaussian process whose statistics depend on the solution over the whole neural field. We further demonstrate the universality of this limit, in the sense that neuronal networks with non-Gaussian interconnections but sub-Gaussian tails converge towards it. Moreover, we present a few numerical applications, and discuss possible perspectives.
75

Chaos multiplicatif gaussien et applications à la gravité quantique de Liouville / Gaussian multiplicative chaos and applications to Liouville quantum gravity

Huang, Yichao 27 September 2017 (has links)
Dans cette thèse, nous nous intéressons par des approches probabilistes à la gravité quantique de Liouville, introduite par Polyakov en 1981 sous la forme d'une intégrale de chemin sur les surfaces 2d. Pour définir cette intégrale de chemin avec interaction exponentielle, nous partons du chaos multiplicatif Gaussien, l'outil fondamental pour définir l'exponentielle des champs Gaussiens de corrélation logarithmique. Dans un premier temps, nous généralisons la construction de la gravité quantique de Liouville sur la sphère de Riemann à une autre géométrie avec bord, celle du disque unité. La nouveauté de ce travail réalisé en collaboration avec R.Rhodes et V.Vargas, est d'analyser avec soin le terme du bord dans l'intégrale de chemin ainsi que l'interaction entre la mesure du bord et la mesure du disque. Nous établissons rigoureusement les formules de la théorie conforme des champs en physique, telles que la covariance conforme, la formule KPZ, l'anomalie de Weyl ainsi que la borne de Seiberg. Une borne de Seiberg relaxée dans le cas de la gravité de Liouville à volume total fixé sur le disque est aussi formulée et étudiée. Dans la seconde moitié de cette thèse, nous comparons cette construction à la Polyakov avec une autre approche de la gravité quantique de Liouville. En collaboration avec deux autres jeunes chercheurs J.Aru et X.Sun, nous fournissons une correspondance entre ces deux approches dans un cas simple et important, celui de la sphère de Riemann avec trois points marqués. En mélangeant les techniques de ces deux approches, nous fournissons une nouvelle procédure d'approximation qui permet de relier ces deux différentes approches. / In this thesis, we study the theory of Liouville Quantum Gravity via probabilist approach, introduced in the seminal paper of Polyakov in 1981, using path integral formalism on 2d surfaces. To define this path integral with exponential interaction, we started from the theory of Gaussian Multiplicative Chaos in order to define exponential of log-correlated Gaussian fields. In the first part, we generalise the construction of Liouville Quantum Gravity on the Riemann sphere to another geometry, the one of the unit disk. The novelty of this work, in collaboration with R.Rhodes and V.Vargas, is to analyse carefully the boundary term in the path integral formalism and its interaction with the bulk measure. We establish rigorously formulae from Conformal Field Theory in Physics, such as conformal covariance, KPZ relation, conformal anomaly and Seiberg bounds. A relaxed Seiberg bound in the unit volume case of Liouville Quantum Gravity on the disk is also announced and studied. In the second part of this thesis, we compare this construction in the spirit of Polyakov to another approach to the Liouville Quantum Gravity. In collaboration with two other young researchers, J.Aru and X.Sun, we give a correspondance between these two approaches in a simple but conceptually important case, namely the one on the Riemann sphere with three marked points. Using technics coming from these two approches, we give a new way of regularisation procedure that eventually allow us to link these two pictures.
76

Hierarchical Bayesian optimization of targeted motor outputs with spatiotemporal neurostimulation

Laferrière Cyr, Samuel 12 1900 (has links)
Ce mémoire par article part de la question suivante: pouvons-nous utiliser des prothèses neurales afin d’activer artificiellement certain muscles dans le but d’accélérer la guérison et le réapprentissage du contrôle moteur après un AVC ou un traumatisme cervical ? Cette question touche plus de 15 millions de personnes chaque année à travers le monde, et est au coeur de la recherche de Numa Dancause et Marco Bonizzato, nos collaborateurs dans le département de Neuroscience de l’Université de Montréal. Il est maintenant possible d’implanter des électrodes à grande capacité dans le cortex dans le but d’acheminer des signaux électriques, mais encore difficile de prédire l’effet de stimulations sur le cerveau et le reste du corps. Cependant, des résultats préliminaires prometteurs sur des rats et singes démontrent qu’une récupération motrice non-négligeable est observée après stimulation de régions encore fonctionnelles du cortex moteur. Les difficultés rattachées à l’implémentation optimale de stimulation motocorticale consistent donc à trouver une de ces régions, ainsi qu’un protocole de stimulation efficace à la récupération. Bien que cette optimisation a été jusqu’à présent faite à la main, l’émergence d’implants capables de livrer des signaux sur plusieurs sites et avec plusieurs patrons spatio-temporels rendent l’exploration manuelle et exhaustive impossible. Une approche prometteuse afin d’automatiser et optimiser ce processus est d’utiliser un algorithme d’exploration bayésienne. Mon travail a été de déveloper et de raffiner ces techniques avec comme objectif de répondre aux deux questions scientifiques importantes suivantes: (1) comment évoquer des mouvements complexes en enchainant des microstimulations corticales ?, et (2) peuvent-elles avoir des effets plus significatifs que des stimulations simples sur la récupération motrice? Nous présentons dans l’article de ce mémoire notre approche hiérarchique utilisant des processus gaussiens pour exploiter les propriétés connues du cerveau afin d’accélérer la recherche, ainsi que nos premiers résultats répondant à la question 1. Nous laissons pour des travaux futur une réponse définitive à la deuxième question. / The idea for this thesis by article sprung from the following question: can we use neural prostheses to stimulate specific muscles in order to help recovery of motor control after stroke or cervical injury? This question is of crucial importance to 15 million people each year around the globe, and is at the heart of Numa Dancause and Marco Bonizzato’s research, our collaborators in the Neuroscience department at the University of Montreal. It is now possible to implant large capacity electrodes for electrical stimulation in cortex, but still difficult to predict their effect on the brain and the rest of the body. Nevertheless, preliminary but promising results on rats and monkeys have shown that a non-negligible motor recovery is obtained after stimulation of regions of motor cortex that are still functional. The difficulties related to optimal microcortical stimulation hence consist in finding both one of these regions, and a stimulation protocol with optimal recovery efficacy. This search has up to present day been performed by hand, but recent and upcoming large scale stimulation technologies permitting delivery of spatio-temporal signals are making such exhaustive searches impossible.A promising approach to automating and optimizing this discovery is the use of Bayesian optimization. My work has consisted in developing and refining such techniques with two scientific questions in mind: (1) how can we evoke complex movements by chaining cortical microstimulations?, and (2) can these outperform single channel stimulations in terms of recovery efficacy? We present in the main article of this thesis our hierarchical Bayesian optimization approach which uses gaussian processes to exploit known properties of the brain to speed up the search, as well as first results answering question 1. We leave to future work a definitive answer to the second question.
77

Exploitation de la non-circularité pour les transmissions et l'écoute passive / Exploitation of non-circularity for transmissions and passive listening

Sadok, Mustapha 15 December 2017 (has links)
Cette thèse est consacrée à l’exploitation des propriétés de non-circularité et de non-gaussianité des signaux d’intérêt (SOI) et/ou des interférences pour les transmissions sans fil et l’écoute passive. Dans une première partie de cette thèse, nous nous intéressons à l’extension des récepteurs SIMO-MLSE conventionnels vers de nouvelles architectures exploitant la potentielle non-circularité au second ordre des interférences co-canal (CCI), pour la démodulation de signaux rectilignes (BPSK, ASK), quasi-rectilignes (MSK, GMSK et OQAM) et à symboles complexes (QAM). L’architecture générale des récepteurs développés est basée sur un prétraitement avec une extension widely linear (WL) du filtre adapté spatio-temporel, ramenant le traitement de démodulation à un problème scalaire, un échantillonnage au rythme symbole et ensuite un organe de décision basé sur une version modifiée de l’algorithme de Viterbi. Pour le cas particulier des signaux quasi-rectiligne, on intercale un traitement de dérotation entre l’échantillonneur et l’organe de décision. Un travail de modélisation à temps discret des SOI, brouilleurs et du bruit de fond a été mené afin de créer des modèles de simulations pour la validation des expressions SINR analytiques interprétables, via l’évaluation des probabilités d’erreur symboles. Dans une deuxième partie, nous nous intéressons à la formation de voies (Beamforming) non-linéaire à travers des structures de Volterra complexe du troisième ordre. Ces dernières permettent l’exploitation de la non-circularité jusqu’au sixième ordre ainsi que du caractère non-gaussien des SOI et/ou des interférences. Dans le contexte de l’écoute passive, nous avons introduit un beamformer MVDR de Volterra du troisième ordre utilisant la seule information a priori du vecteur directionnel du SOI et implémentable grâce à une structure équivalente GSC. Nous avons étudié ses performances en particulier par l’évaluation analytique des expressions du SINR en fonction des statistiques de l’interférence, et par sa vitesse d’apprentissage, démontrant ainsi sa supériorité par rapport aux beamformers MVDR linéaire et WL classiques. Dans un contexte de radiocommunications, nous avons étudié une version MMSE de ce beamformer de Volterra complexe du troisième ordre qui prend lui en compte les propriétés statistiques de non-circularité jusqu’au sixième ordre et de non-gaussianité du SOI et du CCI. La dernière partie de cette thèse est consacrée à la robustesse de tests de détection de rectilinéarité de signaux en présente d’offsets de fréquence. Ces tests sont importants pour ajuster la nature du traitement (linéaire ou WL) en fonction de la rectilinéarité des signaux, afin de garantir le meilleur rapport performance/temps de convergence des algorithmes / This thesis is devoted to exploit the non-circularity and non-gaussianity properties of signals of interest (SOI) and/or interference for wireless transmissions and passive listening. In the first part of this thesis, we are interested in the extension of conventional SIMO-MLSE receivers to new architectures exploiting the potential second order non-circularity of co-channel interference (CCI), for the demodulation of rectilinear signals (BPSK, ASK), quasi-rectilinear (MSK, GMSK and OQAM) and quadrature amplitude modulation (QAM). The general architecture of the developed receivers is based on a pre-processing with a widely linear (WL) extension of the spatio-temporal matched filter, bringing the demodulation processing back to a scalar problem, a sampling at the symbol rate and then a decision block based on a modified version of the Viterbi algorithm. For the particular case of the quasi-rectilinear signals, a derotation processing is interposed between the sampler and the decision block. A work on equivalent discrete time modeling of SOI, interferers and background noise has been carried out in order to create simulation models as for the validation of the interpretable analytic SINR expressions, by the evaluation of the symbol error rates. In a second part, we are interested to the beamforming through complex Volterra structures of the third order. These structures allow us the exploitation of the non-circularity up to the sixth order as well as the non-gaussian nature of the SOI and/or the interferences. For passive listening applications, we have introduced a third-order Volterra MVDR beamformer using only a priori information of SOI steering vector and implemented by an equivalent GSC structure. We have studied its performance, in particular by interpretable closed-form expressions as functions of statistics of the interference, and by its speed of learning, thus proving its advantages with respect to the conventional linear and WL MVDR beamformers. For wireless communications applications, we have studied an MMSE version of this complex Volterra beamformer of the third order that takes into account of the non-circularity up to the sixth order as well as the non-gaussian nature of the SOI and interference. The last part of this thesis is devoted to the robustness of rectilinearity tests in the presence of frequency offset. These tests are important for adjusting the processing (linear or WL) as a function of the rectilinearity of the signals in order to guarantee the best performance/convergence rate ratio of algorithms
78

Caractérisation des émissions de méthane à l'échelle locale à l'aide d'une méthode d'inversion statistique basée sur un modèle gaussien paramétré avec les données d'un gaz traceur / Characterization of local scale methane emissions using a statistical inversion method based on a Gaussian model parameterized with tracer gas observations

Ars, Sébastien 29 June 2017 (has links)
L'augmentation des concentrations de méthane dans l'atmosphère, directement imputable aux activités anthropiques, induit une accentuation de l'effet de serre et une dégradation de la qualité de l'air. Il existe encore à l'heure actuelle de grandes incertitudes concernant les estimations des émissions des dfférentes sources de méthane à l'échellelocale. Une meilleure caractérisation de ces sources permettrait de mettre en place des politiques d'adaptation et d'att énuation efficaces afin de réduire ces émissions. Nous avons développé une nouvelle méthode de quantificationdes émissions de méthane à l'échelle locale basée sur la combinaison de mesures atmosphériques mobiles et d'un modèle gaussien dans le cadre d'une inversion statistique. Les concentrations atmosphériques du méthane sont mesuréesainsi que celles d'un gaz traceur émis à un flux connu. Ces concentrations en gaz traceur sont utilisées pour sélectionnerla classe de stabilité représentant le mieux les conditions atmosphériques dans le modèle gaussien ainsi qu'à paramétrerl'erreur associée aux mesures et au modèle dans l'inversion statistique. Dans un premier temps, cette nouvelle méthoded'estimation des émissions de méthane a été testée grâce à des émissions contrôlées de traceur et de méthane dontles sources ont été positionnées suivant différentes configurations. J'ai ensuite appliqué cette méthode à deux sites réels connus pour leurs émissions de méthane, une exploitation agricole et une installation de distribution de gaz, afin de tester son applicabilité et sa robustesse dans des conditions plus complexes de répartition des sources de méthane. Cette méthode a permis d'obtenir des estimations des émissions totales des sites robustes prenant en compte la localisation du traceur par rapport aux sources de méthane. L'estimation séparéedes émissions des différentes sources d'un site s'est révélée fortement dépendante des conditions météorologiques durant les mesures. Je me suis ensuite focalisé sur les émissions de méthane associées au secteur des déchets en réalisant un certain nombre de campagnes de mesures au sein d'installations de stockagedes déchets non dangereux et de stations d'épuration. Les résultats obtenus pour ces différents sites montrent la grandevariabilité des émissions de méthane dans le secteur des déchets. / The increase of atmospheric methane concentrations since the beginning of the industrial era is directly linked to anthropogenic activities. This increase is partly responsible for the enhancement of the greenhouse effect leading to a rise of Earth's surface temperatures and a degradation of air quality. There are still considerable uncertainties regarding methane emissions estimates from many sources at local scale. A better characterization of these sources would help the implementation of effective adaptation and mitigation policies to reduce these emissions.To do so, we have developed a new method to quantify methane emissions from local sites based on the combination of mobile atmospheric measurements, a Gaussian model and a statistical inversion. These atmospheric measurements are carried out within the framework of the tracer method, which consists in emitting a gas co-located with the methane source at a known flow. An estimate of methane emissions can be given by measuring the tracer and methane concentrations through the emission plume coming from the site. This method presents some limitations especially when several sources and/or extended sources can be found on the studied site. In these conditions, the colocation of the tracer and methane sources is difficult. The Gaussian model enables to take into account this bad collocation. It also gives a separate estimate of each source of a site when the classical tracer release method only gives an estimate of its total emissions. The statistical inversion enables to take into account the uncertainties associated with the model and the measurements.The method is based on the use of the measured tracer gas concentrations to choose the stability class of the Gaussian model that best represents the atmospheric conditions during the measurements. These tracer data are also used to parameterize the error associated with the measurements and the model in the statistical inversion. We first tested this new method with controlled emissions of tracer and methane. The tracer and methane sources were positioned in different configurations in order to better understand the contributions of this method compared to the traditional tracer method. These tests have demonstrated that the statistical inversion parameterized by the tracer gas data gives better estimates of methane emissions when the tracer and methane sources are not perfectly collocated or when there are several sources of methane.In a second time, I applied this method to two sites known for their methane emissions, namely a farm and a gas distribution facility. These measurements enabled us to test the applicability and robustness of the method under more complex methane source distribution conditions and gave us better estimates of the total methane emissions of these sites that take into account the location of the tracer regarding methane sources. Separate estimates of every source within the site are highly dependent on the meteorological conditions during the measurements. The analysis of the correlations on the posterior uncertainties between the different sources gives a diagnostic of the separability of the sources.Finally I focused on methane emissions associated with the waste sector. To do so, I carried out several measurement campaigns in landfills and wastewater treatment plants and I also used data collected on this type of sites during other projects. I selected the most suitable method to estimate methane emissions of each site and the obtained estimates for each one of these sites show the variability of methane emissions in the waste sector.
79

Exemplar based texture synthesis : models and applications / Synthèse de texture à partir d’exemples : modèles et applications

Raad cisa, Lara 03 October 2016 (has links)
Cette thèse s’attaque au problème de la synthèse de texture par l’exemple en utilisant des modèles stochastiques locaux de patchs pour générer de nouvelles images. La synthèse de texture par l’exemple a pour but de générer à partir d’un échantillon de texture de nouvelles images qui sont perceptuellement équivalentes à celle de départ. Les méthodes peuvent se regrouper en deux catégories: les méthodes paramétriques et les non paramétriques à base de patchs. Le premier groupe a pour but de caractériser une image de texture à partir d’un ensemble de statistiques qui définissent un processus stochastique sous-jacent. Les résultats visuels de ces méthodes sont satisfaisants, mais seulement pour un groupe réduit de types de texture. La synthèse pour des images de textures ayant des structures très contrastées peut échouer. La deuxième catégorie d’algorithme découpe, puis recolle de manière consistante des voisinages locaux de l’image de départ pour générer de nouvelles configurations plausibles de ces voisinages (ou patchs). Les résultats visuels de ces méthodes sont impressionnants. Néanmoins, on observe souvent des répétitions verbatim de grandes parties de l’image d’entrée qui du coup peuvent être reproduites plusieurs fois. De plus, ces algorithmes peuvent diverger, reproduisant de façon itérative une partie de l’image de l’entrée en négligeant le reste. La première partie de cette thèse présente une approche combinant des idées des deux catégories de méthodes, sous le nom de synthèse localement Gaussienne. On préserve dans cette nouvelle méthode les aspects positifs de chaque approche: la capacité d’innover des méthodes paramétriques, et la capacité de générer des textures fortement structurées des méthodes non paramétriques à base de patchs. Pour ce faire, on construit un modèle Gaussien multidimensionnel des auto-similarités d’une image de texture. Ainsi, on obtient des résultats qui sont visuellement supérieurs à ceux obtenus avec les méthodes paramétriques et qui sont comparables à ceux obtenus avec les méthodes non-paramétriques à base de patchs tout en utilisant une paramétrization locale de l’image. La thèse s’attache aussi à résoudre une autre difficulté des méthodes à base de patchs: le choix de la taille du patch. Afin de réduire significativement cette dépendance, on propose une extension multi échelle de la méthode. Les méthodes à bases de patchs supposent une étape de recollement. En effet, les patchs de l’image synthétisée se superposent entre eux, il faut donc gérer le recollement dans ces zones. La première approche qu’on a considérée consiste à prendre en compte cette contrainte de superposition dans la modélisation des patchs. Les expériences montrent que cela est satisfaisant pour des images de textures périodiques ou pseudo-périodiques et qu’en conséquence l’étape de recollement peut être supprimée pour ces textures. Cependant, pour des images de textures plus complexes ce n’est pas le cas, ce qui nous a menée à suggérer une nouvelle méthode de recollement inspirée du transport optimal. Cette thèse conclut avec une étude complète de l’état de l’art en génération d’images de textures naturelles. L’étude que nous présentons montre que, malgré les progrès considérables des méthodes de synthèse à base d’exemples proposées dans la vaste littérature, et même en les combinant astucieusement, celles-ci sont encore incapables d’émuler des textures complexes et non stationnaires. / This dissertation contributes to the problem of exemplar based texture synthesis by introducing the use of local Gaussian patch models to generate new texture images. Exemplar based texture synthesis is the process of generating, from an input texture sample, new texture images that are perceptually equivalent to the input. There are roughly two main categories of algorithms: the statistics based methods and the non parametric patch based methods. The first one aims to characterize a given texture sample by estimating a set of statistics which will define an underlying stochastic process. The results of this kind of methods are satisfying but only on a small group of textures, failing when important structures are visible in the input provided. The second category methods reorganize local neighborhoods from the input sample in a consistent way creating new texture images. These methods return impressive visual results. Nevertheless, they often yield verbatim copies of large parts of the input sample. Furthermore, they can diverge, starting to reproduce iteratively one part of the input sample and neglecting the rest of it, thus growing ``garbage''. In this thesis we propose a technique combining ideas from the statistic based methods and from the non parametric patch based methods. We call it the locally Gaussian method. The method keeps the positive aspects of both categories: the innovation capacity of the parametric methods and the ability to synthesize highly structured textures of the non parametric methods. To this aim, the self-similarities of a given input texture are modeled with conditional multivariate Gaussian distributions in the patch space. In general, the results that we obtain are visually superior to those obtained with statistic based methods while using local parametric models. On the other hand, our results are comparable to the visual results obtained with the non parametric patch based methods. This dissertation addresses another weakness of all patch based methods. They are strongly dependent on the patch size used, which is decided manually. It is therefore crucial to fix a correct patch size for each synthesis. Since texture images have, in general, details at different scales, we decided to extend the method to a multiscale approach which reduces the strong dependency of the method on the patch size. Patch based methods involve a stitching step. Indeed, the patches used for the synthesis process overlap each other. This overlap must be taken into account to avoid any transition artifact from patch to patch. Our first attempt to deal with it was to consider directly the overlap constraints in the local parametric model. The experiments show that for periodic and pseudo-periodic textures, considering these constraints in the parametrization is enough to avoid the stitching step. Nevertheless, for more complex textures it is not enough, and this led us to suggest a new stitching technique inspired by optimal transport and midway histogram equalization.This thesis ends with an extensive analysis of the generation of several natural textures. This study shows that, in spite of remarkable progress for local textures, the methods proposed in the extensive literature of exemplar based texture synthesis still are incapable of dealing with complex and non-stationary textures.
80

Étude du maximum et des hauts points de la marche aléatoire branchante inhomogène et du champ libre gaussien inhomogène

Ouimet, Frédéric 09 1900 (has links)
Voir la bibliographie du mémoire pour les références du résumé. See the thesis`s bibliography for the references in the summary. / Ce mémoire étudie le comportement du maximum et des hauts points de la marche aléatoire branchante et du champ libre gaussien discret en dimension deux lorsque la variance de leurs accroissements est inhomogène dans le temps. Nous regardons le cas où il y a un nombre fini d'échelles $0 = \lambda_0 < \lambda_1 < ... < \lambda_M = 1$ et des paramètres de variance $\sigma_i > 0$ associés aux intervalles de temps $[\lambda_{i-1},\lambda_i]$. La marche aléatoire branchante inhomogène généralise le modèle considéré dans [23] et le champ libre gaussien inhomogène généralise le modèle introduit dans [4]. Le but du mémoire est d'étendre les résultats connus sur la convergence du maximum [5,6,23] et le nombre de hauts points [16] à ces deux nouveaux champs gaussiens. Les résultats aident à mieux comprendre comment la perturbation des corrélations dans l'un ou l'autre des modèles de base influence l'ordre de grandeur du maximum et l'ordre du nombre de hauts points. / This thesis studies the behavior of the maximum and high points of the branching random walk and the Gaussian free field when the variance of their increments is time-inhomogeneous. We look at the case where there are a finite number of scales $0 = \lambda_0 < \lambda_1 < ... < \lambda_M = 1$ and variance parameters $\sigma_i > 0$ associated with the time intervals $[\lambda_{i-1},\lambda_i]$. The inhomogeneous branching random walk generalizes the model considered in [23] and the inhomogeneous Gaussian free field generalizes the model introduced in [4]. The purpose of the thesis is to extend known results on the convergence of the maximum [5,6,23] and the number of high points [16] to these new Gaussian fields. The results help to better understand how perturbations of the correlations in one or the other basic models influence the order of magnitude of the maximum and the order of the number of high points.

Page generated in 0.0599 seconds