• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 42
  • 5
  • Tagged with
  • 124
  • 66
  • 39
  • 39
  • 30
  • 28
  • 25
  • 19
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Changements d'échelle en modélisation de la qualité de l'air et estimation des incertitudes associées

Korsakissok, Irène 15 December 2009 (has links) (PDF)
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. En particulier, les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles, deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. Couplage de modèles L'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée est très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous-maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs passifs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. Réduction d'échelle statistique Une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée "composantes principales ajustées". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain).
12

Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle.

Benassi, Romain 19 June 2013 (has links) (PDF)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l'utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d'algorithmes concurrents.
13

Détection en Environnement non Gaussien

Jay, Emmanuelle 14 June 2002 (has links) (PDF)
Les échos radar provenant des diverses réflexions du signal émis sur les éléments de l'environnement (le fouillis) ont longtemps été modélisés par des vecteurs Gaussiens. La procédure optimale de détection se résumait alors en la mise en oeuvre du filtre adapté classique.<br />Avec l'évolution technologique des systèmes radar, la nature réelle du fouillis s'est révélée ne plus être Gaussienne. Bien que l'optimalité du filtre adapté soit mise en défaut dans pareils cas, des techniques TFAC (Taux de Fausses Alarmes Constant) ont été proposées pour ce détecteur, dans le but d'adapter la valeur du seuil de détection aux multiples variations locales du fouillis. Malgré leur diversité, ces techniques se sont avérées n'être ni robustes ni optimales dans ces situations.<br />A partir de la modélisation du fouillis par des processus complexes non-Gaussiens, tels les SIRP (Spherically Invariant Random Process), des structures optimales de détection cohérente ont pu être déterminées. Ces modèles englobent de nombreuses lois non-Gaussiennes, comme la K-distribution ou la loi de Weibull, et sont reconnus dans la littérature pour modéliser de manière pertinente de nombreuses situations expérimentales. Dans le but d'identifier la loi de leur composante caractéristique qu'est la texture, sans a priori statistique sur le modèle, nous proposons, dans cette thèse, d'aborder le problème par une approche bayésienne. <br />Deux nouvelles méthodes d'estimation de la loi de la texture en découlent : la première est une méthode paramétrique, basée sur une approximation de Padé de la fonction génératrice de moments, et la seconde résulte d'une estimation Monte Carlo. Ces estimations sont réalisées sur des données de fouillis de référence et donnent lieu à deux nouvelles stratégies de détection optimales, respectivement nommées PEOD (Padé Estimated Optimum Detector) et BORD (Bayesian Optimum Radar Detector). L'expression asymptotique du BORD (convergence en loi), appelée le "BORD Asymptotique", est établie ainsi que sa loi. Ce dernier résultat permet d'accéder aux performances théoriques optimales du BORD Asymptotique qui s'appliquent également au BORD dans le cas où la matrice de corrélation des données est non singulière.<br />Les performances de détection du BORD et du BORD Asymptotique sont évaluées sur des données expérimentales de fouillis de sol. Les résultats obtenus valident aussi bien la pertinence du modèle SIRP pour le fouillis que l'optimalité et la capacité d'adaptation du BORD à tout type d'environnement.
14

Premier temps de passage de processus gaussiens et markoviens

Larrivée, Sandra 11 1900 (has links) (PDF)
Ce mémoire porte sur la densité du premier temps de passage d'un processus gaussien et markovien à travers une frontière. Ce problème est résolu pour quelques cas particuliers, mais il n'est pas encore possible pour l'instant de le résoudre de façon analytique pour une frontière déterministe quelconque. (Di Nardo et al., 2001) ont proposé une méthode qui utilise des fonctions symétriques pour un ensemble de frontières qui généralisent celles de (Daniels, 1996). C'est ce qui est principalement étudié ici. De plus, deux exemples d'applications en finance sont considérés. Finalement, on regarde aussi un exemple de simulations pour comparer cette méthode à celle de (Durbin et Williams, 1992). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Processus gaussien et markovien, mouvement brownien, processus d'Ornstein-Uhlenbeck, premier temps de passage.
15

Marches aléatoires branchantes et champs Gaussiens log-corrélés / Branching random walks and log-correlated Gaussian fields

Madaule, Thomas 13 December 2013 (has links)
Nous étudions le modèle de la marche aléatoire branchante. Nous obtenons d'abord des résultats concernant le processus ponctuel formé par les particules extrémales, résolvant ainsi une conjecture de Brunet et Derrida 2010 [36]. Ensuite, nous établissons la dérivée au point critique de la limite des martingales additives complétant ainsi l'étude initiée par Biggins [23]. Ces deux travaux reposent sur les techniques modernes de décompositions épinales de la marche aléatoire branchante, originairement développées par Chauvin, Rouault et Wakolbinger [41], Lyons, Pemantle et Peres [74], Lyons [73] et Biggins et Kyprianou [24]. Le dernier chapitre de la thèse porte sur un champ Gaussien log-correle introduit par Kahane 1985 [61]. Via de récents travaux comme ceux de Allez, Rhodes et Vargas [11], Duplantier, Rhodes, Sheeld et Vargas [46] [47], ce modèle a connu un important regain d'intérêt. La construction du chaos multiplicatif Gaussien dans le cas critique a notamment été prouvée dans [46]. S'inspirant des techniques utilisées pour la marche aléatoire branchante nous résolvons une conjecture de [46] concernant le maximum de ce champ Gaussien. / We study the model of the branching random walk. First we obtain some results concerning thepoint process formed by the extremal particles, proving a Brunet and Derrida's conjecture [36] as well. Thenwe establish the derivative of the additive martingale limit at the critical point, completing the study initiatedby Biggins [23]. These two works rely on the spinal decomposition of the branching random walk, originallyintroduced by Chauvin, Rouault and Wakolbinger [41], Lyons, Pemantle and Peres [74], Lyons [73] and Bigginsand Kyprianou [24].The last chapter of the thesis deals with a log-correlated Gaussian field introduced by Kahane [61]. Thismodel was recently revived in particular by Allez, Rhodes and Vargas [11], and Duplantier, Rhodes, Shefield andVargas [46] [47]. Inspired by the techniques used for branching random walk we solved a conjecture of Duplantier,Rhodes, Shefield and Vargas [46], on the maximum of this Gaussian field.
16

Le fond gravitationnel stochastique : méthodes de détection en régimes non-Gaussiens / Stochastic gravitational wave background : detection methods in non-Gaussian regimes

Martellini, Lionel 23 May 2017 (has links)
Les méthodes standard de détection du fond gravitationnel stochastique reposent sur l'hypothèse simplificatrice selon laquelle sa distribution ainsi que celle du bruit des détecteurs sont Gaussiennes. Nous proposons dans cette thèse des méthodes améliorées de détection du fond gravitationnel stochastique qui tiennent compte explicitement du caractère non-Gaussien de ces distributions. En utilisant un développement d'Edgeworth, nous obtenons dans un premier temps une expression analytique pour la statistique du rapport de vraisemblance en présence d'une distribution non Gaussienne du fonds gravitationnel stochastique. Cette expression généralise l'expression habituelle lorsque le coefficient de symétrie et le coefficient d'aplatissement de la distribution du fond stochastique sont non nuls. Sur la base de simulations stochastiques pour différentes distributions symétriques présentant des queues plus épaisses que celles de la distribution Gaussienne, nous montrons par ailleurs que le 4eme cumulant peut-être estimé avec une précision acceptable lorsque le ratio signal à bruit est supérieur à 1%, ce qui devrait permettre d'apporter des contraintes supplémentaires intéressantes sur les valeurs de paramètres issus des modèles astrophysiques et cosmologiques. Dans un deuxième temps, nous cherchons à analyser l'impact sur les méthodes de détection du fond gravitationnel stochastique de déviations par rapport à la normalité dans la distribution du bruit des détecteurs. / The new generation of interferometers should allow us to detect stochastic gravitational wave backgrounds that are expected to arise from a large number of random, independent, unresolved events of astrophysical or cosmological origin. Most detection methods for gravitational waves are based upon the assumption of Gaussian gravitational wave stochastic background signals and noise processes. Our main objective is to improve the methods that can be used to detect gravitational backgrounds in the presence of non-Gaussian distributions. We first maintain the assumption of Gaussian noise distributions so as to better focus on the impact of deviations from normality of the signal distribution in the context of the standard cross-correlation detection statistic. Using a 4th-order Edgeworth expansion of the unknown density for the signal and noise distributions, we first derive an explicit expression for the non-Gaussian likelihood ratio statistic, which is obtained as a function of the variance, but also skewness and kurtosis of the unknown signal and noise distributions. We use numerical procedures to generate maximum likelihood estimates for the gravitational wave distribution parameters for a set of symmetric heavy-tailed distributions, and we find that the fourth cumulant can be estimated with reasonable precision when the ratio between the signal and the noise variances is larger than 1%, which should be useful for analyzing the constraints on astrophysical and cosmological models. In a second step, we analyze the efficiency of the standard cross-correlation statistic in situations that also involve non-Gaussian noise distributions.
17

Modélisation multi échelles de l'impact du trafic routier sur la qualité de l'air / Multi scale modeling of roadway traffic impact on air quality

Briant, Régis 16 November 2012 (has links)
Le trafic routier contribue à la pollution atmosphérique aussi bien à proximité des voies avec des polluants tels que le dioxyde d'azote (NO2), les particules (PM) et certains composés organiques volatils (COV) qu'à des échelles spatiales plus grandes (pollution de fond urbaine et régionale) avec des polluants formés dans l'atmosphère tels que l'ozone (O3) et la fraction secondaire des particules. Étant donné les interactions entre pollution de proximité et pollution de fond, il est souhaitable de combiner en un seul outil de calcul des modèles à échelles locale et régionale. Cette méthode de modélisation multi-échelles a été largement utilisée pour simuler l'impact des émissions de cheminées (sources ponctuelles) avec des modèles de panache traités en sous-maille d'un modèle eulérien tri-dimensionnel. Cependant, une telle méthode n'est pas applicable à un réseau routier en raison des temps de calcul prohibitifs associés à la discrétisation d'une source linéique en un ensemble de sources ponctuelles. Par conséquent, une nouvelle méthode de modélisation multi-échelles a été développée, qui traite les panaches émis par des sources linéiques en sous-maille d'un modèle eulérien. Tout d'abord, une formulation améliorée d'un modèle gaussien de panache linéique a été développée. Ce nouveau modèle à ensuite fait l'objet d'une évaluation détaillée avec des mesures en proximité de routes ainsi qu'avec d'autres modèles gaussiens. La combinaison de ce modèle gaussien et d'un modèle eulérien (Polair3D) a été implémentée dans la plate-forme de modélisation Polyphemus. Les performances (temps de calcul et précision) du nouveau modèle de panache en sous-maille ont été évaluées et comparées aux performances des modèles gaussien et eulérien seuls. Ce modèle multi-échelles traite la chimie des oxydes d'azote (NOx) et des principaux COV. Le traitement multi-échelles a un effet important sur les concentrations de certains polluants en termes de pollutions de proximité et de fond urbain / Roadway traffic contributes to atmospheric pollution near roads, with pollutants such as nitrogen dioxide (NO2), particles (PM) along with some volatile organic compounds (VOC), as well as at larger spatial scales (urban and regional background pollution) with pollutants formed in the atmosphere such as ozone (O3) and the secondary fraction of PM. Because of interactions between local and background pollutants, it is desirable to combine into a single computational tool, regional and local scale models. This multi-scale modeling method has been widely used to simulate the impact of chimney emissions (point sources) with a sub-grid treatment of plume or puff models instead within a 3-dimensional Eulerian model. However, such a method is not applicable to a road network because of the prohibitive computations associated with the line source discretization into a set of point sources. Thus, a new multi-scale modeling method was developed, which treats the plumes emitted from line sources as sub-grid components of an Eulerian model. First, an improved formulation of a Gaussian plume model for line sources was developed. This new model was then subject to a detailed evaluation with near roadway measurements along with other Gaussian models. The incorporation of the Gaussian plume model into an Eulerian model (Polair3D) was implemented as part of the modeling platform Polyphemus. The performance (computational effectiveness and precision) of the new multi-scale model (Plume-in-Grid) was evaluated and compared to those of a stand-alone Gaussian and Eulerian models. The multi-scale model treats nitrogen oxide (NOx) chemistry along with major VOC. The multi-scale treatment has an important effect on the concentration of some pollutants in terms of local and urban background pollution
18

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye de Micheaux, Pierre 12 1900 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
19

Méthodes stochastiques pour la modélisation d'incertitudes sur les maillages non structurés / Stochastic methods for modeling uncertainties on unstructured grids

Zaytsev, Victor 12 September 2016 (has links)
La simulation des phénomènes physiques exige souvent l’utilisation d’une discrétisation du milieu sous forme de maillage. Un exemple de ce type de situation est la simulation d’écoulement de fluides et la simulation du stress géomécanique pour les gisements pétroliers. Dans ces cas, le milieu étudié n’est pas homogène et l'hypothèse sur l’homogénéité de ce milieu peut mener à des résultats incorrects. C’est pourquoi la simulation des hétérogénéités est très importante pour ce genre de problèmes.Cette thèse est consacrée à la simulation géostatistique des hétérogénéités sur les maillages non-structurés par les méthodes géostatistiques non-linéaires. Le but de cette thèse est la création d’algorithmes de simulation des hétérogénéités directement sur les maillages non-structurés, sans utiliser les maillages fins réguliers intermédiaires et de l’upscaling. On présente deux modèles théoriques pour les simulations des variables continues sur les maillages non-structurés qui sont les deux versions différentes du modèle Gaussien discret (DGM) - DGM 1 et DGM 2. Le modèle théorique utilisé dans cette thèse permet de convertir le problème de simulation sur un maillage non-structuré en un problème de simulation d’un vecteur Gaussien multivarié et l’application de fonctions de transformation adaptées pour chaque élément du vecteur. La simulation de faciès est aussi envisagée en utilisant une généralisation des modèles pluri-Gaussiens et Gaussien tronqués pour les maillages non-structurés.L’application des méthodes développées est illustrée sur un gisement pétrolier - le cas d’étude X (gisement du gaz offshore). / Simulations of physical phenomenon often require discretizing the medium with a mesh. An example of this type of simulation is the simulation of fluid flow through a porous medium and the evaluation of the geomechanical stress in the petroleum reservoir. The studied medium is often not homogeneous and applying a homogeneity hypothesis can lead to incorrect simulation results. That makes simulation of heterogeneities important for this kind of problems.This thesis is devoted to geostatistical simulations of heterogeneities on unstructured grids using methods of non-linear geostatistics. The objective of this work is the development of algorithms for simulating heterogeneities directly on unstructured grids without using intermediate fine scale regular grids and upscaling. We present two theoretical models for geostatistical simulations of continuous parameters on unstructured grids which are different generalizations of the Discrete Gaussian model (DGM) – DGM 1 and DGM 2. The proposed theoretical models enable converting the problem of geostatistical simulation on an unstructured grid into the well-studied problem of simulating multivariate Gaussian random vectors followed by application of block-dependent transformation functions. The problem of simulating facies is also addressed in this work, for which generalizations of pluri-Gaussian and truncated Gaussian simulation models for unstructured grids are proposed.An application of the proposed methods is demonstrated on a case study X, which is an offshore gas reservoir with a tartan-meshed grid.
20

Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle. / New Bayesian optimization algorithm using a sequential Monte-Carlo approach

Benassi, Romain 19 June 2013 (has links)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l’utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d’algorithmes concurrents. / This thesis deals with the problem of global optimization of expensive-to-evaluate functions in a Bayesian framework. We say that a function is expensive-to-evaluate when its evaluation requires a significant amount of resources (e.g., very long numerical simulations).In this context, it is important to use optimization algorithms that can deal with a limited number of function evaluations. We consider here a Bayesian approach which consists in assigning a prior to the function, under the form of a Gaussian random process. The idea is then to choose the next evaluation points using a probabilistic criterion that indicates, conditional on the previous evaluations, the most interesting regions of the research domain for the optimizer. Two difficulties in this approach can be identified: the choice of the Gaussian process prior and the maximization of the criterion. The first problem is usually solved by using a maximum likelihood approach, which turns out to be a poorly robust method, and to which we prefer a fully Bayesian approach. The contribution of this work is the introduction of a new Bayesian optimization algorithm, which maximizes the Expected Improvement (EI) criterion, and provides an answer to both problems thanks to a Sequential Monte Carlo approach. Numerical results on benchmark tests show good performances of our algorithm compared to those of several other methods of the literature.

Page generated in 0.0364 seconds