• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 26
  • 13
  • 12
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 163
  • 163
  • 26
  • 26
  • 24
  • 22
  • 21
  • 20
  • 19
  • 18
  • 18
  • 17
  • 17
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne / Multipath impact on the performances of satellite navigation systems : contribution to the enhancement of location accuracy towards bayesian modeling

Nahimana, Donnay Fleury 19 February 2009 (has links)
De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites / Most of the GNSS-based transport applications are employed in dense urban areas. One of the reasons of bad position accuracy in urban area is the obstacle's presence (building and trees). Many solutions are developed to decrease the multipath impact on accuracy and availability of GNSS systems. Integration of supplementary sensors into the localisation system is one of the solutions used to supply a lack of GNSS data. Such systems offer good accuracy but increase complexity and cost, which becomes inappropriate to equip a large fleet of vehicles.This thesis proposes an algorithmic approach to enhance the position accuracy in urban environment. The study is based on GNSS signals only and knowledge of the close reception environment with a 3D model of the navigation area.The method impacts the signal filtering step of the process. The filtering process is based on Sequential Monte Carlo methods called particle filter. As the position error in urban area is related to the satellite reception state (blocked, direct or reflected), information of the receiver environment is taken into account. A pseudorange error model is also proposed to fit satellite reception conditions. In a first work, the reception state of each satellite is assumed to be known. A Markov chain is defined for a known trajectory of the vehicle and is used to determine the successive reception states of each signal. Then, the states are estimated using a Dirichlet distribution
142

Identification passive en acoustique : estimateurs et applications au SHM / Passive estimation in acoustics : estimators and applications to SHM

Vincent, Rémy 08 January 2016 (has links)
L’identité de Ward est une relation qui permet d’identifier unmilieu de propagation linéaire dissipatif, c'est-à-dire d'estimer des paramètres qui le caractérisent. Dans les travaux exposés, cette identité est utilisée pour proposer de nouveaux modèles d’observation caractérisant un contexte d’estimation qualifié de passif : les sources qui excitent le système ne sont pas contrôlées par l’utilisateur. La théorie de l’estimation/détection dans ce contexte est étudiée et des analyses de performances sont menées sur divers estimateurs. La portée applicative des méthodes proposées concerne le domaine du Structural Health Monitoring (SHM), c’est-à-dire le suivi de l’état de santé desbâtiment, des ponts... L'approche est développée pour la modalité acoustique aux fréquences audibles, cette dernière s'avérant complémentaire des techniques de l’état de l’art du SHM et permettant entre autre, d’accéder à des paramètres structuraux et géométriques. Divers scénarios sont illustrés par la mise en oeuvre expérimentale des algorithmes développés et adaptés à des contraintes de calculs embarqués sur un réseau de capteurs autonome. / Ward identity is a relationship that enables damped linear system identification, ie the estimation its caracteristic properties. This identity is used to provide new observation models that are available in an estimation context where sources are uncontrolled by the user. An estimation and detection theory is derived from these models and various performances studies areconducted for several estimators. The reach of the proposed methods is extended to Structural Health Monitoring (SHM), that aims at measuring and tracking the health of buildings, such as a bridge or a sky-scraper for instance. The acoustic modality is chosen as it provides complementary parameters estimation to the state of the art in SHM, such as structural and geometrical parameters recovery. Some scenarios are experimentally illustrated by using the developed algorithms, adapted to fit the constrains set by embedded computation on anautonomous sensor network.
143

Os efeitos da interação entre as políticas fiscal e monetária sobre variáveis macroeconomicas da economia brasileira

Souza, Elder Tiago da Costa 03 March 2016 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2016-08-10T12:49:00Z No. of bitstreams: 1 eldertiagodacostasouza.pdf: 2456774 bytes, checksum: c3b48a393ed4f366bf8bd81d38993b9d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-08-10T13:03:58Z (GMT) No. of bitstreams: 1 eldertiagodacostasouza.pdf: 2456774 bytes, checksum: c3b48a393ed4f366bf8bd81d38993b9d (MD5) / Made available in DSpace on 2016-08-10T13:03:58Z (GMT). No. of bitstreams: 1 eldertiagodacostasouza.pdf: 2456774 bytes, checksum: c3b48a393ed4f366bf8bd81d38993b9d (MD5) Previous issue date: 2016-03-03 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O principal objetivo desta dissertação é estudar os efeitos da interação entre as políticas fiscal e monetária sobre as variáveis macroeconômicas da economia brasileira. Para tal analisou-se a significância dos diferentes modelos de DSGE, por meio da metodologia DSGE-VAR, que implica na estimação do parâmetro de ajustamento do modelo (lambda), conforme Del Negro e Schorfheide (2004, 2006, 2009). Os resultados mostram que o modelo DSGE Bayesiano, com preços rígidos, setor externo e com a interação entre as políticas, é aquele que tem a melhor aderência aos dados reais. Destarte, foram estimadas as funções impulso-resposta, que corroboram a importância da inter-relação entre as políticas fiscal e monetária. A partir daí, avaliou-se o regime de dominância praticado no Brasil, sob a metodologia proposta por Leeper (1991). A combinação dos valores dos parâmetros resulta na proposição de dominância monetária, no período que compreende o primeiro trimestre de 2002 e o terceiro trimestre de 2015. Ademais, estudou-se o regime de dominância, relacionado ao período anterior e posterior à crise do subprime. Os resultados mostram que o regime de dominância não foi alterado. No entanto, a política fiscal tem se tornado mais ativa.Verificou-se que no período pós crise, tanto os choque de política fiscal quanto os de política monetária foram maiores, ou seja, intensificou-se o uso dos instrumentos fiscais. / The main aim of this dissertation is to study the effects of the interaction between fiscal and monetary policies on the macroeconomic variables of the Brazilian economy. Therefore we analyzed the significance of different DSGE models through the DSGE-VAR method, which involves the estimation of lambda model fitting parameter, as Del Negro and Schorfheide (2004, 2006, 2009). The results show that Bayesian DSGE models with sticky prices, external sector and the interaction between policies, is one that has the best grip to the actual data. Thus, were estimated the impulse response functions, which confirm the importance of the interrelationship between fiscal and monetary policies. From there, we evaluated the dominance regime practiced in Brazil, under the method proposed by Leeper (1991). The parameter values combination results in monetary dominance proposition in the period from the first quarter of 2002 and the third quarter of 2015. Besides, we estudied the dominance regime related to period prior and posterior to the subprime crisis. The results show that the dominance regime has not change. However, fiscal policy has became more active. It was found that in the post crisis period, both the shock fiscal policy as the monetary policy were higher, i.e., intensified the use of fiscal instruments.
144

Essays on Monetary Policy in an Oil Exporting Economy / Essais sur la politique monétaire dans une économie exportatrice de pétrole

Benkhodja, Mohamed Tahar 25 May 2012 (has links)
Cette thèse de doctorat aborde le rôle de la politique dans une économie exportatrice de pétrole sous forme de trois essais. Chaque essai tente d'apporter des réponses à une problématique liée à la réponse de la politique monétaire face aux chocs externes, en particulier le choc pétrolier. A ce titre, nous construisons trois modèles dynamique et stochastique d'équilibre général (DSGE) multisectoriels que nous calibrons et estimons sur des pays producteurs de pétrole. Dans le premier essai, nous montrons que le syndrome hollandais sous ses deux effets, dépense et ressource, semble avoir lieu dans une économie exportatrice de pétrole seulement lorsque les salaires sont flexibles et les prix rigides dans le cas d'un régime de change fixe. En d'autre terme, les simulations montrent que le syndrome hollandais est évité si les prix sont rigides et les salaires sont flexibles lorsque les autorités monétaires adoptent une règle de ciblage d'inflation ; les prix et les salaires sont rigides, quelque soit l'objectif de la Banque centrale dans les deux cas : aubaine et boom. Nous montrons également, en comparant les sources de fluctuation qui conduisent au syndrome hollandais que la hausse de gisement pétrolier (boom) conduit à une plus forte désindustrialisation de l'économie comparé à l'aubaine. Enfin, le régime de change flexible semble améliorer le bien être des ménages. Dans le deuxième essai , nous comparons trois règles de politique monétaire (ciblage d'inflation, ciblage de taux de change et ciblage de l'inflation sous jacente) face à quatre chocs externes (prix du pétrole, taux de change, terme de l'échange et taux d'intérêt international) subis par un pays exportateur de pétrole. Pour ce faire, nous construisons un modèle DSGE à deux secteurs (pétrolier et non-pétrolier) estimé sur des données trimestrielles de l'économie algérienne en utilisant l'approche bayésienne. Les résultats montrent que, globalement, la réponse des variables macroéconomiques du modèle, est similaire sous les trois règles de politique monétaire. Notre principal résultat est la dépréciation du Dollar américain et la hausse du prix du pétrole constituent la principale source de fluctuation cyclique de l'économie algérienne. Aussi, et comme prédit par la théorie, la dépréciation du dollar américain a significativement contribué à la détérioration des termes de l'échange et du compte courant. Dans ce cas, la Banque centrale peut adopter une politique de dévaluation pour éviter les effets de ces chocs. Dans le troisième essai, nous considérons un échantillon de 16 pays exportateurs de pétrole que nous divisons en deux sous échantillons afin de comparer l'occurrence du syndrome hollandais dans deux principales catégories : les pays fortement dépendants du pétrole et les pays faiblement dépendants du pétrole. Nos principaux résultats montrent que six parmi huit pays fortement dépendants subissent les effets du syndrome hollandais. Dans l'autre sous échantillons, seul un pays sur huit subit le syndrome hollandais sous ses effets dépenses et ressources. Toutefois, concernant la règle de politique monétaire à adopter face au syndrome hollandais, les résultats obtenus ne sont pas tous identiques dans tous les pays. Il semblerait que, l'adoption d'une politique monétaire appropriée dépend essentiellement des caractéristiques structurelles de chaque pays. / The aim of this thesis is to analyze the impact of external shocks on oil exporting economies and the role of monetary policy in this context. It consists of three essays. In the first essay, we build a Multi-sector Dynamic Stochastic General Equilibrium (DSGE) model to investigate the impact of both windfall (an increase in oil price) and boom (an increase in oil resource) on an oil exporting economy. Our model is built to see if the two oil shocks (windfall and boom) generate, in the same proportion, a Dutch Disease effect. Our main findings show that the Dutch disease effect under its two main mechanisms, namely spending effect and resource-movement effect, occurs only in the case of flexible wages and sticky prices, when exchange rate is fixed. We also compare the source of fluctuations that leads to a strong effect in term of de-industrialization. We conclude that the windfall leads to a stronger effect than a boom. Finally, the choice of flexible exchange rate regime helps to improve welfare.In the second essay, we estimate, by using the Bayesian approach, a DSGE model for Algerian economy investigating the dynamic effect of four external shocks (oil price, real exchange rate, international interest rate and foreign inflation), and examining the appropriate monetary policy rule. Our main findings show that, over the period 1990Q1-2010Q4, core inflation target is the best monetary rule to stabilize both output and inflation. In the third essay, we investigate the impact of the recent increase of oil price on a small open oil exporting economy. For this, we estimate a Dynamic, Stochastic, General equilibrium (DSGE) model for some oil producing countries using the Bayesian approach. We consider, in this essay, a sample of 16 oil exporting countries (Algeria, Argentina, Ecuador, Gabon, Indonesia, Kuwait, Libya, Malaysia, Mexico, Nigeria, Oman, Russia, Saudi Arabia, United Arab Emirates, and Venezuela) over the period from 1980 to 2010, except for Russia where our sample begins in 1992. In order to distinguish between high-dependent and low-dependent countries, we use two indicators : the ratio of fuel exports to total merchandise exports and the ratio of oil exports to GDP. We estimate the median for each ratio on our 16 studied countries. Countries above (below) the median are considered as high (low) oil dependent economies. We verify if the first group is more sensitive to the Dutch disease effect. We also assess the role of monetary policy. Our main findings show that in the first sample, namely high oil dependant economies, 6 countries are affected by the Dutch disease (decrease in the manufacturing production). Low oil dependant countries, are less affected by the fluctuation of oil price. Indeed, only one country has suffered a Dutch disease effect after the shock. Nevertheless, Regarding the appropriate monetary policy rule, we find that both inflation targeting and exchange rate rules may be effective to contain the size of the Dutch disease effect. Our results suggest that in Algeria and Saudi Arabia, inflation targeting offers better performances. We observe the opposite in Gabon, Kuwait, Oman, and Venezuela. Such results are consistent with economic theory. Indeed, we see that in more open economies and smaller countries (in terms of economic size), the exchange rate rule is preferable to inflation rule. Venezuela seems an exception. Such country does not fulfill the traditional criteria favoring the choice of the exchange rule. In fact, this exception is only apparent. First, if we consider the volatility, we see that Venezuela is among the most volatile economy. Second, Venezuela suffers from a fiscal dominance effect: both inflation rate and fiscal deficit are the highest relative to other studied countries.
145

Chaînes de Markov cachées et séparation non supervisée de sources / Hidden Markov chains and unsupervised source separation

Rafi, Selwa 11 June 2012 (has links)
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle / The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
146

Maintien en conditions opérationnelles pour une flotte de véhicules : étude de la non stabilité des flux de rechange dans le temps / Maintenance, repair and operations for a fleet of vehicles : study of the non-stability of the flow of spares over time

Ducros, Florence 26 June 2018 (has links)
Dans cette thèse, nous proposons une démarche méthodologique permettant de simuler le besoin en équipement de rechange pour une flotte de véhicules. Les systèmes se dégradent avec l’âge ou l’usage, et sont défaillants lorsqu’ils ne remplissent plus leur mission. L’usager a alors besoin d’une assurance que le système soit opérationnel pendant sa durée de vie utile. Un contrat de soutien oblige ainsi l’industriel à remédier à une défaillance et à maintenir le système en condition opérationnelle durant la durée du contrat. Ces dernières années, la mondialisation et l’évolution rapide des technologies obligent les constructeurs à proposer des offres de contrat de maintenance bien au-delà de la vie utile des équipements. La gestion de contrat de soutien ou d’extension de soutien requiert la connaissance de la durée de vie des équipements, mais aussi des conditions d’usages des véhicules, dépendant du client. L’analyse des retours clientèle ou des RetEx est alors un outil important d’aide à la décision pour l’industriel. Cependant ces données ne sont pas homogènes et sont très fortement censurées, ce qui rend les estimations difficiles. La plupart du temps, cette variabilité n’est pas observée mais doit cependant être prise en compte sous peine d’erreur de décision. Nous proposons dans cette thèse de modéliser l’hétérogénéité des durées de vie par un modèle de mélange et de concurrence de deux lois de Weibull. On propose une méthode d’estimation des paramètres capable d’être performante malgré la forte présence de données censurées.Puis, nous faisons appel à une méthode de classification non supervisée afin d’identifier des profils d’utilisation des véhicules. Cela nous permet alors de simuler les besoins en pièces de rechange pour une flotte de véhicules pour la durée du contrat ou pour une extension de contrat. / This thesis gathers methodologicals contributions to simulate the need of replacement equipment for a vehile fleet. Systems degrade with age or use, and fail when they do not fulfill their mission. The user needs an assurance that the system is operational during its useful life. A support contract obliges the manufacturer to remedy a failure and to keep the system in operational condition for the duration of the MCO contract.The management of support contracts or the extension of support requires knowledge of the equipment lifetime and also the uses condition of vehicles, which depends on the customer. The analysis of customer returns or RetEx is then an important tool to help support the decision of the industrial. In reliability or warranty analysis, engineers must often deal with lifetimes data that are non-homogeneous. Most of the time, this variability is unobserved but has to be taken into account for reliability or warranty cost analysis.A further problem is that in reliability analysis, the data is heavily censored which makes estimations more difficult. We propose to consider the heterogeneity of lifetimes by a mixture and competition model of two Weibull laws. Unfortunately, the performance of classical estimation methods (maximum of likelihood via EM, Bayes approach via MCMC) is jeopardized due to the high number of parameters and the heavy censoring.To overcome the problem of heavy censoring for Weibull mixture parameters estimation, we propose a Bayesian bootstrap method, called Bayesian RestorationMaximization.We use an unsupervised clustering method to identify the profiles of vehicle uses. Our method allows to simulate the needs of spare parts for a vehicles fleet for the duration of the contract or for a contract extension.
147

Komprimované vzorkování pro efektivní sledování objektu senzorovou sítí / Compressive sampling for effective target tracking in a sensor network

Klimeš, Ondřej January 2019 (has links)
The master's thesis deals with target tracking. For this a decentralized sensor network using distributed particle filter with likelihood consensus is used. This consensus is based on a sparse representation of local likelihood function in a suitable chosen dictionary. In this thesis two dictionaries are compared: the widely used Fourier dictionary and our proposed B-splines. At the same time, thanks to the sparsity of distributed data, it is possible to implement compressed sensing method. The results are compared in terms of tracking error and communication costs. The thesis also contains scripts and functions in MATLAB.
148

Essays on Forecasting

Pacella, Claudia 15 June 2020 (has links) (PDF)
In this thesis I apply modern econometric techniques on macroeconomic time series. Forecasting is here developed along several dimensions in the three chapters. The chapters are in principle self-contained. However, a common element is represented by the business cycle analysis. In the first paper, which primarily deals with the problem of forecasting euro area inflation in the short and medium run, we also compute the country-specific responses of a common business cycle shock. Both chapters 2 and 3 deal predominately with business cycle issues from two different perspectives. The former chapter analyses the business cycle as a dichotomous non-observable variable and addresses the issue of evaluating the euro area business cycle dating formulated by the CEPR committee, while the latter chapter studies the entire distribution of GDP growth. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
149

Modèles graphiques évidentiels / Evidential graphical models

Boudaren, Mohamed El Yazid 12 January 2014 (has links)
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d’images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d’estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d’estimer les paramètres du modèle à partir de l’observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l’évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l’aspect hétérogène des distributions de bruit s’inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l’hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l’instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d’estimation des paramètres associées. L’intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles / Hidden Markov chains (HMCs) based approaches have been shown to be efficient to resolve a wide range of inverse problems occurring in image and signal processing. In particular, unsupervised segmentation of data is one of these problems where HMCs have been extensively applied. According to such models, the observed data are considered as a noised version of the requested segmentation that can be modeled through a finite Markov chain. Then, Bayesian techniques such as MPM can be applied to estimate this segmentation even in unsupervised way thanks to some algorithms that make it possible to estimate the model parameters from the only observed data. HMCs have then been generalized to pairwise Markov chains (PMCs) and triplet Markov chains (TMCs), which offer more modeling possibilities while showing comparable computational complexities, and thus, allow to consider some challenging situations that the conventional HMCs cannot support. An interesting link has also been established between the Dempster-Shafer theory of evidence and TMCs, which give to these latter the ability to handle multisensor data. Hence, in this thesis, we deal with three challenging difficulties that conventional HMCs cannot handle: nonstationarity of the a priori and/or noise distributions, noise correlation, multisensor information fusion. For this purpose, we propose some original models in accordance with the rich theory of TMCs. First, we introduce the M-stationary noise- HMC (also called jumping noise- HMC) that takes into account the nonstationary aspect of the noise distributions in an analogous manner with the switching-HMCs. Afterward, ML-stationary HMC consider nonstationarity of both the a priori and/or noise distributions. Second, we tackle the problem of non-stationary PMCs in two ways. In the Bayesian context, we define the M-stationary PMC and the MM-stationary PMC (also called switching PMCs) that partition the data into M stationary segments. In the evidential context, we propose the evidential PMC in which the realization of the hidden process is modeled through a mass function. Finally, we introduce the multisensor nonstationary HMCs in which the Dempster-Shafer fusion has been used on one hand, to model the data nonstationarity (as done in the hidden evidential Markov chains) and on the other hand, to fuse the information provided by the different sensors (as in the multisensor hidden Markov fields context). For each of the proposed models, we describe the associated segmentation and parameters estimation procedures. The interest of each model is also assessed, with respect to the former ones, through experiments conducted on synthetic and real data
150

Implications of Hydrologic Data Assimilation in Improving Suspended Sediment Load Estimation in Lake Tahoe, California

Leisenring, Marc 01 January 2011 (has links)
Pursuant to the federal Clean Water Act (CWA), when a water body has been listed as impaired, Total Maximum Daily Loads (TMDLs) for the water quality constituents causing the impairment must be developed. A TMDL is the maximum daily mass flux of a pollutant that a waterbody can receive and still safely meet water quality standards. The development of a TMDL and demonstrating compliance with a TMDL requires pollutant load estimation. By definition, a pollutant load is the time integral product of flows and concentrations. Consequently, the accuracy of pollutant load estimation is highly dependent on the accuracy of runoff volume estimation. Runoff volume estimation requires the development of reasonable transfer functions to convert precipitation into runoff. In cold climates where a large proportion of precipitation falls as snow, the accumulation and ablation of snowpack must also be estimated. Sequential data assimilation techniques that stochastically combine field measurements and model results can significantly improve the prediction skill of snowmelt and runoff models while also providing estimates of prediction uncertainty. Using the National Weather Service's SNOW-17 and the Sacramento Soil Moisture Accounting (SAC-SMA) models, this study evaluates particle filter based data assimilation algorithms to predict seasonal snow water equivalent (SWE) and runoff within a small watershed in the Lake Tahoe Basin located in California. A non-linear regression model is then used that predicts suspended sediment concentrations (SSC) based on runoff rate and time of year. Runoff volumes and SSC are finally combined to provide an estimate of the average annual sediment load from the watershed with estimates of prediction uncertainty. For the period of simulation (10/1/1991 to 10/1/1996), the mean annual suspended sediment load is estimated to be 753 tonnes/yr with a 95% confidence interval about the mean of 626 to 956 tonnes/yr. The 95% prediction interval for any given year is estimated to range from approximately 86 to 2,940 tonnes/yr.

Page generated in 0.2127 seconds