• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 26
  • 5
  • Tagged with
  • 81
  • 81
  • 36
  • 23
  • 23
  • 19
  • 19
  • 17
  • 17
  • 15
  • 15
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Contributions en segmentation statistique d'images et reconnaissance de formes 2D

Derrode, Stéphane 29 April 2008 (has links) (PDF)
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
62

Modeling spatial and temporal variabilities in hyperspectral image unmixing / Modélisation de la variabilité spectrale pour le démélange d’images hyperspectral

Thouvenin, Pierre-Antoine 17 October 2017 (has links)
Acquises dans plusieurs centaines de bandes spectrales contiguës, les images hyperspectrales permettent d'analyser finement la composition d'une scène observée. En raison de la résolution spatiale limitée des capteurs utilisés, le spectre d'un pixel d'une image hyperspectrale résulte de la composition de plusieurs signatures associées à des matériaux distincts. À ce titre, le démélange d'images hyperspectrales vise à estimer les signatures des différents matériaux observés ainsi que leur proportion dans chacun des pixels de l'image. Pour cette analyse, il est d'usage de considérer qu'une signature spectrale unique permet de décrire un matériau donné, ce qui est généralement intrinsèque au modèle de mélange choisi. Toutefois, la signature d'un matériau présente en pratique une variabilité spectrale qui peut être significative d'une image à une autre, voire au sein d'une même image. De nombreux paramètres peuvent en être cause, tels que les conditions d'acquisitions (e.g., conditions d'illumination locales), la déclivité de la scène observée ou des interactions complexes entre la lumière incidente et les éléments observés. À défaut d'être prises en compte, ces sources de variabilité perturbent fortement les signatures extraites, tant en termes d'amplitude que de forme. De ce fait, des erreurs d'estimation peuvent apparaître, qui sont d'autant plus importantes dans le cas de procédures de démélange non-supervisées. Le but de cette thèse consiste ainsi à proposer de nouvelles méthodes de démélange pour prendre en compte efficacement ce phénomène. Nous introduisons dans un premier temps un modèle de démélange original visant à prendre explicitement en compte la variabilité spatiale des spectres purs. Les paramètres de ce modèle sont estimés à l'aide d'un algorithme d'optimisation sous contraintes. Toutefois, ce modèle s'avère sensible à la présence de variations spectrales abruptes, telles que causées par la présence de données aberrantes ou l'apparition d'un nouveau matériau lors de l'analyse d'images hyperspectrales multi-temporelles. Pour pallier ce problème, nous introduisons une procédure de démélange robuste adaptée à l'analyse d'images multi-temporelles de taille modérée. Compte tenu de la dimension importante des données étudiées, notamment dans le cas d'images multi-temporelles, nous avons par ailleurs étudié une stratégie d'estimation en ligne des différents paramètres du modèle de mélange proposé. Enfin, ce travail se conclut par l'étude d'une procédure d'estimation distribuée asynchrone, adaptée au démélange d'un grand nombre d'images hyperspectrales acquises sur une même scène à différents instants. / Acquired in hundreds of contiguous spectral bands, hyperspectral (HS) images have received an increasing interest due to the significant spectral information they convey about the materials present in a given scene. However, the limited spatial resolution of hyperspectral sensors implies that the observations are mixtures of multiple signatures corresponding to distinct materials. Hyperspectral unmixing is aimed at identifying the reference spectral signatures composing the data -- referred to as endmembers -- and their relative proportion in each pixel according to a predefined mixture model. In this context, a given material is commonly assumed to be represented by a single spectral signature. This assumption shows a first limitation, since endmembers may vary locally within a single image, or from an image to another due to varying acquisition conditions, such as declivity and possibly complex interactions between the incident light and the observed materials. Unless properly accounted for, spectral variability can have a significant impact on the shape and the amplitude of the acquired signatures, thus inducing possibly significant estimation errors during the unmixing process. A second limitation results from the significant size of HS data, which may preclude the use of batch estimation procedures commonly used in the literature, i.e., techniques exploiting all the available data at once. Such computational considerations notably become prominent to characterize endmember variability in multi-temporal HS (MTHS) images, i.e., sequences of HS images acquired over the same area at different time instants. The main objective of this thesis consists in introducing new models and unmixing procedures to account for spatial and temporal endmember variability. Endmember variability is addressed by considering an explicit variability model reminiscent of the total least squares problem, and later extended to account for time-varying signatures. The variability is first estimated using an unsupervised deterministic optimization procedure based on the Alternating Direction Method of Multipliers (ADMM). Given the sensitivity of this approach to abrupt spectral variations, a robust model formulated within a Bayesian framework is introduced. This formulation enables smooth spectral variations to be described in terms of spectral variability, and abrupt changes in terms of outliers. Finally, the computational restrictions induced by the size of the data is tackled by an online estimation algorithm. This work further investigates an asynchronous distributed estimation procedure to estimate the parameters of the proposed models.
63

Comportement asymptotique des systèmes de fonctions itérées et applications aux chaines de Markov d'ordre variable / Asymptotic behaviour of iterated function systems and applications to variable length Markov chains

Dubarry, Blandine 14 June 2017 (has links)
L'objet de cette thèse est l'étude du comportement asymptotique des systèmes de fonctions itérées (IFS). Dans un premier chapitre, nous présenterons les notions liées à l'étude de tels systèmes et nous rappellerons différentes applications possibles des IFS telles que les marches aléatoires sur des graphes ou des pavages apériodiques, les systèmes dynamiques aléatoires, la classification de protéines ou encore les mesures quantiques répétées. Nous nous attarderons sur deux autres applications : les chaînes de Markov d'ordre infini et d'ordre variable. Nous donnerons aussi les principaux résultats de la littérature concernant l'étude des mesures invariantes pour des IFS ainsi que ceux pour le calcul de la dimension de Hausdorff. Le deuxième chapitre sera consacré à l'étude d'une classe d'IFS composés de contractions sur des intervalles réels fermés dont les images se chevauchent au plus en un point et telles que les probabilités de transition sont constantes par morceaux. Nous donnerons un critère pour l'existence et pour l'unicité d'une mesure invariante pour l'IFS ainsi que pour la stabilité asymptotique en termes de bornes sur les probabilités de transition. De plus, quand il existe une unique mesure invariante et sous quelques hypothèses techniques supplémentaires, on peut montrer que la mesure invariante admet une dimension de Hausdorff exacte qui est égale au rapport de l'entropie sur l'exposant de Lyapunov. Ce résultat étend la formule, établie dans la littérature pour des probabilités de transition continues, au cas considéré ici des probabilités de transition constantes par morceaux. Le dernier chapitre de cette thèse est, quant à lui, consacré à un cas particulier d'IFS : les chaînes de Markov de longueur variable (VLMC). On démontrera que sous une condition de non-nullité faible et de continuité pour la distance ultramétrique des probabilités de transitions, elles admettent une unique mesure invariante qui est attractive pour la convergence faible. / The purpose of this thesis is the study of the asymptotic behaviour of iterated function systems (IFS). In a first part, we will introduce the notions related to the study of such systems and we will remind different applications of IFS such as random walks on graphs or aperiodic tilings, random dynamical systems, proteins classification or else $q$-repeated measures. We will focus on two other applications : the chains of infinite order and the variable length Markov chains. We will give the main results in the literature concerning the study of invariant measures for IFS and those for the calculus of the Hausdorff dimension. The second part will be dedicated to the study of a class of iterated function systems (IFSs) with non-overlapping or just-touching contractions on closed real intervals and adapted piecewise constant transition probabilities. We give criteria for the existence and the uniqueness of an invariant probability measure for the IFSs and for the asymptotic stability of the system in terms of bounds of transition probabilities. Additionally, in case there exists a unique invariant measure and under some technical assumptions, we obtain its exact Hausdorff dimension as the ratio of the entropy over the Lyapunov exponent. This result extends the formula, established in the literature for continuous transition probabilities, to the case considered here of piecewise constant probabilities. The last part is dedicated to a special case of IFS : Variable Length Markov Chains (VLMC). We will show that under a weak non-nullness condition and continuity for the ultrametric distance of the transition probabilities, they admit a unique invariant measure which is attractive for the weak convergence.
64

Modélisation statistique de l’état de charge des batteries électriques / Statistical modeling of the state of charge of electric batteries

Kalawoun, Jana 30 November 2015 (has links)
Les batteries électriques sont omniprésentes dans notre vie quotidienne : ordinateur, téléphone, etc. Elles jouent un rôle important dans le défi de la transition énergétique : anticiper la raréfaction des énergies fossiles et réduire la pollution, en développant le stockage des énergies renouvelables et les transports électriques. Cependant, l'estimation de l'état de charge (State of Charge – SoC) d'une batterie est difficile et les modèles de prédiction actuels sont peu robustes. En effet, une batterie est un système électrochimique complexe, dont la dynamique est influencée non seulement par ses caractéristiques internes, mais aussi par les conditions d'usages souvent non contrôlables : température, profil d’utilisation, etc. Or, une estimation précise du SoC permet de garantir une utilisation sûre de la batterie en évitant une surcharge ou surdécharge ; mais aussi d’estimer son autonomie. Dans cette étude, nous utilisons un modèle à espaces d'états gouverné par une chaîne de Markov cachée. Ce modèle est fondé sur des équations physiques et la chaîne de Markov cachée permet d’appréhender les différents «régimes de fonctionnement» de la batterie. Pour garantir l’unicité des paramètres du modèle, nous démontrons son identifiabilité à partir de contraintes simples et naturelles sur ses paramètres «physiques ». L’estimation du SoC dans un véhicule électrique doit être faîte en ligne et avec une puissance de calcul limitée. Nous estimons donc le SoC en utilisant une technique d’échantillonnage préférentiel séquentiel. D’autre part l’estimation des paramètres est faîte à partir d’une base d’apprentissage pour laquelle les états de la chaîne de Markov et le SoC ne sont pas observés. Nous développons et testons trois algorithmes adaptés à notre modèle à structure latente : un échantillonneur particulaire de Gibbs, un algorithme de Monte-Carlo EM pénalisé par des contraintes d’identifiabilité et un algorithme de Monte-Carlo EM pénalisé par une loi a priori. Par ailleurs les états cachés de la chaîne de Markov visent à modéliser les différents régimes du fonctionnement de la batterie. Nous identifions leur nombre par divers critères de sélection de modèles. Enfin, à partir de données issues de trois types de batteries (cellule, module et pack d’un véhicule électrique), notre modèle a permis d’appréhender les différentes sollicitations de la batterie et donne des estimations robustes et précises du SoC. / Electric batteries are omnipresent in our daily lives: computers, smartphones, etc. Batteries are important for anticipating the scarcity of fossil fuels and tackling their environmental impact. Therefore, estimating the State of Charge (SoC) of a battery is nowadays a challenging issue, as existing physical and statistical models are not yet robust. Indeed a battery is a complex electrochemical system. Its dynamic depends not only on its internal characteristics but also on uncontrolled usage conditions: temperature, usage profile, etc. However the SoC estimation helps to prevent overcharge and deep discharge, and to estimate the battery autonomy. In this study, the battery dynamics are described by a set of physical linear equations, switching randomly according to a Markov chain. This model is referred to as switching Markov state space model. To ensure the unicity of the model parameters, we prove its identifiability by applying straightforward and natural constraints on its “physical” parameters. Embedded applications, like electric vehicles, impose online estimated with hardware and time constraints. Therefore we estimate the SoC using a sequential importance sampling technique. Furthermore the model includes two latent variables: the SoC and the Markov chain state. Thus, to estimate the parameters, we develop and test three algorithms adapted to latent structure models: particle Gibbs sampler, Monte Carlo EM penalized with identifiability constraints, and Monte Carlo EM penalized with a prior distribution. The hidden Markov states aim to model the different “regimes” of the battery dynamics. We identify their number using different model selection criteria. Finally, when applied to various data from three battery types (cell, module and pack of an electric vehicle) our model allows us to analyze the battery dynamics and to obtain a robust and accurate SoC estimation under uncontrolled usage conditions.
65

New Analytical Methods for the Analysis and Optimization of Energy-Efficient Cellular Networks by Using Stochastic Geometry / Nouvelles méthodes d'analyse et d'optimisation des réseaux cellulaires à haute efficacité énergétique en utilisant la géométrie stochastique

Tu, Lam Thanh 18 June 2018 (has links)
L'analyse et l'optimisation au niveau de système sont indispensables pour la progression de performance des réseaux de communication. Ils sont nécessaires afin de faire fonctionner de façon optimale des réseaux actuels et de planifier des réseaux futurs. La modélisation et l'analyse au niveau de système des réseaux cellulaires ont été facilitées grâce à la maîtrise de l'outil mathématique de la géométrie stochastique et, plus précisément, la théorie des processus ponctuels spatiaux. Du point de vue de système, il a été empiriquement validé que les emplacements des stations cellulaires de base peuvent être considérés comme des points d'un processus ponctuel de Poisson homogène dont l'intensité coïncide avec le nombre moyen de stations par unité de surface. Dans ce contexte, des contributions de ce travail se trouvent dans le développement de nouvelles méthodologies analytiques pour l'analyse et l'optimisation des déploiements de réseaux cellulaires émergents.La première contribution consiste à introduire une approche pour évaluer la faisabilité de réseaux cellulaires multi-antennes, dans lesquels les dispositifs mobiles à faible énergie décodent les données et récupèrent l'énergie à partir d’un même signal reçu. Des outils de géométrie stochastique sont utilisés pour quantifier le taux d'information par rapport au compromis de puissance captée. Les conclusions montrent que les réseaux d'antennes à grande échelle et les déploiements ultra-denses de stations base sont tous les deux nécessaires pour capter une quantité d'énergie suffisamment élevée et fiable. En outre, la faisabilité de la diversité des récepteurs pour l'application aux réseaux cellulaires descendants est également étudiée. Diverses options basées sur la combinaison de sélection et la combinaison de taux maximal sont donc comparées. Notre analyse montre qu'aucun système n’est plus performant que les autres pour chaque configuration de système : les dispositifs à basse énergie doivent fonctionner de manière adaptative, en choisissant le schéma de diversité des récepteurs en fonction des exigences imposées.La deuxième contribution consiste à introduire une nouvelle approche pour la modélisation et l'optimisation de l'efficacité énergétique des réseaux cellulaires.Contrairement aux approches analytiques actuellement disponibles qui fournissent des expressions analytiques trop simples ou trop complexes de la probabilité de couverture et de l'efficacité spectrale des réseaux cellulaires, l'approche proposée est formulée par une solution de forme fermée qui se révèle en même temps simple et significative. Une nouvelle expression de l'efficacité énergétique du réseau cellulaire descendant est proposée à partir d’une nouvelle formule de l'efficacité spectrale. Cette expression est utilisée pour l’optimisation de la puissance d'émission et la densité des stations cellulaires de base. Il est prouvé mathématiquement que l'efficacité énergétique est une fonction uni-modale et strictement pseudo-concave de la puissance d'émission en fixant la densité des stations de base, et de la densité des stations de base en fixant la puissance d'émission. La puissance d'émission optimale et la densité des stations de base s'avèrent donc être la solution des équations non linéaires simples.La troisième contribution consiste à introduire une nouvelle approche pour analyser les performances des réseaux cellulaires hétérogènes équipés des sources d'énergie renouvelables, telles que les panneaux solaires. L'approche proposée permet de tenir compte de la distribution spatiale des stations de base en utilisant la théorie des processus ponctuels, ainsi que l'apparition aléatoire et la disponibilité de l'énergie en utilisant la théorie des chaînes de Markov. En utilisant l'approche proposée, l'efficacité énergétique des réseaux cellulaires peut être quantifiée et l'interaction entre la densité des stations de base et le taux d'énergie d'apparition peut être quantifiée et optimisée. / In communication networks, system-level analysis and optimization are useful when one is interested in optimizing the system performance across the entire network. System-level analysis and optimization, therefore, are relevant for optimally operating current networks, and for deploying and planning future networks. In the last few years, the system-level modeling and analysis of cellular networks have been facilitated by capitalizing on the mathematical tool of stochastic geometry and, more precisely, on the theory of spatial point processes. It has been empirically validated that, from the system-level standpoint, the locations of cellular base stations can be abstracted as points of a homogeneous Poisson point process whose intensity coincides with the average number of based stations per unit area.In this context, the contribution of the present Ph.D. thesis lies in developing new analytical methodologies for analyzing and optimizing emerging cellular network deployments. The present Ph.D. thesis, in particular, provides three main contributions to the analysis and optimization of energy-efficient cellular networks.The first contribution consists of introducing a tractable approach for assessing the feasibility of multiple-antenna cellular networks, where low-energy mobile devices decode data and harvest power from the same received signal. Tools from stochastic geometry are used to quantify the information rate vs. harvested power tradeoff. Our study unveils that large-scale antenna arrays and ultra-dense deployments of base stations are both necessary to harvest, with high reliability, a sufficiently high amount of power. Furthermore, the feasibility of receiver diversity for application to downlink cellular networks is investigated. Several options that are based on selection combining and maximum ratio combining are compared against each other. Our analysis shows that no scheme outperforms the others for every system setup. It suggests, on the other hand, that the low-energy devices need to operate in an adaptive fashion, by choosing the receiver diversity scheme as a function of the imposed requirements.The second contribution consists of introducing a new tractable approach for modeling and optimizing the energy efficiency of cellular networks. Unlike currently available analytical approaches that provide either simple but meaningless or meaningful but complex analytical expressions of the coverage probability and spectral efficiency of cellular networks, the proposed approach is conveniently formulated in a closed-form expression that is proved to be simple and meaningful at the same time. By relying on the new proposed formulation of the spectral efficiency, a new tractable closed-form expression of the energy efficiency of downlink cellular network is proposed, which is used for optimizing the transmit power and the density of cellular base stations. It is mathematically proved, in particular, that the energy efficiency is a unimodal and strictly pseudo-concave function in the transmit power, given the density of the base stations, and in the density of the base stations, given the transmit power. The optimal transmit power and density of base stations are proved to be the solution of simple non-linear equations.The third contribution consists of introducing a new tractable approach for analyzing the performance of multi-tier cellular networks equipped with renewable energy sources, such as solar panels. The proposed approach allows one to account for the spatial distribution of the base stations by using the theory of point processes, as well as for the random arrival and availability of energy by using Markov chain theory. By using the proposed approach, the energy efficiency of cellular networks can be quantified and the interplay between the density of base stations and energy arrival rate can be quantified and optimized.
66

Acceleration Strategies of Markov Chain Monte Carlo for Bayesian Computation / Stratégies d'accélération des algorithmes de Monte Carlo par chaîne de Markov pour le calcul Bayésien

Wu, Chang-Ye 04 October 2018 (has links)
Les algorithmes MCMC sont difficiles à mettre à l'échelle, car ils doivent balayer l'ensemble des données à chaque itération, ce qui interdit leurs applications dans de grands paramètres de données. En gros, tous les algorithmes MCMC évolutifs peuvent être divisés en deux catégories: les méthodes de partage et de conquête et les méthodes de sous-échantillonnage. Le but de ce projet est de réduire le temps de calcul induit par des fonctions complexes ou à grande efficacité. / MCMC algorithms are difficult to scale, since they need to sweep over the whole data set at each iteration, which prohibits their applications in big data settings. Roughly speaking, all scalable MCMC algorithms can be divided into two categories: divide-and-conquer methods and subsampling methods. The aim of this project is to reduce the computing time induced by complex or largelikelihood functions.
67

Estimation of State Space Models and Stochastic Volatility

Miller Lira, Shirley 09 1900 (has links)
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière. / My thesis consists of three chapters related to the estimation of state space models and stochastic volatility models. In the first chapter we develop a computationally efficient procedure for state smoothing in Gaussian linear state space models. We show how to exploit the special structure of state-space models to draw latent states efficiently. We analyze the computational efficiency of Kalman-filter-based methods, the Cholesky Factor Algorithm, and our new method using counts of operations and computational experiments. We show that for many important cases, our method is most efficient. Gains are particularly large for cases where the dimension of observed variables is large or where one makes repeated draws of states for the same parameter values. We apply our method to a multivariate Poisson model with time-varying intensities, which we use to analyze financial market transaction count data. In the second chapter, we propose a new technique for the analysis of multivariate stochastic volatility models, based on efficient draws of volatility from its conditional posterior distribution. It applies to models with several kinds of cross-sectional dependence. Full VAR coefficient and covariance matrices give cross-sectional volatility dependence. Mean factor structure allows conditional correlations, given states, to vary in time. The conditional return distribution features Student's t marginals, with asset-specific degrees of freedom, and copulas describing cross-sectional dependence. We draw volatility as a block in the time dimension and one-at-a-time in the cross-section. Following McCausland(2012), we use close approximations of the conditional posterior distributions of volatility blocks as Metropolis-Hastings proposal distributions. We illustrate using daily return data for ten currencies. We report results for univariate stochastic volatility models and two multivariate models. In the third chapter, we evaluate the information contributed by (variations of) realized volatility to the estimation and forecasting of volatility when prices are measured with and without error using a stochastic volatility model. We consider the viewpoint of an investor for whom volatility is an unknown latent variable and realized volatility is a sample quantity which contains information about it. We use Bayesian Markov Chain Monte Carlo (MCMC) methods to estimate the models, which allow the formulation of the posterior densities of in-sample volatilities, and the predictive densities of future volatilities. We then compare the volatility forecasts and hit rates from predictions that use and do not use the information contained in realized volatility. This approach is in contrast with most of the empirical realized volatility literature which most often documents the ability of realized volatility to forecast itself. Our empirical applications use daily index returns and foreign exchange during the 2008-2009 financial crisis.
68

Développement de modèles prédictifs de la toxicocinétique de substances organiques

Peyret, Thomas 02 1900 (has links)
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain. / Physiologically-based pharmacokinetic (PBPK) models simulate the internal dose metrics of chemicals based on species-specific and chemical-specific parameters. The existing quantitative structure-property relationships (QSPRs) allow to estimate the chemical-specific parameters (partition coefficients (PCs) and metabolic constants) but their applicability is limited by their lack of consideration of variability in input parameters and their restricted application domain (i.e., substances containing CH3, CH2, CH, C, C=C, H, Cl, F, Br, benzene ring and H in benzene ring). The objective of this study was to develop new knowledge and tools to increase the applicability domain of QSPR-PBPK models for predicting the inhalation toxicokinetics of organic compounds in humans. First, a unified mechanistic algorithm was developed from existing models to predict macro (tissue and blood) and micro (cell and biological fluid) level PCs of 142 drugs and environmental pollutants on the basis of tissue and blood composition along with physicochemical properties. The resulting algorithm was applied to compute the tissue:blood, tissue:plasma and tissue:air PCs in rat muscle (n = 174), liver (n = 139) and adipose tissue (n = 141) for acidic, neutral, zwitterionic and basic drugs as well as ketones, acetate esters, alcohols, ethers, aliphatic and aromatic hydrocarbons. Then, a quantitative property-property relationship (QPPR) model was developed for the in vivo rat intrinsic clearance (CLint) (calculated as the ratio of the in vivo Vmax (μmol/h/kg bw rat) to the Km (μM)) of CYP2E1 substrates (n = 26) as a function of n-octanol:water PC, blood:water PC, and ionization potential). The predictions of the QPPR as lower and upper bounds of the 95% mean confidence intervals were then integrated within a human PBPK model. Subsequently, the PC algorithm and QPPR for CLint were integrated along with a QSPR model for the hemoglobin:water and oil:air PCs to simulate the inhalation pharmacokinetics and cellular dosimetry of volatile organic compounds (VOCs) (benzene, 1,2-dichloroethane, dichloromethane, m-xylene, toluene, styrene, 1,1,1-trichloroethane and 1,2,4 trimethylbenzene) using a PBPK model for rats. Finally, the variability in the tissue and blood composition parameters of the PC algorithm for rat tissue:air and human blood:air PCs was characterized by performing Markov chain Monte Carlo (MCMC) simulations. The resulting distributions were used for conducting Monte Carlo simulations to predict tissue:blood and blood:air PCs for VOCs. The distributions of PCs, along with distributions of physiological parameters and CYP2E1 content, were then incorporated within a PBPK model, to characterize the human variability of the blood toxicokinetics of four VOCs (benzene, chloroform, styrene and trichloroethylene) using Monte Carlo simulations. Overall, the quantitative approaches for PCs and CLint implemented in this study allow the use of generic molecular descriptors rather than specific molecular fragments to predict the pharmacokinetics of organic substances in humans. In this process, the current study has, for the first time, characterized the variability of the biological input parameters of the PC algorithms to expand the ability of PBPK models to predict the population distributions of the internal dose metrics of organic substances prior to testing in animals or humans.
69

Extension and analysis of hybrid ARQ schemes in the context of cooperative relaying / Extension et analyse des systèmes de retransmissions hybrides (HARQ) dans le contexte de relais coopératifs

Vanyan, Anna 10 June 2014 (has links)
Dans le canal sans fil, la communication coopérative permet à un ou plusieurs relais d’aider la transmission entre la source et la destination. L'objectif de cette thèse est de développer des outils d'analyse de performance pour les systèmes coopératifs utilisant des techniques HARQ. Le premier chapitre de cette thèse donne des informations sur le codage de réseau dans les réseaux coopératifs, et introduit la motivation pour ce travail. L’objectif du deuxième chapitre est d’analyser et d’évaluer les performances de la qualité de service (QoS) des schémas ARQ-STBC, HARQ et FEC, dans le contexte de l’efficacité énergétique, aux niveaux des couches MAC et IP. Afin d’atteindre ce but, une nouvelle méthode d'analyse est dérivé et appliqué au scénario de communication point à point (P2P). Ceci nous permet de comparer les schémas avec et sans retransmissions, et d’établir la consommation d’énergie de chaque système considéré. Cela nous permet de déterminer dans quelles conditions il est énergétiquement plus efficace d’utiliser la protection cross-layer, ou le simple codage de canal. Dans le troisième chapitre une classe de protocoles coopératifs déterministes est introduite. Les protocoles que nous considérons sont différents en termes du comportement de relais(s) de source(s), et de la destination. Nous considérons deux types de protocoles coopératifs: decode-and-forward (DCF), et demodulate-and-forward (DMF). Les performances de chacun de ces protocoles sont analysés, avec et sans combining à la destination. Les évaluations de QoS qui sont examinés sont: le taux d'erreur de trame, le délai, l'efficacité, et le goodput. Les dérivations analytiques sont effectuées à l'aide de la machine à états finis de Markov, ainsi que grâce à l’approche combinatoire. Cependant, il est démontré, que la complexité de ces dérivations augmente au moment ou le crédit de retransmissions et/ou des nœuds dans le réseau est augmentée. Donc cette approche devient non-traitable pour des grands schémas coopératifs. Le quatrième chapitre présente une classe de protocoles de communication probabilistes, où les nœuds retransmettent avec une certaine probabilité. Il est démontré l'existence d'une classe de protocoles probabilistes équivalents, qui permettent d’obtenir les mêmes performances des protocoles déterministes précédemment traités. En utilisant la preuve de concept, nous démontrons que le protocole probabiliste permet d’effectuer les évaluations analytiques de réseaux multi-nœuds, même dans le cas d'un grand nombre de nœuds dans le réseau. Basée sur cela, nous déduisons les paramètres QoS, et les évaluons également par des simulations Monte-Carlo. Les paramètres d'évaluation de performances dérivées sont optimisés en limitant le taux d'erreur de trame, et en essayant de trouver le nombre de transmissions optimal et le code rate qui maximisent le goodput. Il est également démontré que la classe de protocoles probabilistes peut atteindre une région d’optimalité plus grand que la classe de protocoles déterministes. / In the wireless channel, cooperative communications allow one or many relays to assist the communication between the source and the destination. The aim of this thesis is the development of tools for the analysis of cooperative systems, when HARQ techniques are employed to provide cross-layer error protection. The first chapter of the thesis gives background information on network coding in cooperative relay networks, and introduces the motivation for this work. The second chapter is devoted to the analysis of the energetic-fair performance evaluations of FEC, ARQ-STBC and HARQ schemes at the MAC and IP layers. New analytical framework is derived and applied to a point-to-point network scenario. This framework allows to make energetic fair comparisons between the schemes with and without retransmissions. We determine under which channel conditions the cross-layer error protection is energetically more efficient than the simple channel coding. In the third chapter of this thesis we study the cooperative deterministic protocols. The protocols that we consider differ based on the behaviour of the relay(s), source(s), and destination. We consider two major types of cooperative protocols: decode-and forward (DCF), and demodulate-and-forward (DMF). Each of these protocols in its turn is analysed with and without combining mechanisms at the destination. We derive the soft decoders at the destination side for each respective case, and compare the performances of these protocols at the MAC layer. The following quality of service metrics are evaluated: frame error rate, delay, efficiency, goodput. The analysis is done evaluating the steady-state, using finite state Markov chains and a combinatorial approach. The analysis, however, becomes very complex as the number of transmissions and/or nodes in the network increases. The fourth chapter introduces a class of probabilistic communication protocols, where the devices retransmit with a given probability. We prove the existence of an equivalent class of protocols, with the same performances as the deterministic class. Using proofs of concept it is shown that the probabilistic protocol class allows for tractable steady-state analysis, even for many nodes in the network. Based on this, we then derive the QoS metrics and evalute them also by simulations. The derived performance evaluation metrics are then optimized by constraining the frame error rate, and trying to find the most optimal transmissions number and code rates which maximize the goodput. It is furthermore shown, that the equivalent protocol has larger optimal region than the deterministic one.
70

Théorie spectrale pour des applications de Poincaré aléatoires / Spectral theory for random Poincaré maps

Baudel, Manon 01 December 2017 (has links)
Nous nous intéressons à des équations différentielles stochastiques obtenues en perturbant par un bruit blanc des équations différentielles ordinaires admettant N orbites périodiques asymptotiquement stables. Nous construisons une chaîne de Markov à temps discret et espace d’états continu appelée application de Poincaré aléatoire qui hérite du comportement métastable du système. Nous montrons que ce processus admet exactement N valeurs propres qui sont exponentiellement proches de 1 et nous donnons des expressions pour ces valeurs propres et les fonctions propres associées en termes de fonctions committeurs dans les voisinages des orbites périodiques. Nous montrons également que ces valeurs propres sont bien séparées du reste du spectre. Chacune de ces valeurs propres exponentiellement proche de 1 est également reliée à un temps d’atteinte de ces voisinages. De plus, les N valeurs propres exponentiellement proches de 1 et fonctions propres à gauche et à droite associées peuvent être respectivement approchées par des valeurs propres principales, des distributions quasi-stationnaires, et des fonctions propres principales à droite de processus tués quand ils atteignent ces voisinages. Les preuves reposent sur une représentation de type Feynman–Kac pour les fonctions propres, la transformée harmonique de Doob, la théorie spectrale des opérateurs compacts et une propriété de type équilibré détaillé satisfaite par les fonctions committeurs. / We consider stochastic differential equations, obtained by adding weak Gaussian white noise to ordinary differential equations admitting N asymptotically stable periodic orbits. We construct a discrete-time,continuous-space Markov chain, called a random Poincaré map, which encodes the metastable behaviour of the system. We show that this process admits exactly N eigenvalues which are exponentially close to 1,and provide expressions for these eigenvalues and their left and right eigenfunctions in terms of committorfunctions of neighbourhoods of periodic orbits. We also provide a bound for the remaining part of the spectrum. The eigenvalues that are exponentially close to 1 and the right and left eigenfunctions are well-approximated by principal eigenvalues, quasistationary distributions, and principal right eigenfunctions of processes killed upon hitting some of these neighbourhoods. Each eigenvalue that is exponentially close to 1is also related to the mean exit time from some metastable neighborhood of the periodic orbits. The proofsrely on Feynman–Kac-type representation formulas for eigenfunctions, Doob’s h-transform, spectral theory of compact operators, and a recently discovered detailed balance property satisfied by committor functions.

Page generated in 0.0811 seconds