• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 42
  • 9
  • Tagged with
  • 130
  • 130
  • 58
  • 39
  • 32
  • 31
  • 24
  • 22
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Recherche de nouvelle physique dans le canal B⁰ → J/ψφ auprès de l’expérience LHCb

Khanji, Basem 16 September 2011 (has links)
Dans le Modèle Standard, la différence de phase apparaissant dans la désintégration B0s --> J/psi phi est prèdite avec une grande précision. Cette observable est une sonde pour mettre en évidence de la Nouvelle Physique car l’oscillation B0s -B0sbar s’effectue via un diagramme en boucles sensible à la nouvelles particules. Nous avons développé une sélection simplifiée pour les données de 2010. Elle évite tous biais sur la distribution en temps propre afin de réduire l’incertitude systématique. De plus, nous contrôlons les performances d’étiquetage pour les événements B0s --> J/psi phi en utilisant les canaux similaires B0d--> J/psi K*0 et B+ --> J/psi K+. Avec les données de 2010, nous obtenons 570 événements de signal avec une luminosité intégré de 36 pb−1, une puissance de d’étiquetage de (2, 2 ± 0, 4)% et une résolution temporelle de 50 fs. Nous avons étudié une sélection alternative, qui maximise la sensibilité à la phase phis en utilisant des coupures biasant le temp propre. Nous avons proposé une méthode pour corriger la déformation de temps propre à partir des données. Nous avons développé un programme d’ajustement pour déterminer la phase phis. Avec les données 2010, la valeur touvée est phis = [−2, 7,−0, 5] rad à 68% de confiance. Ce résultat est compatible avec la prédiction du Modèle Standard. / In the PsB $to$ PJpsi $phi$ channel, the phase difference phis between decays with and without oscillation is predicted to be significantly small in the SM. Furthermore, the PsB-PasB mixing phenomena takes place via a loop diagram. These two reasons makes the phis parameter an excellent probe for New Physics processes. We developed a simplified selection for the 2010 data. It avoids any bias on the proper time distribution in order to reduce systematic uncertainty. In addition, we control the tagging performance for PsB $to$ PJpsi $phi$ events using the similar $PBdtoPJpsiPKstar^0$ and $PButoPJpsiPKplus$ channels. With the 2010 data, we obtain $570$ signal events in $36invpb$ of integrated luminosity, a tagging power of $(2.2pm 0.4)%$ and a proper time resolution of $50fs$. We investigated an alternative selection which is designed to maximize the phis sensitivity using a proper time biasing cuts. We proposed a data-driven method to correct the proper time acceptance. We designed a fitting program to determine the phis phase. Using fast Monte Carlo simulation we validated the fitter program, determine the LHCb sensitivity to the phis phase and advise the use of interval estimate at low signal yield. We reviewed the first determination of the phis phase by the LHCb collaboration. It is found to be: $phis in [-2.7,-0.5] rad ~ {rm at~68%~CL}$. This result is compatible with the Standard Model prediction.
72

Economic valuation of ecosystems and natural resources / Evaluation économique des écosystèmes et des ressources naturelles

Kalisa, Thierry 26 May 2014 (has links)
Cette thèse a pour but d'étudier les méthodes d'évaluation des ressources environnementales : la méthode des Coûts de Transport (CT) à préférences révélées et la méthode d'évaluation contingente (EC) à préférences déclarées afin de proposer les contributions suivantes. Dans le chapitre 1, nous montrons qu'il est possible si les données sur les deux méthodes sont disponibles pour les mêmes observations, d'obtenir une meilleure mesure de la disposition à payer (DAP) par la combinaison des deux méthodes en utilisant la technique du maximum de vraisemblance simulé. Dans le chapitre 2, nous montrons qu'une nouvelle approche: le "special regressor" pourrait être une solution pour traiter les problèmes d'endogénéité en EC. En utilisant des données sur la DAP pour réduire les risques subjectifs de mortalité due à la présence d' Arsenic dans l'eau potable , nous montrons que le problème d'endogénéité du niveau subjectif de risque de mortalité peut être réglé efficacement. Enfin dans le chapitre 3, en utilisant une nouvelle enquête sur l'électrification rurale au Rwanda, nous proposons un nouveau design de la méthode d'EC en permettant aux personnes interrogées de choisir entre une contribution en temps ou en argent. Ainsi, en plus de mesurer une DAP classique, nous obtenons aussi une disposition à contribuer du temps mesurée en jours, qui est une mesure aussi voire même plus pertinente que la DAP dans le contexte d'un pays en développement. / This dissertation aims at investigating the methods of the environmental resources valuation: revealed preferences Travel Cost (TC) method and stated preferences Contingent Valuation (CV) method in order to propose the following contributions. In chapter 1, we show that it is possible if both CV and TC data are available for the same observations, to obtain a better measure of willingness to pay (WTP) by combining the two methods using Simulated maximum Likelihood technique. In chapter 2, we show that the new special regressor approach could be a solution to treat endogeneity issues in CV. Using data on WTP for reducing subjective mortality risks due to arsenic in drinking water, we show that the endogeneity of the subjective mortality risk level can be treated effectively. Finally in chapter 3, using a new survey about rural electrification in Rwanda, we propose a new design for the CV method by allowing people to choose between a contribution in time or in money. Thus, in addition to measure a conventional WTP, we also obtain a willingness to contribute time measure which is as or even more relevant than WTP in the context of a developing country.
73

Estimation d'état et de paramètres pour les systèmes quantiques ouverts / Estimation of state and parameters in open quantum systems

Six, Pierre 22 November 2016 (has links)
La communauté scientifique a réussi ces dernières années à bâtir des systèmes quantiques simples sur lesquels des séries de mesures sont acquises successivement le long de trajectoires quantiques et sans réinitialisation de l’état (opérateur densité) par l’expérimentateur.L’objet de cette thèse est d’adapter les méthodes de tomographie quantique (estimation d’état et de paramètres) à ce cadre pour prendre en compte la rétroaction de la mesure sur l’état, la décohérence et les imperfections expérimentales.Durant le processus de mesure, l’évolution de l’état quantique est alors gouvernée par un processus de Markov à états cachés (filtres quantiques de Belavkin). Pour des mesuresen temps continu, nous commençons par montrer comment discrétiser l’équation maîtresse stochastique tout en préservant la positivité et la trace de l’état quantique, et ainsi sera mener aux filtres quantiques en temps discret. Ensuite, nous développons, à partir de trajectoires de mesures en temps discret, des techniques d’estimation par maximum de vraisemblance pour l’état initial et les paramètres. Cette estimation est accompagnée de son intervalle de confiance. Lorsqu’elle concerne des valeurs de paramètres (tomographie de processus quantique), nous donnons un résultat de robustesse grâce au formalisme des filtres particulaires et nous proposons une méthode de maximisation fondée sur le calcul du gradient par l’adjoint et bien adaptée au cas multiparamétrique. Lorsque l’estimation porte sur l’état initial (tomographie d’état quantique), nous donnons une formulation explicite de la fonction de vraisemblance grâce aux états adjoints, montrons que son logarithme est une fonction concave de l’état initial et élaborons une expression intrinsèque de la variance grâce à des développements asymptotiques de moyennes bayésiennes et reposant sur la géométrie de l’espace des opérateurs densité.Ces méthodes d’estimation ont été appliquées et validées expérimentalement pour deux types de mesures quantiques : des mesures en temps discret non destructives de photons dans le groupe d’électrodynamique quantique en cavité du LKB au Collège de France, des mesures diffusives de la fluorescence d’un qubit supraconducteur dans le groupe d’électronique quantique du LPA à l’ENS Paris. / In recent years, the scientifical community has succeeded in experimentally building simple quantum systems on which series of measurements are successively acquired along quantum trajectories, without any reinitialization of their state (density operator) by the physicist. The subject of this thesis is to adapt the quantum tomography techniques (state and parameters estimation) to this frame, in order to take into account the feedback of the measurement on the state, the decoherence and experimental imperfections.During the measurement process, the evolution of the quantum state is then governed by a hidden-state Markov process (Belavkin quantum filters). Concerning continuous-time measurements, we begin by showing how to discretize the stochastic master equation, while preserving the positivity and the trace of the quantum state, and so reducing to discrete-time quantum filters. Then, we develop,starting from trajectories of discrete-time measurements, some maximum-likelihood estimation techniques for initial state and parameters. This estimation is coupled with its confidence interval. When it concerns the value of parameters (quantum process tomography), we provide a result of robustness using the formalism of particular filters, and we propose a maximization technique based on the calculus of gradient by adjoint method, which is well adapted to the multi-parametric case. When the estimation concerns the initial state (quantum state tomography), we give an explicit formulation of the likelihood function thanks to the adjoint states, show that its logarithm is a concave function of the initial state and build an intrinsic expression of the variance, obtained from asymptotic developments of Bayesian means, lying on the geometry of the space of density operators.These estimation techniques have been applied and experimentally validated for two types of quantum measurements: discrete-time non-destructive measurements of photons in the group of cavity quantum electro-dynamics of LKB at Collège de France, diffusive measurements of the fluorescence of a supra-conducting qubit in the quantum electronics group of LPA at ENS Paris.
74

Inférence statistique dans les modèles mixtes à dynamique Markovienne / Statistical inference for Markovian mixed-effects models

Delattre, Maud 04 July 2012 (has links)
La première partie de cette thèse est consacrée a l'estimation par maximum de vraisemblance dans les modèles mixtes a dynamique markovienne. Nous considérons plus précisément des modèles de Markov cachés a effets mixtes et des modèles de diffusion à effets mixtes. Dans le Chapitre 2, nous combinons l'algorithme de Baum-Welch a l'algorithme SAEM pour estimer les paramètres de population dans les modèles de Markov cachés à effets mixtes. Nous proposons également des procédures spéciques pour estimer les paramètres individuels et les séquences d'états cachés. Nous étudions les propriétés de cette nouvelle méthodologie sur des données simulées et l'appliquons sur des données réelles de nombres de crises d'épilepsie. Dans le Chapitre 3, nous proposons d'abord des modèles de diffusion à effets mixtes pour la pharmacocinétique de population. Nous en estimons les paramètres en combinant l'algorithme SAEM a un filtre de Kalman étendu. Nous étudions ensuite les propriétés asymptotiques de l'estimateur du maximum de vraisemblance dans des modèles de diffusion observés sans bruit de mesure continûment sur un intervalle de temps fixé lorsque le nombre de sujets tend vers l'infini. Le Chapitre 4 est consacré à la sélection de covariables dans des modèles mixtes généraux. Nous proposons une version du BIC adaptée au contexte de double asymptotique ou le nombre de sujets et le nombre d'observations par sujet tendent vers l'infini. Nous présentons quelques simulations pour illustrer cette procédure. / The first part of this thesis deals with maximum likelihood estimation in Markovianmixed-effects models. More precisely, we consider mixed-effects hidden Markov models and mixed-effects diffusion models. In Chapter 2, we combine the Baum-Welch algorithm and the SAEM algorithm to estimate the population parameters in mixed-effects hidden Markov models. We also propose some specific procedures to estimate the individual parameters and the sequences of hidden states. We study the properties of the proposed methodologies on simulated datasets and we present an application to real daily seizure count data. In Chapter 3, we first suggest mixed-effects diffusion models for population pharmacokinetics. We estimate the parameters of these models by combining the SAEM algorithm with the extended Kalman filter. Then, we study the asymptotic properties of the maximum likelihood estimatein some mixed-effects diffusion models continuously observed on a fixed time interval when the number of subjects tends to infinity. Chapter 4 is dedicated to variable selection in general mixed-effects models. We propose a BIC adapted to the asymptotic context where both of the number of subjects and the number of observations per subject tend to infinity. We illustrate this procedure with some simulations.
75

Inférence dans les modèles conjoints et de mélange non-linéaires à effets mixtes / Inference in non-linear mixed effects joints and mixtures models

Mbogning, Cyprien 17 December 2012 (has links)
Cette thèse est consacrée au développement de nouvelles méthodologies pour l'analyse des modèles non-linéaires à effets mixtes, à leur implémentation dans un logiciel accessible et leur application à des problèmes réels. Nous considérons particulièrement des extensions des modèles non-linéaires à effets mixtes aux modèles de mélange et aux modèles conjoints. Dans la première partie, nous proposons, dans le but d'avoir une meilleure maîtrise de l'hétérogénéité liée aux données sur des patients issus de plusieurs clusters, des extensions des MNLEM aux modèles de mélange. Nous proposons ensuite de combiner l'algorithme EM, utilisé traditionnellement pour les modèles de mélanges lorsque les variables étudiées sont observées, et l'algorithme SAEM, utilisé pour l'estimation de paramètres par maximum de vraisemblance lorsque ces variables ne sont pas observées. La procédure résultante, dénommée MSAEM, permet ainsi d'éviter l'introduction d'une étape de simulation des covariables catégorielles latentes dans l'algorithme d'estimation. Cet algorithme est extrêmement rapide, très peu sensible à l'initialisation des paramètres, converge vers un maximum (local) de la vraisemblance et est implémenté dans le logiciel Monolix.La seconde partie de cette Thèse traite de la modélisation conjointe de l'évolution d'un marqueur biologique au cours du temps et les délais entre les apparitions successives censurées d'un évènement d'intérêt. Nous considérons entre autres, les censures à droite, les multiples censures par intervalle d'évènements répétés. Les paramètres du modèle conjoint résultant sont estimés en maximisant la vraisemblance jointe exacte par un algorithme de type MCMC-SAEM. Cette méthodologie est désormais disponible sous Monolix / The main goal of this thesis is to develop new methodologies for the analysis of non linear mixed-effects models, along with their implementation in accessible software and their application to real problems. We consider particularly extensions of non-linear mixed effects model to mixture models and joint models. The study of these two extensions is the essence of the work done in this document, which can be divided into two major parts. In the first part, we propose, in order to have a better control of heterogeneity linked to data of patient issued from several clusters, extensions of NLMEM to mixture models. We suggest in this Thesis to combine the EM algorithm, traditionally used for mixtures models when the variables studied are observed, and the SAEM algorithm, used to estimate the maximum likelihood parameters when these variables are not observed. The resulting procedure, referred MSAEM, allows avoiding the introduction of a simulation step of the latent categorical covariates in the estimation algorithm. This algorithm appears to be extremely fast, very little sensitive to parameters initialization and converges to a (local) maximum of the likelihood. This methodology is now available under the Monolix software. The second part of this thesis deals with the joint modeling of the evolution of a biomarker over time and the time between successive appearances of a possibly censored event of interest. We consider among other, the right censoring and interval censorship of multiple events. The parameters of the resulting joint model are estimated by maximizing the exact joint likelihood by using a MCMC-SAEM algorithm. The proposed methodology is now available under Monolix.
76

Modélisation de l’hétérogénéité tumorale par processus de branchement : cas du glioblastome / Modeling of tumor heterogeneity by branching process : case of glioblastoma

Obara, Tiphaine 07 October 2016 (has links)
Grâce aux progrès de la recherche, on sait aujourd’hui guérir près d’un cancer sur deux. Cependant, certaines tumeurs, telles que les glioblastomes restent parmi les plus agressives et les plus difficiles à traiter. La cause de cette résistance aux traitements pourrait provenir d’une sous-population de cellules ayant des caractéristiques communes aux cellules souches que l’on appelle cellules souches cancéreuses. De nombreux modèles mathématiques et numériques de croissance tumorale existent déjà mais peu tiennent compte de l’hétérogénéité intra-tumorale, qui est aujourd’hui un véritable challenge. Cette thèse s’intéresse à la dynamique des différentes sous-populations cellulaires d’un glioblastome. Elle consiste en l’élaboration d’un modèle mathématique de croissance tumorale reposant sur un processus de branchement de Bellman-Harris, à la fois multi-type et dépendant de l’âge. Ce modèle permet d’intégrer l’hétérogénéité cellulaire. Des simulations numériques reproduisent l’évolution des différents types de cellules et permettent de tester l’action de différents schémas thérapeutiques sur le développement tumoral. Une méthode d’estimation des paramètres du modèle numérique fondée sur le pseudo-maximum de vraisemblance a été adaptée. Cette approche est une alternative au maximum de vraisemblance dans le cas où la distribution de l’échantillon est inconnue. Enfin, nous présentons les expérimentations biologiques qui ont été mises en place dans le but de valider le modèle numérique / The latest advances in cancer research are paving the way to better treatments. However, some tumors such as glioblastomas remain among the most aggressive and difficult to treat. The cause of this resistance could be due to a sub-population of cells with characteristics common to stem cells. Many mathematical and numerical models on tumor growth already exist but few take into account the tumor heterogeneity. It is now a real challenge. This thesis focuses on the dynamics of different cell subpopulations in glioblastoma. It involves the development of a mathematical model of tumor growth based on a multitype, age-dependent branching process. This model allows to integrate cellular heterogeneity. Numerical simulations reproduce the evolution of different types of cells and simulate the action of several therapeutic strategies. A method of parameters estimation based on the pseudo-maximum likelihood has been developed. This approach is an alternative to the maximum likelihood in the case where the sample distribution is unknown. Finally, we present the biological experiments that have been implemented in order to validate the numerical model
77

Estimation de l’histoire démographique des populations à partir de génomes entièrement séquencés. / Estimation de l’histoire démographique des populations à partir de génomes entièrement séquencés

Rodriguez Valcarce, Willy 20 June 2016 (has links)
Le développement des nouvelles techniques de séquençage élargit l' horizon de la génétique de populations. Une analyse appropriée des données génétiques peut augmenter notre capacité à reconstruire l'histoire des populations. Cette énorme quantité de données disponibles peut aider les chercheurs en biologie et anthropologie à mieux estimer les changements démographiques subis par une population au cours du temps, mais induit aussi de nouveaux défis. Lorsque les modèles sous-jacents sont trop simplistes il existe unrisque très fort d'être amené à des conclusions erronées sur la population étudiée. Il a été montré que certaines caractéristiques présentes dans l'ADN des individus d'une population structurée se trouvent aussi dans l'ADN de ceux qui proviennent d'une population sans structure dont la taille a changé au cours du temps. Par conséquent il peut s'avérer très difficile de déterminer si les changements de taille inférés à partir des données génétiquesont vraiment eu lieu ou s'il s'agit simplement des effets liés à la structure. D'ailleurs la quasi totalité des méthodes pour inférer les changements de taille d'une population au cours du temps sont basées sur des modèles qui négligent la structure.Dans cette thèse, de nouveaux résultats de génétique de populations sont présentés. Premièrement, nous présentons une méthodologie permettant de faire de la sélection de modèle à partir de l'ADN d'un seul individudiploïde. Cette première étude se limite à un modèle simple de population non structurée avec un changement de taille et à un modèle considérant une population de taille constante mais structurée. Cette nouvelle méthode utilise la distribution des temps de coalescence de deux gènes pour identifier le modèle le plus probable et ouvreainsi la voie pour de nouvelles méthodes de sélection de modèles structurés et non structurés, à partir de données génomiques issues d'un seul individu. Deuxièmement, nous montrons, par une ré-interprétation du taux de coalescence que, pour n'importe quel scénario structuré, et plus généralement n'importe quel modèle, il existe toujours un scénario considérant une population panmictique avec une fonction précise de changements de taille dont la distribution des temps de coalescence de deux gènes est identique a celle du scénario structuré. Cela non seulement explique pourquoi les méthodes d'inférence démographique détectent souvent des changements de taille n'ayant peut-être jamais eu lieu, mais permet aussi de prédire les changements de taille qui seront reconstruits lorsque des méthodes basées sur l'hypothèse de panmixie sont appliquées à des données issues de scénarios plus complexes. Finalement, une nouvelle approche basée sur un processus de Markov est développée et permet de caractériser la distribution du temps de coalescence de deux gènes dans une population structurée soumise à des événements démographiques tel que changement de flux de gènes et changements de taille. Une discussion est menée afin de décrire comment cette méthode donne la possibilité de reconstruire l'histoire démographique à partir de données génomiques tout en considérant la structure. / The rapid development of DNA sequencing technologies is expanding the horizons of population genetic studies. It is expected that genomic data will increase our ability to reconstruct the history of populations.While this increase in genetic information will likely help biologists and anthropologists to reconstruct the demographic history of populations, it also poses big challenges. In some cases, simplicity of the model maylead to erroneous conclusions about the population under study. Recent works have shown that DNA patterns expected in individuals coming from structured populations correspond with those of unstructured populations with changes in size through time. As a consequence it is often difficult to determine whether demographic events such as expansions or contractions (bottlenecks) inferred from genetic data are real or due to the fact that populations are structured in nature. Moreover, almost no inferential method allowing to reconstruct pastdemographic size changes takes into account structure effects. In this thesis, some recent results in population genetics are presented: (i) a model choice procedure is proposed to distinguish one simple scenario of population size change from one of structured population, based on the coalescence times of two genes, showing that for these simple cases, it is possible to distinguish both models using genetic information form one single individual; (ii) by using the notion of instantaneous coalescent rate, it is demonstrated that for any scenario of structured population or any other one, regardless how complex it could be, there always exists a panmitic scenario with a precise function of population size changes havingexactly the same distribution for the coalescence times of two genes. This not only explains why spurious signals of bottlenecks can be found in structured populations but also predicts the demographic history that actual inference methods are likely to reconstruct when applied to non panmitic populations. Finally, (iii) a method based on a Markov process is developed for inferring past demographic events taking the structure into account. This is method uses the distribution of coalescence times of two genes to detect past demographic changes instructured populations from the DNA of one single individual. Some applications of the model to genomic data are discussed.
78

Estimation and misspecification Risks in VaR estimation / Estimation and misspecification risks in VaR evaluation

Telmoudi, Fedya 19 December 2014 (has links)
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation. / In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation.
79

Classification d'images RSO polarimétriques à haute résolution spatiale sur site urbain / High – Resolution Polarimetric SAR image classification on urban areas

Soheili Majd, Maryam 28 April 2014 (has links)
Notre recherche vise à évaluer l’apport d’une seule image polarimétrique RSO (Radar à Synthèse d’Ouverture) à haute résolution spatiale pour classifier les surfaces urbaines. Pour cela, nous définissons plusieurs types de toits, de sols et d’objets.Dans un premier temps, nous proposons un inventaire d’attributs statistiques, texturaux et polarimétriques pouvant être utilisés dans un algorithme de classification. Nous étudions les lois statistiques des descripteurs et montrons que la distribution de Fisher est bien adaptée pour la plupart d’entre eux. Dans un second temps, plusieurs algorithmes de classification vectorielle supervisée sont testés et comparés, notamment la classification par maximum de vraisemblance basée sur une distribution gaussienne, ou celle basée sur la distribution de Wishart comme modèle statistique de la matrice de cohérence polarimétrique, ou encore l’approche SVM. Nous proposons alors une variante de l’algorithme par maximum de vraisemblance basée sur une distribution de Fisher, dont nous avons étudié l’adéquation avec l’ensemble de nos attributs. Nous obtenons une nette amélioration de nos résultats avec ce nouvel algorithme mais une limitation apparaît pour reconnaître certains toits. Ainsi, la forme des bâtiments rectangulaires est reconnue par opérations morphologiques à partir de l’image d’amplitude radar. Cette information spatiale est introduite dans le processus de classification comme contrainte. Nous montrons tout l’intérêt de cette information puisqu’elle empêche la confusion de classification entre pixels situés sur des toits plats et des pixels d’arbre. De plus, nous proposons une méthode de sélection des attributs les plus pertinents pour la classification, basée sur l’information mutuelle et une recherche par algorithme génétique. Nos expériences sont menées sur une image polarimétrique avec un pixel de 35 cm, acquise en 2006 par le capteur aéroporté RAMSES de l’ONERA. / In this research, our aim is to assess the potential of a one single look high spatial resolution polarimetric radar image for the classification of urban areas. For that purpose, we concentrate on classes corresponding to different kinds of roofs, objects and ground surfaces.At first, we propose a uni-variate statistical analysis of polarimetric and texture attributes, that can be used in a classification algorithm. We perform a statistical analysis of descriptors and show that the Fisher distribution is suitable for most of them. We then propose a modification of the maximum likelihood algorithm based on a Fisher distribution; we train it with all of our attributes. We obtain a significant improvement in our results with the new algorithm, but a limitation appears to recognize some roofs.Then, the shape of rectangular buildings is recognized by morphological operations from the image of radar amplitude. This spatial information is introduced in a Fisher-based classification process as a constraint term and we show that classification results are improved. In particular, it overcomes classification ambiguities between flat roof pixels and tree pixels.In a second step, some well-known algorithms for supervised classification are used. We deal with Maximum Likelihood based on complex Gaussian distribution (uni-variate) and multivariate Complex Gaussian using coherency matrix. Meanwhile, the support vector machine, as a nonparametric method, is used as classification algorithm. Moreover, a feature selection based on Genetic Algorithm using Mutual Information (GA-MI) is adapted to introduce optimal subset to classification method. To illustrate the efficiency of subset selection based on GA-MI, we perform a comparison experiment of optimal subset with different target decompositions based on different scattering mechanisms, including the Pauli, Krogager, Freeman, Yamaguchi, Barnes, Holm, Huynen and the Cloude decompositions. Our experiments are based on an image of a suburban area, acquired by the airborne RAMSES SAR sensor of ONERA, in 2006, with a spatial spacing of 35 cm. The results highlight the potential of such data to discriminate some urban land cover types.
80

Estimation des modèles à volatilité stochastique par l’entremise du modèle à chaîne de Markov cachée

Hounkpe, Jean 01 1900 (has links)
No description available.

Page generated in 0.5671 seconds