• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 5
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Maximum Likelihood Estimation for Stochastic Differential Equations Using Sequential Kriging-Based Optimization

Schneider, Grant W. January 2014 (has links)
No description available.
2

Functional Principal Component Analysis for Discretely Observed Functional Data and Sparse Fisher’s Discriminant Analysis with Thresholded Linear Constraints

Wang, Jing 01 December 2016 (has links)
We propose a new method to perform functional principal component analysis (FPCA) for discretely observed functional data by solving successive optimization problems. The new framework can be applied to both regularly and irregularly observed data, and to both dense and sparse data. Our method does not require estimates of the individual sample functions or the covariance functions. Hence, it can be used to analyze functional data with multidimensional arguments (e.g. random surfaces). Furthermore, it can be applied to many processes and models with complicated or nonsmooth covariance functions. In our method, smoothness of eigenfunctions is controlled by directly imposing roughness penalties on eigenfunctions, which makes it more efficient and flexible to tune the smoothness. Efficient algorithms for solving the successive optimization problems are proposed. We provide the existence and characterization of the solutions to the successive optimization problems. The consistency of our method is also proved. Through simulations, we demonstrate that our method performs well in the cases with smooth samples curves, with discontinuous sample curves and nonsmooth covariance and with sample functions having two dimensional arguments (random surfaces), repectively. We apply our method to classification problems of retinal pigment epithelial cells in eyes of mice and to longitudinal CD4 counts data. In the second part of this dissertation, we propose a sparse Fisher’s discriminant analysis method with thresholded linear constraints. Various regularized linear discriminant analysis (LDA) methods have been proposed to address the problems of the LDA in high-dimensional settings. Asymptotic optimality has been established for some of these methods when there are only two classes. A difficulty in the asymptotic study for the multiclass classification is that for the two-class classification, the classification boundary is a hyperplane and an explicit formula for the classification error exists, however, in the case of multiclass, the boundary is usually complicated and no explicit formula for the error generally exists. Another difficulty in proving the asymptotic consistency and optimality for sparse Fisher’s discriminant analysis is that the covariance matrix is involved in the constraints of the optimization problems for high order components. It is not easy to estimate a general high-dimensional covariance matrix. Thus, we propose a sparse Fisher’s discriminant analysis method which avoids the estimation of the covariance matrix, provide asymptotic consistency results and the corresponding convergence rates for all components. To prove the asymptotic optimality, we provide an asymptotic upper bound for a general linear classification rule in the case of muticlass which is applied to our method to obtain the asymptotic optimality and the corresponding convergence rate. In the special case of two classes, our method achieves the same as or better convergence rates compared to the existing method. The proposed method is applied to multivariate functional data with wavelet transformations.
3

Topologie generované přidáváním jednotlivých bodů / Topologies generated by adding single points

Bartoš, Adam January 2014 (has links)
We define a general notion of closure scheme to systematically study the classes of Fréchet, sequetial, (pseudo)radial, (weakly) (discretely) Whyburn, and (weakly) discretely generated spaces. First, several general propositions on closure schemes and preservation of induced properties under topological constructions are proved and later applied when we systematically summarize the properties of the classes mentioned above. Next, we focus on a detailed overview of inclusions between the classes in the general case, in the case of Hausdorff spaces, and under additional conditions like compactness and countable compactness. Valid inclusions between the classes are summarized in well arranged diagrams, invalid inclusions are demonstrated by several counterexamples.
4

Inférence statistique à travers les échelles / Statistical inference across time scales

Duval, Céline 07 December 2012 (has links)
Cette thèse porte sur le problème d'estimation à travers les échelles pour un processus stochastique. Nous étudions comment le choix du pas d'échantillonnage impacte les procédures statistiques. Nous nous intéressons à l'estimation de processus à sauts à partir de l'observation d'une trajectoire discrétisée sur [0, T]. Lorsque la longueur de l'intervalle d'observation T va à l'infini, le pas d'échantillonnage tend soit vers 0 (échelle microscopique), vers une constante positive (échelle intermédiaire) ou encore vers l'infini (échelle macroscopique). Dans chacun de ces régimes nous supposons que le nombre d'observations tend vers l'infini. Dans un premier temps le cas particulier d'un processus de Poisson composé d'intensité inconnue avec des sauts symétriques {-1,1} est étudié. Le Chapitre 2 illustre la notion d'estimation statistique dans les trois échelles définies ci-dessus. Dans ce modèle, on s'intéresse aux propriétés des expériences statistiques. On montre la propriété de Normalité Asymptotique Locale dans les trois échelles microscopiques, intermédiaires et macroscopiques. L'information de Fisher est alors connue pour chacun de ces régimes. Ensuite nous analysons comment se comporte une procédure d'estimation de l'intensité qui est efficace (de variance minimale) à une échelle donnée lorsqu'on l'applique à des observations venant d'une échelle différente. On regarde l'estimateur de la variation quadratique empirique, qui est efficace dans le régime macroscopique, et on l'utilise sur des données provenant des régimes intermédiaire ou microscopique. Cet estimateur reste efficace dans les échelles microscopiques, mais montre une perte substantielle d'information aux échelles intermédiaires. Une procédure unifiée d'estimation est proposée, elle est efficace dans tous les régimes. Les Chapitres 3 et 4 étudient l'estimation non paramétrique de la densité de saut d'un processus renouvellement composé dans les régimes microscopiques, lorsque le pas d'échantillonnage tend vers 0. Un estimateur de cette densité utilisant des méthodes d'ondelettes est construit. Il est adaptatif et minimax pour des pas d'échantillonnage qui décroissent en T^{-alpha}, pour alpha>0. La procédure d'estimation repose sur l'inversion de l'opérateur de composition donnant la loi des incréments comme une transformation non linéaire de la loi des sauts que l'on cherche à estimer. L'opérateur inverse est explicite dans le cas du processus de Poisson composé (Chapitre 3), mais n'a pas d'expression analytique pour les processus de renouvellement composés (Chapitre 4). Dans ce dernier cas, il est approché via une technique de point fixe. Le Chapitre 5 étudie le problème de perte d'identifiabilité dans les régimes macroscopiques. Si un processus à sauts est observé avec un pas d'échantillonnage grand, certaines approximations limites, telles que l'approximation gaussienne, deviennent valides. Ceci peut entraîner une perte d'identifiabilité de la loi ayant généré le processus, dès lors que sa structure est plus complexe que celle étudiée dans le Chapitre 2. Dans un premier temps un modèle jouet à deux paramètres est considéré. Deux régimes différents émergent de l'étude : un régime où le paramètre n'est plus identifiable et un où il reste identifiable mais où les estimateurs optimaux convergent avec des vitesses plus lentes que les vitesses paramétriques habituelles. De l'étude de cas particulier, nous dérivons des bornes inférieures montrant qu'il n'existe pas d'estimateur convergent pour les processus de Lévy de saut pur ou pour les processus de renouvellement composés dans les régimes macroscopiques tels que le pas d'échantillonnage croît plus vite que racine de T. Enfin nous identifions des régimes macroscopiques où les incréments d'un processus de Poisson composé ne sont pas distinguables de variables aléatoires gaussiennes, et des régimes où il n'existe pas d'estimateur convergent pour les processus de Poisson composés dépendant de trop de paramètres / This thesis studies the problem of statistical inference across time scales for a stochastic process. More particularly we study how the choice of the sampling parameter affects statistical procedures. We narrow down to the inference of jump processes from the discrete observation of one trajectory over [0,T]. As the length of the observation interval T tends to infinity, the sampling rate either goes to 0 (microscopic scale) or to some positive constant (intermediate scale) or grows to infinity (macroscopic scale). We set in a case where there are infinitely many observations. First we specialise in a toy model: a compound Poisson process of unknown intensity with symmetric Bernoulli jumps. Chapter 2 highlights the concept of statistical estimation in the three regimes defined above and the phenomena at stake. We study the properties of the statistical experiments in each regime, we show that the Local Asymptotic Normality property holds in every regimes (microscopic, intermediate and macroscopic). We also provide the formula of the associated Fisher information in each regime. Then we study how a statistical procedure which is optimal (of minimal variance) at a given scale is affected when we use it on data coming from another scale. We focus on the empirical quadratic variation estimator, it is an optimal procedure at macroscopic scales. We apply it on data coming from intermediate and microscopic regimes. Although the estimator remains efficient at microscopic scales, it shows a substantial loss of information when used on data coming from an intermediate regime. That loss can be explicitly related to the sampling rate. We provide an unified procedure, efficient in all regimes. Chapters 3 and 4 focus on microscopic regimes, when the sampling rate decreases to 0. The nonparametric estimation of the jump density of a renewal reward process is studied. We propose an adaptive wavelet threshold density estimator. It achieves minimax rates of convergence for sampling rates that vanish polynomially with T, namely in T^{-alpha} for alpha>0. The estimation procedure is based on the inversion of the compounding operator in the same spirit as Buchmann and Grübel (2003), which specialiase in the study of discrete compound laws. The inverse operator is explicit in the case of a compound Poisson process (see Chapter 3), but has no closed form expression for renewal reward processes (see Chapter 4). In that latter case the inverse operator is approached with a fixed point technique. Finally Chapter 5 studies at which rate identifiability is lost in macroscopic regimes. Indeed when a jump process is observed at an arbitrarily large sampling rate, limit approximations, like Gaussian approximations, become valid and the specificities of the jumps may be lost, as long as the structure of the process is more complex than the one introduced in Chapter 2. First we study a toy model depending on a 2-dimensional parameter. We distinguish two different regimes: fast (macroscopic) regimes where all information on the parameter is lost and slow regimes where the parameter remains identifiable but where optimal estimators converge with slower rates than the expected usual parametric ones. From this toy model lower bounds are derived, they ensure that consistent estimation of Lévy processes or renewal reward processes is not possible when the sampling rate grows faster than the square root of T. Finally we identify regimes where an experiment consisting in increments of a compound Poisson process is asymptotically equivalent to an experiment consisting in Gaussian random variables. We also give regimes where there is no consistent estimator for compound Poisson processes depending on too many parameters
5

Évaluation pharmacoéconomique des thérapies efficaces et dispendieuses en prévention des maladies cardiovasculaires

Fanton-Aita, Fiorella 04 1900 (has links)
Les maladies cardiovasculaires (MCV) ont une prévalence élevée dans le monde et sont considérées comme la deuxième cause de mortalité chez la population canadienne. Les statines sont reconnues comme le traitement par excellence dans la prévention des MCV. Toutefois, les statines ne conviennent pas à tous les patients, potentiellement, en raison de la survenue d’effets secondaires et du manque d’efficacité. Avec l’avancement de la science, de nouvelles thérapies voient le jour dans le milieu cardiovasculaire. Les inhibiteurs de la proprotéine convertase subtilisine-kexine de type 9 PCSK9 (iPCSK9) constituent un traitement efficace pour réduire les évènements cardiovasculaires. Cependant, ces thérapies sont dispendieuses pour le système de santé. Cette thèse a pour but d’explorer la pharmacoéconomie des thérapies dispendieuses ayant démontrées une efficacité clinique importante dans le traitement préventif des MCV. La pharmacoéconomie est un outil d’évaluation destiné aux décideurs ayant comme objectif d’optimiser l’utilisation des ressources humaines et financières. Tout d’abord, dans un premier article, nous avons évalué l’efficacité maximale d’une thérapie hypolipémiante à partir des grilles de risque cardiovasculaires. Selon les résultats obtenus, l’efficacité maximale qu’il est raisonnable d’espérer a correspondu à une diminution du risque relatif variant entre 0,46 et 0,66. Ensuite, dans un deuxième article, nous avons estimé l’efficacité d’une thérapie dispendieuse dans un contexte différent puisque les études cliniques étaient en cours. Avec l’aide d’un modèle de Markov, la propension à payer a été fixée à deux seuils distincts, alors que le coût d’acquisition de la thérapie est demeuré fixe. Nos résultats ont estimé que pour atteindre les seuils de propension à payer de 50 000 $ et 100 000 $ par année de vie ajustée pour la qualité, l’efficacité devrait être de 0,58 et 0,78 respectivement. Finalement, l’étude randomisée contrôlée établissant l’efficacité clinique des iPCSK9 a été publiée. Nous avons donc pu évaluer le coût-utilité réel des iPCSK9 avec une nouvelle méthode de simulation, nommée Conditions et évènements discrètement intégrés. Cette étude est l’objet 2 de mon troisième article. Les résultats de cet article ont estimé que l’iPCSK9 n’est pas coût-efficace selon l’efficacité obtenue dans les études cliniques. En conclusion, suite aux résultats présentés dans cette thèse rédigée par articles, il serait envisageable d’intégrer dans le modèle pharmacoéconomique l’option d’un test génétique afin d’individualiser le traitement de chaque patient. / Cardiovascular diseases (CVD) have a high prevalence worldwide and are considered the second leading cause of death in the Canadian population. Statins are recognized to be the gold standard treatment in the prevention of CVD. However, statins are not suitable for all patients, potentially because of side effects and lack of efficacy. With the advancement of science, new therapies are emerging in the cardiovascular field. Inhibitors of proprotein convertase subtilisin-kexin type 9 (iPCSK9) have been shown to be effective in reducing cardiovascular events. However, these therapies are expensive. This article-based thesis aims to explore the pharmacoeconomics of expensive therapies that have demonstrated significant clinical efficacy in the preventive treatment of CVD. Pharmacoeconomics is an evaluation tool for decision-makers with the objective of optimizing the use of human and financial resources. In the first publication, we evaluated the maximum effectiveness of lipid-lowering therapy from cardiovascular risk grids. According to our results, this maximum expected benefit fluctuates between 0.46 and 0.66. In the second publication, we estimated the effectiveness of an expensive therapy. At the time of our second publication, the results of the randomized controlled trial evaluating the clinical efficacy of iPCSK9 had not been published yet. Therefore, we used a Markov model to estimate the necessary clinical efficacy of PCSK9 inhibitors to reach two arbitrarily selected willingness-to-pay (WTP) thresholds. Our results showed that an efficacy of 0.58 and 0.78 were necessary to reach WTP thresholds of $50,000 and $100,000 per quality-adjusted life years respectively. Once the clinical efficacy of iPCSK9 was published, we evaluated their cost-utility. This was the object of our third article and a new simulation method named Discretely Integrated Condition was used. Our results suggested that at the current price, the PCSK9 inhibitors were not cost-effective. Following the results presented in this article-based thesis, it would be of interest to integrate the option of a hypothetical genetic test into the pharmacoeconomic model. This genetic test would be able to identify good responders in order to optimize the treatment of each individual patient.

Page generated in 0.0712 seconds