Spelling suggestions: "subject:"ciences physiques"" "subject:"ciences éophysiques""
51 |
Estimation simplifiée de la variance pour des plans complexesLefebvre, Isabelle 12 1900 (has links)
En présence de plans de sondage complexes, les méthodes classiques d’estimation de la variance présentent certains défis. En effet, les estimateurs de variance usuels requièrent les probabilités d’inclusion d’ordre deux qui peuvent être complexes à obtenir pour certains plans de sondage. De plus, pour des raisons de confidentialité, les fichiers externes de microdonnées n’incluent généralement pas les probabilités d’inclusion d’ordre deux (souvent sous la forme de poids bootstrap). En s’inspirant d’une approche développée par Ohlsson (1998) dans le contexte de l’échantillonnage de Poisson séquentiel, nous proposons un estimateur ne requérant que les probabilités d’inclusion d’ordre un. L’idée est d’approximer la stratégie utilisée par l’enquête (consistant du choix d’un plan de sondage et d’un estimateur) par une stratégie équivalente dont le plan de sondage est le plan de Poisson. Nous discuterons des plans proportionnels à la taille avec ou sans grappes. Les résultats d’une étude par simulation seront présentés. / In a complex design framework, standard variance estimation methods entail substantial challenges. As we know, conventional variance estimators involve second order inclusion probabilities, which can be difficult to compute for some sampling designs. Also, confidentiality standards generally prevent second order inclusion probabilities to be included in external microdata files (often in the form of bootstrap weights). Based on Ohlsson’s sequential Poisson sampling method
(1998), we suggest a simplified estimator for which we only need first order inclusion probabilities. The idea is to approximate a survey strategy (which consists of a sampling design and an estimator) by an equivalent strategy for which a Poisson sampling design is used. We will discuss proportional to size sampling and proportional to size cluster sampling. Results of a simulation study will be presented.
|
52 |
Étude d’algorithmes de simulation par chaînes de Markov non réversiblesHuguet, Guillaume 10 1900 (has links)
Les méthodes de Monte Carlo par chaînes de Markov (MCMC) utilisent généralement des
chaînes de Markov réversibles. Jusqu’à récemment, une grande partie de la recherche théorique
sur les chaînes de Markov concernait ce type de chaînes, notamment les théorèmes de
Peskun (1973) et de Tierney (1998) qui permettent d’ordonner les variances asymptotiques
de deux estimateurs issus de chaînes réversibles différentes.
Dans ce mémoire nous analysons des algorithmes simulants des chaînes qui ne respectent
pas cette condition. Nous parlons alors de chaînes non réversibles. Expérimentalement, ces
chaînes produisent souvent des estimateurs avec une variance asymptotique plus faible et/ou
une convergence plus rapide. Nous présentons deux algorithmes, soit l’algorithme de marche
aléatoire guidée (GRW) par Gustafson (1998) et l’algorithme de discrete bouncy particle
sampler (DBPS) par Sherlock et Thiery (2017). Pour ces deux algorithmes, nous comparons
expérimentalement la variance asymptotique d’un estimateur avec la variance asymptotique
en utilisant l’algorithme de Metropolis-Hastings.
Récemment, un cadre théorique a été introduit par Andrieu et Livingstone (2019) pour
ordonner les variances asymptotiques d’une certaine classe de chaînes non réversibles. Nous
présentons leur analyse de GRW. De plus, nous montrons que le DBPS est inclus dans
ce cadre théorique. Nous démontrons que la variance asymptotique d’un estimateur peut
théoriquement diminuer en ajoutant des propositions à cet algorithme. Finalement, nous
proposons deux modifications au DBPS.
Tout au long du mémoire, nous serons intéressés par des chaînes issues de propositions
déterministes. Nous montrons comment construire l’algorithme du delayed rejection avec
des fonctions déterministes et son équivalent dans le cadre de Andrieu et Livingstone (2019). / Markov chain Monte Carlo (MCMC) methods commonly use chains that respect the detailed
balance condition. These chains are called reversible. Most of the theory developed for
MCMC evolves around those particular chains. Peskun (1973) and Tierney (1998) provided
useful theorems on the ordering of the asymptotic variances for two estimators produced by
two different reversible chains.
In this thesis, we are interested in non-reversible chains, which are chains that don’t
respect the detailed balance condition. We present algorithms that simulate non-reversible
chains, mainly the Guided Random Walk (GRW) by Gustafson (1998) and the Discrete
Bouncy Particle Sampler (DBPS) by Sherlock and Thiery (2017). For both algorithms, we
compare the asymptotic variance of estimators with the ones produced by the Metropolis-
Hastings algorithm.
We present a recent theoretical framework introduced by Andrieu and Livingstone (2019)
and their analysis of the GRW. We then show that the DBPS is part of this framework
and present an analysis on the asymptotic variance of estimators. Their main theorem
can provide an ordering of the asymptotic variances of two estimators resulting from nonreversible
chains. We show that an estimator could have a lower asymptotic variance by
adding propositions to the DBPS. We then present empirical results of a modified DBPS.
Through the thesis we will mostly be interested in chains that are produced by deterministic
proposals. We show a general construction of the delayed rejection algorithm using
deterministic proposals and one possible equivalent for non-reversible chains.
|
53 |
Développements théoriques et empiriques des tests lisses d'ajustement des modèles ARMA vectorielsDesrosiers, Gabriel 12 1900 (has links)
Lors de la validation des modèles de séries chronologiques, une hypothèse qui peut s'avérer importante porte sur la loi des données. L'approche préconisée dans ce mémoire utilise les tests lisses d'ajustement. Ce mémoire apporte des développements théoriques et empiriques des tests lisses pour les modèles autorégressifs moyennes mobiles (ARMA) vectoriels. Dans des travaux précédents, Ducharme et Lafaye de Micheaux (2004) ont développé des tests lisses d'ajustement reposant sur les résidus des modèles ARMA univariés. Tagne Tatsinkou (2016) a généralisé les travaux dans le cadre des modèles ARMA vectoriels (VARMA), qui s'avèrent potentiellement utiles dans les applications avec données réelles. Des considérations particulières au cas multivarié, telles que les paramétrisations structurées dans les modèles VARMA sont abordées.
Les travaux de Tagne Tatsinkou (2016) sont complétés selon les angles théoriques et des études de simulations additionnelles sont considérées. Les nouveaux tests lisses reposent sur des familles de polynômes orthogonaux. Dans cette étude, une attention particulière est accordée aux familles de Legendre et d'Hermite. La contribution théorique majeure est une preuve complète que la statistique de test est invariante aux transformations linéaires affines lorsque la famille d'Hermite est adoptée. Les résultats de Tagne Tatsinkou (2016) représentent une première étape importante, mais ils sont incomplets quant à l'utilisation des résidus du modèle.
Les tests proposés reposent sur une famille de densités sous les hypothèses alternatives d'ordre k. La sélection automatique de l'ordre maximal, basée sur les résultats de Ledwina (1994), est discutée. La sélection automatique est également implantée dans nos études de simulations.
Nos études de simulations incluent des modèles bivariés et un modèle trivarié. Dans une étude de niveaux, on constate la bonne performance des tests lisses. Dans une étude de puissance, plusieurs compétiteurs ont été considérés. Il est trouvé que les tests lisses affichent des propriétés intéressantes de puissance lorsque les données proviennent de modèles VARMA avec des innovations dans la classe de lois normales contaminées. / When validating time series models, the distribution of the observations represents a potentially important assumption. In this Master's Thesis, the advocated approach uses smooth goodness-of-fit test statistics. This research provides theoretical and empirical developments of the smooth goodness of fit tests for vector autoregressive moving average models (VARMA). In previous work, Ducharme and Lafaye de Micheaux (2004) developed smooth goodness-of-fit tests designed for the residuals of univariate ARMA models. Later, Tagne Tatsinkou (2016) generalized the work within the framework of vector ARMA (VARMA) models, which prove to be potentially useful in real applications. Structured parameterizations, which are considerations specific to the multivariate case, are discussed.
The works of Tagne Tatsinkou (2016) are completed, according to theoretical angles, and additional simulation studies are also considered. The new smooth tests are based on families of orthogonal polynomials. In this study, special attention is given to Legendre's family and Hermite's family. The major theoretical contribution in this work is a complete proof that the test statistic is invariant to linear affine transformations when the Hermite family is adopted. The results of Tagne Tatsinkou (2016) represent an important first step, but they were incomplete with respect to the use of the model residuals.
The proposed tests are based on a family of densities under alternative hypotheses of order k. A data driven method to choose the maximal order, based on the results of Ledwina (1994), is discussed. In our simulation studies, the automatic selection is also implemented.
Our simulation studies include bivariate models and a trivariate model. In the level study, we can appreciate the good performance of the smooth tests. In the power study, several competitors were considered. We found that the smooth tests displayed interesting power properties when the data came from VARMA models with innovations in the class of contaminated normal distributions.
|
54 |
Recyclage des candidats dans l'algorithme Metropolis à essais multiplesGroiez, Assia 03 1900 (has links)
No description available.
|
55 |
Caractérisation des interfaces acier-fonte-carbone de l'ensemble anodique d'une cuve d'aluminiumMartin, Marie-Hélène 20 April 2018 (has links)
L’industrie de l’aluminium vit des bouleversements économiques, d’où l’importance de réduire les coûts d’opération. Le présent projet se penche sur les pertes ohmiques du scellement anodique. Les essais ont été complétés entre les conditions ambiantes jusqu’à charge et température maximales permises par le banc d’essais. Les travaux furent complétés sur un banc d’essais novateur - permettant une stabilisation rapide de la température et une faible oxydation de la portion carbonée de l’échantillon - et des échantillons (acier-fonte-carbone) fabriqués pour reproduire la réalité. Ensuite, une régression non linéaire a été utilisée pour modéliser le comportement mesuré en laboratoire. L’analyse statistique démontre que le modèle représente adéquatement le comportement des interfaces à mesure que la charge appliquée et la température s’intensifient. La comparaison avec la littérature démontre une similitude, toutefois les résultats diffèrent de façon significative. Ceci s’explique par l’utilisation de matériaux différents et par le changement de méthode expérimentale. / The aluminum industry faces economical headwinds, thus needing to reduce its operating costs. The project studies specifically energy losses at anode sealing location. Experiments were conducted from room conditions up to the maximum capacity of the bench test. Laboratory work was completed using tri-material samples (made in such a way to replicate accurately reality) and an innovative bench test using magnetic induction as a source of heat that enables minimal heat-up time and sample oxidation during experiments. Non-linear regression was then used to retrieve a model from laboratory results. Analysis showed that a power model represents accurately the interfaces behavior from room to operation conditions. Comparison with literature showed that the order of magnitude is the same but results are not similar. This observation can be explained by the use of slightly different materials and also due to the use of a different experimental procedure.
|
56 |
Statistiques appliquées en chirurgie cardiaque adulte : analyses de survie et applications du “propensity score”Stevens, Louis-Mathieu 05 1900 (has links)
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts.
Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique.
Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme.
Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts. / The main objective of this work is to study in depth advanced biostatistical techniques in adult cardiac surgery outcome research. The studies were designed to incorporate the concepts of survival analysis, regression analysis with propensity score, and cost analysis.
The first manuscript assessed survival, and cardiovascular specific mortality, following surgical repair of acute ascending aortic dissection. The statistical analyses included survival analyses with multiphase parametric hazard regression and other parametric (exponential, Weibull), semi-parametric (Cox) or non-parametric models (Kaplan Meier), comparison with the survival of a matched cohort for age, gender and race using State lifetables, and modelization with bootstrapping and multinomial logit models. The study showed that the early and late survival following surgical repair has improved progressively over 25 years in association with noticeable changes in surgical techniques and preoperative diagnostic testing.
The second manuscript focused on outcomes following isolated coronary artery bypass grafting in patients with a history of percutaneous coronary intervention. The statistical analyses included multivariable regression models with propensity score, complex matching algorithm (1:3) and appropriate statistical analyses for matched groups (standardized differences, generalized estimating equations, and survival analyses with stratified proportional hazards models). The study showed that remote prior percutaneous coronary intervention more than 14 days before coronary artery bypass grafting surgery was not associated with adverse outcomes at short or long-term follow-up.
The third manuscript evaluated the financial consequences and the changes in case mix that occurred at an academic medical center subsequent to the implementation of a satellite cardiac surgery program. The statistical analyses included two-way ANOVA multivariable regression models (logistic, linear or ordinal), propensity score, and cost analyses using Log-Normal parametric models. “Survival” analyses models were also explored, using “cost” instead of “time” as the outcome of interest, and led to similar conclusions. The study showed that, after implementation of the satellite cardiac surgery program, fewer patients of lower complexity came to the academic medical center from the satellite program area, with a significant increase in nursing workload and costs.
|
57 |
Sur les tests de type diagnostic dans la validation des hypothèses de bruit blanc et de non corrélationSango, Joel 09 1900 (has links)
Dans la modélisation statistique, nous sommes le plus souvent amené à supposer que le phénomène étudié est généré par une structure pouvant s’ajuster aux données observées. Cette structure fait apparaître une partie principale qui représente le mieux possible le phénomène étudié et qui devrait expliquer les données et une partie supposée négligeable appelée erreur ou innovation. Cette structure complexe est communément appelée un modèle, dont la forme peut être plus ou moins complexe. Afin de simplifier la structure, il est souvent supposé qu’elle repose sur un nombre fini de valeurs, appelées paramètres. Basé sur les données, ces paramètres sont estimés avec ce que l’on appelle des estimateurs. La qualité du modèle pour les données à notre disposition est également fonction des estimateurs et de leurs propriétés, par exemple, est-ce que les estimateurs sont raisonnablement proches des valeurs idéales, c’est-à-dire les vraies valeurs. Des questions d’importance portent sur la qualité de l’ajustement d’un modèle aux données, ce qui se fait par l’étude des propriétés probabilistes et statistiques du terme d’erreur. Aussi, l’étude des relations ou l’absence de ces dernières entre les phénomènes sous des hypothèses complexes sont aussi d’intérêt. Des approches possibles pour cerner ce genre de questions consistent dans l’utilisation des tests portemanteaux, dits également tests de diagnostic.
La thèse est présentée sous forme de trois projets. Le premier projet est rédigé en langue anglaise. Il s’agit en fait d’un article actuellement soumis dans une revue avec comité de lecture. Dans ce projet, nous étudions le modèle vectoriel à erreurs multiplicatives (vMEM) pour lequel nous utilisons les propriétés des estimateurs des paramètres du modèle selon la méthode des moments généralisés (GMM) afin d’établir la distribution asymptotique des autocovariances résiduelles. Ceci nous permet de proposer des nouveaux tests diagnostiques pour ce type de modèle. Sous l’hypothèse nulle d’adéquation du modèle, nous montrons que la statistique usuelle de Hosking-Ljung-Box converge vers une somme pondérée de lois de khi-carré indépendantes à un degré de liberté. Un test généralisé de Hosking-Ljung-Box est aussi obtenu en comparant la densité spectrale des résidus de l’estimation et celle présumée sous l’hypothèse
nulle. Un avantage des tests spectraux est qu’ils nécessitent des estimateurs qui convergent à la vitesse n−1/2 où n est la taille de l’échantillon, et leur utilisation n’est pas restreinte à une technique particulière, comme par exemple la méthode
des moments généralisés. Dans le deuxième projet, nous établissons la distribution asymptotique sous l’hypothèse de faible dépendance des covariances croisées de deux processus stationnaires en covariance. La faible dépendance ici est définie en terme de l’effet limité d’une observation donnée sur les observations futures. Nous utilisons la notion de stabilité et le concept de contraction géométrique des moments. Ces conditions sont plus générales que celles de l’invariance des moments conditionnels d’ordre un à quatre utilisée jusque là par plusieurs auteurs. Un test statistique
basé sur les covariances croisées et la matrice des variances et covariances de leur distribution asymptotique est alors proposé et sa distribution asymptotique établie. Dans l’implémentation du test, la matrice des variances et covariances des covariances croisées est estimée à l’aide d’une procédure autorégressive vectorielle robuste à l’autocorrélation et à l’hétéroscédasticité. Des simulations sont ensuite effectuées pour étudier les propriétés du test proposé. Dans le troisième projet, nous considérons un modèle périodique multivarié et cointégré. La présence de cointégration entraîne l’existence de combinaisons linéaires périodiquement stationnaires des composantes du processus étudié. Le nombre de ces combinaisons linéaires linéairement indépendantes est appelé rang de cointégration. Une méthode d’estimation en deux étapes est considérée. La première méthode est appelée estimation de plein rang. Dans cette approche, le
rang de cointégration est ignoré. La seconde méthode est appelée estimation de rang réduit. Elle tient compte du rang de cointégration. Cette dernière est une approche non linéaire basée sur des itérations dont la valeur initiale est l’estimateur
de plein rang. Les propriétés asymptotiques de ces estimateurs sont aussi établies. Afin de vérifier l’adéquation du modèle, des statistiques de test de type portemanteau sont considérées et leurs distributions asymptotiques sont étudiées. Des simulations sont par la suite présentées afin d’illustrer le comportement du test proposé. / In statistical modeling, we assume that the phenomenon of interest is generated by a model that can be fitted to the observed data. The part of the phenomenon not explained by the model is called error or innovation. There are two parts in the model. The main part is supposed to explain the observed data, while the unexplained part which is supposed to be negligible is also called error or innovation. In order to simplify the structures, the model are often assumed to rely on a finite set of parameters. The quality of a model depends also on the parameter estimators and their properties. For example, are the estimators relatively close to the true parameters ? Some questions also address the goodness-of-fit of
the model to the observed data. This question is answered by studying the statistical and probabilistic properties of the innovations. On the other hand, it is also of interest to evaluate the presence or the absence of relationships between the
observed data. Portmanteau or diagnostic type tests are useful to address such issue. The thesis is presented in the form of three projects. The first project is written in English as a scientific paper. It was recently submitted for publication. In that project, we study the class of vector multiplicative error models (vMEM). We use the properties of the Generalized Method of Moments to derive the asymptotic distribution of sample autocovariance function. This allows us to propose a new test statistic. Under the null hypothesis of adequacy, the asymptotic distributions of the popular Hosking-Ljung-Box (HLB) test
statistics are found to converge in distribution to weighted sums of independent chi-squared random variables. A generalized HLB test statistic is motivated by comparing a vector spectral density estimator of the residuals with the spectral density calculated under the null hypothesis. In the second project, we derive the asymptotic distribution under weak dependence of cross covariances of covariance stationary processes. The weak dependence is defined in term of the limited effect of a given information on future observations. This recalls the notion of stability and geometric moment contraction. These conditions of weak dependence defined here are more general than the invariance of conditional moments used by many authors. A test statistic based on cross covariances is proposed and its asymptotic distribution is established. In the elaboration of the test statistics, the covariance matrix of the cross covariances is obtained from a vector autoregressive procedure robust to autocorrelation and heteroskedasticity. Simulations are also carried on to study the properties of the proposed test and also to compare it to existing tests. In the third project, we consider a cointegrated periodic model. Periodic models are present in the domain of meteorology, hydrology and economics. When modelling many processes, it can happen that the processes are just driven by a common trend. This situation leads to spurious regressions when the series are integrated but have some linear combinations that are stationary. This is called cointegration. The number of stationary linear combinations that are linearly independent is called cointegration rank. So, to model the real relationship between the processes, it is necessary to take into account the cointegration rank. In the
presence of periodic time series, it is called periodic cointegration. It occurs when time series are periodically integrated but have some linear combinations that are periodically stationary. A two step estimation method is considered. The first
step is the full rank estimation method that ignores the cointegration rank. It provides initial estimators to the second step estimation which is the reduced rank estimation. It is non linear and iterative. Asymptotic properties of the estimators
are also established. In order to check for model adequacy, portmanteau type tests and their asymptotic distributions are also derived and their asymptotic distribution are studied. Simulation results are also presented to show the behaviour of the proposed test.
|
58 |
Repérage d'invariants et construction des concepts scientifiques - le cas du concept d'élément chimique en sciences physiques / Tracking invariant and construction of scientific concepts - the case of the concept of chemical element in physical sciencesFleury, Pierre 26 November 2012 (has links)
Vergnaud (1985) propose une structure de type (S,I,S) qui sous-tend que la construction d’un concept scientifique est accompagnée entre autres de l’émergence d’un système d’invariant(s) lié au concept. Nous proposons ici d’observer si, en sciences physiques, sur l’exemple du concept d’élément chimique au sein de classes de seconde générale du lycée, l’élaboration de l’invariant, dans le cadre d’une telle structure (S,I,S), est, sinon la condition de celle du concept, susceptible de le rendre plus lisible. Nos résultats montrent que la construction du concept d’élément chimique semble être conditionnée par celle de son invariant. En revanche la réciprocité ne paraît pas aussi évidente. Nous observons des tendances similaires sur d’autres concepts en sciences physiques, lesquels sont en cours d’exploitation. Cela nous amène à penser que les invariants pourraient se voir doter, en sciences physiques, d’un statut didactique « majeur ». Nous proposons une ébauche de classification des invariants, en sciences physiques, afin de donner de la lisibilité aux objets complexes que sont les concepts scientifiques auxquels ils sont associés. Nous imaginons que toutes les disciplines pourraient « penser » leurs invariants et que ces derniers pourraient être valorisés, au sein des organismes de formation, pour ce qu’ils sont susceptibles d’apporter aux élèves dans un cursus d’apprentissage. / Vergnaud (1985) propose a structure of type (S, I, S) which underlies the construction of a scientific concept is accompanied by among others the emergence of a system invariant (s) related to the concept. We propose here to observe whether, physical sciences, the example of the concept of chemical element within general classes of second school, the development of the invariant under such a structure (S, I, S) is, if the condition of the concept, which may make it more readable. Our results show that the construction of the concept of chemical element seems to be conditioned by its invariant. However reciprocity does not seem so obvious.We observe similar trends on other concepts in the physical sciences, which are in operation. This leads us to believe that the invariants could be build, physical sciences, educational status "major". We propose a draft classification of invariants, physical sciences, in order to give clarity to complex objects that are scientific concepts which they are associated.We imagine that all disciplines could "think" their invariants and that they could be recovered within training organizations for what they are likely to provide students with a learning curve.
|
59 |
Tests de permutation d’indépendance en analyse multivariéeGuetsop Nangue, Aurélien 11 1900 (has links)
Cette thèse est rédigée par articles. Les articles sont rédigés en anglais et le reste de la thèse est rédigée en français. / Le travail établit une équivalence en termes de puissance entre les tests basés sur la alpha-distance de covariance et sur le critère d'indépendance de Hilbert-Schmidt (HSIC) avec fonction caractéristique de distribution de probabilité stable d'indice alpha avec paramètre d'échelle suffisamment petit. Des simulations en grandes dimensions montrent la supériorité des tests de distance de covariance et des tests HSIC par rapport à certains tests utilisant les copules. Des simulations montrent également que la distribution de Pearson de type III, très utile et moins connue, approche la distribution exacte de permutation des tests et donne des erreurs de type I précises. Une nouvelle méthode de sélection adaptative des paramètres d'échelle pour les tests HSIC est proposée. Trois simulations, dont deux sont empruntées de l'apprentissage automatique, montrent que la nouvelle méthode de sélection améliore la puissance des tests HSIC. Le problème de tests d'indépendance entre deux vecteurs est généralisé au problème de tests d'indépendance mutuelle entre plusieurs vecteurs. Le travail traite aussi d'un problème très proche à savoir, le test d'indépendance sérielle d'une suite multidimensionnelle stationnaire. La décomposition de Möbius des fonctions caractéristiques est utilisée pour caractériser l'indépendance. Des tests généralisés basés sur le critère d'indépendance de Hilbert-Schmidt et sur la distance de covariance en sont obtenus. Une équivalence est également établie entre le test basé sur la distance de covariance et le test HSIC de noyau caractéristique d'une distribution stable avec des paramètres d'échelle suffisamment petits. La convergence faible du test HSIC est obtenue. Un calcul rapide et précis des valeurs-p des tests développés utilise une distribution de Pearson de type III comme approximation de la distribution exacte des tests. Un résultat fascinant est l'obtention des trois premiers moments exacts de la distribution de permutation des statistiques de dépendance. Une méthodologie similaire a été développée pour le test d'indépendance sérielle d'une suite. Des applications à des données réelles environnementales et financières sont effectuées. / The main result establishes the equivalence in terms of power between the alpha-distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distribution of index alpha with sufficiently small scale parameters. Large-scale simulations reveal the superiority of these two tests over other tests based on the empirical independence copula process. They also establish the usefulness of the lesser known Pearson type III approximation to the exact permutation distribution. This approximation yields tests with more accurate type I error rates than the gamma approximation usually used for HSIC, especially when dimensions of the two vectors are large. A new method for scale parameter selection in HSIC tests is proposed which improves power performance in three simulations, two of which are from machine learning. The problem of testing mutual independence between many random vectors is addressed. The closely related problem of testing serial independence of a multivariate stationary sequence is also considered. The Möbius transformation of characteristic functions is used to characterize independence. A generalization to p vectors of the alpha -distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distributionof index alpha is obtained. It is shown that an HSIC test with sufficiently small scale parameters is equivalent to an alpha -distance covariance test. Weak convergence of the HSIC test is established. A very fast and accurate computation of p-values uses the Pearson type III approximation which successfully approaches the exact permutation distribution of the tests. This approximation relies on the exact first three moments of the permutation distribution of any test which can be expressed as the sum of all elements of a componentwise product of p doubly-centered matrices. The alpha -distance covariance test and the HSIC test are both of this form. A new selection method is proposed for the scale parameter of the characteristic kernel of the HSIC test. It is shown in a simulation that this adaptive HSIC test has higher power than the alpha-distance covariance test when data are generated from a Student copula. Applications are given to environmental and financial data.
|
60 |
Statistiques appliquées en chirurgie cardiaque adulte : analyses de survie et applications du “propensity score”Stevens, Louis-Mathieu 05 1900 (has links)
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts.
Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique.
Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme.
Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts. / The main objective of this work is to study in depth advanced biostatistical techniques in adult cardiac surgery outcome research. The studies were designed to incorporate the concepts of survival analysis, regression analysis with propensity score, and cost analysis.
The first manuscript assessed survival, and cardiovascular specific mortality, following surgical repair of acute ascending aortic dissection. The statistical analyses included survival analyses with multiphase parametric hazard regression and other parametric (exponential, Weibull), semi-parametric (Cox) or non-parametric models (Kaplan Meier), comparison with the survival of a matched cohort for age, gender and race using State lifetables, and modelization with bootstrapping and multinomial logit models. The study showed that the early and late survival following surgical repair has improved progressively over 25 years in association with noticeable changes in surgical techniques and preoperative diagnostic testing.
The second manuscript focused on outcomes following isolated coronary artery bypass grafting in patients with a history of percutaneous coronary intervention. The statistical analyses included multivariable regression models with propensity score, complex matching algorithm (1:3) and appropriate statistical analyses for matched groups (standardized differences, generalized estimating equations, and survival analyses with stratified proportional hazards models). The study showed that remote prior percutaneous coronary intervention more than 14 days before coronary artery bypass grafting surgery was not associated with adverse outcomes at short or long-term follow-up.
The third manuscript evaluated the financial consequences and the changes in case mix that occurred at an academic medical center subsequent to the implementation of a satellite cardiac surgery program. The statistical analyses included two-way ANOVA multivariable regression models (logistic, linear or ordinal), propensity score, and cost analyses using Log-Normal parametric models. “Survival” analyses models were also explored, using “cost” instead of “time” as the outcome of interest, and led to similar conclusions. The study showed that, after implementation of the satellite cardiac surgery program, fewer patients of lower complexity came to the academic medical center from the satellite program area, with a significant increase in nursing workload and costs.
|
Page generated in 0.0528 seconds