Spelling suggestions: "subject:"méthode dde montecarlo"" "subject:"méthode dde contestarlo""
21 |
Évaluation des représentations vectorielles autorégressives structurellesChaudourne, Jérémy 11 1900 (has links) (PDF)
Dans le but de guider l'évaluation et le développement des modèles dynamiques d'équilibre général, les vecteurs autorégressifs structurels (SVAR) ont été largement utilisés. Une importante application récente de cette approche est introduite par Galì (1999). Plus récemment, le débat à propos de l'effet d'une augmentation de la technologie sur les heures travaillées a déclenché l'émergence de plusieurs contributions concernant la capacité de l'approche SVAR à mesurer adéquatement l'impact des chocs technologiques sur des variables agrégées. L'objectif de ce projet de recherche est d'évaluer la capacité des représentations vectorielles autorégressives (VAR) structurelles, en utilisant des restrictions de long terme, à identifier les fonctions de réponses suite à un choc technologique. Pour cela, nous effectuons une étude de Monte-Carlo, dans laquelle nous générons 1000 échantillons de données à partir du modèle de cycle réel. À des fins de comparaison, nous considérons plusieurs approches: (i) l'approche SVAR standard qui utilise la méthode de restriction de Blanchard et Quah; (ii) l'approche SVAR WEN, laquelle utilise les restrictions basées sur la méthode dans le domaine des fréquences suggérée par WEN; (iii) l'approche SVAR-Bartlett dans laquelle nous remplaçons l'estimateur standard de la matrice variance-covariance par un estimateur non paramétrique à noyau de Bartlett; (iv) l'approche SVAR Andrews-Mohanan où on utilise un autre estimateur non paramétrique, celui d'Andrews-Mohanan. Par la suite, nous évaluons chaque approche, en calculant le biais absolu cumulatif et la racine carrée de l'erreur quadratique moyenne cumulative.
Nos principaux résultats sont les suivants: (i) la meilleure approche est celle de Bartlett lorsque l'on fixe le paramètre à l'aide de la méthode de Newey-West, ou lorsqu'il est fixé à 10 ou 20; (ii) les intervalles de confiance sont grands pour les différentes approches; (iii) les VAR structurelles, ne peuvent faire de la discrimination entre des modèles, impliquant une réponse de signe contraire suite à un choc technologique.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : choc technologique, heures travaillées, domaine des fréquences, VAR
|
22 |
Incertitudes photochimiques dans les modèles de l'atmosphère de Titan : Revue et conséquencesHébrard, Eric 23 November 2006 (has links) (PDF)
La modélisation photochimique reste un outil essentiel pour la compréhension des mécanismes se déroulant dans l'atmosphère de Titan. Comme dans toute autre démarche scientifique, pour assurer la pertinence des représentations théoriques, il est ainsi très important d'évaluer la précision sur la formulation des processus physico-chimiques évoqués et d'étudier leur sensibilité aux incertitudes expérimentales, souvent peu négligeables, attachées aux paramètres photochimiques implémentés. Bien que fréquemment abordées dans la littérature, les études de sensibilités classiques, faisant varier chacun de ces paramètres indépendamment les uns des autres, sont peu pertinentes dans le mesure où elles ne reposent jamais sur des représentations correctes des non-linéarités inhérentes à de tels modèles.<br />L'objectif de ce travail de thèse est ainsi de développer des modèles aux dimensions réduites (0D et 1D) de l'atmosphère neutre de Titan en estimant pour la première fois l'impact global sur les résultats théoriques des incertitudes des différents processus photochimiques dictant son évolution. Nous nous appuyons d'abord sur une revue exhaustive des incertitudes existantes sur les paramètres photochimiques inclus dans un tel modèle de l'atmosphère de Titan, puis sur un traitement adéquat des non-linéarités à travers l'application d'une méthode de Monte-Carlo. Nous en déduisons une représentation théorique originale de la précision attachée aux modèles théoriques de cette atmosphère permettant d'une part des analyses pertinentes de propagation des incertitudes sur différents paramètres expérimentaux, et d'autre part des interprétations théoriques et observationnelles plus réalistes.
|
23 |
Inférence bayésienne dans les modèles de croissance de plantes pour la prévision et la caractérisation des incertitudes / Bayesian inference in plant growth models for prediction and uncertainty assessmentChen, Yuting 27 June 2014 (has links)
La croissance des plantes en interaction avec l'environnement peut être décrite par des modèles mathématiques. Ceux-ci présentent des perspectives prometteuses pour un nombre considérable d'applications telles que la prévision des rendements ou l'expérimentation virtuelle dans le contexte de la sélection variétale. Dans cette thèse, nous nous intéressons aux différentes solutions capables d'améliorer les capacités prédictives des modèles de croissance de plantes, en particulier grâce à des méthodes statistiques avancées. Notre contribution se résume en quatre parties.Tout d'abord, nous proposons un nouveau modèle de culture (Log-Normal Allocation and Senescence ; LNAS). Entièrement construit dans un cadre probabiliste, il décrit seulement les processus écophysiologiques essentiels au bilan de la biomasse végétale afin de contourner les problèmes d'identification et d'accentuer l'évaluation des incertitudes. Ensuite, nous étudions en détail le paramétrage du modèle. Dans le cadre Bayésien, nous mettons en œuvre des méthodes Monte-Carlo Séquentielles (SMC) et des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) afin de répondre aux difficultés soulevées lors du paramétrage des modèles de croissance de plantes, caractérisés par des équations dynamiques non-linéaires, des données rares et un nombre important de paramètres. Dans les cas où la distribution a priori est peu informative, voire non-informative, nous proposons une version itérative des méthodes SMC et MCMC, approche équivalente à une variante stochastique d'un algorithme de type Espérance-Maximisation, dans le but de valoriser les données d'observation tout en préservant la robustesse des méthodes Bayésiennes. En troisième lieu, nous soumettons une méthode d'assimilation des données en trois étapes pour résoudre le problème de prévision du modèle. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de modèle par la méthode de sélection de modèles à l'aide de critères appropriés. Ces paramètres sélectionnés sont par la suite estimés en portant une attention particulière à l'évaluation des incertitudes. La distribution a posteriori ainsi obtenue est considérée comme information a priori pour l'étape de prévision, dans laquelle une méthode du type SMC telle que le filtrage par noyau de convolution (CPF) est employée afin d'effectuer l'assimilation de données. Dans cette étape, les estimations des états cachés et des paramètres sont mis à jour dans l'objectif d'améliorer la précision de la prévision et de réduire l'incertitude associée. Finalement, d'un point de vue applicatif, la méthodologie proposée est mise en œuvre et évaluée avec deux modèles de croissance de plantes, le modèle LNAS pour la betterave sucrière et le modèle STICS pour le blé d'hiver. Quelques pistes d'utilisation de la méthode pour l'amélioration du design expérimental sont également étudiées, dans le but d'améliorer la qualité de la prévision. Les applications aux données expérimentales réelles montrent des performances prédictives encourageantes, ce qui ouvre la voie à des outils d'aide à la décision en agriculture. / Plant growth models aim to describe plant development and functional processes in interaction with the environment. They offer promising perspectives for many applications, such as yield prediction for decision support or virtual experimentation inthe context of breeding. This PhD focuses on the solutions to enhance plant growth model predictive capacity with an emphasis on advanced statistical methods. Our contributions can be summarized in four parts. Firstly, from a model design perspective, the Log-Normal Allocation and Senescence (LNAS) crop model is proposed. It describes only the essential ecophysiological processes for biomass budget in a probabilistic framework, so as to avoid identification problems and to accentuate uncertainty assessment in model prediction. Secondly, a thorough research is conducted regarding model parameterization. In a Bayesian framework, both Sequential Monte Carlo (SMC) methods and Markov chain Monte Carlo (MCMC) based methods are investigated to address the parameterization issues in the context of plant growth models, which are frequently characterized by nonlinear dynamics, scarce data and a large number of parameters. Particularly, whenthe prior distribution is non-informative, with the objective to put more emphasis on the observation data while preserving the robustness of Bayesian methods, an iterative version of the SMC and MCMC methods is introduced. It can be regarded as a stochastic variant of an EM type algorithm. Thirdly, a three-step data assimilation approach is proposed to address model prediction issues. The most influential parameters are first identified by global sensitivity analysis and chosen by model selection. Subsequently, the model calibration is performed with special attention paid to the uncertainty assessment. The posterior distribution obtained from this estimation step is consequently considered as prior information for the prediction step, in which a SMC-based on-line estimation method such as Convolution Particle Filtering (CPF) is employed to perform data assimilation. Both state and parameter estimates are updated with the purpose of improving theprediction accuracy and reducing the associated uncertainty. Finally, from an application point of view, the proposed methodology is implemented and evaluated with two crop models, the LNAS model for sugar beet and the STICS model for winter wheat. Some indications are also given on the experimental design to optimize the quality of predictions. The applications to real case scenarios show encouraging predictive performances and open the way to potential tools for yield prediction in agriculture.
|
24 |
Échantillonner les solutions de systèmes différentiels / Sampling the solutions of differential systemsChan Shio, Christian Paul 11 December 2014 (has links)
Ce travail se propose d'étudier deux problèmes complémentaires concernant des systèmes différentiels à coefficients aléatoires étudiés au moyen de simulations de Monte Carlo. Le premier problème consiste à calculer la loi à un instant t* de la solution d'une équation différentielle à coefficients aléatoires. Comme on ne peut pas, en général, exprimer cette loi de probabilité au moyen d'une fonction connue, il est nécessaire d'avoir recours à une approche par simulation pour se faire une idée de cette loi. Mais cette approche ne peut pas toujours être utilisée à cause du phénomène d'explosion des solutions en temps fini. Ce problème peut être surmonté grâce à une compactification de l'ensemble des solutions. Une approximation de la loi au moyen d'un développement de chaos polynomial fournit un outil d'étude alternatif. La deuxième partie considère le problème d'estimer les coefficients d'un système différentiel quand une trajectoire du système est connue en un petit nombre d'instants. On utilise pour cela une méthode de Monté Carlo très simple, la méthode de rejet, qui ne fournit pas directement une estimation ponctuelle des coefficients mais plutôt un ensemble de valeurs compatibles avec les données. L'examen des propriétés de cette méthode permet de comprendre non seulement comment choisir les différents paramètres de la méthode mais aussi d'introduire quelques options plus efficaces. Celles-ci incluent une nouvelle méthode, que nous appelons la méthode de rejet séquentiel, ainsi que deux méthodes classiques, la méthode de Monte-Carlo par chaînes de Markov et la méthode de Monte-Carlo séquentielle dont nous examinons les performances sur différents exemples. / This work addresses two complementary problems when studying differential systems with random coefficients using a simulation approach. In the first part, we look at the problem of computing the law of the solution at time t* of a differential equation with random coefficients. It is shown that even in simplest cases, one will usually obtain a random variable where the pdf cannot be computed explicitly, and for which we need to rely on Monte Carlo simulation. As this simulation may not always be possible due to the explosion of the solution, several workarounds are presented. This includes displaying the histogram on a compact manifold using two charts and approximating the distribution using a polynomial chaos expansion. The second part considers the problem of estimating the coefficients in a system of differential equations when a trajectory of the system is known at a set of times. To do this, we use a simple Monte Carlo sampling method, known as the rejection sampling algorithm. Unlike deterministic methods, it does not provide a point estimate of the coefficients directly, but rather a collection of values that “fits” the known data well. An examination of the properties of the method allows us not only to better understand how to choose the different parameters when implementing the method, but also to introduce more efficient methods. This includes a new approach which we call sequential rejection sampling and methods based on the Markov Chain Monte Carlo and Sequential Monte Carlo algorithms. Several examples are presented to illustrate the performance of all these methods.
|
25 |
Développement d'une sonde à réflectance diffuse pour la mesure in-situ des propriétés optiques inhérentes de la glace de merPerron, Christophe 02 February 2024 (has links)
No description available.
|
26 |
Mine project evaluation : a real options approach with least-quares Monte-Carlo simulationsLemelin, Bruno 13 April 2018 (has links)
Le but de cette thèse porte sur la compréhension et la résolution des problèmes décisionnels rencontrés durant la mise en place de la stratégie d' extraction minière tout en tenant compte des limitations des outils existants sur le marché pour l' optimisation de la valeur économique du site minier. Dans cette thèse, l'auteur amène une nouvelle approche pour évaluer correctement des zones minières avec des incertitudes relatives aux prix des métaux pour des cas réels et concrets. Ceci est destiné aux gestionnaires qui souhaitent utiliser un outil supplémentaire qui est à la fois pratique et compréhensif afin qu'ils établissent des plans d'affaires complets.
|
27 |
Conception d'un formalisme de pouvoir d'arrêt équivalent et accélération graphique : des simulations Monte Carlo plus efficaces en protonthérapieManeval, Daniel 05 April 2024 (has links)
En radiothérapie, la planification de traitement correspond à l’optimisation de la balistique pour administrer la dose prescrite aux lésions à traiter, tout en minimisant les doses collatérales reçues par les tissus sains. L’algorithme de calcul de dose qui est au cœur de cette simulation numérique se doit d’être précis et efficace. L’antagonisme de ces deux compétences a abouti au développement d’algorithmes analytique rapides dont l’amélioration de la précision dosimétrique a, de nos jours, atteint sa limite. L’exactitude de l’algorithme de calcul de dose est particulièrement importante en protonthérapie pour exploiter pleinement le potentiel balistique des protons. La méthode Monte Carlo de transport de proton est la plus précise mais également la moins efficace. Cette thèse a pour sujet le développement d’une plateforme Monte Carlo de calcul de dose suffisamment efficace pour envisager son utilisation en routine clinique. L’objectif principal du projet est d’accélérer le transport Monte Carlo de protons sans compromettre la précision des dépôts de dose. Pour ce faire, deux voies de recherche ont été exploitées. La première a consisté à établir une nouvelle méthode de réduction de variance nommée formalisme du pouvoir d’arrêt restreint équivalent (formalisme Leq). Cette technique améliore significativement la complexité algorithmique temporelle rendue constante (O(1)) au lieu de linéaire (O(n)) des algorithmes Monte Carlo actuels. La seconde voie de recherche s’est attardée à l’utilisation des processeurs graphiques pour améliorer la vitesse d’exécution du transport Monte Carlo de protons. La plateforme développée, nommée pGPUMCD, réalise le transport des protons sur des processeurs graphiques au sein de géométries voxelisées. Dans pGPUMCD, les techniques d’interactions condensées et ponctuelles sont considérées. Les interactions inélastiques de faibles portées sont modélisées par la décélération continue du proton à l’aide du formalisme Leq, et les interactions élastiques par la diffusion coulombienne multiple. Les interactions ponctuelles modélisées sont les interactions inélastiques, les intéractions nucléaires élastiques et non-élastiques proton-noyaux. pGPUMCD est comparé à Geant4, et les procédés physiques implémentés sont validés les uns après les autres. Pour les cas cliniques de calcul de dose, 27 matériaux sont définis pour la segmentation des tissus du scanner tomodensitométrique. L’exactitude dosimétrique du formalisme Leq est meilleure que 0.31% pour divers milieux allant de l’eau à l’or. Les gains d’efficacité intrinsèque au formalisme Leq sont supérieurs à 30 : entre 100 et 630 à précisions dosimétriques similaires. Combiné à l’accélération du GPU, le gain d’efficacité est d’un ordre de grandeur supérieur à 10⁵. pGPUMCD concorde à Geant4 à moins de 1% jusqu’au pic de Bragg et à moins de 3% dans sa pénombre distale, pour différentes configurations de simulations allant des milieux homogènes jusqu’aux cas cliniques. De plus, 99.5% des points de dose passent le critère 1% et les portées de prescription concordent avec celles de Geant4 à moins 0.1%. Les temps de calcul de pGPUMCD sont inférieurs à 0.5 seconde par million de protons transportés contre plusieurs heures avec Geant4. Les performances dosimétriques et d’efficacité de pGPUMCD lui confèrent les bonnes caractéristiques pour être employé dans un environnement de planification dosimétrique clinique. L’apport médical attendu est un meilleur contrôle sur les doses administrées, ce qui permet une réduction significative des marges et des toxicités des traitements. / In radiotherapy, treatment planning is the optimization of the ballistics to administer the prescribed dose to the treated lesions while minimizing collateral doses received by the healthy tissue. The algorithm of the dose calculation is at the heart of this numerical simulation. It must be precise and computationally efficient. The antagonism of these two features has led to the development of rapid analytical algorithms whose improvement in dosimetric accuracy has nowadays reached its limit. The accuracy of the dose calculation algorithm is particularly important in proton therapy to fully exploit the ballistic potential of protons. The Monte Carlo proton transport method is the most accurate but also the least efficient. This thesis deals with the development of a Monte Carlo dose calculation platform that is sufficiently effective to consider its use in clinical routine. The main objective of the project is to accelerate the Monte Carlo proton transport without compromising the precision of the dose deposition. To do this, two lines of research have been exploited. The first was to establish a new variance reduction technique called the equivalent restricted stopping power formalism (formalism Leq). This technique significantly improves the algorithmic time complexity made constant (O(1)) instead of linear (O(n)) for the current Monte Carlo algorithms. The second line of research focused on the use of graphics processing units to improve the execution speed of the proton Monte Carlo transport. The developed platform, named pGPUMCD, transports protons on graphic processors in a voxelized geometry. In pGPUMCD, condensed and discrete interaction techniques are considered. The inelastic low-range interactions are modeled with a continuous proton slowing down using the Leq formalism and the energy straggling is considered. The elastic interactions are based on the multiple Coulomb scattering. The discrete interactions are the inelastic interactions, the nuclear elastic and the non-elastic proton-nuclei interactions. pGPUMCD is compared to Geant4 and the implemented physical processes are validated one after the other. For the dose calculation in a clinical context, 27 materials are defined for the tissue segmentation from the CT scan. The dosimetric accuracy of the Leq formalism is better than 0.31% for various materials ranging from water to gold. The intrinsic efficiency gain factors of the Leq formalism are greater than 30, between 100 to 630 for a similar dosimetric accuracy. Combined with the GPU acceleration, the efficiency gain is an order of magnitude greater than 10⁵. Dose differences between pGPUMCD and Geant4 are smaller than 1% in the Bragg peak region and below 3% in its distal fall-off for the different simulation configurations with homogeneous phantoms and clinical cases. In addition, 99.5% of the dose points pass the criterion 1% and the prescribing ranges match with those of Geant4 at less than 0.1%. The computing times of pGPUMCD are below 0.5 seconds per million of transported protons compared to several hours with Geant4. The dosimetric and efficiency performances of pGPUMCD make it a good candidate to be used in a clinical dosimetric planning environment. The expected medical benefit is a better control of the delivered doses allowing a significant margin and toxicity reductions of the treatments.
|
28 |
Application of stochastic differential equations and Monte Carlo approaches to the modeling of the neurotransmitters diffusion in the synaptic cleftLi, Xiaoting 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Cette thèse porte sur l'utilisation de différents outils mathématiques pour décrire la transmission synaptique. Le but de mon travail est double. Sur le plan biologique, j'ai effectué des simulations pour aider à mieux comprendre la transmission synaptique, en particulier le rôle des nanocolonnes dans la formation du courant synaptique. Les nanocolonnes sont des structures sous-microscopiques qui alignent les récepteurs postsynaptique et les vésicules présynaptiques. Étant donné qu'il est très difficile d'étudier expérimentalement les nanocolonnes, la modélisation mathématique devient un outil important pour mieux comprendre leur rôle et leur fonction. Cette partie de mon travail m'a amenée à publier un article de recherche dans la revue Frontiers in Comuptational Neuroscience intitulé "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission". Dans cet article, nous montrons à travers des simulations mathématiques que les nanocolonnes pourraient jouer un rôle dans le renforcement des courants synaptiques dans les synapses de petites tailles. Le deuxième objectif de cette thèse est d'étudier différents outils mathématiques qui pourraient a priori être utilisés pour décrire la transmission synaptique. Une étape importante de la transmission synaptique est la diffusion des neurotransmetteurs dans la fente synaptique. D'un point de vue mathématique, une approche courante consiste à considérer la concentration des neurotransmetteurs comme une quantité continue et à décrire son évolution en résolvant l'équation de la chaleur. Dans le chapitre 1 de cette thèse, je discute des solutions et de l'approximation des solutions des équations de la chaleur sur des domaines cylindriques avec différentes conditions limites. Une approche plus précise est de décrire le mouvement des neurotransmetteurs individuels par une marche aléatoire. C'est cette méthode que j'ai utilisée dans mon article de recherche. Bien que plus précise, la description du mouvement des neurotransmetteurs individuels par des marches aléatoires est également plus coûteuse en calcul. De plus, étant donné la nature stochastique des simulations, une seule réalisation ne donnera qu'un résultat possible alors que de multiples simulations sont essentielles pour avoir une idée de la distribution des solutions. Cela peut être réalisé grâce à une approche Monte Carlo. Les marches aléatoires seront abordées dans le chapitre 3 de la thèse. Une troisième approche mathématique possible consiste à utiliser des équations différentielles stochastiques pour décrire le mouvement brownien des neurotransmetteurs. Les équations différentielles stochastiques ont l'avantage que leur solution fournit une distribution à partir de laquelle on peut déduire la probabilité d'une réalisation donnée. Cependant, les équations différentielles stochastiques sont généralement plus difficiles à résoudre et constituent un objet mathématique délicat à manipuler. Les équations différentielles stochastiques et la façon dont elles peuvent être appliquées à la description de la diffusion des neurotransmetteurs dans la synapse sont discutées au chapitre 2. / This thesis focuses on using different mathematical tools to describe synaptic transmission. The goal of my work is twofold. On the biological side, I performed simulations to help to better understand synaptic transmission, in particular the role of nanocolumns in shaping synaptic current. Nanocolumns are submicroscopic structures which align the postsynaptic receptors with the presynaptic vesicles. Given that it is very difficult to investigate experimentally nanocolumns, mathematical modeling becomes an important tool to better understand their role and function. This part of my work led me to publish a research paper in the journal Frontiers in Computational Neuroscience entitled "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission" . In this research paper, we show through mathematical simulations that nanocolumns could play a role in reinforcing synaptic currents in weak synapses. The second goal of this thesis is to investigate different mathematical tools that could a priori be used to describe synaptic transmission. An important step in synaptic transmission is the diffusion of neurotransmitters in the synpatic cleft. From a mathematical standpoint, a common approach is to consider the concentration of neurotransmitters as a continuous quantity and to describe its evolution by solving the heat equation. In Chapter 1 of this thesis, I discuss solutions and approximation of solutions of heat equations on cylindrical domains with different boundaries conditions. A more accurate way to describe the movement of the neurotransmitters in the synaptic cleft is to describe the movement of individual neurotransmitters by a random walk. This second approach is the one I used in my research paper. While more accurate, the description of the movement of individual neurotransmitters by random walks is also more computationally expensive. Furthermore, given the stochastic nature of the simulations in this approach, a single realization will only give a possible outcome while performing multiple simulations is essential to get an idea of the distribution of solutions. This can be achieved through a Monte Carlo approach. Random walks will be discussed in chapter 3 of the thesis. A third possible mathematical approach is to use stochastic differential equations to describe the Brownian motion of neurotransmitters. Stochastic differential equations have the advantage that their solution provides a distribution from which one can deduce the probability of any given realization. However, stochastic differential are usually more difficult to solve and are a delicate mathematical object to handle. Stochastic differential equations and how they can be applied to the description of neurotransmitter diffusion in the synapse is discussion in chapter 2.
|
29 |
La régression logistique : comparaison avec l'analyse probit à l'aide de la méthode Monte CarloMorel, Sylvie 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2015
|
30 |
Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discretAmegble, Koami Dzigbodi 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
|
Page generated in 0.4778 seconds