• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 30
  • 3
  • Tagged with
  • 116
  • 116
  • 116
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation multi-échelle de la déformation d’alliage de zirconium sous irradiation / Multiscale modeling of the deformation of zirconium alloy under irradiation

Christiaen, Benjamin 04 May 2018 (has links)
Les alliages de zirconium sont utilisés pour fabriquer des gaines de combustible ainsi que des assemblages combustibles des réacteurs nucléaires à eau sous pression. Sous irradiation, ils montrent un changement dimensionnel communément appelé croissance. Des observations expérimentales ont montré qu'au-dessus d'une dose seuil, ces alliages sont sujets à une croissance accélérée appelée "breakaway". Il a été bien établi que la formation sous irradiation de boucles de dislocation ‹a› et ‹c› est directement responsables de la croissance des alliages de zirconium sous irradiation et que l’apparition des boucles ‹c› est corrélée avec cette accélération de croissance. Cependant, les mécanismes de germination des boucles qui semblent influencés par la présence d’éléments d’alliage sont encore mal compris. Afin d'améliorer notre compréhension des mécanismes élémentaires, une approche multi-échelle a été utilisée pour simuler l'évolution de la microstructure du zirconium sous irradiation. Des calculs à l’échelle atomique basés sur la théorie de la fonctionnelle de la densité (DFT) et sur des potentiels empiriques sont utilisés dans un premier temps pour déterminer les propriétés des amas de défauts ponctuels (boucles de dislocation, cavités, pyramides de fautes d’empilement). Les résultats obtenus sont ensuite insérés en tant que paramètres d'entrée dans un code Monte Carlo cinétique d'objet (OKMC) qui nous permet de simuler l’évolution de la microstructure du matériau sous irradiation, et donc de prédire la croissance. Nos résultats montrent qu’il est nécessaire de considérer une migration anisotrope de la lacune pour prédire l’accélération de croissance. / Zirconium alloys are used to manufacture fuel cladding as well as fuel assemblies of pressurized water nuclear reactors. Under irradiation, they show a dimensional change commonly called growth. Experimental observations have shown that above a threshold dose, these alloys are subject to accelerated growth called "breakaway". It has been well established that the irradiation formation of <a> and <c> dislocation loops is directly responsible for the growth of irradiated zirconium alloys and that the appearance of <c> loops is correlated with this growth acceleration. However, the nucleation mechanisms of the loops that seem to be influenced by the presence of alloying elements are still poorly understood. In order to improve our understanding, a multi-scale modelling approach has been used to simulate the evolution of zirconium microstructure under irradiation. Atomic-scale calculations based on the density functional theory (DFT) and empirical potentials are used to determine the properties of clusters of point defects (dislocation loops, cavities, pyramids of stacking faults). The results obtained are then used as input parameters of an object kinetic Monte Carlo (OKMC) code which allows us to simulate the microstructure evolution of the material under irradiation. Our results show that it is necessary to consider an anisotropic migration of the vacancies to predict the growth acceleration.
Read more
2

Towards the prediction of microstructure evolution under irradiation of model ferritic alloys with an hybrid AKMC-OKMC approach / Vers la prédiction de l’évolution de la microstructure sous irradiation d’alliages ferritiques modèles par une approche hybride AKMC-OKMC

Pannier, Baptiste 27 June 2017 (has links)
Ce travail de thèse consistait en premier lieu à accélérer un modèle de Monte Carlo Cinétique Atomique visant à simuler l’évolution de la microstructure d’alliages modèles du type FeCuMnNiSiP représentatifs de l’acier de cuve sous irradiation neutronique. Cette accélération était nécessaire pour atteindre des doses ainsi que des flux comparables à l’expérience en des temps raisonnables. Pour cela, une accélération algorithmique du code de calcul LAKIMOCA a d’abord été réalisée. Les diverses optimisations apportées ont permis d’accélérer le code d’un facteur 7. Cette accélération ne s’avérant pas suffisante, l’approche retenue a été le développement d’une approche hybride entre une approche Monte Carlo atomique et Monte Carlo d’objets. La paramétrisation du modèle objet a permis de mieux comprendre les macro évènements en jeux dans les simulations, mais s’est révélée être d’une grande difficulté lorsque la complexité chimique des objets devient trop importante. Néanmoins, l’approche hybride a apporté une accélération des temps de calcul d’environ deux ordres de grandeur permettant de simuler des doses correspondant à 40 ans d’irradiation en production. De ces résultats, différentes limitations du modèle ainsi que de sa paramétrisation ont été mises en évidence. La difficulté du modèle à reproduire des effets de flux a été comblée par l’ajout d’un absorbeur visant à réduire la force de puits des joints de grains ainsi que par l’ajout de pièges pour rendre compte de la présence d’impureté dans le fer pur. Les simulations à hautes doses dans les alliages du type FeCuMnNiSiP ont aussi mis en évidence des différences entre les microstructures simulées et celles observées expérimentalement. Ainsi, dans un second temps, un nouveau modèle de cohésion basée sur des interactions de paires dépendantes de la concentration locale a été développé et paramétré. Bien que le nouveau modèle de cohésion soit numériquement plus lourd, il a été possible d’atteindre la dose ciblée en le couplant à l’approche hybride. Les résultats obtenus sont en meilleur en accord avec les calculs DFT récents ainsi qu’avec les microstructures expérimentales. / This PhD thesis work consisted, in the first place, in accelerating an atomic kinetic Monte Carlo model aiming at simulating the microstructure evolution of the FeCuMnNiP model alloys, representative of the reactor pressure vessel steels, under irradiation. This acceleration was required to reach, in a reasonable amount of time, doses and flux conditions comparable to the experimental ones. To do so, an algorithmic optimization has first been performed. The different optimizations introduced lead to an acceleration of the code of a 7 factor. Since this acceleration was not sufficient, the retained approach was to develop an hybrid between an AKMC and an OKMC. The parameterization of the object model provided a better understanding of the macro events involved in the simulations. It turns out that parameterize the model became too complex when increasing the chemical complexity of the objects. However, the hybrid approach brings an acceleration of two orders of magnitude allowing reaching doses corresponding to 40 years of irradiation in service condition. From these results, different limitations of the model as well as the parameterization were highlighted. The difficulty of the model to reproduce flux effect has been solved by adding an absorber that reduced the grain boundary sink strength. Traps have also been introduced to simulate the presence of impurities in pure iron. The high doses simulations in FeCuMnNiSiP model alloys also highlighted differences between the microstructures simulated and those observed experimentally. Thus, in a second time, a new cohesive model based on concentration dependent pair interactions has been developed and parameterized. While the new cohesive model is numerically heavier than the previous one, it has been possible to reach the target dose by coupling it with the hybrid model. The results obtained are in better agreement with recent DFT calculations and experimental microstructures.
Read more
3

On building a Python-based Monte Carlo light simulation package for biophotonics : with focus on complex 3-dimensional arbitrary geometries and hardware acceleration

Vigneault, Marc-André 23 September 2024 (has links)
L'essor du Python comme language scientifique et la popularité grandissante du calcul GPGPU constitue un environnement fertile pour le développement de PyTissueOptics, un simulateur de propagation de la lumière dans les tissus, qui est un module entièrement programmé en Python, qui se concentre sur la mise en œuvre simple et compréhensible des mécanismes de propagation de la lumière, afin de catalyser la démocratisation de cette technique. Dans ce mémoire, nous explorons la théorie derrière le modèle de Monte Carlo, visitons les aspects techniques de la réalisation du projet, expliquons les différentes possibilités d'utilisation et comparons avec des modules connus, tel que MCML et MCX. / The rise of Python as a scientific language and the growing popularity of GPGPU computing creates a fertile environment for the development of PyTissueOptics, a light propagation simulator in tissues, which is a module entirely programmed in Python. It focuses on the simple and comprehensible implementation of light propagation mechanisms, aiming to catalyze the democratization of this technique. In this thesis, we explore the theory behind the Monte Carlo model, examine the technical aspects of the project's realization, explain the various usage possibilities, and compare it with known modules, such as MCML and MCX.
Read more
4

Automatisation du recalcul de dose Monte Carlo pour une étude rétrospective en curiethérapie à bas débit de dose de la prostate

Ouellet, Samuel 26 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La méthode clinique pour le calcul de dose lors des traitements de curiethérapie considère le patient comme un volume d'eau infini (formalisme TG43). Cette approximation s'avère incorrecte, en particulier pour les photons de faible énergie présents en curiethérapie par implant permanent de la prostate. Des études ont montré que des différences allant jusqu'à 25-30% sur les indices dosimétriques cliniques sont observées dans les cas de calcifications de la prostate lorsque l'anatomie du patient est prise en compte dans une simulation Monte Carlo (MC) (formalisme TG186). Compte tenu des différences constatées entre les dosimétries TG43 et TG186 pour la curiethérapie par implant permanent de la prostate, l'objectif de ce travail est de recalculer rétrospectivement les distributions de dose à partir du formalisme TG186 pour tous les patients ayant reçu un traitement au CHU de Québec. Pour ce faire, un pipeline automatisé de recalcul de dose basé sur les bonnes pratiques de gestion des données est construit, validé et appliqué sur une cohorte de 960 patients. Une base de données de 960 patients a été construite et les cas de calcifications ont été identifiés. Un pipeline automatisé a été conçu pour recalculer les distributions de doses par simulations MC propres à l'anatomie du patient (TG186). Le pipeline extrait et reproduit automatiquement le context du traitment, contenu dans les données cliniques, dans la simulation de Monte Carlo. Le pipeline de recalcul a été validé en reproduisant les calculs du TG43 et en évaluant la cohérence des simulations MC TG186 effectuées avec deux codes MC différents. Appliquées à l'ensemble de la cohorte de patients, les distributions MC produites ont pu reproduire les résultats observés dans des études antérieures, tel qu'une diminution de 2,57 % sur le D90 de la prostate pour chaque % du volume de prostate calcifiée. L'ensemble des données de dose MC produites constitue donc une ressource clé pour les futures études dosimétriques qui viseraient à corréler la dose précise délivrée au patient à l'efficacité du traitement de curiethérapie. / The current clinical method used to calculate the dose during brachytherapy treatments considers the patient as an infinite water volume (TG43 formalism). This approximation is mostly accurate when using high-energy photons. That is not the case for low-energy photons used in permanent implant prostate brachytherapy. Studies have shown that differences of up to 25-30% on clinical metrics can be observed in cases with prostate calcifications when taking into account the patient anatomy with Monte Carlo (MC) simulations (TG186 formalism). Considering the differences found between TG43 and TG186 dosimetry for permanent implant prostate brachytherapy, the objective of this work was to retrospectively recalculate the dose distributions using the TG186 formalism for all patients having received permanent implant prostate brachytherapy at CHU de Québec. To do so, an automated dose recalculation pipeline based on the best data management practices is built, validated, and applied to a 960-patient cohort. A curated database of 960 patients was built with calcification cases identified. An automated pipeline has been built to recalculate patient-specific dose distributions (TG186). The pipeline extracts and reproduces the treatment context within a MC simulation. The recalculation pipeline was validated by reproducing the TG43 calculations using MC simulation in the same conditions and the consistency of the patient-specific MC simulations was evaluated between simulations made with two different MC codes. When applied to the entire patient cohort, the produced MC distributions could reproduce the results seen in previous studies, such as a diminution of 2.57% on the D90 of the prostate for each % of the prostate volume being calcifications. The produced MC dose dataset constitutes a key resource for future dosimetric studies that would aim to correlate the accurate delivered dose to the patient to the efficiency of the brachytherapy treatment.
Read more
5

Tests d'adéquation en séries chronologiques

Souktani, Lamya January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
6

Modélisation numérique de l’évolution nanostructurale d’aciers ferritiques sous irradiation / Computer simulation of the nanostructural evolution under irradiation in ferritic alloys

Chiapetto, Monica 27 September 2017 (has links)
Dans ce travail nous avons développé des modèles de Monte Carlo cinétique d’objets (OKMC) qui ont permis de prédire l'évolution nano-structurelle des amas de lacunes et des auto-interstitiels sous irradiation neutronique, à la température de fonctionnement des réacteurs de génération II dans les alliages Fe-C-MnNi (alliages modèles pour les aciers de cuve) et Fe-Cr-C (matériaux envisagés pour les réacteurs de génération IV). Un véritable acier de cuve venant du programme de surveillance de la centrale nucléaire suédoise de Ringhals a aussi été modélisé. Pour ce faire nous avons développé deux modèles OKMC fondés sur les données les plus actuelles concernant la mobilité et la stabilité des amas de défauts. Les effets des solutés d'intérêt ont été introduits dans nos modèles dans l’hypothèse simplifiée ‘‘d’alliage gris’’, c'est-à-dire que les solutés ne sont pas explicitement introduits dans le modèle, qui ne peut donc pas décrire leur redistribution, mais leur effet est introduit dans les paramètres liés à la mobilité des amas de défauts. A l’aide de cette approche nous avons modélisé diverses conditions de température et de débit de dose ainsi que des études de recuits isochrones d’alliages Fe-C-MnNi. L'origine du durcissement par irradiation neutronique à basse température a également été étudiée et les modèles ont fortement soutenu l'hypothèse selon laquelle les solutés ségrégent sur des boucles interstitielles immobiles, qui agissent donc comme des sites de nucléation hétérogène pour la formation d’amas enrichis en NiSiPCr et MnNi. A chaque fois nos modèles ont été validés par comparaison des résultats obtenus avec les observations expérimentales disponibles dans la littérature. / We developed object kinetic Monte Carlo (OKMC) models that proved able to predict the nanostructure evolution under neutron irradiation in both RPV and F/M steels. These were modelled, respectively, in terms of Fe-C-MnNi and Fe-C-Cr alloys, but the model was also validated against data obtained on a real RPV steel coming from the surveillance programme of the Ringhals Swedish nuclear power plant. The effects of the substitutional solutes of interest were introduced in our OKMC model under the simplifying assumptions of ‘‘grey alloy’’ scheme, i.e. they were not explicitly introduced in the model, which therefore cannot describe their redistribution under irradiation, but their effect was translated into modified parameters for the mobility of defect clusters. The possible origin of low temperature radiation hardening (and subsequent embrittlement) was also investigated and the models strongly supported the hypothesis that solute clusters segregate on immobile interstitial loops, which act therefore as heterogeneous nucleation sites for the formation of the NiSiPCr- and MnNi-enriched cluster populations experimentally, as observed with atom probe tomography in, respectively, F/M and RPV steels. In other words, the so-called matrix damage would be intimately associated with solute atom clusters and precipitates which increase their stability and reduce their mobility: their ultimate effect is reflected in an alteration of the macroscopic mechanical properties of the investigated alloys. Throughout all our work the obtained results have been systematically validated on existing experimental data, in a process of continuous improvement of the physical hypotheses adopted.
Read more
7

Méthodes statistiques d'ajustement pour les facteurs confondants en évaluation économique

Julmiste, Gaetane Raymonde 14 November 2024 (has links)
Ajuster adéquatement pour les variables confondantes est une problématique majeure en économie de la santé. Différentes méthodes ont été proposées. Les études qui ont comparé ces méthodes l'ont rarement fait à partir de données simulées, mais plutôt sur la base d'arguments conceptuels. Notre étude visait ainsi à réaliser des simulations de Monte-Carlo pour comparer les méthodes les plus recommandées dans la littérature telles que la régression par le bénéfice monétaire net et les régressions apparemment indépendantes, en générant des données pour les réponses en log-linéaire et linéaire. Nous avons estimé l'effet causal sous la forme d'un rapport de coût-efficacité différentiel et d'un bénéfice monétaire net, soit pour la population générale, soit chez les traités, afin de déterminer les méthodes qui contrôlent le mieux le biais en utilisant divers scénarios où la taille d'échantillon et les corrélations variaient. Seul la méthode d'appariement complet sur le score de propension ajusté pour tous les confondants permettait d'obtenir un biais faible. Des analyses supplémentaires ont permis de déterminer que lorsque les réponses sont générées selon des modèles log-linéaires, la modélisation linéaire de ces réponses induit un biais. Ce biais n'était pas atténué par la modélisation des confondants à l'aide de splines cubiques, alors qu'il était résorbé en utilisant l'estimation ciblée par maximum de vraisemblance couplé à l'apprentissage machine, d'autant que les coûts soient ajustés pour leurs propres confondants ainsi que les confondants simultanés des coûts et de l'efficacité, et que l'efficacité soit ajustée pour ses propres confondants et les confondants simultanés des coûts et de l'efficacité. Puisque les réponses en évaluation économique sont potentiellement souvent log-linéaires, nous recommandons l'utilisation de l'appariement complet en ajustant pour tous les confondants, ou l'utilisation d'apprentissage machine pour modéliser les réponses où chaque réponse est ajustée pour ses confondants et les confondants simultanés du coût et de l'efficacité. / Adjusting for confounding variables is a major issue in health economics. Various methods have been proposed. Studies that have compared these methods have rarely done so on the basis of simulated data, but rather on the basis of conceptual arguments. The aim of our study was therefore to carry out Monte Carlo simulations to compare the methods most recommended in the literature, such as regression by net monetary benefit and seemingly unrelated regressions, by generating log-linear or linear outcome data. We estimated the causal effect in the form of incremental cost-effectiveness ratio and net monetary benefit, either for the general population or among the treated, to determine which methods best controlled for bias using various scenarios where sample size and correlations varied. Only the full matching on a propensity score adjusted for all confounders achieved a low bias. Further analysis determined that when outcomes were generated according to log-linear models, linear modeling of these outcomes induced bias. This bias was not mitigated by modeling confounders using cubic splines, whereas it was removed using targeted maximum likelihood estimation coupled with machine learning, provided that costs were adjusted for their own confounders as well as simultaneous cost and effictiveness confounders, and effectiveness was adjusted for its own confounders and simultaneous cost and effectiveness confounders. Since outcomes in economic evaluation are potentially often log-linear, we recommend the use of full matching by adjusting for all confounders, or the use of machine learning to model outcomes where each outcome is adjusted for its confounders and the simultaneous confounders of cost and effectiveness.
Read more
8

Curiethérapie vs protonthérapie : vers une comparaison dosimétrique de traitements de mélanomes oculaires par calcul Monte Carlo à l'aide de TOPAS

Poher, Audran 10 June 2024 (has links)
La curiethérapie et la protonthérapie sont toutes deux des méthodes permettant de traiter des mélanomes oculaires. Une différence majeure entre ces deux méthodes est la façon de les appliquer. En effet, la curiethérapie est une modalité de radiothérapie interne qui utilise des implants, plus spécifiquement des plaques dans le cas du mélanome oculaire, tandis que la protonthérapie utilise un faisceau externe de radiation ionisante. Pour ces deux méthodes de traitement, il est essentiel de déterminer leurs distributions de dose de radiation associées. La méthode Monte Carlo est reconnue pour être le standard dans le calcul de distribution dose. TOPAS (TOol for Particle Simulations) est un logiciel de simulation utilisant un algorithme Monte Carlo qui a initialement été développé pour des applications de protonthérapie. Le but de ce projet est de comparer d'un point de vue dosimétrique la curiethérapie et la protonthérapie pour des traitements du mélanome oculaire. Une première étape à été de valider et d'étendre TOPAS pour des applications de curiethérapie. Pour ce faire, 11 modèles de sources et les modèles de plaques oculaire de type COMS (10 à 22 mm de diamètre) ont été modélisés, puis caractérisés selon leur paramètres TG-43et TG-129. L'étape suivante est de créer et valider une géométrie d'œil contenant un mélanome oculaire dans ce même logiciel dans le but d'avoir un référentiel anatomique commun pour les méthodes de traitements. La validation de celui-ci est faite en le simulant conjointement avec une plaque oculaire de type COMS. Finalement, la comparaison dosimétrique des deux méthodes de traitement est effectuée après avoir simulé le traitement de deux formes de mélanomes oculaires par protonthérapie et par curiethérapie. Les cartes de distributions de dose, les doses moyennes des structures d'intérêt les points de dose spécifiques et les histogrammes cumulatifs sont extraits pour pouvoir tirer des informations quantitatives servant à la comparaison de la curiethérapie versus la protonthérapie.
Read more
9

Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacte

Ly, Boucar 28 March 2024 (has links)
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
Read more
10

Inférence spatio-temporelle en présence de valeurs extrêmes

Compaore, Kiswendsida Julien 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Ce mémoire étudie les impacts qu'a une mauvaise spécification de la loi du champ aléatoire latent dans un modèle spatio-temporel. Précisement les impacts sur les estimations et l'inférence d'une mauvaise spécification dans un modèle Poisson log-normal spatio-temporel ont été investigués. La mauvaise spécification correspond à la présence de valeurs très extrêmes pour une distribution Poisson log-normale. Un modèle pour tenir compte de ces valeurs extrêmes a été proposé. L'amélioration des estimations avec ce modèle alternatif est mise en évidence par une étude de simulation Monte Carlo. L'ajustement des modèles impliqués dans cette étude fait intervenir des intégrations en grandes dimensions pour évaluer la vraisemblance. Le package R TMB met en oeuvre une solution, en l'occurence l'approximation de Laplace, à ce problème. / This thesis studies the impact of a misspecification of the latent random field distribution in a spatio-temporal model. Specifically, the impact on estimates and inference of misspecification in a space-time log-normal Poisson model has been investigated. The misspecification corresponds to the presence of very extreme values for a log-normal Poisson distribution. A model to account for these extreme values was proposed. The improvement in estimates with this alternative model is demonstrated by a Monte Carlo simulation study. The fitting of the models involved in this study involves high-dimensional integrations to evaluate the likelihood. The R package TMB implements a solution to this problem: the Laplace approximation.
Read more

Page generated in 0.0623 seconds