• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 29
  • 3
  • Tagged with
  • 112
  • 112
  • 112
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation multi-échelle de la déformation d’alliage de zirconium sous irradiation / Multiscale modeling of the deformation of zirconium alloy under irradiation

Christiaen, Benjamin 04 May 2018 (has links)
Les alliages de zirconium sont utilisés pour fabriquer des gaines de combustible ainsi que des assemblages combustibles des réacteurs nucléaires à eau sous pression. Sous irradiation, ils montrent un changement dimensionnel communément appelé croissance. Des observations expérimentales ont montré qu'au-dessus d'une dose seuil, ces alliages sont sujets à une croissance accélérée appelée "breakaway". Il a été bien établi que la formation sous irradiation de boucles de dislocation ‹a› et ‹c› est directement responsables de la croissance des alliages de zirconium sous irradiation et que l’apparition des boucles ‹c› est corrélée avec cette accélération de croissance. Cependant, les mécanismes de germination des boucles qui semblent influencés par la présence d’éléments d’alliage sont encore mal compris. Afin d'améliorer notre compréhension des mécanismes élémentaires, une approche multi-échelle a été utilisée pour simuler l'évolution de la microstructure du zirconium sous irradiation. Des calculs à l’échelle atomique basés sur la théorie de la fonctionnelle de la densité (DFT) et sur des potentiels empiriques sont utilisés dans un premier temps pour déterminer les propriétés des amas de défauts ponctuels (boucles de dislocation, cavités, pyramides de fautes d’empilement). Les résultats obtenus sont ensuite insérés en tant que paramètres d'entrée dans un code Monte Carlo cinétique d'objet (OKMC) qui nous permet de simuler l’évolution de la microstructure du matériau sous irradiation, et donc de prédire la croissance. Nos résultats montrent qu’il est nécessaire de considérer une migration anisotrope de la lacune pour prédire l’accélération de croissance. / Zirconium alloys are used to manufacture fuel cladding as well as fuel assemblies of pressurized water nuclear reactors. Under irradiation, they show a dimensional change commonly called growth. Experimental observations have shown that above a threshold dose, these alloys are subject to accelerated growth called "breakaway". It has been well established that the irradiation formation of <a> and <c> dislocation loops is directly responsible for the growth of irradiated zirconium alloys and that the appearance of <c> loops is correlated with this growth acceleration. However, the nucleation mechanisms of the loops that seem to be influenced by the presence of alloying elements are still poorly understood. In order to improve our understanding, a multi-scale modelling approach has been used to simulate the evolution of zirconium microstructure under irradiation. Atomic-scale calculations based on the density functional theory (DFT) and empirical potentials are used to determine the properties of clusters of point defects (dislocation loops, cavities, pyramids of stacking faults). The results obtained are then used as input parameters of an object kinetic Monte Carlo (OKMC) code which allows us to simulate the microstructure evolution of the material under irradiation. Our results show that it is necessary to consider an anisotropic migration of the vacancies to predict the growth acceleration.
2

Towards the prediction of microstructure evolution under irradiation of model ferritic alloys with an hybrid AKMC-OKMC approach / Vers la prédiction de l’évolution de la microstructure sous irradiation d’alliages ferritiques modèles par une approche hybride AKMC-OKMC

Pannier, Baptiste 27 June 2017 (has links)
Ce travail de thèse consistait en premier lieu à accélérer un modèle de Monte Carlo Cinétique Atomique visant à simuler l’évolution de la microstructure d’alliages modèles du type FeCuMnNiSiP représentatifs de l’acier de cuve sous irradiation neutronique. Cette accélération était nécessaire pour atteindre des doses ainsi que des flux comparables à l’expérience en des temps raisonnables. Pour cela, une accélération algorithmique du code de calcul LAKIMOCA a d’abord été réalisée. Les diverses optimisations apportées ont permis d’accélérer le code d’un facteur 7. Cette accélération ne s’avérant pas suffisante, l’approche retenue a été le développement d’une approche hybride entre une approche Monte Carlo atomique et Monte Carlo d’objets. La paramétrisation du modèle objet a permis de mieux comprendre les macro évènements en jeux dans les simulations, mais s’est révélée être d’une grande difficulté lorsque la complexité chimique des objets devient trop importante. Néanmoins, l’approche hybride a apporté une accélération des temps de calcul d’environ deux ordres de grandeur permettant de simuler des doses correspondant à 40 ans d’irradiation en production. De ces résultats, différentes limitations du modèle ainsi que de sa paramétrisation ont été mises en évidence. La difficulté du modèle à reproduire des effets de flux a été comblée par l’ajout d’un absorbeur visant à réduire la force de puits des joints de grains ainsi que par l’ajout de pièges pour rendre compte de la présence d’impureté dans le fer pur. Les simulations à hautes doses dans les alliages du type FeCuMnNiSiP ont aussi mis en évidence des différences entre les microstructures simulées et celles observées expérimentalement. Ainsi, dans un second temps, un nouveau modèle de cohésion basée sur des interactions de paires dépendantes de la concentration locale a été développé et paramétré. Bien que le nouveau modèle de cohésion soit numériquement plus lourd, il a été possible d’atteindre la dose ciblée en le couplant à l’approche hybride. Les résultats obtenus sont en meilleur en accord avec les calculs DFT récents ainsi qu’avec les microstructures expérimentales. / This PhD thesis work consisted, in the first place, in accelerating an atomic kinetic Monte Carlo model aiming at simulating the microstructure evolution of the FeCuMnNiP model alloys, representative of the reactor pressure vessel steels, under irradiation. This acceleration was required to reach, in a reasonable amount of time, doses and flux conditions comparable to the experimental ones. To do so, an algorithmic optimization has first been performed. The different optimizations introduced lead to an acceleration of the code of a 7 factor. Since this acceleration was not sufficient, the retained approach was to develop an hybrid between an AKMC and an OKMC. The parameterization of the object model provided a better understanding of the macro events involved in the simulations. It turns out that parameterize the model became too complex when increasing the chemical complexity of the objects. However, the hybrid approach brings an acceleration of two orders of magnitude allowing reaching doses corresponding to 40 years of irradiation in service condition. From these results, different limitations of the model as well as the parameterization were highlighted. The difficulty of the model to reproduce flux effect has been solved by adding an absorber that reduced the grain boundary sink strength. Traps have also been introduced to simulate the presence of impurities in pure iron. The high doses simulations in FeCuMnNiSiP model alloys also highlighted differences between the microstructures simulated and those observed experimentally. Thus, in a second time, a new cohesive model based on concentration dependent pair interactions has been developed and parameterized. While the new cohesive model is numerically heavier than the previous one, it has been possible to reach the target dose by coupling it with the hybrid model. The results obtained are in better agreement with recent DFT calculations and experimental microstructures.
3

Automatisation du recalcul de dose Monte Carlo pour une étude rétrospective en curiethérapie à bas débit de dose de la prostate

Ouellet, Samuel 31 October 2023 (has links)
Thèse ou mémoire avec insertion d'articles / La méthode clinique pour le calcul de dose lors des traitements de curiethérapie considère le patient comme un volume d'eau infini (formalisme TG43). Cette approximation s'avère incorrecte, en particulier pour les photons de faible énergie présents en curiethérapie par implant permanent de la prostate. Des études ont montré que des différences allant jusqu'à 25-30% sur les indices dosimétriques cliniques sont observées dans les cas de calcifications de la prostate lorsque l'anatomie du patient est prise en compte dans une simulation Monte Carlo (MC) (formalisme TG186). Compte tenu des différences constatées entre les dosimétries TG43 et TG186 pour la curiethérapie par implant permanent de la prostate, l'objectif de ce travail est de recalculer rétrospectivement les distributions de dose à partir du formalisme TG186 pour tous les patients ayant reçu un traitement au CHU de Québec. Pour ce faire, un pipeline automatisé de recalcul de dose basé sur les bonnes pratiques de gestion des données est construit, validé et appliqué sur une cohorte de 960 patients. Une base de données de 960 patients a été construite et les cas de calcifications ont été identifiés. Un pipeline automatisé a été conçu pour recalculer les distributions de doses par simulations MC propres à l'anatomie du patient (TG186). Le pipeline extrait et reproduit automatiquement le context du traitment, contenu dans les données cliniques, dans la simulation de Monte Carlo. Le pipeline de recalcul a été validé en reproduisant les calculs du TG43 et en évaluant la cohérence des simulations MC TG186 effectuées avec deux codes MC différents. Appliquées à l'ensemble de la cohorte de patients, les distributions MC produites ont pu reproduire les résultats observés dans des études antérieures, tel qu'une diminution de 2,57 % sur le D90 de la prostate pour chaque % du volume de prostate calcifiée. L'ensemble des données de dose MC produites constitue donc une ressource clé pour les futures études dosimétriques qui viseraient à corréler la dose précise délivrée au patient à l'efficacité du traitement de curiethérapie. / The current clinical method used to calculate the dose during brachytherapy treatments considers the patient as an infinite water volume (TG43 formalism). This approximation is mostly accurate when using high-energy photons. That is not the case for low-energy photons used in permanent implant prostate brachytherapy. Studies have shown that differences of up to 25-30% on clinical metrics can be observed in cases with prostate calcifications when taking into account the patient anatomy with Monte Carlo (MC) simulations (TG186 formalism). Considering the differences found between TG43 and TG186 dosimetry for permanent implant prostate brachytherapy, the objective of this work was to retrospectively recalculate the dose distributions using the TG186 formalism for all patients having received permanent implant prostate brachytherapy at CHU de Québec. To do so, an automated dose recalculation pipeline based on the best data management practices is built, validated, and applied to a 960-patient cohort. A curated database of 960 patients was built with calcification cases identified. An automated pipeline has been built to recalculate patient-specific dose distributions (TG186). The pipeline extracts and reproduces the treatment context within a MC simulation. The recalculation pipeline was validated by reproducing the TG43 calculations using MC simulation in the same conditions and the consistency of the patient-specific MC simulations was evaluated between simulations made with two different MC codes. When applied to the entire patient cohort, the produced MC distributions could reproduce the results seen in previous studies, such as a diminution of 2.57% on the D90 of the prostate for each % of the prostate volume being calcifications. The produced MC dose dataset constitutes a key resource for future dosimetric studies that would aim to correlate the accurate delivered dose to the patient to the efficiency of the brachytherapy treatment.
4

Tests d'adéquation en séries chronologiques

Souktani, Lamya January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Modélisation numérique de l’évolution nanostructurale d’aciers ferritiques sous irradiation / Computer simulation of the nanostructural evolution under irradiation in ferritic alloys

Chiapetto, Monica 27 September 2017 (has links)
Dans ce travail nous avons développé des modèles de Monte Carlo cinétique d’objets (OKMC) qui ont permis de prédire l'évolution nano-structurelle des amas de lacunes et des auto-interstitiels sous irradiation neutronique, à la température de fonctionnement des réacteurs de génération II dans les alliages Fe-C-MnNi (alliages modèles pour les aciers de cuve) et Fe-Cr-C (matériaux envisagés pour les réacteurs de génération IV). Un véritable acier de cuve venant du programme de surveillance de la centrale nucléaire suédoise de Ringhals a aussi été modélisé. Pour ce faire nous avons développé deux modèles OKMC fondés sur les données les plus actuelles concernant la mobilité et la stabilité des amas de défauts. Les effets des solutés d'intérêt ont été introduits dans nos modèles dans l’hypothèse simplifiée ‘‘d’alliage gris’’, c'est-à-dire que les solutés ne sont pas explicitement introduits dans le modèle, qui ne peut donc pas décrire leur redistribution, mais leur effet est introduit dans les paramètres liés à la mobilité des amas de défauts. A l’aide de cette approche nous avons modélisé diverses conditions de température et de débit de dose ainsi que des études de recuits isochrones d’alliages Fe-C-MnNi. L'origine du durcissement par irradiation neutronique à basse température a également été étudiée et les modèles ont fortement soutenu l'hypothèse selon laquelle les solutés ségrégent sur des boucles interstitielles immobiles, qui agissent donc comme des sites de nucléation hétérogène pour la formation d’amas enrichis en NiSiPCr et MnNi. A chaque fois nos modèles ont été validés par comparaison des résultats obtenus avec les observations expérimentales disponibles dans la littérature. / We developed object kinetic Monte Carlo (OKMC) models that proved able to predict the nanostructure evolution under neutron irradiation in both RPV and F/M steels. These were modelled, respectively, in terms of Fe-C-MnNi and Fe-C-Cr alloys, but the model was also validated against data obtained on a real RPV steel coming from the surveillance programme of the Ringhals Swedish nuclear power plant. The effects of the substitutional solutes of interest were introduced in our OKMC model under the simplifying assumptions of ‘‘grey alloy’’ scheme, i.e. they were not explicitly introduced in the model, which therefore cannot describe their redistribution under irradiation, but their effect was translated into modified parameters for the mobility of defect clusters. The possible origin of low temperature radiation hardening (and subsequent embrittlement) was also investigated and the models strongly supported the hypothesis that solute clusters segregate on immobile interstitial loops, which act therefore as heterogeneous nucleation sites for the formation of the NiSiPCr- and MnNi-enriched cluster populations experimentally, as observed with atom probe tomography in, respectively, F/M and RPV steels. In other words, the so-called matrix damage would be intimately associated with solute atom clusters and precipitates which increase their stability and reduce their mobility: their ultimate effect is reflected in an alteration of the macroscopic mechanical properties of the investigated alloys. Throughout all our work the obtained results have been systematically validated on existing experimental data, in a process of continuous improvement of the physical hypotheses adopted.
6

Schéma stepped wedge : modélisation et analyse de données

Messaoudi, Ghizlane 02 February 2021 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
7

Comparaison d'approches d'ajustement pour les facteurs confondants dans le cadre d'études observationnelles à l'aide de données administratives

Benasseur, Imane 07 December 2020 (has links)
Les méthodes du score de propension (PS) sont populaires pour estimer l’effet d’une exposition sur une issue à l’aide de données observationnelles. Cependant, leur mise en place pour l’analyse de données administratives soulève des questions concernant la sélection des covariables confondantes et le risque de covariables confondantes non mesurées. Notre objectif principal consiste à comparer différentes approches d’ajustement pour les covariables confondantes pou réliminer les biais dans le cadre d’études observationnelles basées sur des données administratives. Quatre méthodes de sélection de covariables seront comparées à partir de simulations, à savoir le score de propension à hautes dimensions (hdPS), le score de propension à hautes dimensions modifié (hdPS_0), le LASSO adapté pour l’issue (OAL) et l’estimation ciblée collaborative et évolutive par maximum de vraisemblance (SC-TMLE). Pour hdPS, hdPS_0et OAL, quatre approches d’ajustement sont considérées : 1) la pondération par l’inverse de probabilité de traitement (IPTW), 2) l’appariement, 3) l’appariement pondéré et 4) l’ajustement pour le score de propension. Des simulations avec 1000 observations et 100 covariables potentiellement confondantes ont été réalisées. Les résultats indiquent que la performance des méthodes d’ajustement varie d’un scénario à l’autre, mais l’IPTW, a réussi globalement à réduire le plus le biais et l’erreur quadratique moyenne parmi toutes les méthodes d’ajustement. De surcroît, aucune des méthodes de sélection de covariables ne semble vraiment arriver à corriger le biais attribuable aux covariables confondantes non mesurées. Enfin, la robustesse de l’algorithme hdPS peut être beaucoup améliorée, en éliminant l’étape 2 (hdPS_0). / Propensity score methods (PS) are common for estimating the effect of an exposure on an outcome using observational data. However, when analyzing administrative data, the applicationof PS methods raises questions regarding how to select confounders, and how to adjust forunmeasured ones. Our objective is to compare different methods for confounding adjustmentin the context of observational studies based on administrative data. Four methods for selecting confounders were compared using simulation studies: High-dimensional propensity score(hdPS), modified hdPS (hdPS_0), Outcome-adaptive Lasso (OAL) and Scalable collaborativetargeted maximum likelihood (SC-TMLE). For hdPS, hdPS_0 and OAL, four PS adjustmentapproaches were considered : 1) inverse probability of treatment weighting (IPTW), 2) matching, 3) matching weights and 4) covariate adjustment in the outcome model. Simulations basedon synthetically generated data with 1000 observations and 100 potential confounders havebeen realized. The results indicate that the performance of the adjustment methods variesfrom one scenario to another, but the IPTW, has globally succeeded in reducing the bias andthe mean square error. Moreover, no method for selecting confounders, seem to be able toadjust for unmeasured confounders. Finally, the robustness of the hdPS algorithm can begreatly improved, by eliminating step 2 (hdPS_0).
8

Inférence spatio-temporelle en présence de valeurs extrêmes

Compaore, Kiswendsida Julien 16 October 2023 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Ce mémoire étudie les impacts qu'a une mauvaise spécification de la loi du champ aléatoire latent dans un modèle spatio-temporel. Précisement les impacts sur les estimations et l'inférence d'une mauvaise spécification dans un modèle Poisson log-normal spatio-temporel ont été investigués. La mauvaise spécification correspond à la présence de valeurs très extrêmes pour une distribution Poisson log-normale. Un modèle pour tenir compte de ces valeurs extrêmes a été proposé. L'amélioration des estimations avec ce modèle alternatif est mise en évidence par une étude de simulation Monte Carlo. L'ajustement des modèles impliqués dans cette étude fait intervenir des intégrations en grandes dimensions pour évaluer la vraisemblance. Le package R TMB met en oeuvre une solution, en l'occurence l'approximation de Laplace, à ce problème. / This thesis studies the impact of a misspecification of the latent random field distribution in a spatio-temporal model. Specifically, the impact on estimates and inference of misspecification in a space-time log-normal Poisson model has been investigated. The misspecification corresponds to the presence of very extreme values for a log-normal Poisson distribution. A model to account for these extreme values was proposed. The improvement in estimates with this alternative model is demonstrated by a Monte Carlo simulation study. The fitting of the models involved in this study involves high-dimensional integrations to evaluate the likelihood. The R package TMB implements a solution to this problem: the Laplace approximation.
9

Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacte / Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacte

Ly, Boucar, Ly, Boucar January 2019 (has links)
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
10

Quelques Techniques de Couplage entre Méthodes Numériques Déterministes et Méthodes de Monte-Carlo

Maire, Sylvain 04 December 2007 (has links) (PDF)
Les travaux présentes s'inscrivent dans le cadre de la réduction de variance pour les méthodes de Monte-Carlo et plus généralement dans l'optimisation de méthodes numériques à l'aide de couplage entre des méthodes déterministes et des méthodes probabilistes. Trois thèmes principaux seront abordés à l'aide de ces techniques: l'intégration numérique sur un hypercube, la résolution d' équations aux dérivées partielles linéaires et le calcul des éléments propres principaux (valeur propre et vecteur propre) de certains opérateurs linéaires.

Page generated in 0.0641 seconds