• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 30
  • 3
  • Tagged with
  • 115
  • 115
  • 115
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Incertitudes photochimiques dans les modèles de l'atmosphère de Titan : Revue et conséquences

Hébrard, Eric 23 November 2006 (has links) (PDF)
La modélisation photochimique reste un outil essentiel pour la compréhension des mécanismes se déroulant dans l'atmosphère de Titan. Comme dans toute autre démarche scientifique, pour assurer la pertinence des représentations théoriques, il est ainsi très important d'évaluer la précision sur la formulation des processus physico-chimiques évoqués et d'étudier leur sensibilité aux incertitudes expérimentales, souvent peu négligeables, attachées aux paramètres photochimiques implémentés. Bien que fréquemment abordées dans la littérature, les études de sensibilités classiques, faisant varier chacun de ces paramètres indépendamment les uns des autres, sont peu pertinentes dans le mesure où elles ne reposent jamais sur des représentations correctes des non-linéarités inhérentes à de tels modèles.<br />L'objectif de ce travail de thèse est ainsi de développer des modèles aux dimensions réduites (0D et 1D) de l'atmosphère neutre de Titan en estimant pour la première fois l'impact global sur les résultats théoriques des incertitudes des différents processus photochimiques dictant son évolution. Nous nous appuyons d'abord sur une revue exhaustive des incertitudes existantes sur les paramètres photochimiques inclus dans un tel modèle de l'atmosphère de Titan, puis sur un traitement adéquat des non-linéarités à travers l'application d'une méthode de Monte-Carlo. Nous en déduisons une représentation théorique originale de la précision attachée aux modèles théoriques de cette atmosphère permettant d'une part des analyses pertinentes de propagation des incertitudes sur différents paramètres expérimentaux, et d'autre part des interprétations théoriques et observationnelles plus réalistes.
22

Inférence bayésienne dans les modèles de croissance de plantes pour la prévision et la caractérisation des incertitudes / Bayesian inference in plant growth models for prediction and uncertainty assessment

Chen, Yuting 27 June 2014 (has links)
La croissance des plantes en interaction avec l'environnement peut être décrite par des modèles mathématiques. Ceux-ci présentent des perspectives prometteuses pour un nombre considérable d'applications telles que la prévision des rendements ou l'expérimentation virtuelle dans le contexte de la sélection variétale. Dans cette thèse, nous nous intéressons aux différentes solutions capables d'améliorer les capacités prédictives des modèles de croissance de plantes, en particulier grâce à des méthodes statistiques avancées. Notre contribution se résume en quatre parties.Tout d'abord, nous proposons un nouveau modèle de culture (Log-Normal Allocation and Senescence ; LNAS). Entièrement construit dans un cadre probabiliste, il décrit seulement les processus écophysiologiques essentiels au bilan de la biomasse végétale afin de contourner les problèmes d'identification et d'accentuer l'évaluation des incertitudes. Ensuite, nous étudions en détail le paramétrage du modèle. Dans le cadre Bayésien, nous mettons en œuvre des méthodes Monte-Carlo Séquentielles (SMC) et des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) afin de répondre aux difficultés soulevées lors du paramétrage des modèles de croissance de plantes, caractérisés par des équations dynamiques non-linéaires, des données rares et un nombre important de paramètres. Dans les cas où la distribution a priori est peu informative, voire non-informative, nous proposons une version itérative des méthodes SMC et MCMC, approche équivalente à une variante stochastique d'un algorithme de type Espérance-Maximisation, dans le but de valoriser les données d'observation tout en préservant la robustesse des méthodes Bayésiennes. En troisième lieu, nous soumettons une méthode d'assimilation des données en trois étapes pour résoudre le problème de prévision du modèle. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de modèle par la méthode de sélection de modèles à l'aide de critères appropriés. Ces paramètres sélectionnés sont par la suite estimés en portant une attention particulière à l'évaluation des incertitudes. La distribution a posteriori ainsi obtenue est considérée comme information a priori pour l'étape de prévision, dans laquelle une méthode du type SMC telle que le filtrage par noyau de convolution (CPF) est employée afin d'effectuer l'assimilation de données. Dans cette étape, les estimations des états cachés et des paramètres sont mis à jour dans l'objectif d'améliorer la précision de la prévision et de réduire l'incertitude associée. Finalement, d'un point de vue applicatif, la méthodologie proposée est mise en œuvre et évaluée avec deux modèles de croissance de plantes, le modèle LNAS pour la betterave sucrière et le modèle STICS pour le blé d'hiver. Quelques pistes d'utilisation de la méthode pour l'amélioration du design expérimental sont également étudiées, dans le but d'améliorer la qualité de la prévision. Les applications aux données expérimentales réelles montrent des performances prédictives encourageantes, ce qui ouvre la voie à des outils d'aide à la décision en agriculture. / Plant growth models aim to describe plant development and functional processes in interaction with the environment. They offer promising perspectives for many applications, such as yield prediction for decision support or virtual experimentation inthe context of breeding. This PhD focuses on the solutions to enhance plant growth model predictive capacity with an emphasis on advanced statistical methods. Our contributions can be summarized in four parts. Firstly, from a model design perspective, the Log-Normal Allocation and Senescence (LNAS) crop model is proposed. It describes only the essential ecophysiological processes for biomass budget in a probabilistic framework, so as to avoid identification problems and to accentuate uncertainty assessment in model prediction. Secondly, a thorough research is conducted regarding model parameterization. In a Bayesian framework, both Sequential Monte Carlo (SMC) methods and Markov chain Monte Carlo (MCMC) based methods are investigated to address the parameterization issues in the context of plant growth models, which are frequently characterized by nonlinear dynamics, scarce data and a large number of parameters. Particularly, whenthe prior distribution is non-informative, with the objective to put more emphasis on the observation data while preserving the robustness of Bayesian methods, an iterative version of the SMC and MCMC methods is introduced. It can be regarded as a stochastic variant of an EM type algorithm. Thirdly, a three-step data assimilation approach is proposed to address model prediction issues. The most influential parameters are first identified by global sensitivity analysis and chosen by model selection. Subsequently, the model calibration is performed with special attention paid to the uncertainty assessment. The posterior distribution obtained from this estimation step is consequently considered as prior information for the prediction step, in which a SMC-based on-line estimation method such as Convolution Particle Filtering (CPF) is employed to perform data assimilation. Both state and parameter estimates are updated with the purpose of improving theprediction accuracy and reducing the associated uncertainty. Finally, from an application point of view, the proposed methodology is implemented and evaluated with two crop models, the LNAS model for sugar beet and the STICS model for winter wheat. Some indications are also given on the experimental design to optimize the quality of predictions. The applications to real case scenarios show encouraging predictive performances and open the way to potential tools for yield prediction in agriculture.
23

Échantillonner les solutions de systèmes différentiels / Sampling the solutions of differential systems

Chan Shio, Christian Paul 11 December 2014 (has links)
Ce travail se propose d'étudier deux problèmes complémentaires concernant des systèmes différentiels à coefficients aléatoires étudiés au moyen de simulations de Monte Carlo. Le premier problème consiste à calculer la loi à un instant t* de la solution d'une équation différentielle à coefficients aléatoires. Comme on ne peut pas, en général, exprimer cette loi de probabilité au moyen d'une fonction connue, il est nécessaire d'avoir recours à une approche par simulation pour se faire une idée de cette loi. Mais cette approche ne peut pas toujours être utilisée à cause du phénomène d'explosion des solutions en temps fini. Ce problème peut être surmonté grâce à une compactification de l'ensemble des solutions. Une approximation de la loi au moyen d'un développement de chaos polynomial fournit un outil d'étude alternatif. La deuxième partie considère le problème d'estimer les coefficients d'un système différentiel quand une trajectoire du système est connue en un petit nombre d'instants. On utilise pour cela une méthode de Monté Carlo très simple, la méthode de rejet, qui ne fournit pas directement une estimation ponctuelle des coefficients mais plutôt un ensemble de valeurs compatibles avec les données. L'examen des propriétés de cette méthode permet de comprendre non seulement comment choisir les différents paramètres de la méthode mais aussi d'introduire quelques options plus efficaces. Celles-ci incluent une nouvelle méthode, que nous appelons la méthode de rejet séquentiel, ainsi que deux méthodes classiques, la méthode de Monte-Carlo par chaînes de Markov et la méthode de Monte-Carlo séquentielle dont nous examinons les performances sur différents exemples. / This work addresses two complementary problems when studying differential systems with random coefficients using a simulation approach. In the first part, we look at the problem of computing the law of the solution at time t* of a differential equation with random coefficients. It is shown that even in simplest cases, one will usually obtain a random variable where the pdf cannot be computed explicitly, and for which we need to rely on Monte Carlo simulation. As this simulation may not always be possible due to the explosion of the solution, several workarounds are presented. This includes displaying the histogram on a compact manifold using two charts and approximating the distribution using a polynomial chaos expansion. The second part considers the problem of estimating the coefficients in a system of differential equations when a trajectory of the system is known at a set of times. To do this, we use a simple Monte Carlo sampling method, known as the rejection sampling algorithm. Unlike deterministic methods, it does not provide a point estimate of the coefficients directly, but rather a collection of values that “fits” the known data well. An examination of the properties of the method allows us not only to better understand how to choose the different parameters when implementing the method, but also to introduce more efficient methods. This includes a new approach which we call sequential rejection sampling and methods based on the Markov Chain Monte Carlo and Sequential Monte Carlo algorithms. Several examples are presented to illustrate the performance of all these methods.
24

Parallélisation des algorithmes de Monte-Carlo multicanoniques

Brunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.
25

Étude Monte Carlo des effets de l’orientation des sources et de la présence de calcifications dans la curiethérapie de prostate à bas débit de dose

Collins Fekete, Charles-Antoine 20 April 2018 (has links)
La curiethérapie prostatique se fait en implantant des grains radioactifs dans une zone tumorale. À cause des soucis temporaux, la planification considère ces grains comme des sources ponctuelles dans un monde uniforme d’eau. Ce mémoire présente une évaluation de l’impact de deux effets perturbant la dosimétrie, avec des méthodes Monte Carlo, en curiethérapie prostatique. L’orientation des sources, négligée actuellement, risque d’altérer la dosimétrie calculée. Cet impact est évalué sur une cohorte de patients (n=287). Aucun impact n’est calculé sur la prostate et l’urètre mais un impact de -2% est calculé sur la vessie et le rectum. La présence de calcifications dans la zone tumorale est négligée par la planification actuelle. Une cohorte de patients (n=43) possédant des calcifications permet d’évaluer cet impact. Il ressort du calcul MC une différence de -13% sur le D90 du CTV et de -16% sur le D10 de l’urètre, en comparaison avec l’algorithme de planification actuel. / Prostatic brachytherapy is performed by inserting radioactive seeds in a tumoral zone. Because of time constraint, clinical planning considers those seeds as point sources in a water medium. This thesis presents the quantification of the impact of two perturbing effects on the dosimetry, evaluated through a Monte Carlo algorithm, in prostatic brachytherapy. Seeds orientation, actually neglected, may alter the clinical dosimetry. The impact of this effect is evaluated on a cohort (n=287) of patients. No effect is calculated on the prostate or the urethra but a difference of -2%, when compared to the clinical algorithm, is calculated on the OARs. Calcifications are actually neglected in the clinical planning. A cohort of patients (n=43) with visible calcifications is used to measure the effect of this approximation. MC calculations yield a difference of -13% on the CTV D90 and -16% on the urethra D10, when compared to the clinical algorithm.
26

Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatment

Diop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
27

Évaluation d'un algorithme de calcul de dose par méthode Monte Carlo pour des faisceaux d'électrons

Chamberland, Ève 16 April 2018 (has links)
Les méthodes Monte Carlo pour la planification de traitement par faisceaux d'électrons représentent une avancée significative en termes de précision de calcul de dose, comparativement aux algorithmes conventionnels de faisceaux pinceaux. Le système de planification de traitement Eclipse (Varian, Palo Alto, Ca) offre un nouvel algorithme rapide de calcul de dose par méthode Monte Carlo pour des faisceaux d'électrons de hautes énergies. Plusieurs tests ont été effectués afin d'explorer le comportement du système dans plusieurs configurations rencontrées dans les pratiques cliniques. La première série de tests a été effectuée dans un fantôme homogène d'eau. Les distributions de dose mesurées et calculées ont été comparées pour différentes combinaisons d'énergie, d'ap-plicateur et de profondeur. Ensuite, quatre différents fantômes hétérogènes simulant des matériaux de haute et basse densité furent construits afin d'explorer différentes conditions d'hétérogénéités : un petit cylindre d'air, un fantôme de poumon, un fantôme de paroi thoracique et un fantôme anthropomorphique. Enfin, l'évaluation de l'algorithme Monte Carlo s'est terminée avec l'étude rétrospective de deux cas cliniques. Comparativement à l'algorithme de faisceaux pinceaux de Pinnacle, les calculs Monte Carlo prédisent plus précisément les larges perturbations de dose dues aux hétérogénéités.
28

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
29

Application of stochastic differential equations and Monte Carlo approaches to the modeling of the neurotransmitters diffusion in the synaptic cleft

Li, Xiaoting 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Cette thèse porte sur l'utilisation de différents outils mathématiques pour décrire la transmission synaptique. Le but de mon travail est double. Sur le plan biologique, j'ai effectué des simulations pour aider à mieux comprendre la transmission synaptique, en particulier le rôle des nanocolonnes dans la formation du courant synaptique. Les nanocolonnes sont des structures sous-microscopiques qui alignent les récepteurs postsynaptique et les vésicules présynaptiques. Étant donné qu'il est très difficile d'étudier expérimentalement les nanocolonnes, la modélisation mathématique devient un outil important pour mieux comprendre leur rôle et leur fonction. Cette partie de mon travail m'a amenée à publier un article de recherche dans la revue Frontiers in Comuptational Neuroscience intitulé "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission". Dans cet article, nous montrons à travers des simulations mathématiques que les nanocolonnes pourraient jouer un rôle dans le renforcement des courants synaptiques dans les synapses de petites tailles. Le deuxième objectif de cette thèse est d'étudier différents outils mathématiques qui pourraient a priori être utilisés pour décrire la transmission synaptique. Une étape importante de la transmission synaptique est la diffusion des neurotransmetteurs dans la fente synaptique. D'un point de vue mathématique, une approche courante consiste à considérer la concentration des neurotransmetteurs comme une quantité continue et à décrire son évolution en résolvant l'équation de la chaleur. Dans le chapitre 1 de cette thèse, je discute des solutions et de l'approximation des solutions des équations de la chaleur sur des domaines cylindriques avec différentes conditions limites. Une approche plus précise est de décrire le mouvement des neurotransmetteurs individuels par une marche aléatoire. C'est cette méthode que j'ai utilisée dans mon article de recherche. Bien que plus précise, la description du mouvement des neurotransmetteurs individuels par des marches aléatoires est également plus coûteuse en calcul. De plus, étant donné la nature stochastique des simulations, une seule réalisation ne donnera qu'un résultat possible alors que de multiples simulations sont essentielles pour avoir une idée de la distribution des solutions. Cela peut être réalisé grâce à une approche Monte Carlo. Les marches aléatoires seront abordées dans le chapitre 3 de la thèse. Une troisième approche mathématique possible consiste à utiliser des équations différentielles stochastiques pour décrire le mouvement brownien des neurotransmetteurs. Les équations différentielles stochastiques ont l'avantage que leur solution fournit une distribution à partir de laquelle on peut déduire la probabilité d'une réalisation donnée. Cependant, les équations différentielles stochastiques sont généralement plus difficiles à résoudre et constituent un objet mathématique délicat à manipuler. Les équations différentielles stochastiques et la façon dont elles peuvent être appliquées à la description de la diffusion des neurotransmetteurs dans la synapse sont discutées au chapitre 2. / This thesis focuses on using different mathematical tools to describe synaptic transmission. The goal of my work is twofold. On the biological side, I performed simulations to help to better understand synaptic transmission, in particular the role of nanocolumns in shaping synaptic current. Nanocolumns are submicroscopic structures which align the postsynaptic receptors with the presynaptic vesicles. Given that it is very difficult to investigate experimentally nanocolumns, mathematical modeling becomes an important tool to better understand their role and function. This part of my work led me to publish a research paper in the journal Frontiers in Computational Neuroscience entitled "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission" . In this research paper, we show through mathematical simulations that nanocolumns could play a role in reinforcing synaptic currents in weak synapses. The second goal of this thesis is to investigate different mathematical tools that could a priori be used to describe synaptic transmission. An important step in synaptic transmission is the diffusion of neurotransmitters in the synpatic cleft. From a mathematical standpoint, a common approach is to consider the concentration of neurotransmitters as a continuous quantity and to describe its evolution by solving the heat equation. In Chapter 1 of this thesis, I discuss solutions and approximation of solutions of heat equations on cylindrical domains with different boundaries conditions. A more accurate way to describe the movement of the neurotransmitters in the synaptic cleft is to describe the movement of individual neurotransmitters by a random walk. This second approach is the one I used in my research paper. While more accurate, the description of the movement of individual neurotransmitters by random walks is also more computationally expensive. Furthermore, given the stochastic nature of the simulations in this approach, a single realization will only give a possible outcome while performing multiple simulations is essential to get an idea of the distribution of solutions. This can be achieved through a Monte Carlo approach. Random walks will be discussed in chapter 3 of the thesis. A third possible mathematical approach is to use stochastic differential equations to describe the Brownian motion of neurotransmitters. Stochastic differential equations have the advantage that their solution provides a distribution from which one can deduce the probability of any given realization. However, stochastic differential are usually more difficult to solve and are a delicate mathematical object to handle. Stochastic differential equations and how they can be applied to the description of neurotransmitter diffusion in the synapse is discussion in chapter 2.
30

Cycle économique et modélisation de la structure à terme du spread CDS : implémentation de la simulation de Monte Carlo au modèle dynamique de Nelson-Siegel

Baron, Standley-Réginald 24 April 2018 (has links)
Au cours de ces dernières années, le spread du Credit Default Swap (CDS) est devenu l'un des instruments très utilisé pour mesurer le risque de crédit. La modélisation de la courbe de la structure à terme du spread CDS s'avère nécessaire, et elle est d'importance capitale pour la gestion quantitative du risque de crédit. Nous proposons une extension du modèle dynamique de Nelson Siegel, en modélisant les changements des facteurs bêtas par un processus autorégressif avec erreurs hétéroscédastiques tenant compte du cycle économique. Par la technique de Monte Carlo nous simulons, à l'aide d'une copule de Student, les prévisions sur un et quatre trimestres du spread CDS à différentes maturités. Notre modèle suggère que le niveau d'influence du cycle économique sur le spread CDS dépend de la maturité. Son impact sur les spreads à longue échéance est plus significatif que sur les spreads à courte maturité. Notre modèle AR-GARCH performe mieux, quel que soit l'horizon de prévision analysé dans le cadre de ce travail, que le modèle vecteur autorégressif (VAR) et le modèle de marche aléatoire.

Page generated in 0.0584 seconds