• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Markov Chain Monte Carlo Methods and Applications in Neuroscience

Milinanni, Federica January 2023 (has links)
An important task in brain modeling is that of estimating model parameters and quantifying their uncertainty. In this thesis we tackle this problem from a Bayesian perspective: we use experimental data to update the prior information about model parameters, in order to obtain their posterior distribution. Uncertainty quantification via a direct computation of the posterior has a prohibitive computational cost in high dimensions. An alternative to a direct computation is offered by Markov chain Monte Carlo (MCMC) methods. The aim of this project is to analyse some of the methods within this class and improve their convergence. In this thesis we describe the following MCMC methods: Metropolis-Hastings (MH) algorithm, Metropolis adjusted Langevin algorithm (MALA), simplified manifold MALA (smMALA) and Approximate Bayesian Computation MCMC (ABCMCMC). SmMALA is further analysed in Paper A, where we propose an algorithm to approximate a key component of this algorithm (the Fisher Information) when applied to ODE models, with the purpose of reducing the computational cost of the method. A theoretical analysis of MCMC methods is carried out in Paper B and relies on tools from the theory of large deviations. In particular, we analyse the convergence of the MH algorithm by stating and proving a large deviation principle (LDP) for the empirical measures produced by the algorithm. Some of the methods analysed in this thesis are implemented in an R package, available on GitHub as “icpm-kth/uqsa” and presented in Paper C, and are applied to subcellular pathway models within neurons in the context of uncertainty quantification of the model parameters. / En viktig uppgift inom hjärnmodellering är att uppskatta parametrar i modellen och kvantifiera deras osäkerhet. I denna avhandling hanterar vi detta problem från ett Bayesianskt perspektiv: vi använder experimentell data för att uppdatera a priori kunskap av modellparametrar, för att erhålla deras posteriori-fördelning. Osäkerhetskvantifiering (UQ) via direkt beräkning av posteriorfördelningen har en hög beräkningskostnad vid höga dimensioner. Ett alternativ till direkt beräkning ges av Markov chain Monte Carlo (MCMC) metoder. Syftet med det här projektet är att analysera några MCMC metoder och förbättra deras konvergens. I denna avhandling beskriver vi följande MCMC algoritmer: “Metropolis-Hastings” (MH), “Metropolis adjusted Langevin” (MALA), “Simplified Manifold MALA” (smMALA) och “Approximate Bayesian Computation MCMC” (ABCMCMC). SmMALA analyseras i artikel A. Där presenterar vi en algoritm för att approximera en nyckelkomponent av denna algoritm (Fisher informationen) när den tillämpas på ODE modeller i syfte att minska metodens beräkningskostnad. En teoretisk analys av MCMC metoder behandlas i artikel B och bygger på verktyg från teorin av stora avvikelser. Mer specifikt, vi analyserar MH algoritmens konvergens genom att formulera och bevisa en stora avvikelser princip (LDP) för de empiriska mått som produceras av algoritmen. Några av metoderna analyserade i den här avhandlingen har implementerats i ett R paket som finns på GitHub som “icpm-kth/uqsa” och presenteras i artikel C. Metoderna tillämpas på subcellulära vägmodeller inom neuroner i sammanhanget av osäkerhetskvantifieringen av modellparametrar. / <p>QC 2023-08-21</p>

Page generated in 0.1017 seconds