• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 5
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Hierarchical Initial Condition Generator for Cosmic Structure Using Normalizing Flows / Hierarkisk generator av begynnelsetillstånd till kosmisk struktur med användning av normaliserade flöden

Holma, Pontus January 2024 (has links)
In this report, we present a novel Bayesian inference framework to reconstruct the three-dimensional initial conditions of cosmic structure formation from data. To achieve this goal, we leverage deep learning technologies to create a generative model of cosmic initial conditions paired with a fast machine learning surrogate model emulating the complex gravitational structure formation. According to the cosmological paradigm, all observable structures were formed from tiny primordial quantum fluctuations generated during the early stages of the Universe. As time passed, these seed fluctuations grew via gravitational aggregation to form the presently observed cosmic web traced by galaxies. For this reason, the specific shape of a configuration of the observed galaxy distribution retains a memory of its initial conditions and the physical processes that shaped it. To recover this information, we develop a novel machine learning approach that leverages the hierarchical nature of structure formation. We demonstrate our method in a mock analysis and find that we can recover the initial conditions with high accuracy, showing the potential of our model. / I detta examensarbete presenteras ett ramverk baserat på Bayesiansk inferens för att rekonstruera de tredimensionella begynnelsevärdena av kosmisk struktur från data. För att uppnå detta har tekniker från djupinlärning använts för att skapa en generativ modell av kosmiska begynnelsevärden, vilket parats ihop med en snabb maskininlärningsmodell som efterliknar den komplexa gravitationella strukturformationen. Utifrån moderna teorier inom kosmologi skapades alla observerbara strukturer i universum från små kvantfluktuationer i det tidiga universumet. Allt eftersom tiden gick har dessa fluktuationer vuxit via gravitationella krafter för att forma det av galaxer uppspända kosmiska nät som idag kan observeras. På grund av detta bibehåller en specifik form av en konfiguration av den observerade galaxdistributionen ett minne av sina begynnelsevärden och de fysikaliska processer som formade den. För att återfå denna information presenteras en maskininlärningsmetod som utnyttjar den hierarkiska naturen av strukturformation. Metoden demonstreras genom ett modelltest som påvisar att begynnelsevärdena kan återfås med hög noggrannhet, vilket indikerar modellens potential.
2

Applying Model Selection on Ligand-Target Binding Kinetic Analysis / Tillämpad Bayesiansk statistik för modellval inom interaktionsanalys

Djurberg, Klara January 2021 (has links)
The time-course of interaction formation or breaking can be studied using LigandTracer, and the data obtained from an experiment can be analyzed using a model of ligand-target binding kinetics. There are different kinetic models, and the choice of model is currently motivated by knowledge about the interaction, which is problematic when the knowledge about the interaction is unsatisfactory. In this project, a Bayesian model selection procedure was implemented to motivate the model choice using the data obtained from studying a biological system. The model selection procedure was implemented for four kinetic models, the 1:1 model, the 1:2 model, the bivalent model and a new version of the bivalent model.Bayesian inference was performed on the data using each of the models to obtain the posterior distributions of the parameters. Afterwards, the Bayes factor was approximated from numerical calculations of the marginal likelihood. Four numerical methods were implemented to approximate the marginal likelihood, the Naïve Monte Carlo estimator, the method of Harmonic Means of the likelihood, Importance Sampling and Sequential Monte Carlo. When tested on simulated data, the method of Importance Sampling seemed to yield the most reliable prediction of the most likely model. The model selection procedure was then tested on experimental data which was expected to be from a 1:1 interaction and the result of the model selection procedure did not agree with the expectation on the experimental test dataset. Therefore no reliable conclusion could be made when the model selection procedure was used to analyze the interaction between the anti-CD20 antibody Rituximab and Daudi cells. / Interaktioner kan analyseras med hjälp av LigandTracer. Data från ett LigandTracer experiment kan sedan analyseras med avseende på en kinetisk modell. Det finns olika kinetiska modeller, och modellvalet motiveras vanligen utifrån tidigare kunskap om interaktionen, vilket är problematiskt när den tillgängliga informationen om en interaktion är otillräcklig. I det här projektet implementerades en Bayesiansk metod för att motivera valet av modell utifrån data från ett LigandTracer experiment. Modellvalsmetoden implementerades för fyra kinetiska modeller, 1:1 modellen, 1:2 modellen, den bivalenta modellen och en ny version av den bivalenta modellen. Bayesiansk inferens användes för att få fram aposteriorifördelningarna för de olika modellernas parametrar utifrån den givna datan. Sedan beräknades Bayes faktor utifrån numeriska approximationer av marginalsannolikeheten. Fyra numeriska metoder implementerades för att approximera marginalsannolikheten; Naïve Monte Carlo estimator, det harmoniska medelvärdet av likelihood-funktionen, Importance Sampling och Sekventiell Monte Carlo. När modellvalsmetoden testades på simulerad data gav metoden Importance Sampling den mest tillförlitliga förutsägelsen om vilken modell som generade datan. Metoden testades också på experimentell data som förväntades följa en 1:1 interaktion och resultatet avvek från det förväntade resultatet. Följaktligen kunde ingen slutsas dras av resultet från modelvalsmetoden när den sedan används för att analysera interaktionen mellan anti-CD antikroppen Rituximab och Daudi-celler.
3

Bayesian Estimation of Sea Clutter Parameters for Radar - A Stochastic Approach / Bayesiansk estimering av sjöklutterparametrar för radar - en stokastisk approach

Öijar Jansson, Emma January 2023 (has links)
Radars operating at sea encounter a common phenomenon known as sea clutter, characterized by undesired reflections originating from the sea surface. This phenomenon can significantly impair the radar’s capacity to detect small, slow-moving targets. Therefore, it is crucial to gain a comprehensive understanding of the statistical attributes that describes the sea clutter. This comprehension is pivotal for the development of efficient signal processing strategies. The core of this work revolves around the imperative requirement for accurate statistical models to characterize sea clutter. Within this context, this work particularly explores the application of Field’s model. Field’s model describes the sea clutter process using three stochastic differential equations that form the dynamical process of the complex reflectivity of the sea surface. One equation describes the radar cross section, which is given by a Cox-Ingersoll-Ross process, parameterized by the parameters A and α. The other equations describe the speckle process, which is a complex Ornstein-Uhlenbeck process parameterized by B. The aim of this thesis is to explore the possibilities in estimating the parameters A, α and B in Field’s model through the application of Bayesian inference. To achieve this objective, Metropolis-Hastings and Sequential Monte Carlo methods are employed. The clutter data, represented by the complex reflectivity, is synthetically generated by using the Euler-Maruyma and Milstein schemes. Three algorithms are designed for estimating the sea clutter parameters. Two algorithms require 300 seconds of data and are based on the approach suggested by Clement Roussel in his PhD thesis [1]. Specifically, these algorithms employ the Metropolis-Hastings method for estimating A, α and B, respectively. As input data to the algorithms, estimators of the Cox-Ingersoll-Ross process and the real part of the Ornstein-Uhlenbeck process are utilized. In contrast, the last algorithm describes an approach that employs only 3 seconds of data. This algorithm is a Metropolis-Hastings method that incorporates a particle filter for approximation of likelihoods. For evaluation of the algorithms, two distinct sets of parameters are considered, leading to varying characteristics of the complex reflectivity. The two algorithms that require 300 seconds of data are ex- ecuted ten times for each parameter set. Evidently, the algorithm designed for estimating B generates values that closely aligns with the true values while the algorithm designed for estimating A and α does not yield as satisfactory results. Due to time constraints and the computational demands of the simulations, the last algorithm, requiring 3 seconds of data, is executed only twice for each parameter set. Remarkably, this algorithm generates estimates that agree with the true values, indicating strong performance. Nonetheless, additional simulations are required to conclusively confirm its robustness. To conclude, it is possible to estimate sea clutter parameters within Field’s model by using the applied methods of Bayesian inference. However, it is important to analyze the applicability of these methods for a large quantity of diverse clutter data. Moreover, their computational demands pose challenges in real-world applications. Future research should address the need for more computation- ally efficient methods to overcome this challenge. / Radar som verkar till havs behöver hantera ett fenomen som kallas för sjöklutter, vilket är oönskade reflektioner från havsytan. Detta fenomen kan avsevärt försämra radarns förmåga att upptäcka långsamt rörliga mål. Det är därför viktigt att erhålla en förståelse för den statistik som beskriver sjökluttret. Denna förståelse är avgörande för utvecklingen av effektiva signalbehandlingsstrategier. Detta arbete fokuserar på den viktiga aspekten av att använda korrekta statistiska modeller för att beskriva sjöklutter. Specifikt undersöker detta arbete Field’s modell, som beskriver den komplexa reflektiviteten från havsytan med hjälp av tre stokastiska differentialekvationer. En ekvation beskriver radarmålarean (radar cross section) som är en Cox-Ingersoll-Ross-process, parametriserad av A och α. De andra ekvationerna beskriver speckle-processen som är en komplex Ornstein-Uhlenbeck-process, parametriserad av B. Syftet med denna uppsats är att utforska möjligheter för att estimera parametrarna A, α och B i Field’s modell genom tillämpning av Bayesiansk inferens. För att uppnå detta, används Metropolis-Hastings-algoritmer samt sekventiella Monte-Carlo- metoder. Klotterdatan som representeras av den komplexa reflektiviteten genereras med hjälp av Euler-Maruyma- och Milstein-scheman. Sammanlagt designas tre algoritmer för att estimera sjöklutter- parametrarna. Två algoritmer behöver 300 sekunder av data och är baserade på tidigare arbeten av C. Rousell [1]. Dessa algoritmer använder Metropolis-Hastings för att uppskata B, respektive A och α. Som indata till algoritmerna används estimatorer för Cox-Ingersoll-Ross-processen samt den reella delen av Ornstein-Uhlenbeck-processen. Den sista algoritmen beskriver istället ett tillvägagångssätt som endast kräver 3 sekunders data. Denna algoritm är en Metropolis-Hastings-algoritm som använder ett partikelfilter för approximering av likelihoods. För utvärdering av algoritmerna beaktas två olika parameteruppsättningar, vilka genererar olika komplexa reflektiviteter. De två algoritmerna som kräver 300 sekunder av data körs tio gånger för varje parameteruppsättning. Algoritmen designad för att uppskatta B genererar värden som är nära de sanna värdena medan algoritmen designad för att uppskatta A och α inte ger lika tillfredsställande resultat. På grund av tidsbrist och den långa simuleringstiden, körs den sista algoritmen, som kräver 3 sekunder av data, endast två gånger för varje parameteruppsättning. Anmärkningsvärt är att denna algoritm genererar uppskattningar som faktiskt stämmer ganska väl med de sanna värdena, vilket indikerar på stark prestanda. Dock krävs ytterligare simuleringar för att bekräfta detta. Sammanfattningsvis är det möjligt att uppskatta sjöklutterparametrarna i Field’s model med de Bayesianska inferensmetoderna som tillämpas i detta arbete. Det är dock viktigt att beakta hur användbara dessa metoder är för en variation av klotterdata. Dessutom innebär den långa beräkningstiden utmaningar i verkliga tillämpningar. Framtida studier bör adressera behovet av mer beräkningsmässigt effektiva metoder för att övervinna denna utmaning.
4

Estimation of Loss Given Default Distributions for Non-Performing Loans Using Zero-and-One Inflated Beta Regression Type Models / Estimering av förluster vid fallissemang för icke-presterade lån genom applicering av utvidgad betaregression

Ljung, Carolina, Svedberg, Maria January 2020 (has links)
This thesis investigates three different techniques for estimating loss given default of non-performing consumer loans. This is a contribution to a credit risk evaluation model compliant with the regulations stipulated by the Basel Accords, regulating the capital requirements of European financial institutions. First, multiple linear regression is applied, and thereafter, zero-and-one inflated beta regression is implemented in two versions, with and without Bayesian inference. The model performances confirm that modeling loss given default data is challenging, however, the result shows that the zero-and-one inflated beta regression is superior to the other models in predicting LGD. Although, it shall be recognized that all models had difficulties in distinguishing low-risk loans, while the prediction accuracy of riskier loans, resulting in larger losses, were higher. It is further recommended, in future research, to include macroeconomic variables in the models to capture economic downturn conditions as well as adopting decision trees, for example by applying machine learning. / Detta examensarbete undersöker tre olika metoder för att estimera förlusten vid fallissemang för icke-presterande konsumentlån. Detta som ett bidrag till en kreditrisksmodell i enlighet med bestämmelserna i Baselregelverken, som bland annat reglerar kapitalkraven för europeiska finansiella institut. Inledningsvis tillämpas multipel linjär regression, därefter implementeras två versioner av utvidgad betaregression, med och utan bayesiansk inferens. Resultatet bekräftar att modellering data för förlust givet fallissemang är utmanande, men visar även att den utvidgade betaregressionen utan bayesiansk inferens är bättre de andra modellerna. Det ska dock tilläggas att alla modeller visade svårigheter att estimera lån med låg risk, medan tillförlitligheten hos lån med hög risk, vilka generellt sett medför större förluster, var högre. Vidare rekommenderas det för framtida forskning att inkludera makroekonomiska variabler i modellerna för att fånga ekonomiska nedgångar samt att implementera beslutsträd, exempelvis genom applicering av maskininlärning.
5

Optimization and Bayesian Modeling of Road Distance for Inventory of Potholes in Gävle Municipality / Optimering och bayesiansk modellering av bilvägsavstånd för inventering av potthål i Gävle kommun

Lindblom, Timothy Rafael, Tollin, Oskar January 2022 (has links)
Time management and distance evaluation have long been a difficult task for workers and companies. This thesis studies 6712 pothole coordinates in Gävle municipality, and evaluates the minimal total road distance needed to visit each pothole once, and return to an initial pothole. Road distance is approximated using the flight distance and a simple random sample of 113 road distances from Google Maps. Thereafter, the data from the sample along with a Bayesian approach is used to find a distribution of the ratio between road distance and flight distance. Lastly, a solution to the shortest distance is devised using the Nearest Neighbor algorithm (NNA) and Simulated Annealing (SA). Computational work is performed with Markov Chain Monte Carlo (MCMC). The results provide a minimal road distance of 717 km. / Tidshantering och distansutvärdering är som regel en svår uppgift för arbetare och företag. Den här uppsatsen studerar 6712 potthål i Gävle kommun, och utvärderar den bilväg som på kortast sträcka besöker varje potthål och återgår till den ursprungliga startpunkten. Bilvägsavståndet mellan potthålen uppskattas med hjälp av flygavståndet, där ett obundet slumpmässigt urval av 113 bilvägsavstånd mellan potthålens koordinatpunkter dras. Bilvägsdistanser hittas med hjälp av Google Maps. Därefter används data från urvalet tillsammans med en bayesiansk modell för att hitta en fördelning för förhållandet mellan bilvägsavstånd och flygavstånd. Slutligen framförs en lösning på det kortaste bilvägsavståndet med hjälp av en Nearest Neighbour algoritm (NNA) samt Simulated Annealing (SA). Statistiskt beräkningsarbete utförs med Markov Chain Monte Carlo (MCMC). Resultaten ger en kortaste bilvägssträcka på 717 km.

Page generated in 0.0562 seconds