• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 13
  • Tagged with
  • 36
  • 27
  • 14
  • 14
  • 13
  • 11
  • 11
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Non-Intrusive Load Monitoring to Assess Retrofitting Work / Non-intrusive load monitoring för utvärderingen av renoveringsarbetens effektiviteten

Zucchet, Julien January 2022 (has links)
Non-intrusive load monitoring (NILM) refers to a set of statistical methods for inferring information about a household from its electricity load curve, without adding any additional sensor. The aim of this master thesis is to adapt NILM techniques for the assessment of the efficiency of retrofitting work to provide a first version of a retrofitting assessment tool. Two models are developed: a model corresponding to a constrained optimization problem, and a hierarchical Bayesian mixture model. These models are tested on a set of houses that have electric heating (which are the main target of retrofitting work). These models offer a satisfactory accuracy retrofitting assessment for about half of the houses. / Non-intrusive load monitoring (NILM) består av en uppsättning statistiska metoder för att härleda information om ett hushåll från belastningskurvan i bostaden, utan att lägga till ytterligare sensorer. Syftet med detta examensarbete är att anpassa NILM-teknikerna till utvärdering av energieffektivitet i energibyggnader och för att föreslå en första version av ett verktyg för utvärdering av effektiviteten i renoveringsarbeten. Två modeller föreslås: en modell som motsvarar ett begränsat optimeringsproblem och en hierarkisk Bayesiansk blandningsmodell. Modellerna testas på en uppsättning med elvärme (som är huvudmålet för renoveringsarbeten). De utvecklade modellerna gör det möjligt att upprå en tillfredsställande noggrannhet vid utvärderingen av arbeten för ungefär hälften av husen.
12

Aluminiumbehandling som sjörestaureringsåtgärd i Stora och Lilla Ullfjärden / Aluminum treatment as a lake restoration measure in Stora Ullfjärden and Lilla Ullfjärden

Sellergren, Maja January 2022 (has links)
Stora och Lilla Ullfjärden är två sjöar som tillhör den innersta delen av en vik i Mälaren. Här har den höga fosforbelastningen länge varit ett problem då den leder till kraftig algblomning varje år. Hittills har åtgärder mot fosforbelastningen riktats mot utsläppskällor av fosfor från omgivande mark, men dessa åtgärder har inte varit tillräckliga. Det beror på att fosfor har lagrats på sjöarnas bottnar under många år vilket orsakar intern fosforbelastning.  Restaureringsbehovet i sjöarna bestämdes genom att hitta den totalfosforhalt som krävs för att uppnå god ekologisk vattenstatus. Det är önskvärt att sjöarna uppnår god status med avseende på klorofyll, siktdjup och växtplankton. Dessa parametrar uppvisar starka samband till halten totalfosfor och på så sätt kunde målbilden för halten totalfosfor bestämmas till 9,4 µg/l i Stora Ullfjärden och 8,7 µg/l i Lilla Ullfjärden, med siktdjupet som den begränsande parametern.  En multikriterieanalys togs fram där det undersöktes vilken metod som är den lämpligaste sjörestaureringsåtgärden mot internbelastningen. Kostnader, effektivitet och livslängd för sex välstuderade åtgärdsmetoder fastställdes genom en metaanalys. Resultatet visar att aluminiumbehandling verkar vara det lämpligaste valet av åtgärdsmetod. Åtgärden innebär att en aluminiumlösning tillsätts sjöarnas sediment vilket binder fosforn och gör så att den inte frigörs.  Det undersöktes även om kostnaden för aluminiumbehandlingen kan motiveras genom att belysa sjöarnas ekonomiska värden. Under arbetet togs det fram olika typer av underlag för att bedöma sjöarnas värde. Genom att lista de tjänster som sjöarna bidrar med och tilldela tjänsterna ett uppskattat ekonomiskt värde konstaterades att sjöarna framför allt har ett högt naturvärde och bidrar med många kulturella ekosystemtjänster såsom bad, fiske och rekreation. Utifrån en tidigare studie uppskattades allmänhetens betalningsvilja för att uppnå god vattenstatus i Stora och Lilla Ullfjärden till 23 miljoner kronor. Det betyder att allmänhetens betalningsvilja täcker kostnaderna för aluminiumbehandlingen i Stora och Lilla Ullfjärden, vilket uppskattades till 22 miljoner kronor.  Med hjälp av bayesiansk beslutsanalys har det även kunnat konstateras att sjöarna bör aluminiumbehandlas om det minskade värdet för att god status inte uppnås (såsom minskat estetiskt värde, minskad biologisk mångfald, försämrad förmåga att rena vatten, med mera) anses kosta mer än 25 miljoner kronor på en 12 årsperiod. Eftersom beslutsmaterialet har en del osäkerheter finns det ett fortsatt behov av ytterligare undersökningar. / Stora Ullfjärden and Lilla Ullfjärden are two lakes that belong to the innermost part of a bay in Lake Mälaren. Phosphorus load has been a problem for a long time as it causes large algal bloom every summer. Attempt to decrease the phosphorus load in the lakes have so far been focused on measures to control the phosphorous emissions from the surrounding land. However, these measurers have not been sufficient. This is because phosphorus has been accumulated in the bottom sediment of the lakes for many years which cause internal phosphorus loading.  The amount of phosphorous needed to be removed was determined by identifying the maximum total phosphorus content the lake can handle while still demonstrating good ecological status. It is desirable that the lakes achieve good status regarding chlorophyll, secchi depth and phytoplankton. These three parameters show strong correlations to the total phosphorus content and in this way the desired future total phosphorus content could be calculated to 9,4 µg/l in Stora Ullfjärden and 8,7 µg/l in Lilla Ullfjärden, with the secchi depth as the limiting parameter. A multi-criteria decision analysis was developed to determine the most suitable lake restoration measure to reduce internal phosphorous loads. Costs, efficacy, and longevity of six well-known mitigation measures were determined by a meta-analysis. The results verify that aluminum treatment appears to be the most suitable choice. The method involves adding aluminum solution to the lakes' sediment, which binds phosphorus, so it is not released.  Additionally, it was examined whether the cost of aluminum treatment can be justified by highlighting the economic values ​​of the lakes. Different types of decision material are presented in the report to assess a value to the lakes. By listing services of the lakes and assign them an estimated economic value, it was determined that the lakes have a high nature value and contribute with many cultural ecosystem services such as swimming, fishing, and recreation. Based on a previous study, the public's willingness to pay to achieve good water status in Stora Ullfjärden and Lilla Ullfjärden was estimated to SEK 23 million. Hence, the public's willingness to pay covers the costs of the aluminum treatment in Stora and Lilla Ullfjärden, which was estimated to SEK 22 million.  Lastly, a Bayesian model for decision making was used. It was discovered that the lakes are recommended to undergo an aluminum treatment if the reduced value for not achieving good status in the lakes (e.g., decreased aesthetic value, reduced biodiversity, and impaired ability to purify water) is considered to cost more than SEK 25 million over a 12-year period. As the decision material has some uncertainties, there is a continuing need for further investigations.
13

Causal Inference on Tactical Simulations using Bayesian Structure Learning

Lagerkvist Blomqvist, Karl January 2022 (has links)
This thesis explores the possibility of using Bayesian Structure Learning and Do-Calculus to perform causal inference on data from tactical combat simulations provided by Saab. A four-step approach is considered whose first step is to find a Bayesian Network from the data using Bayesian Structure Learning and Probability Distribution Fitting. These Bayesian Networks describe a set of conditional independencies ambiguously. This ambiguity gives rise to a set of feasible Structural Causal Models that describes feasible causal relationships in the data. The approach then continues in its second step by selecting at least one of these Structural Causal Models that can be utilized for performing causal inference using Do-Calculus and Probabilistic Inference in the approach’s third and fourth steps respectively. The thesis concludes that there exist several difficulties with the approach that together with a lack of a methodology for error estimation reduces the method’s reliability. The recommendation is thus to consider the possibility of performing randomized controlled experiments using the tactical simulator before continuing the development of this approach. / Det här examensarbetet utforskar möjligheten att använda Bayesiansk Strukturinlärning och Do-Calculus för att utföra Kausal Inferens på data från taktiska stridsimuleringar framtagna av Saab. En fyrastegsmetod beaktas vars första steg är att hitta ett Bayesiansk Nätverk genom användandet av Bayesiansk Strukturinlärning och Sannolikhetsfördelnings-anpassning. Dessa Bayesianska Nätverk beskriver en mängd betingade oberoendet i datamängden på ett icke-entydligt sett. Denna icke-entydlighet ger upphov till en mängd av möjliga Strukturella Kausala Modeller som beskriver möjliga kausala strukturer i datamängden. Metodens andra steg fortsätter med att välja minst en av dessa Strukturella Kausala Modeller som kan användas för att åstakomma Kausal Inferens med hjälp av Do-Calculus och Stokastisk Inferens i metodens tredje respektive fjärde steg. Slutsatsen från examensarbetet är att det finns ett flertal svårigheter med metoden som tillsamans med en avsaknad av en feluppskattningsmetodik minskar metodens tillförlitlighet. Rekommendationen är därför att undersöka möjligheten att genomföra kontrollerade slumpmässiga experiment innan metodiken vidareutvecklas.
14

Applying Model Selection on Ligand-Target Binding Kinetic Analysis / Tillämpad Bayesiansk statistik för modellval inom interaktionsanalys

Djurberg, Klara January 2021 (has links)
The time-course of interaction formation or breaking can be studied using LigandTracer, and the data obtained from an experiment can be analyzed using a model of ligand-target binding kinetics. There are different kinetic models, and the choice of model is currently motivated by knowledge about the interaction, which is problematic when the knowledge about the interaction is unsatisfactory. In this project, a Bayesian model selection procedure was implemented to motivate the model choice using the data obtained from studying a biological system. The model selection procedure was implemented for four kinetic models, the 1:1 model, the 1:2 model, the bivalent model and a new version of the bivalent model.Bayesian inference was performed on the data using each of the models to obtain the posterior distributions of the parameters. Afterwards, the Bayes factor was approximated from numerical calculations of the marginal likelihood. Four numerical methods were implemented to approximate the marginal likelihood, the Naïve Monte Carlo estimator, the method of Harmonic Means of the likelihood, Importance Sampling and Sequential Monte Carlo. When tested on simulated data, the method of Importance Sampling seemed to yield the most reliable prediction of the most likely model. The model selection procedure was then tested on experimental data which was expected to be from a 1:1 interaction and the result of the model selection procedure did not agree with the expectation on the experimental test dataset. Therefore no reliable conclusion could be made when the model selection procedure was used to analyze the interaction between the anti-CD20 antibody Rituximab and Daudi cells. / Interaktioner kan analyseras med hjälp av LigandTracer. Data från ett LigandTracer experiment kan sedan analyseras med avseende på en kinetisk modell. Det finns olika kinetiska modeller, och modellvalet motiveras vanligen utifrån tidigare kunskap om interaktionen, vilket är problematiskt när den tillgängliga informationen om en interaktion är otillräcklig. I det här projektet implementerades en Bayesiansk metod för att motivera valet av modell utifrån data från ett LigandTracer experiment. Modellvalsmetoden implementerades för fyra kinetiska modeller, 1:1 modellen, 1:2 modellen, den bivalenta modellen och en ny version av den bivalenta modellen. Bayesiansk inferens användes för att få fram aposteriorifördelningarna för de olika modellernas parametrar utifrån den givna datan. Sedan beräknades Bayes faktor utifrån numeriska approximationer av marginalsannolikeheten. Fyra numeriska metoder implementerades för att approximera marginalsannolikheten; Naïve Monte Carlo estimator, det harmoniska medelvärdet av likelihood-funktionen, Importance Sampling och Sekventiell Monte Carlo. När modellvalsmetoden testades på simulerad data gav metoden Importance Sampling den mest tillförlitliga förutsägelsen om vilken modell som generade datan. Metoden testades också på experimentell data som förväntades följa en 1:1 interaktion och resultatet avvek från det förväntade resultatet. Följaktligen kunde ingen slutsas dras av resultet från modelvalsmetoden när den sedan används för att analysera interaktionen mellan anti-CD antikroppen Rituximab och Daudi-celler.
15

Providing reliable product size recommendations -- A Bayesian model for sparse, cross-merchant sales and return data in fashion e-commerce / Tillförlitliga storleksrekommendationer för produkter -- En Bayesiansk modell för gles försäljnings- och returdata för flertalet företag inom e-handeln för mode

van de Kamp, Carsten Thomas January 2022 (has links)
Fashion webshops face high return rates, which is both an unsustainable and very costly practice. A significant part of returns is made because of size and fit-related issues. We introduce four models for providing product size recommendations based on cross-merchant sales and return data. This data is typically highly sparse and noisy, making the development of a size recommendation system challenging. Moreover, we do not have access to fit feedback or the reason why a consumer made a return. We assess model performance on both a proprietary data set consisting of shoe purchases and a publicly available data set containing rentals of various categories of women's apparel. Our baseline model predicts the probability of fit for a specific consumer-article combination based on the average catalog size of all articles purchased and kept by that particular consumer. This model outperforms two more advanced models deriving true size variables for consumers and articles on both data sets. The fourth model we develop is a Bayesian size recommendation model, which is fitted with mean-field variational inference. It performs comparably to baseline on unseen data. However, it has the added benefit of being able to filter out low-confidence recommendations, such that higher performance can be achieved at the cost of a lower coverage level. All models show signs of overfitting to training data, and hence we recommend future research to focus on developing a variant of the Bayesian model with fewer degrees of freedom. Results suggest that such a model could be able to provide even better product size recommendations. / E-handlare inom modesegmentet lider av höga nivåer av returer, vilket är både ohållbart och mycket kostsamt. En signifikant del av returer görs på grund av problem relaterat till storlek och passform. Vi presenterar fyra modeller för att ge storleksrekommendationer baserat på försäljningar och returer från flera företag. Sådan data är typiskt mycket gles och brusig, vilket gör utvecklandet av system för storleksrekommendationer utmanande. Utöver detta så har vi inte tillgång till någon återkoppling från kunderna om storleken och passformen, eller anledningen till att produkten returnerats. Vi utvärderar modellernas kvalitet på både ett proprietärt dataset med skoköp, samt ett publikt dataset med hyrkläder av olika sorter. Vår grundläggande model förutsäger sannolikheten för att en artikel passar en viss kund baserat på medelvärdet av storleken för kundens tidigare köp. Denna modell presterar bättre än två av de mer avancerade modellerna som estimerar denna sanna storleken för kunder och artiklar. Den fjärde modellen vi utvecklar är en Bayesiansk modell som tränas med en uppskattningsmetod. Denna modell presterar likvärdigt med den enklaste modellen, men har den extra fördelen att bättre rekommendationer kan fås genom att filtrera baserat på säkerhetsmått. Samtliga modeller har svårt att generalisera på ett önskvärt sätt, och därmed rekommenderar vi framtida forskning som fokuserar på att utveckla den Bayesianska metoden med ett mindre antal frihetsgrader. Resultaten pekar på att en sådan modell skulle kunna bidra med ännu bättre rekommendationer.
16

Estimating the Early Evolution of Brachiopods Using an Integrated Approach Combining Genomics and Fossils / En uppskattning av armfotingarnas tidiga evolution med hjälp av genomik och fossil

Robert, Chloé January 2019 (has links)
The Brachiopoda, a major group of the Lophotrochozoa, experienced a rapid early evolutionary diversification during the well-known Cambrian explosion and subsequently dominated the Palaeozoic benthos with its diversity and abundance. Even though the phylogeny of the Lophotrochozoa is still hotly debated, it is now known that the Brachiopoda are a monophyletic grouping. However, the early evolutionary rates for the Brachiopoda have never been studied in the framework of a study combining molecular data and fossil time calibration points. In order to investigate the expected higher evolutionary rates of the Phylum at its origin, we conducted phylogenetic studies combining different methodologies and datasets. This work has at its foundation Maximum Likelihood and Bayesian analyses of 18S and 28S rRNA datasets followed by analyses of phylogenomic sequences. All material was obtained from previously available sequences and from sequencing of genetic material from specimens from a concerted worldwide collection effort.       While the analyses of the phylogenomic dataset produced a robust phylogeny of the Brachiopoda with good support, both the results of the novel rRNA and phylogenomic dating analyses provided limited insights into the early rates of evolution of the Brachiopoda from a newly assembled dataset, demonstrating some limitations in calibration dating using the software package BEAST2. Future studies implementing fossil calibration, possibly incorporating morphological data, should be attempted to elucidate the early rates of evolution of Brachiopoda and the effect of the Push of the Past in this clade. / Det är ofta antaget att evolution (förändringar i arvsmassan hos en grupp organismer) sker i en konstant hastighet men i slutändan ändå osäkert om så är fallet. Stora grupper av organismer har ofta associerats med en högre evolutionär hastighet, speciellt nära deras uppkomst, vilket ökar sannolikheten för överlevnad.  Armfotingar (Brachiopoda) är marina ryggradslösa djur med skal som tidigare var allmänt spridd, idag är istället musslor (Bivalvia) betydligt mer spridda. Armfotingar har funnits och utvecklats under flera miljoner år med ursprung under tidigt kambrium. Genom år av forskning och många fossil har vi fått mer information om utseendet hos utdöda organismer vilket har bidragit till att antalet fossila arter som vi känner till har ökat tusenfalt. Under den senaste tiden har det också skett innovationer inom molekylära tekniker som gjort det möjligt att applicera dessa kunskaper även på utdöda arter. Dessa molekylära tekniker har nyligen hjälpt till att bestämma några av släktskapsförhållandena inom armfotingar som tidigare ansetts vara väldigt svåra att lösa.  Det finns fortfarande vissa släktskapsförhållanden inom armfotingar som inte är kända och man vet ännu inte hur fort de utvecklades. Genom att undersöka just evolutionens hastighet kan man börja förstå gruppens tidiga framgång under Kambrium och Ordovicium samt minskningen som följde. Syftet med den här studien var att beräkna evolutionshastigheten hos armfotingar med särskild fokus på den tidiga diversifieringen av gruppen. För att undersöka detta använde vi oss av molekylära data för att analysera släktskapsförhållandena inom armfotingar. Dessutom använde vi fossil för att datera stora händelser i armfotingarnas evolutionära historia. Med hjälp av statistiska analyser kunde vi beräkna evolutionshastighet och släktskapsförhållandena inom gruppen. Vi kom fram till att armfotingar härstammar från en gemensam förfader. Dateringen kring när detta skedde blev inte fastställd då det beräknades ske miljoner år före det äldsta djurfossilet. Det kommer behövas mer forskning för att ta reda på om armfotingar hade en högre evolutionär hastighet i tidigt skede.
17

Branching Out with Mixtures: Phylogenetic Inference That’s Not Afraid of a Little Uncertainty / Förgreningar med mixturer: Fylogenetisk inferens som inte räds lite osäkerhet

Molén, Ricky January 2023 (has links)
Phylogeny, the study of evolutionary relationships among species and other taxa, plays a crucial role in understanding the history of life. Bayesian analysis using Markov chain Monte Carlo (MCMC) is a widely used approach for inferring phylogenetic trees, but it suffers from slow convergence in higher dimensions and is slow to converge. This thesis focuses on exploring variational inference (VI), a methodology that is believed to lead to improved speed and accuracy of phylogenetic models. However, VI models are known to concentrate the density of the learned approximation in high-likelihood areas. This thesis evaluates the current state of Variational Inference Bayesian Phylogenetics (VBPI) and proposes a solution using a mixture of components to improve the VBPI method's performance on complex datasets and multimodal latent spaces. Additionally, we cover the basics of phylogenetics to provide a comprehensive understanding of the field. / Fylogeni, vilket är studien av evolutionära relationer mellan arter och andra taxonomiska grupper, spelar en viktig roll för att förstå livets historia. En ofta använd metod för att dra slutsatser om fylogenetiska träd är bayesiansk analys med Markov Chain Monte Carlo (MCMC), men den lider av långsam konvergens i högre dimensioner och kräver oändligt med tid. Denna uppsats fokuserar på att undersöka hur variationsinferens (VI) kan nyttjas inom fylogenetisk inferens med hög noggranhet. Vi fokuserar specifik på en modell kallad VBPI. Men VI-modeller är allmänt kända att att koncentrera sig på höga sannolikhetsområden i posteriorfördelningar. Vi utvärderar prestandan för Variatinal Inference Baysian Phylogenetics (VBPI) och föreslår en förbättring som använder mixturer av förslagsfördelningar för att förbättra VBPI-modellens förmåga att hantera mer komplexa datamängder och multimodala posteriorfördelningar. Utöver dettta går vi igenom grunderna i fylogenetik för att ge en omfattande förståelse av området.
18

Fotbollsmålvakters antecipation under straffläggning : Betydelsen av explicit kontextuell information / Goalkeepers antecipation in penalty kicks : The significance of explicit contextual prior information

Abrahamsson, Hampus January 2024 (has links)
Syftet med studien var att studera effekten av explicit kontextuell förhandsinformation på olika reliabilitetsnivåer hos fotbollsmålvakters förmåga att rädda straffar. Hypotesen som sattes utgick från att det skulle finnas en effekt av kontextuell förhandsinformation under förhållandet med stark handlingstendens, samtidigt skulle det inte finnas någon effekt av kontextuell förhandsinformation på målvakters förmåga vid förhållandet av svag handlingstendens. Syftet studerades genom en faktoriell experimentell design med de två förhållandena av svag handlingstendens (60/40) och stark handlingstendens (80/20). Manipuleringen av kontextuell förhandsinformation applicerades i båda förhållanden av handlingstendens i form av manipuleringen med kontextuell förhandsinformation och utan kontextuell förhandsinformation, på så vis utgjordes experimentet av fyra förhållanden. Deltagarna i studien bestod av 8 fotbollsmålvakter varav 7 män och 1 kvinna som alla hade 8 års erfarenhet av målvaktsspel. Det teoretiska ramverket som användes för analys var den bayesianska modellen som är en kognitiv modell vilken förklarar hur människan tar in och använder information genom att använda explicit kontextuell förhandsinformation och kinematisk information. Resultatet visade på att det inte fanns en statistisk signifikant effekt av kontextuell förhandsinformation oberoende av stark eller svag handlingstendens. Med resultatet menas att det inte finns några betydande effekter av kontextuell förhandsinformation under förhållande av stark handlingstendens eller svag handlingstendens. Resultaten för studien ligger inte i linje med tidigare forskningsbild av fenomenet, detta i form av att resultatet indikerar att det inte finns en effekt på målvakternas förmåga till antecipering. / The purpose of the study was to study the effect of explicit contextual information on soccer goalkeepers' ability to save penalties. The hypothesis set predicted that there would be an effect of contextual prior information under the high-action tendencies condition, while there would be no effect of contextual prior information on goalkeepers' ability under the low-action tendencies condition. The purpose was studied through a factorial experimental design with the two action tendency ratios of low-action tendencies (60/40) and high-action tendencies (80/20). The manipulation of prior contextual information was applied in both action tendency conditions in the form of the manipulation with contextual prior information and without contextual prior information, thus the experiment consisted of four conditions. The participants in the study consisted of 8 soccer goalkeepers, 7 men and 1 woman, all of whom had 8 years of experience in goalkeeping. The theoretical framework used for analysis was the Bayesian model which is a cognitive model which explains how humans take in and use information by using explicit contextual prior information and kinematic information. The results showed that there was not a statistically significant effect of contextual prior information. The result means that there are no significant effects of contextual prior information under conditions of high-action tendencies or low-action tendencies. The results of the study are not in line with previous research, this in the form that highly probable contextual information seems to not contribute with an effect on goalkeepers' ability to anticipate. / <p>Arbetet har i sammarbete utformats mellan mig och Pontus Hahrgren, där utformning av metoddesign, insamling av data, och analys av resultat genomförts ihop men separata arbeten har därefter utarbetats för rättsäker examination.</p>
19

Bayesian Estimation of Sea Clutter Parameters for Radar - A Stochastic Approach / Bayesiansk estimering av sjöklutterparametrar för radar - en stokastisk approach

Öijar Jansson, Emma January 2023 (has links)
Radars operating at sea encounter a common phenomenon known as sea clutter, characterized by undesired reflections originating from the sea surface. This phenomenon can significantly impair the radar’s capacity to detect small, slow-moving targets. Therefore, it is crucial to gain a comprehensive understanding of the statistical attributes that describes the sea clutter. This comprehension is pivotal for the development of efficient signal processing strategies. The core of this work revolves around the imperative requirement for accurate statistical models to characterize sea clutter. Within this context, this work particularly explores the application of Field’s model. Field’s model describes the sea clutter process using three stochastic differential equations that form the dynamical process of the complex reflectivity of the sea surface. One equation describes the radar cross section, which is given by a Cox-Ingersoll-Ross process, parameterized by the parameters A and α. The other equations describe the speckle process, which is a complex Ornstein-Uhlenbeck process parameterized by B. The aim of this thesis is to explore the possibilities in estimating the parameters A, α and B in Field’s model through the application of Bayesian inference. To achieve this objective, Metropolis-Hastings and Sequential Monte Carlo methods are employed. The clutter data, represented by the complex reflectivity, is synthetically generated by using the Euler-Maruyma and Milstein schemes. Three algorithms are designed for estimating the sea clutter parameters. Two algorithms require 300 seconds of data and are based on the approach suggested by Clement Roussel in his PhD thesis [1]. Specifically, these algorithms employ the Metropolis-Hastings method for estimating A, α and B, respectively. As input data to the algorithms, estimators of the Cox-Ingersoll-Ross process and the real part of the Ornstein-Uhlenbeck process are utilized. In contrast, the last algorithm describes an approach that employs only 3 seconds of data. This algorithm is a Metropolis-Hastings method that incorporates a particle filter for approximation of likelihoods. For evaluation of the algorithms, two distinct sets of parameters are considered, leading to varying characteristics of the complex reflectivity. The two algorithms that require 300 seconds of data are ex- ecuted ten times for each parameter set. Evidently, the algorithm designed for estimating B generates values that closely aligns with the true values while the algorithm designed for estimating A and α does not yield as satisfactory results. Due to time constraints and the computational demands of the simulations, the last algorithm, requiring 3 seconds of data, is executed only twice for each parameter set. Remarkably, this algorithm generates estimates that agree with the true values, indicating strong performance. Nonetheless, additional simulations are required to conclusively confirm its robustness. To conclude, it is possible to estimate sea clutter parameters within Field’s model by using the applied methods of Bayesian inference. However, it is important to analyze the applicability of these methods for a large quantity of diverse clutter data. Moreover, their computational demands pose challenges in real-world applications. Future research should address the need for more computation- ally efficient methods to overcome this challenge. / Radar som verkar till havs behöver hantera ett fenomen som kallas för sjöklutter, vilket är oönskade reflektioner från havsytan. Detta fenomen kan avsevärt försämra radarns förmåga att upptäcka långsamt rörliga mål. Det är därför viktigt att erhålla en förståelse för den statistik som beskriver sjökluttret. Denna förståelse är avgörande för utvecklingen av effektiva signalbehandlingsstrategier. Detta arbete fokuserar på den viktiga aspekten av att använda korrekta statistiska modeller för att beskriva sjöklutter. Specifikt undersöker detta arbete Field’s modell, som beskriver den komplexa reflektiviteten från havsytan med hjälp av tre stokastiska differentialekvationer. En ekvation beskriver radarmålarean (radar cross section) som är en Cox-Ingersoll-Ross-process, parametriserad av A och α. De andra ekvationerna beskriver speckle-processen som är en komplex Ornstein-Uhlenbeck-process, parametriserad av B. Syftet med denna uppsats är att utforska möjligheter för att estimera parametrarna A, α och B i Field’s modell genom tillämpning av Bayesiansk inferens. För att uppnå detta, används Metropolis-Hastings-algoritmer samt sekventiella Monte-Carlo- metoder. Klotterdatan som representeras av den komplexa reflektiviteten genereras med hjälp av Euler-Maruyma- och Milstein-scheman. Sammanlagt designas tre algoritmer för att estimera sjöklutter- parametrarna. Två algoritmer behöver 300 sekunder av data och är baserade på tidigare arbeten av C. Rousell [1]. Dessa algoritmer använder Metropolis-Hastings för att uppskata B, respektive A och α. Som indata till algoritmerna används estimatorer för Cox-Ingersoll-Ross-processen samt den reella delen av Ornstein-Uhlenbeck-processen. Den sista algoritmen beskriver istället ett tillvägagångssätt som endast kräver 3 sekunders data. Denna algoritm är en Metropolis-Hastings-algoritm som använder ett partikelfilter för approximering av likelihoods. För utvärdering av algoritmerna beaktas två olika parameteruppsättningar, vilka genererar olika komplexa reflektiviteter. De två algoritmerna som kräver 300 sekunder av data körs tio gånger för varje parameteruppsättning. Algoritmen designad för att uppskatta B genererar värden som är nära de sanna värdena medan algoritmen designad för att uppskatta A och α inte ger lika tillfredsställande resultat. På grund av tidsbrist och den långa simuleringstiden, körs den sista algoritmen, som kräver 3 sekunder av data, endast två gånger för varje parameteruppsättning. Anmärkningsvärt är att denna algoritm genererar uppskattningar som faktiskt stämmer ganska väl med de sanna värdena, vilket indikerar på stark prestanda. Dock krävs ytterligare simuleringar för att bekräfta detta. Sammanfattningsvis är det möjligt att uppskatta sjöklutterparametrarna i Field’s model med de Bayesianska inferensmetoderna som tillämpas i detta arbete. Det är dock viktigt att beakta hur användbara dessa metoder är för en variation av klotterdata. Dessutom innebär den långa beräkningstiden utmaningar i verkliga tillämpningar. Framtida studier bör adressera behovet av mer beräkningsmässigt effektiva metoder för att övervinna denna utmaning.
20

Imputation of Missing Data with Application to Commodity Futures / Imputation av saknad data med tillämpning på råvaruterminer

Östlund, Simon January 2016 (has links)
In recent years additional requirements have been imposed on financial institutions, including Central Counterparty clearing houses (CCPs), as an attempt to assess quantitative measures of their exposure to different types of risk. One of these requirements results in a need to perform stress tests to check the resilience in case of a stressed market/crisis. However, financial markets develop over time and this leads to a situation where some instruments traded today are not present at the chosen date because they were introduced after the considered historical event. Based on current routines, the main goal of this thesis is to provide a more sophisticated method to impute (fill in) historical missing data as a preparatory work in the context of stress testing. The models considered in this paper include two methods currently regarded as state-of-the-art techniques, based on maximum likelihood estimation (MLE) and multiple imputation (MI), together with a third alternative approach involving copulas. The different methods are applied on historical return data of commodity futures contracts from the Nordic energy market. By using conventional error metrics, and out-of-sample log-likelihood, the conclusion is that it is very hard (in general) to distinguish the performance of each method, or draw any conclusion about how good the models are in comparison to each other. Even if the Student’s t-distribution seems (in general) to be a more adequate assumption regarding the data compared to the normal distribution, all the models are showing quite poor performance. However, by analysing the conditional distributions more thoroughly, and evaluating how well each model performs by extracting certain quantile values, the performance of each method is increased significantly. By comparing the different models (when imputing more extreme quantile values) it can be concluded that all methods produce satisfying results, even if the g-copula and t-copula models seems to be more robust than the respective linear models. / På senare år har ytterligare krav införts för finansiella institut (t.ex. Clearinghus) i ett försök att fastställa kvantitativa mått på deras exponering mot olika typer av risker. Ett av dessa krav innebär att utföra stresstester för att uppskatta motståndskraften under stressade marknader/kriser. Dock förändras finansiella marknader över tiden vilket leder till att vissa instrument som handlas idag inte fanns under den dåvarande perioden, eftersom de introducerades vid ett senare tillfälle. Baserat på nuvarande rutiner så är målet med detta arbete att tillhandahålla en mer sofistikerad metod för imputation (ifyllnad) av historisk data som ett förberedande arbete i utförandet av stresstester. I denna rapport implementeras två modeller som betraktas som de bäst presterande metoderna idag, baserade på maximum likelihood estimering (MLE) och multiple imputation (MI), samt en tredje alternativ metod som involverar copulas. Modellerna tillämpas på historisk data förterminskontrakt från den nordiska energimarkanden. Genom att använda väl etablerade mätmetoder för att skatta noggrannheten förrespektive modell, är det väldigt svårt (generellt) att särskilja prestandan för varje metod, eller att dra några slutsatser om hur bra varje modell är i jämförelse med varandra. även om Students t-fördelningen verkar (generellt) vara ett mer adekvat antagande rörande datan i jämförelse med normalfördelningen, så visar alla modeller ganska svag prestanda vid en första anblick. Däremot, genom att undersöka de betingade fördelningarna mer noggrant, för att se hur väl varje modell presterar genom att extrahera specifika kvantilvärden, kan varje metod förbättras markant. Genom att jämföra de olika modellerna (vid imputering av mer extrema kvantilvärden) kan slutsatsen dras att alla metoder producerar tillfredställande resultat, även om g-copula och t-copula modellerna verkar vara mer robusta än de motsvarande linjära modellerna.

Page generated in 0.0445 seconds