• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 15
  • Tagged with
  • 42
  • 31
  • 20
  • 17
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimizing stochastic simulation of a neuron with parallelization

Liss, Anders January 2017 (has links)
In order to optimize the solving of stochastic simulations of neuron channels, an attempt to parallelize the solver has been made. The result of the implementation was unsuccessful. However, the implementation is not impossible and is still a field of research with big potential for improving performance of stochastic simulations.
12

Pricing Complex derivatives under the Heston model / Prissättning av komplexa derivat enligt Heston modellen

Naim, Omar January 2021 (has links)
The calibration of model parameters is a crucial step in the process of valuation of complex derivatives. It consists of choosing the model parameters that correspond to the implied market data especially the call and put prices. We discuss in this thesis the calibration strategy for the Heston model, one of the most used stochastic volatility models for pricing complex derivatives. The main problem with this model is that the asset price does not have a known probability distribution function. Thus we use either Fourier expansions through its characteristic function or Monte Carlo simulations to have access to it. We hence discuss the approximation induced by these methods and elaborate a calibration strategy with a focus on the choice of the objective function and the choice of inputs for the calibration. We assess that the put option prices are a better input than the call prices for the optimization function. Then through a set of experiments on simulated put prices, we find that the sum of squared error performs better choice of the objective function for the differential evolution optimization. We also establish that the put option prices where the Black Scholes delta is equal to 10\%, 25\%, 50\% 75\% and 90\% gives enough in formations on the implied volatility surface for the calibration of the Heston model. We then implement this calibration strategy on real market data of Eurostoxx50 Index and observe the same distribution of errors as in the set of experiments. / Kalibreringen av modellparametrar är ett viktigt steg i värderingen av komplexa derivat. Den består av att välja modellparametrar som motsvarar de implicita marknadsdata, särskilt köp- och säljpriserna. I denna avhandling diskuterar vi kalibreringsstrategin för Hestonmodellen, en av de mest använda modellerna för stokastisk volatilitet för prissättning av komplexa derivat. Huvudproblemet med denna modell är att tillgångspriset inte har en känd sannolikhetsfördelningsfunktion. Därför använder vi antingen Fourier-expansioner genom dess karakteristiska funktion eller Monte Carlo-simuleringar för att få tillgång till den. Vi diskuterar därför den approximation som dessa genereras av dessa metoder och utarbetar en kalibreringsstrategi med fokus på valet av målfunktion och valet av indata för kalibreringen. Vi bedömer att säljoptionspriserna är en bättre input än samtalspriserna för differentialutvecklingsoptimeringsfunktionen. Genom flera experiment med simulerade säljpriser finner vi sedan att summan av kvadratfel ger bättre val av objektivfunktionen för differentialutvecklingsoptimering. Vi konstaterar också att säljoptionspriserna där Black Scholes deltat är lika med 10\%, 25\%, 50\%, 75\% och 90\% ger tillräcklig information om den implicita volatilitetsytan för kalibrering av Hestonmodellen. Vi tillämpar sedan denna kalibreringsstrategi på verkliga marknadsdata för Eurostoxx50-indexet och observerar samma felfördelning som i experimenten.
13

Reliability Based Classification of Transitions in Complex Semi-Markov Models / Tillförlitlighetsbaserad klassificering av övergångar i komplexa semi-markovmodeller

Fenoaltea, Francesco January 2022 (has links)
Markov processes have a long history of being used to model safety critical systems. However, with the development of autonomous vehicles and their increased complexity, Markov processes have been shown to not be sufficiently precise for reliability calculations. Therefore there has been the need to consider a more general stochastic process, namely the Semi-Markov process (SMP). SMPs allow for transitions with general distributions between different states and can be used to precisely model complex systems. This comes at the cost of increased complexity when calculating the reliability of systems. As such, methods to increase the interpretability of the system and allow for appropriate approximations have been considered and researched. In this thesis, a novel classification approach for transitions in SMP has been defined and complemented with different conjectures and properties. A transition is classified as good or bad by comparing the reliability of the original system with the reliability of any perturbed system, for which the studied transition is more likely to occur. Cases are presented to illustrate the use of this classification technique. Multiple suggestions and conjectures for future work are also presented and discussed. / Markovprocesser har länge använts för att modellera säkerhetskritiska system. Med utvecklingen av autonoma fordon och deras ökade komplexitet, har dock markovprocesser visat sig vara otillräckliga exakta för tillförlitlighetsberäkningar. Därför har det funnits ett behov för en mer allmän stokastisk process, nämligen semi-markovprocessen (SMP). SMP tillåter generella fördelningar mellan tillstånd och kan användas för att modellera komplexa system med hög noggrannhet. Detta innebär dock en ökad komplexitet vid beräkningen av systemens tillförlitlighet. Metoder för att öka systemets tolkningsbarhet och möjliggöra lämpliga approximationer har därför övervägts och undersökts. I den här masteruppsatsen har en ny klassificeringsmetod för övergångar i SMP definierats och kompletteras med olika antaganden och egenskaper. En övergång klassificeras som antingen bra eller dålig genom en jämförelse av tillförlitligheten i det ursprungliga systemets och ett ändrat system, där den studerade övergången har högre sannolikhet att inträffa. Fallstudier presenteras för att exemplifiera användningen av denna klassificeringsteknik. Flera förslag och antaganden för framtida arbete presenteras och diskuteras också.
14

Demand Deposits : Valuation and Interest Rate Risk Management / Avistakonton : Värdering och Ränteriskhantering

Lu, Yang, Visvanathar, Kevin January 2015 (has links)
In the aftermath of the financial crisis of 2008, regulatory authorities have implemented stricter policies to ensure more prudent risk management practices among banks. Despite the growing importance of demand deposits for banks, no policies for how to adequately account for the inherent interest rate risk have been introduced. Demand deposits are associated with two sources of uncertainties which make it difficult to assess its risks using standardized models: they lack a predetermined maturity and the deposit rate may be changed at the bank’s discretion. In light of this gap, this study aims to empirically investigate the modeling of the valuation and interest rate risk of demand deposits with two different frameworks: the Economic Value Model Framework (EVM) and the Replicating Portfolio Model Framework (RPM). To analyze the two frameworks, models for the demand deposit rate and demand deposit volume are developed using a comprehensive and novel dataset provided by one the biggest commercial banks in Sweden. The findings indicate that including macroeconomic variables in the modeling of the deposit rate and deposit volume do not improve the modeling accuracy. This is in contrast to what has been suggested by previous studies. The findings also indicate that there are modeling differences between demand deposit categories. Finally, the EVM is found to produce interest rate risks with less variability compared to the RPM. / Till foljd av nanskrisen 2008 har regulatoriska myndigheter infort mer strikta regelverk for att framja en sund nansiell riskhantering hos banker. Trots avistakontons okade betydelse for banker har inga regulatoriska riktlinjer introducerats for hur den associerade ranterisken ska hanteras ur ett riskperspektiv. Avistakonton ar forknippade med tva faktorer som forsvarar utvarderingen av dess ranterisk med traditionella ranteriskmetoder: de saknar en forutbestamd loptid och avistarantan kan andras nar sa banken onskar. Med hansyn till detta gap fokuserar denna studie pa att empiriskt analysera tva modelleringsramverk for att vardera och mata ranterisken hos avistakonton: Economic Value Model Framework (EVM) and Replicating Portfolio Model Framework (RPM). Analysen genomfors genom att initialt ta fram modeller for hur avistarantan och volymen pa avistakonton utvecklas over tid med hjalp av ett modernt och unikt dataset fran en av Sveriges storsta kommersiella banker. Studiens resultat indikerar att modellerna for avistarantan och avistavolymen inte forbattras nar makroekonomiska variabler ar inkluderade. Detta ar i kontrast till vad tidigare studier har oreslagit. Vidare visar studiens resultat att det modellerna skiljer sig nar avistakontona ar egmenterade pa en mer granular niva. Slutligen pavisar resultatet att EVM producerar ranteriskestimat som ar mindre kansliga for antanganden an RPM.
15

Stochastic Optimization of Energy Prosumption Systems : A case study on energy balancing for self-sustainable societies

Allansson, Jim January 2022 (has links)
To achieve a sustainable future fossil electricity is being replaced with renewable, leading to higher uncertainties in electricity production. This has resulted in an incentive for consumers to produce, sell, and store their own electricity, hence becoming prosumers. Austerland Skags is a Swedish project that explores the possibility to convert a small society into a prosumption system. The system includes solar and wind power as electricity producers and hydrogen-fueled vehicles for commodity transport. To capitalize the most on their produced electricity they want to store excess electricity. This master thesis uses Austerland Skags as a case study to develop a stochastic linear optimization model to determine the optimal energy storage solution for an energy prosumption system with both electricity and hydrogen demand. The method used in this thesis was the sample average approximation (SAA) algorithm. The results from the SAA were compared to the expected results from the expected value problem (EEV) to show the difference between a stochastic and deterministic solution. The results from the SAA turned out to consistently outperform the EEV for the samples created. Since hydrogen demand could only be sourced in-house, the model was forced to use an electrolyzer and hydrogen tank. The final result from the SAA showed that both a battery and fuel cell was used in addition to the electrolyzer and hydrogen tank in the optimal solution. All capacities stayed within reasonable levels showing the possibility of realizing a cost-effective prosumption system. / För att uppnå en hållbar framtid byts fossila bränslen ut mot förnyelsebara energikällor, vilket leder till högre osäkerheter i elproduktionen. Detta har skapat ett initiativ för konsumenter att börja producera, sälja, och lagra sin egen elektricitet och därav bli prosumenter. Austerland Skags är ett svenskt projektsom undersöker möjligheten att konvertera ett litet samhälle till ett prosumentsystem. Systemet är uppbyggt med sol och vindkraft för produktion av elektricitet och planerar att använda vätgasdrivna fordon för transport av råvror. För att utnyttja så mycket som möjligt av den producerade elektriciteten vill de kunna lagra överskotts elektricitet. Den här masteruppsatsen använder Austerland Skag som en fallstudie för att utveckla en stokastisk linjär optimeringsmodell för att avgöra den optimala energilagringslösningen för ett energiprosumentsystem med både el och vätgasbehov. Metodvalet i denna uppsats var sample average approximation (SAA) algoritmen. Resultatet från SAA jämfördes med det förväntade resultatet från förväntade värdeproblemet (EEV) för att visa skillnaden mellan stokastiska och deterministiska lösningar. Resultatet från SAA visade sig ständigt ge bättre resultat än EEV för undersökta stickprov. Eftersom vätgasbehovet endast kunde förses in-house i modellen var den tvingad att dimensionera upp ett elektrolysör och vätgaslager. Slutresultatet av SAA visade att både batterier och bränsleceller var aktuellt tillsammans med elektrolysör och vätgaslager i den optimala lösningen. Alla kapaciteter förhöll sig inom rimliga nivåer vilket påvisar möjligheten att realisera ett kostnadseffektivt prosumentsystem. / Austerland Skags
16

Sequence Prediction for Identifying User Equipment Patterns in Mobile Networks / Sekvensprediktering för identifiering av användarutrustningsmönster i mobila nätverk

Charitidis, Theoharis January 2020 (has links)
With an increasing demand for bandwidth and lower latency in mobile communication networks it becomes gradually more important to improve current mobile network management solutions using available network data. To improve the network management it can for instance be of interest to infer future available bandwidth to the end user of the network. This can be done by utilizing the current knowledge of real-time user equipment (UE) behaviour in the network. In the scope of this thesis interest lies in, given a set of visited radio access points (cells), to predict what the next one is going to be. For this reason the aim is to investigate the prediction performance when utilizing the All-K-Order Markov (AKOM) model, with some added variations, on collected data generated from train trajectories. Moreover a method for testing the suitability of modeling the sequence of cells as a time-homogeneous Markov chain is proposed, in order to determine the goodness-of- t with the available data. Lastly, the elapsed time in each cell is attempted to be predicted using linear regression given the prior history window of previous cell and elapsed times pairs. The results show that moderate to good prediction accuracy on the upcoming cell can be achieved with AKOM and associated variations. For predicting the upcoming sojourn time in future cells the results reveal that linear regression does not yield satisfactory results and possibly another regression model should be utilized. / Med en ökande efterfrågan på banbredd och kortare latens i mobila nätverk har det gradvis blivit viktigare att förbättra nuvarande lösningar för hantering av nätverk genom att använda tillgänglig nätverksdata. Specifikt är det av intresse att kunna dra slutsatser kring vad framtida bandbredsförhållanden kommer vara, samt övriga parametrar av intresse genom att använda tillgänglig information om aktuell mobil användarutrustnings (UE) beteende i det mobila nätverket. Inom ramen av detta masterarbete ligger fokus på att, givet tidigare besökta radio accesspunkter (celler), kunna förutspå vilken nästkommande besökta cell kommer att vara. Av denna anledning är målet att undersöka vilken prestanda som kan uppnås när All-$K$-Order Markov (AKOM) modellen, med associerade varianter av denna, används på samlad data från tågfärder. Dessutom ges det förslag på test som avgör hur lämpligt det är att modelera observerade sekvenser av celler som en homogen Markovkedja med tillgänglig data. Slutligen undersöks även om besökstiden i en framtida cell kan förutspås med linjär regression givet ett historiskt fönster av tidigare cell och besökstids par. Erhållna resultat visar att måttlig till bra prestanda kan uppnås när kommande celler förutspås med AKOM modellen och associerade variationer. För prediktering av besökstid i kommande cell med linjär regression erhålles det däremot inte tillfredsställande resultat, vilket tyder på att en alternativ regressionsmetod antagligen är bättre lämpad för denna data.
17

Stochastic Modelling of Cash Flows in Private Equity / Stokastisk modellering av kassaflöden i private equity

Ungsgård, Oscar January 2020 (has links)
An investment in a private equity is any investment made in a financial asset that is not publicly traded. As such these assets are very difficult to value and also give rise to great difficulty when it comes to quantifying risk. In a typical private equity investment the investor commits a prespecified amount of capital to a fund, this capital will be called upon as needed by the fund and eventually capital will be returned to the investor by the fund as it starts to turn a profit. In this way a private equity investment can be boiled down to consist of two cash flows, the contributions to the fund and distributions from the fund to the investor. These cash flows are usually made within a prespecified time frame but at unspecified intervals and amounts. As an investor in a fund, carrying too little liquid assets when contributions are called upon will cause trouble, but carrying significantly more than needed is also not desirable as it represents a loss in potential revenue from having less capital in more profitable investments. The goal of this thesis was to attempt to find a way to reliably model these cash flows and to find a way to represent the results in a meaningful way for the benefit of the investor by constructing value at risk like risk measures for the necessary liquid capital to carry at a given time in case contributions are called upon. It was found that the distributions could be modelled very well with the chosen stochastic processes, both as it related to predicting the average path of the cash flows and as it relates to modelling the variability of them. Contrary to this it was found that the contributions could not be modelled very well. The reason for this was found to be an observed lag in the speed of contributions at the start of the funds lifetime, this lag was not taken into account when constructing the stochastic model and hence it produced simulated cash flows not in line with those used in the calibration. / En investering i private equity är en investering i en tillgång som inte är börsnoterade. På grund av detta är sådana tillgångar väldigt svåra att värdera och medför även store svårigheter när det kommer till att kvantifiera risk. I en typisk private equity investering so ingår en investerare i ett löfte att under en viss förbestämd tidsperiod bidra med en fixt mängd kapital till en private equity fond. Detta kapital kommer att gradvis kallas på av fonden vid behov för att sedan mot slutet av fondens livstid ge utdelning när private equity fonden börjar göra en vinst. På detta viset kan en private equity investering brytas ner i två kassaflöden, kontributioner in i fonden, och distributioner ut ur fonden. Dessa kassaflöden sker under en förbestämd tidsperiod men ej förbestämda belopp. Som en investerare i denna typen av fond är därför en risk att bära för lite likvid kapital när kontributioner blir kallade på men även oattraktivt att bäre på för mycket de detta representerar förlorar potentiell avkastning. Målet i denna uppsatts är att hitta ett sätt att på att tillförlitligt vis modellera dessa kassaflöden och representera resultaten på ett meningsfullt sätt från perspektivet av en investerare. För att uppnå detta skapades value-at-risk liknande mått för mängden likvid kapital som krävs under en tidsperiod för att säkra sig mot påkallade kontributioner. Slutsatsen blev att distributioner kunde modelleras väl, både när det kom till att efterlikna den genomsnittliga vägen av kassaflöden och även för att modellera risken. I kontrast till detta så kunde inte kontributioner modelleras mot tillräckligt hög säkerhet för att användes i det ämnade syftena. Anledningen till detta var en eftersläpning i hastigheten som kontributioner kallades med som inte tågs i beaktande av den tillämpade matematiska modellen.
18

Geometry of high dimensional Gaussian data

Mossberg, Olof Samuel January 2024 (has links)
Collected data may simultaneously be of low sample size and high dimension. Such data exhibit some geometric regularities consisting of a single observation being a rotation on a sphere, and a pair of observations being orthogonal. This thesis investigates these geometric properties in some detail. Background is provided and various approaches to the result are discussed. An approach based on the mean value theorem is eventually chosen, being the only candidate investigated that gives explicit convergence bounds. The bounds are tested employing Monte Carlo simulation and found to be adequate. / Data som insamlas kan samtidigt ha en liten stickprovsstorlek men vara högdimensionell. Sådan data uppvisar vissa geometriska mönster som består av att en enskild observation är en rotation på en sfär, och att ett par av observationer är rätvinkliga. Den här uppsatsen undersöker dessa geometriska egenskaper mer detaljerat. En bakgrund ges och olika typer av angreppssätt diskuteras. Till slut väljs en metod som baseras på medelvärdessatsen eftersom detta är den enda av de undersökta metoderna som ger explicita konvergensgränser. Gränserna testas sedermera med Monte Carlo-simulering och visar sig stämma.
19

An Attempt at Pricing Zero-Coupon Bonds under the Vasicek Model with a Mean Reverting Stochastic Volatility Factor / Ett Försök att Prisätta Nollkupongobligationer med hjälp av Vasicekmodellen med en Jämviktspendlande Stokastisk Volatilitetsfaktor

Neander, Benjamin, Mattson, Victor January 2023 (has links)
Empirical evidence indicates that the volatility in asset prices is not constant, but varies over time. However, many simple models for asset pricing rest on an assumption of constancy. In this thesis we analyse the zero-coupon bond price under a two-factor Vasicek model, where both the short rate and its volatility follow Ornstein-Uhlenbeck processes. Yield curves based on the two-factor model are then compared to those obtained from the standard Vasicek model with constant volatility. The simulated yield curves from the two-factor model exhibit "humps" that can be observed in the market, but which cannot be obtained from the standard model. / Det finns empiriska bevis som indikerar att volatiliteten i finansiella marknader inte är konstant, utan varierar över tiden. Dock så utgår många enkla modeller för tillgångsprisättning från ett antagande om konstans. I det här examensarbetet analyserar vi priset på nollkupongobligationer under en stokastisk Vasicekmodell, där både den korta räntan och dess volatilitet följer Ornstein-Uhlenbeck processer. De räntekurvor som tas fram genom två-faktormodellen jämförs sedan med de kurvor som erhålls genom den enkla Vasicekmodellen med konstant volatilitet. De simulerade räntekurvorna från två-faktormodellen uppvisar "pucklar" som kan urskiljas i marknaden, men som inte kan erhållas genom standardmodellen.
20

A Framework to Model Bond Liquidity / Ett ramverk för att modellera obligationslikviditet

Issa, Alan January 2023 (has links)
The liquidity of financial assets can be studied in various different ways. In this thesis, liquidity is defined as the cost and time required to liquidate a position. While the liquidity of highly traded financial instruments like stocks is typically determined by analyzing the order book, the lack of an order book for over-the-counter bond trading presents challenges for estimating bond liquidity. The objective of this thesis is to develop a framework for estimating the cost and time required to liquidate a bond position. To achieve this, we propose a theoretical order book model based on the order book of more actively traded instruments, and estimate the model parameters using bond transaction data. The volume available to trade in the theoretical order book was modelled as gamma distributed stochastic process. The distribution of the liquidation cost could thereafter be derived where the parameters were estimated using the maximum likelihood estimation. The liquidation time, or liquidity horizon, was then determined through the solution of an optimization problem. The proposed framework for estimating bond liquidity produced promising results. The estimated parameters of the gamma distributed stochastic process accurately captured the behavior of bond trading volumes, allowing for a reliable estimation of the distribution of liquidation costs. Additionally, the optimization problem used to determine the liquidity horizon produced reasonable estimates. / Likviditeten hos finansiella tillgångar kan studeras på olika sätt. I denna uppsats definieras likviditeten som kostnaden och tiden som krävs för att likvidera en position. Medans likviditeten hos aktivt handlade finansiella tillgångar som aktier vanligtvis bestäms genom att analysera orderboken, så medför bristen på en orderbok för handel med "over-the-counter" obligationer utmaningar för att uppskatta likviditeten för dem. Syftet med denna uppsats är att utveckla ett ramverk för att uppskatta kostnaden och tiden som krävs för att likvidera en obligationsposition. För att uppnå detta föreslår vi en teoretisk orderboksmodell baserad på orderboken för mer aktivt handlade instrument, och uppskattar modellparametrarna med hjälp av data för obligationsaffärer. Volymen som är tillgänglig att handla i den teoretiska orderboken modellerades som en gammafördelad stokastisk process. Fördelningen av likvidationskostnaden kunde sedan härledas där parametrarna uppskattades med hjälp av maximum likelihood-estimering. Likvidationstiden, eller likvidationshoristonten, bestämdes sedan genom att lösa ett optimeringsproblem. Det föreslagna ramverket för att uppskatta likviditeten hos obligationer gav lovande resultat. De uppskattade parametrarna för den gammafördelade stokastiska processen fångade noggrant upp beteendet hos handelsvolymerna för obligationer, vilket möjliggjorde en pålitlig uppskattning av fördelning av likvidationskostnader. Optimeringsproblemet som användes för att bestämma likviditetshorisontens gav dessutom rimliga uppskattningar.

Page generated in 0.044 seconds