• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 553
  • 32
  • Tagged with
  • 585
  • 585
  • 585
  • 45
  • 37
  • 36
  • 33
  • 31
  • 30
  • 29
  • 29
  • 29
  • 25
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Simulation of Hydro Power Expansion in Skellefteälven

Sag, Jan Jack January 2018 (has links)
The aim with this project is to examine how an expansion of the Swedish hydro power capacity in Skellefte¨alven, a river in Northern Sweden, could benefit the power system such that bottlenecks are eliminated. The project also examines how a future need for additional power can be met. The results support an expansion of hydro power, partly to meet an increased power demand and partly to eliminate bottlenecks which would promote an optimal run. The report does not contain any economical aspects that would occur in an expansion. This project is a part of a project from North European Energy Perspective project, www.nepp.se. / Målet med projektet är att undersöka vinster vid en eventuell utbyggnad av vattenkraftverken i Skellefteälven på sådant sätt att flaskhalsar elimineras. I arbetet analyseras även hur ett framtida ökat effektbehov kan bemötas. Resultaten visar ett stöd för en utbyggnad av vattenkraftverk, dels för att kunna möta ett ökat effektbehov och dels för att eliminerade flaskhalsar främjar en optimal körning. Rapporten innehåller inte de ekonomiska aspekter som skulle uppkomma vid en utbyggnad. Detta är en del av ett större projekt inom North European Energy Perspective, www.nepp.se.
172

Optimizingthe placement of cleanup systems for marine plastic debris : Amulti-objective approach / Optimera placeringen avuppsamlingsenheter för marint plastskräp : En multi-objektiv optimeringsmodell

Karlsson, Stina, Nordén, Anisa January 2018 (has links)
Marine plastic pollution is a pervasive problem and is estimated to only increase over the coming years. The realization of this has made several actors take action, of which one is the Danish Hydraulic Institute. Their simulation software MIKE allows for particle tracking in water environments, making it possible to forecast the movement of marine plastic debris. In addition to this, new advancements in marine plastic cleanup technology arise the following question; where are cleanup systems to be placed in order to remove as much plastic as possible? This study presents a mathematical model which, in combination with simulations of marine plastic debris movement, aims to nd the optimal placement of cleanup systems alongside coastal areas. In addition to solely place the systems to maximize the amount of collected plastic particles, minimizing the plastic particles' impact on sensitive areas is also considered. This is achieved by proposing a multi-objective optimization model. The obtained results present the optimal cleanup system placement in the pilot case of Jakarta Bay, Indonesia. / Marina plastföroreningar ar ett stort problem som enbart uppskattas öka under de kommande aren. Detta har fatt flera aktörer att vidta åtgärder, varav en ar Danish Hydraulic Institute. Deras mjukvara MIKE tillåter spårning av partiklar i vattenmiljöer, vilket gör det möjligt att förutse hur marint plastskräp kommer röra sig. Dessutom har nya teknologiska framsteg inom upprensning av marin plast gett upphov till följande frågeställning; vart ska man placera uppsamlingsenheter för att ta bort sa mycket plast som möjligt? Denna studie presenterar en matematisk modell som, i kombination med simuleringar av plastpartiklars rörelse i vatten, ämnar hitta den optimala placeringen av uppsamlingsenheter längs kustnätverk. Utöver att bara placera systemen för att maximera mängden uppsamlad plast, är minimeringen av plastens inverkan på känsliga områden också i fokus. Detta uppnås genom att skapa en multi-objektiv optimeringsmodell. Resultaten presenterar de optimala placeringarna av uppsamlingsenheter för Jakarta Bay, Indonesien.
173

Automatingand optimizing pile group design using a Genetic Algorithm / Optimering ochautomatisering av pålgruppsdesign med en genetisk algoritm

Abedin, Arian, Ligai, Wolmir January 2018 (has links)
In bridge design, a set of piles is referred to as a pile group. The design process of pile groups employed by many firms is currently manual, time consuming, and produces pile groups that are not robust against placement errors. This thesis applies the metaheuristic method Genetic Algorithm to automate and improve the design of pile groups for bridge column foundations. A software is developed and improved by implementing modifications to the Genetic Algorithm. The algorithm is evaluated by the pile groups it produces, using the Monte Carlo method to simulate errors for the purpose of testing the robustness. The results are compared with designs provided by the consulting firm Tyrens AB. The software is terminated manually, and generally takes less than half an hour to produce acceptable pile groups. The developed Genetic Algorithm Software produces pile groups that are more robust than the manually designed pile groups to which they are compared, using the Monte Carlo method. However, due to the visually disorganized designs, the pile groups produced by the algorithm may be di cult to get approved by Trafikverket. The software might require further modifications addressing this problem before it can be of practical use. / Inom brodesign refereras en uppsättning pålar till som en pålgrupp. Vid design av pålgrupper tillämpar för tillfället många firmor manuella och tidskrävanade processer, som inte leder till robusta pålgrupper med avseende på felplaceringar. Denna avhandling tillämpar en metaheuristisk metod vid namn Genetisk Algoritm, för att automatisera och förbättra designprocessen gällande pålgrupper. En mjukvara utvecklas och förbättras stegvis genom modifi kationer av algoritmen. Algoritmen utvärderas sedan genom att Monte Carlo simulera felplaceringar och evaluera de designade pålgruppernas robusthet. De erhållna resultaten jämförs med färdigdesignade pålgrupper givna av konsultföretaget Tyréns AB. Den utvecklade mjukvaran avbryts manuellt och kräver generellt inte mer än en halvtimme för att generera acceptabla pålgrupper. Den utvecklade algoritmen och mjukvaran tar fram pålgrupper som är mer robusta än de designade pålgrupperna vilka dem jämförs med. Pålgrupperna som skapats av den utvecklade algoritmen har en oordnad struktur. Således kan ett godkännande av dessa pålgrupper från Trafikverket vara svårt att få och ytterligare modifikationer som åtgärdar detta problem kan behövas innan algoritmen är användbar i praktiken.
174

The Swap Market Model with Local Stochastic Volatility / Ränteswap marknadsmodellen med lokal stokastisk volatilitet

Benmakhlouf Andaloussi, Mohammed January 2019 (has links)
Modeling volatility is an intricate part of all financial models and the pricing of derivative contracts. And while local volatility has gained popularity in equity and FX models, it remained neglected in interest rates models. In this thesis, using spot starting swaps, the goal is to build a swap market model with non-parametric local volatility functions and stochastic volatility scaling factors. The local stochastic volatility formula is calibrated through a particle algorithm to match the market’s swaption volatility smile. Numerical experiments are conducted for different currencies to compute the local stochastic volatility at different expiry dates, swap tenors and strike values. The results of the simulation show the high quality calibration of the algorithm and the efficiency of local stochastic volatility in interest rate smile building. / Att modellera volatilitet är en invecklad del av alla finansiella modeller och prissättning av derivatkontrakt. Medan lokala volatilitet har fått stor popularitet på aktie- och FX-modeller, har de förblivit försummade i räntemodeller. I detta examensarbete är målet att bygga en ränteswapmarknads-modell med en icke-parametrisk lokal volatilitetsfunktion och en stokastisk volatilitets skalningsfaktor. Den lokala stokastiska volatiliteten kalibreras genom en partikelalgoritm för att matcha marknadens swaptions- volatilitetsleenden. För olika valutor utförs numeriska experiment för att beräkna den lokal stokastiska volatilitet för olika utgångsdatum, swap-tenorer och lösenräntor. Resultaten av simuleringen visar att kalibreringen med den presenterade algoritmen är av hög kvalitet och effektiviteten i användandet av lokal stokastisk volatilitet vid återskapning av ränteleende.
175

Cluster analysis on sparse customer data on purchase of insurance products / Klusteranalys på gles kunddata på köp av försäkringsprodukter

Postigo Smura, Michel Alexander January 2019 (has links)
This thesis work aims at performing a cluster analysis on customer data of insurance products. Three different clustering algorithms are investigated. These are K-means (center-based clustering), Two-Level clustering (SOM and Hierarchical clustering) and HDBSCAN (density-based clustering). The input to the algorithms is a high-dimensional and sparse data set. It contains information about the customers previous purchases, how many of a product they have bought and how much they have paid. The data set is partitioned in four different subsets done with domain knowledge and also preprocessed by normalizing respectively scaling before running the three different cluster algorithms on it. A parameter search is performed for each of the cluster algorithms and the best clustering is compared with the other results. The best is measured by the highest average silhouette index. The results indicates that all of the three algorithms performs approximately equally good, with single exceptions. However, it can be stated that the algorithm showing best general results is K-means on scaled data sets. The different preprocessings and partitions of the data impacts the results in different ways and this shows that it is important to preprocess the input data in several ways when performing a cluster analysis. / Målet med detta examensarbete är att utföra en klusteranalys på kunddata av försäkringsprodukter. Tre olika klusteralgoritmer undersöks. Dessa är Kmeans (center-based clustering), Two-Level clustering (SOM och Hierarchical clustering) och HDBSCAN (density-based clustering). Input till algoritmerna är ett högdimensionellt och glest dataset. Det innhåller information om kundernas tidigare köp, hur många produkter de har köpt och hur mycket de har betalat. Datasetet delas upp i fyra delmängder med kunskap inom området och förarbetas också genom att normaliseras respektive skalas innan klustringsalgoritmerna körs på det. En parametersökning utförs för dem tre olika algoritmerna och den bästa klustringen jämförs med de andra resultaten. Den bästa algoritmen bestäms genom att beräkna the högsta silhouette index-medelvärdet. Resultaten indikerar att alla tre algoritmerna levererar ungefärligt lika bra resultat, med enstaka undantag. Dock, kan det bekräftas att algoritmen som visar bäst resultat överlag är K-means på skalade dataset. De olika förberedelserna och uppdelningarna av datasetet påverkar resultaten på olika sätt och detta tyder på vikten av att förbereda input datat på flera sätt när en klusteranalys utförs.
176

Sonarbildigenkänningssystem för att röja minor / Sonar image recognition system to clear mines

Englund, Moa January 2019 (has links)
Det finns ett intresse för att skapa säkra farvägar för militär och civil båttrafik. I svenska vatten ligger det kvar många havsminor från världskrigen som behöver röjas för att kunna skapa dessa vägar. Om en mina ska kunna röjas på ett säkert sätt är det till fördel att ha information om vilken bottentopografi som den befinner sig i. Detta görs genom att samla in sonarbilder ifrån autonoma undervattensfarkoster, AUV:er. I denna rapport undersöks sonarbilderna genom att analysera en bit i taget med hjälp av olika kvadratiska filterstorlekar som roteras. Den bildbit som filtret täcker analyseras med hjälp applicering av en Gaussianfunktion som med hjälp av diskret Fourier Transform tar fram fyra olika varianser. Haar- funktionen har ej använts då den inte har samma noggrannhet i rumsdimensionen som Gaussian-funktionen har. Dessa varianser beskriver hur bildbiten varierar i en punkt, en linje, i radie samt i vinkel. Olika kombinationer av dessa varianser leder till olika inneboende dimensioner i bildbitens mittersta pixel. De inneboende dimensionerna beskriver bottentopografierna på olika sätt. Med hjälp av deep learning appliceras metoderna på ett träningsset som består av ett antal sonarbilder som plockats ut för vardera dimension. Med hjälp av Fourier-metoden beskriven ovan bestäms gränserna med ett konfidensintervall på 95%. De gränser som fanns längst ifrån 0 samt 1 var 0.22257 respektive 0.77708. Gränserna applicerades i algoritmen som sedan tog fram numeriska värden för de inneboende dimensionerna. Utifrån dessa resultat blev det möjligt att presentera säkra farvägar genom grönmarkerade områden i sonarbilden. De filter som genererade det noggrannaste resultatet var de minsta filtren för alla rotationer. / There is an interest to make safe routes for military and civil boat traffic. In the Swedish seas there exist a lot of mines from the world wars that need to be removed to create these highways. If a mine is going to be demined in a safe way it is in favor to have information about what kind of seafloor topography it is laying on. This is done by collecting sonar images from autonomous underwater vehicles, AUV:s. In this report the sonar images are analyzed by investigating a smaller piece of the image. This is done by using different quadratic filter sizes which are rotating. The image piece which the filter is covering is analyzed by applying a Gaussian function that in combination with a discrete Fourier transform is producing four different variances. The Haar-function is not used since it has a lower accuracy in the dimension of the room than the Gaussian function has. These variances describes how the image piece varies in a point, a line, radius and angle. Different combinations of those variances are resulting in different intrinsic dimensions in the middle pixel of the image piece. The different intrinsic dimensions describes the seafloor topography in different ways. The methods are applied on a training set with deep learning. The training set consists of sonar images which are chosen for every dimension. Applying the above mentioned Fourier-method it is possible to choose the boundaries with a confidence interval of 95%. Those boundaries that were most far away from 0 and 1 were 0.22257 respectively 0.77708. These limits are applied in the algorithm that later on determines the numerical values for the intrinsic dimensions. It was possible to present safe highways in green in the sonar image from these results. Those filters that generated the highest accuracy were the smallest filters for all rotations.
177

Machine Learning for Sparse Time-Series Classification - An Application in Smart Metering / Maskininlärningsmetoder för klassificering av glesa tidsserier medtillämpning på smarta mätare

Ridnert, Carl January 2019 (has links)
Smart Meters are measuring devices collecting labeled time series data of utility consumptions from sub-meters and are capable of automatically transmit-ting this between the customer and utility companies together with other companies that offer services such as monitoring of consumption and cleaning of data. The smart meters are in some cases experiencing communication errors. One such error occurs when the information about what the utility sub-meters are measuring is lost. This information is important for when the producers of the utility are billing the customers for their usage. The information has had to be collected manually, something which is inefficient in terms of time and money. In this thesis a method for classifying the meters based on their raw time series data is investigated. The data used in the thesis comes from Metry AB and contains thousands of time series in five different classes. The task is complicated by the fact that the data has a high class imbalance, contains many missing values and that the time series vary substantially in length. The proposed method is based on partitioning the time series into slices of equal size and training a Deep Neural Network (DNN) together with a Bayesian Neural Network (BNN) to classify the slices. Prediction on new time series is performed by the prediction of individual slices for that time series followed by a voting procedure. The method is justified through a set of assumptions about the underlying stochastic process generating the time series coupled with an analysis based on the multinomial distribution. The results indicate that the models tend to perform worse on the samples coming from the classes ”water” and ”hot water” and that the worst performance is on the ”hot water”-class. On all the classes the models achieve accuracies of around 60%, by excluding the ”hot water” class it is possible to achieve accuracies of at least 70% on the data set. The models perform worse on time series that contain a few number of good quality slices, by considering only time series which has many good quality slices, accuracies of 70% are achieved for all classes and above 80% when excluding ”Hot Water”. It is concluded that in order to further improve the classification performance, more data is needed. Drawbacks with the method are the increased number of hyper-parameters involved in the extraction of slices. However, the voting method seems promising enough to investigate further on more highly sparse data sets. / Smarta Mätare är maskiner kapabla att automatiskt sända data från sub-mätare mätandes förbrukningar av nyttigheter(utility) mellan kunden och företag som producerar nyttigheterna. Detta har inneburit att en marknad har öppnats upp för företag som tar förbrukningsdata och erbjuder tjänster så som appar där kunden kan se sin förbrukning samt rensning eller interpolering av data. Denna kommunikation har inneburit vissa problem, ett identifierat sådant är att det händer att information om vilken nyttighet som har mätts går förlorat. Denna information är viktig och har tidigare behövt hämtas manuellt på ett eller annat sätt, något som är ineffektivt. I detta examensarbete undersöks huruvida den informationen går att få tag på med enbart rådatan och klassificeringsalgoritmer. Datan kommer från Metry AB och innehåller tusentals tidsserier från fem olika klasser. Uppgiften försvåras av att datan uppvisar en stor obalans i klasserna, innehåller många saknade datapunkter och att tidsserierna varierar stort i längd. Metoden som föreslås baseras på en uppstyckning av tidsserierna i så kallade ”slices” av samma storlek och att träna Djupa Neurala Nätverk (DNN) och Bayesiska Neurala Nätverk (BNN) på dessa. Klassificering av nya tidsserier sker genom att låta modellerna rösta på slices från dem och välja den klass som får flest röster. Arbetet innehåller en teoretisk analys av röstningsprocessen baserat på en multinomial fördelning kombinerat med olika antaganden om processen som genererar dessa slices, denna syftar till att motivera valet av metod. Resultaten visar att modellerna kan tränas och korrekt klassificera mätarna till en viss grad samt att röstningsprocessen tenderar till att ge bättre resultat än att bara använda en slice per mätare. Det påvisas att prestandan är mycket sämre för en specifik klass, genom att exkludera den klassen så lyckas modellerna prestera slutgiltiga noggrannheter på mellan 70 − 80%. Det påvisas vissa skillnader mellan BNN modellen och DNN modellen i termer av noggrannhet, dock så är skillnaderna för små för att det ska gå att dra några generella slutsatser om vilken klassificeringsalgoritm som är bäst. Slutsatserna är att metoden verkar fungera rimligt väl på denna typ av data men att det behövs mer arbete för att förstå när den fungerar och hur man kan göra den bättre, detta är framtida arbete. Den största möjligheten till förbättring för just denna tillämpning identifieras vara att samla in mer data.
178

On model risk and interconnectedness in banks / Om modellers risk och inbördes samband i banker

Kihlström, Harald January 2018 (has links)
Nowadays banks are more reliant on the use of models and many of these models depend on each other. In this thesis techniques from graph theory are used to depict and study the network caused by these dependencies. This is done by creating a portfolio that corresponds to a simplified version of a bank and then selecting models appropriate to evaluate the portfolio. The importance of each model in the network is then measured using the centrality measures; degree centrality, Katz centrality and Page rank. The model risk associated with specific models can differ depending on the interested party’s views. These views can be reflected in the Katz and Page rank measurements by slightly modifying them. In this thesis three perspectives representing possible views of interested parties are investigated. The perspectives were focused on the amount valued by each valuation model, the sensitivity and the complexity of the models. The results indicate that the connections between the models affect the centrality measures to a greater extent than the risk introduced dependent on the different perspectives. Moreover the results indicate that the centrality measures used are more appropriate to identify potential victims of contagion rather than sources of contagion. / På senare tid har banker blivit alltmer beroende av användandet av modeller och många av dessa modeller är ofta beroende av varandra. I den här uppsatsen används tekniker från grafteori för att framställa och undersöka det nätverk som uppstår på grund sambanden. Detta görs genom att skapa en portfölj som motsvarar en förenklad version av en bank och sedan välja modeller lämpliga för att utvärdera portföljen. Vikten av varje modell undersöks med hjälp av de följande centralitetsmåtten; gradcentralitet, Katz-centralitet och Page Rank. Modellrisken associerad med specifika modeller kan skilja sig åt beroende på den intresserade partens åsikter. Genom viss modifiering av Katz och Page rank måtten är det möjligt att spegla dessa åsikter. Tre perspektiv som kan motsvara olika intressenters åsikter undersöks och dessa fokuserar på hur mycket som värderas av värderingsmodellerna, känsligheten samt komplexiteten hos varje enskild modell. Resultaten tyder på att sambanden mellan de olika modellerna har större betydelse än den risk som introduceras med hjälp av de modifierade centralitetsmåtten. Resultaten tyder även på att de använda centralitetsmåtten är mer lämpliga för att identifiera modeller som blivit påverkade av andra modellers risk än de modeller som sprider risk i nätverket.
179

Online Outlier Detection in Financial Time Series / Online outlier detektering i finansiella tidsserier

Sedman, Robin January 2018 (has links)
In this Master’s thesis, different models for outlier detection in financial time series are examined. The financial time series are price series such as index prices or asset prices. Outliers are, in this thesis, defined as extreme and false points, but this definition is also investigated and revised. Two different time series models are examined: an autoregressive (AR) and a generalized autoregressive conditional heteroskedastic (GARCH) time series model, as well as one test statistic method based on the GARCH model. Additionally, a nonparametric model is examined, which utilizes kernel density estimation in order to detect outliers. The models are evaluated by how well they detect outliers and how often they misclassify inliers as well as the run time of the models. It is found that all the models performs approximately equally good, on the data sets used in thesis and the simulations done, in terms of how well the methods find outliers, apart from the test static method which performs worse than the others. Furthermore it is found that definition of an outlier is very crucial to how well a model detects the outliers. For the application of this thesis, the run time is an important aspect, and with this in mind an autoregressive model with a Student’s t-noise distribution is found to be the best one, both with respect to how well it detects outliers, misclassify inliers and run time of the model. / I detta examensarbete undersöks olika modeller för outlierdetektering i finansiella tidsserier. De finansiella tidsserierna är prisserier som indexpriser eller tillgångspriser. Outliers är i detta examensarbete definierade som extrema och falska punkter, men denna definition undersöks och revideras också. Två olika tidsseriemodeller undersöks: en autoregressiv (AR) och en generel au-toregressiv betingad heteroskedasticitet1 (GARCH) tidsseriemodell, samt en hypotesprövning2 baserad på GARCH-modellen. Dessutom undersöks en icke-parametrisk modell, vilken använder sig utav uppskattning av täthetsfunktionen med hjälp av kärnfunktioner3 för att detektera out-liers. Modellerna utvärderas utifrån hur väl de upptäcker outliers, hur ofta de kategoriserar icke-outliers som outliers samt modellens körtid. Det är konstaterat att alla modeller ungefär presterar lika bra, baserat på den data som används och de simuleringar som gjorts, i form av hur väl outliers är detekterade, förutom metoden baserad på hypotesprövning som fungerar sämre än de andra. Vidare är det uppenbart att definitionen av en outlier är väldigt avgörande för hur bra en modell detekterar outliers. För tillämpningen av detta examensarbete, så är körtid en viktig faktor, och med detta i åtanke är en autoregressiv modell med Students t-brusfördelning funnen att vara den bästa modellen, både med avseende på hur väl den detekterar outliers, felaktigt detekterar inliers som outliers och modellens körtid.
180

Modeling Non-Maturing Deposits Using Replicating Portfolio Models

Brunqvist, Oskar January 2018 (has links)
In recent years, regulatory and legislative authorities have increased their interest in non-maturing products, more specifically modeling of non-maturing deposits. This increase stems from the ever growing portion of banks funding originating from these products. The main purpose of this thesis is to provide an overview of different replicating portfolio models available for modeling non-maturing deposits and as-sess their applicability and suitability. Six different models suggested in the literature and two model extensions are presented and evaluated based on three categories; goodness of fit, stability and transparency. The results indicate that static replicating portfolios provide a poor fit for modeling the interest rate behavior in current interest rate market conditions. / Tillsynsmyndigheter och lagstiftande organ har under senare år ökat sitt intresse i finansiella produkter som saknar kontrakterad förfallodag, framförallt icke tidsbunden inlåning. Detta beror på att bankers finansiering i allt större utsträckning utgörs av dessa instrument. Det huvudsakliga syftet med detta arbete är att skapa en översiktlig bild av befintliga modeller som använder replikerande portföljer och utvärdera deras lämplighet. Sex olika modeller från befintlig litteratur samt två nya modeller presenteras och utvärderas baserat på tre kategorier; passform, stabilitet och transparens. Resultaten indikerar att statiska replikerande portföljer överlag har en dålig passform för att modellera räntesättningsbeteende i rådande marknadsränteläge.

Page generated in 0.0925 seconds