• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 2
  • Tagged with
  • 13
  • 10
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

3D modeling in Petrel of geological CO2 storage site / 3D modellering i Petrel av geologiskt CO2 lagringsområde

Gunnarsson, Niklas January 2011 (has links)
If mitigation measures are not made to prevent global warming the consequences of a continued global climate change, caused by the use of fossil fuels, may be severe. Carbon Capture and Storage (CCS) has been suggested as a way of decreasing the global atmospheric emission of CO2. In the realms of MUSTANG, a four year (2009-2013) large-scale integrating European project funded by the EU FP7, the objective is to gain understanding of the performance as well as to develop improved methods and models for characterizing so- called saline aquifers for geological storage of CO2. In this context a number of sites of different geological settings and geographical locations in Europe are also analyzed and modeled in order to gain a wide understanding of CO2 storage relevant site characteristics. The south Scania site is included into the study as one example site with data coming from previous geothermal and other investigations. The objective of the Master's thesis work presented herein was to construct a 3D model for the south Scania site by using modeling/simulation software Petrel, evaluate well log data as well as carry out stochastic simulations by using different geostatistical algorithms and evaluate the benefits in this. The aim was to produce a 3D model to be used for CO2 injection simulation purposes in the continuing work of the MUSTANG project. The sequential Gaussian simulation algorithm was used in the porosity modeling process of the Arnager greensand aquifer with porosity data determined from neutron and gamma ray measurements. Five hundred realizations were averaged and an increasing porosity with depth was observed.   Two different algorithms were used for the facies modeling of the alternative multilayered trap, the truncated Gaussian simulation algorithm and the sequential indicator simulation algorithm. It was seen that realistic geological models were given when the truncated Gaussian simulation algorithm was used with a low-nugget variogram and a relatively large range. / Den antropogena globala uppvärmningen orsakad av användandet av fossila bränslen kan få förödande konsekvenser om ingenting görs. Koldioxidavskiljning och lagring är en åtgärd som föreslagits för att minska de globala CO2-utsläppen. Inom ramarna för MUSTANG, ett fyra år långt (2009-2013) integrerande projekt finansierat av EU FP7 (www.co2mustang.eu), utvecklas metoder, modeller och förståelse angående så kallade saltvattenakviferers lämplighet för geologisk koldioxidlagring. En del av projektet är att analysera ett antal representativa formationer i olika delar av Europa för att få kunskap angående förekommande koldioxidlagringsspecifika egenskaper hos saltvattenakviferer. Ett av områdena som har inkluderats är i sydvästra Skåne. Syftet med detta examensarbete var att konstruera en 3D modell över detta område med hjälp av modellerings/simuleringsprogrammet Petrel, utvärdera borrhålsdata samt genomföra stokastiska simuleringar med olika geostatistiska algoritmer och utvärdera dem. Målsättningen var att konstruera en modell för CO2 injiceringssimuleringar i det forstsatta arbetet inom MUSTANG-projektet. En algoritm av sekventiell Gaussisk typ användes vid porositetsmodelleringen av Arnager Grönsandsakviferen med porositetsdata erhållen från neutron- och gammastrålningsmätningar. Ett genomsnitt av femhundra realisationer gjordes och en porositetstrend som visade en ökning med djupet kunde åskådligöras. Två olika algoritmer användes vid faciesmodelleringen av den alternativa flerlagrade fällan: en algoritm av trunkerade Gaussisk typ och en sekventiell indikatorsimuleringsalgoritm. Resultaten tyder på att en realistisk geologisk modell kan erhållas vid användandet av den trunkerande algoritmen med ett låg-nugget variogram samt en förhållandevis lång range.
2

Particle Filter Bridge Interpolation in GANs / Brygginterpolation med partikelfilter i GANs

Käll, Viktor, Piscator, Erik January 2021 (has links)
Generative adversarial networks (GANs), a type of generative modeling framework, has received much attention in the past few years since they were discovered for their capacity to recover complex high-dimensional data distributions. These provide a compressed representation of the data where all but the essential features of a sample is extracted, subsequently inducing a similarity measure on the space of data. This similarity measure gives rise to the possibility of interpolating in the data which has been done successfully in the past. Herein we propose a new stochastic interpolation method for GANs where the interpolation is forced to adhere to the data distribution by implementing a sequential Monte Carlo algorithm for data sampling. The results show that the new method outperforms previously known interpolation methods for the data set LINES; compared to the results of other interpolation methods there was a significant improvement measured through quantitative and qualitative evaluations. The developed interpolation method has met its expectations and shown promise, however it needs to be tested on a more complex data set in order to verify that it also scales well. / Generative adversarial networks (GANs) är ett slags generativ modell som har fått mycket uppmärksamhet de senaste åren sedan de upptäcktes för sin potential att återskapa komplexa högdimensionella datafördelningar. Dessa förser en komprimerad representation av datan där enbart de karaktäriserande egenskaperna är bevarade, vilket följdaktligen inducerar ett avståndsmått på datarummet. Detta avståndsmått möjliggör interpolering inom datan vilket har åstadkommits med framgång tidigare. Häri föreslår vi en ny stokastisk interpoleringsmetod för GANs där interpolationen tvingas följa datafördelningen genom att implementera en sekventiell Monte Carlo algoritm för dragning av datapunkter. Resultaten för studien visar att metoden ger bättre interpolationer för datamängden LINES som användes; jämfört med resultaten av tidigare kända interpolationsmetoder syntes en märkbar förbättring genom kvalitativa och kvantitativa utvärderingar. Den framtagna interpolationsmetoden har alltså mött förväntningarna och är lovande, emellertid fordras att den testas på en mer komplex datamängd för att bekräfta att den fungerar väl även under mer generella förhållanden.
3

Undersökning av luftkvaliteten vid småskalig biobränsleförbränning i två kommuner med modellsystemet VEDAIR

Andersson, Stefan January 2007 (has links)
<p>An Internet application, VEDAIR, for estimation of air quality in regions with small-scale combustion of bio fuel has been developed by Swedish Meteorological and Hydrological Institute with financing from Swedish Energy Agency and Swedish Environmental Protection Agency. The model contains user interface and a coupled model concept where concentrations of atmospheric pollutions are calculated for regional, urban and local contributions. In this report the model is described and a first study of air quality considering PM10 (particles with a diameter less than 10 µm) in two Swedish municipalities, Vänersborg and Gnosjö, is introduced.</p><p>According to the result, there are areas with poor air quality even in smaller Swedish municipalities, mostly due to high emission from buildings with older wood heating furnace without hydraulic accumulator.</p><p>In Vänersborg three areas were analysed in VEDAIR for the year 2003: Vargön, Mariedal and the downtown district. In the whole municipality the upper evaluation threshold for PM10, which is defined as 14 µg/m3 for annual average, was exceeded due to background contribution of particles. In all areas, however, the concentrations of PM10 were less than the environmental quality norms. In Vargön, where wood heating furnaces are commonly used, in some areas the concentration of particles was as big as or bigger than the downtown district (annual average of 20 µg/m3). However, in downtown the pollutants were more spread. Biggest concentrations of PM10 were estimated in Mariedal, due to emissions from older wood heating furnaces and streets, mostly in areas with unfavourable meteorological conditions. Measurements of PM10 in the area are therefore suggested. Biggest concentrations of PM10 were prevailed during winter, due to great heating need in combination with cooler air temperature and more stable stratification. The local contribution of PM10 was negative correlated with temperature. In the downtown district, however, the biggest concentrations of PM10 were obtained during spring due to usage of studded tyres.</p><p>In Gnosjö the air quality considering PM10 was analysed in the areas Götarp, downtown and Gårö. Calculations in VEDAIR showed that the emissions from traffic were much less than wood heating furnace. The background annual average of PM10 in Gnosjö was 1 µg/m3 higher than Vänersborg. The air quality was quite equal as in Vänersborg, but there was an area in Gårö where the environmental quality norms considering PM10 almost were exceeded, this mostly due to emission from one building with high heating need.</p><p>In this study a comparison between calculated concentrations of PM10 with measured concentrations in Gnosjö for the period 3 November to 31 December 2003 was also made. The validation showed that VEDAIR underestimated the concentrations, but the result was anyway reasonable. Before, validations have only been performed for the northern part of Sweden, and this study indicates that VEDAIR also estimates concentrations of PM10 sufficiently well in southern part of Sweden.</p><p>The study also showed that if a house owner would replace an old wood heating furnace by a modern furnace with hydraulic accumulator, the annual average of the concentration of PM10 could decrease by 4 µg/m3 which is a reduction of 25%.</p> / <p>Ett internetverktyg, VEDAIR, för bedömning av luftkvalitet vid småskalig förbränning av biobränsle har utvecklats av SMHI med finansiering från bland andra Energimyndigheten och Naturvårdsverket. Modellen består av användargränssnitt och ett kopplat modellsystem där halterna av luftföroreningar beräknas för såväl regionala (internationellt som nationellt), urbana och lokala bidrag. I denna rapport presenteras modellen tillsammans med en första studie av luftkvaliteten med avseende på PM10 (partiklar med en diameter mindre än 10 µm) inom ett par testkommuner, nämligen Vänersborg i Västergötlands län och Gnosjö i Jönköpings län.</p><p>Resultatet visade att det finns områden även i små kommuner där sämre luftkvalitet kan utgöra ett problem. Till största delen berodde detta på hög emission från fastigheter med äldre vedeldningspannor utan ackumulatortank.</p><p>I Vänersborg undersöktes luftkvaliteten med avseende på PM10 i stadsdelarna Vargön, Mariedal och centrum för år 2003. För hela kommunen gällde att övre utvärderingströskel (gränsvärde för vilka mätningar är obligatoriska), som för årsmedelvärdet PM10 är 14 μg/m3 luft, överskrids pga bakgrundsbidrag. Samtliga av de undersökta områdena uppvisade dock halter som är lägre än miljökvalitetsnormerna. Beräkningar i VEDAIR för Vargön, inom vilket vedeldningen är huvudsakliga källan till emissionen av PM10, visade att koncentrationen partiklar inom vissa områden var lika höga eller högre än områden runt de mest trafikerade vägarna i centrala Vänersborg (årsmedelvärde på ca 20 μg/m3). I centrum var dock föroreningarna mer utbredda. Allra högst halter PM10 erhölls vid beräkningar i Mariedal, till följd av utbredd vedeldning med äldre vedpannor, trafikerade vägar och ogynnsamma meteorologiska förutsättningar. Enligt detta kan mätning av partiklar inom området vara befogat. Tidsserier av totalhalten PM10 visade att högst halter erhölls på vintern i Vargön, till följd av större uppvärmningsbehov i kombination med lägre utomhustemperatur och mer stabil skiktning. Det lokala bidraget uppvisade en negativ korrelation mot temperaturen. I centrum var halterna dock högst på våren pga slitagepartiklar från dubbdäck samt vägdamm.</p><p>För Gnosjö undersöktes luftkvaliteten i tre potentiella problemområden; Gårö, centrala Gnosjö och Götarp. Beräkningar i VEDAIR för Gnosjö visade att trafikens bidrag var betydligt mindre, men vedeldning var vanligt förekommande. Samtidigt var årsmedelvärdet för det regionala bakgrundsbidraget ca 1 μg/m3 högre än i Vänersborg. Luftkvaliteten var generellt sett likvärdig den för Vänersborg, men inom stadsdelen Gårö fanns ett område där koncentrationen PM10 var mycket nära miljökvalitetsnormerna. Huvudkällan till emissionen var en enskild fastighet med stort energibehov som värmdes upp uteslutande med ved.</p><p>I studien gjordes även jämförelse av beräknade PM10-halter från VEDAIR med uppmätta värden i Gnosjö för perioden 3 november till 31 december 2003. Valideringen visade att VEDAIR gav något underskattade, men ändå hyggliga resultat. Tidigare valideringar har enbart utförts för Norrland, och de nya resultaten tyder på att VEDAIR även ger tillförlitliga beräkningar för södra Sverige.</p><p>Studien visade också att om en enskild fastighetsägare skulle byta ut en äldre vedeldningspanna mot en modern med ackumulatortank skulle årsmedelvärdet PM10 lokalt i fastighetens närområde kunna sjukna med uppåt 4 μg/m3, vilket är en minskning med 25%.</p>
4

Undersökning av luftkvaliteten vid småskalig biobränsleförbränning i två kommuner med modellsystemet VEDAIR

Andersson, Stefan January 2007 (has links)
An Internet application, VEDAIR, for estimation of air quality in regions with small-scale combustion of bio fuel has been developed by Swedish Meteorological and Hydrological Institute with financing from Swedish Energy Agency and Swedish Environmental Protection Agency. The model contains user interface and a coupled model concept where concentrations of atmospheric pollutions are calculated for regional, urban and local contributions. In this report the model is described and a first study of air quality considering PM10 (particles with a diameter less than 10 µm) in two Swedish municipalities, Vänersborg and Gnosjö, is introduced. According to the result, there are areas with poor air quality even in smaller Swedish municipalities, mostly due to high emission from buildings with older wood heating furnace without hydraulic accumulator. In Vänersborg three areas were analysed in VEDAIR for the year 2003: Vargön, Mariedal and the downtown district. In the whole municipality the upper evaluation threshold for PM10, which is defined as 14 µg/m3 for annual average, was exceeded due to background contribution of particles. In all areas, however, the concentrations of PM10 were less than the environmental quality norms. In Vargön, where wood heating furnaces are commonly used, in some areas the concentration of particles was as big as or bigger than the downtown district (annual average of 20 µg/m3). However, in downtown the pollutants were more spread. Biggest concentrations of PM10 were estimated in Mariedal, due to emissions from older wood heating furnaces and streets, mostly in areas with unfavourable meteorological conditions. Measurements of PM10 in the area are therefore suggested. Biggest concentrations of PM10 were prevailed during winter, due to great heating need in combination with cooler air temperature and more stable stratification. The local contribution of PM10 was negative correlated with temperature. In the downtown district, however, the biggest concentrations of PM10 were obtained during spring due to usage of studded tyres. In Gnosjö the air quality considering PM10 was analysed in the areas Götarp, downtown and Gårö. Calculations in VEDAIR showed that the emissions from traffic were much less than wood heating furnace. The background annual average of PM10 in Gnosjö was 1 µg/m3 higher than Vänersborg. The air quality was quite equal as in Vänersborg, but there was an area in Gårö where the environmental quality norms considering PM10 almost were exceeded, this mostly due to emission from one building with high heating need. In this study a comparison between calculated concentrations of PM10 with measured concentrations in Gnosjö for the period 3 November to 31 December 2003 was also made. The validation showed that VEDAIR underestimated the concentrations, but the result was anyway reasonable. Before, validations have only been performed for the northern part of Sweden, and this study indicates that VEDAIR also estimates concentrations of PM10 sufficiently well in southern part of Sweden. The study also showed that if a house owner would replace an old wood heating furnace by a modern furnace with hydraulic accumulator, the annual average of the concentration of PM10 could decrease by 4 µg/m3 which is a reduction of 25%. / Ett internetverktyg, VEDAIR, för bedömning av luftkvalitet vid småskalig förbränning av biobränsle har utvecklats av SMHI med finansiering från bland andra Energimyndigheten och Naturvårdsverket. Modellen består av användargränssnitt och ett kopplat modellsystem där halterna av luftföroreningar beräknas för såväl regionala (internationellt som nationellt), urbana och lokala bidrag. I denna rapport presenteras modellen tillsammans med en första studie av luftkvaliteten med avseende på PM10 (partiklar med en diameter mindre än 10 µm) inom ett par testkommuner, nämligen Vänersborg i Västergötlands län och Gnosjö i Jönköpings län. Resultatet visade att det finns områden även i små kommuner där sämre luftkvalitet kan utgöra ett problem. Till största delen berodde detta på hög emission från fastigheter med äldre vedeldningspannor utan ackumulatortank. I Vänersborg undersöktes luftkvaliteten med avseende på PM10 i stadsdelarna Vargön, Mariedal och centrum för år 2003. För hela kommunen gällde att övre utvärderingströskel (gränsvärde för vilka mätningar är obligatoriska), som för årsmedelvärdet PM10 är 14 μg/m3 luft, överskrids pga bakgrundsbidrag. Samtliga av de undersökta områdena uppvisade dock halter som är lägre än miljökvalitetsnormerna. Beräkningar i VEDAIR för Vargön, inom vilket vedeldningen är huvudsakliga källan till emissionen av PM10, visade att koncentrationen partiklar inom vissa områden var lika höga eller högre än områden runt de mest trafikerade vägarna i centrala Vänersborg (årsmedelvärde på ca 20 μg/m3). I centrum var dock föroreningarna mer utbredda. Allra högst halter PM10 erhölls vid beräkningar i Mariedal, till följd av utbredd vedeldning med äldre vedpannor, trafikerade vägar och ogynnsamma meteorologiska förutsättningar. Enligt detta kan mätning av partiklar inom området vara befogat. Tidsserier av totalhalten PM10 visade att högst halter erhölls på vintern i Vargön, till följd av större uppvärmningsbehov i kombination med lägre utomhustemperatur och mer stabil skiktning. Det lokala bidraget uppvisade en negativ korrelation mot temperaturen. I centrum var halterna dock högst på våren pga slitagepartiklar från dubbdäck samt vägdamm. För Gnosjö undersöktes luftkvaliteten i tre potentiella problemområden; Gårö, centrala Gnosjö och Götarp. Beräkningar i VEDAIR för Gnosjö visade att trafikens bidrag var betydligt mindre, men vedeldning var vanligt förekommande. Samtidigt var årsmedelvärdet för det regionala bakgrundsbidraget ca 1 μg/m3 högre än i Vänersborg. Luftkvaliteten var generellt sett likvärdig den för Vänersborg, men inom stadsdelen Gårö fanns ett område där koncentrationen PM10 var mycket nära miljökvalitetsnormerna. Huvudkällan till emissionen var en enskild fastighet med stort energibehov som värmdes upp uteslutande med ved. I studien gjordes även jämförelse av beräknade PM10-halter från VEDAIR med uppmätta värden i Gnosjö för perioden 3 november till 31 december 2003. Valideringen visade att VEDAIR gav något underskattade, men ändå hyggliga resultat. Tidigare valideringar har enbart utförts för Norrland, och de nya resultaten tyder på att VEDAIR även ger tillförlitliga beräkningar för södra Sverige. Studien visade också att om en enskild fastighetsägare skulle byta ut en äldre vedeldningspanna mot en modern med ackumulatortank skulle årsmedelvärdet PM10 lokalt i fastighetens närområde kunna sjukna med uppåt 4 μg/m3, vilket är en minskning med 25%.
5

Physical modelling of acoustic shallow-water communication channels

Svensson, Elin January 2007 (has links)
Akustiska kanaler för undervattenskommunikation är flervägskanaler där ljudet reflekteras från havets yta och botten och bryts vid ljudhastighetsförändringar. I grunt vatten är impulssvaret långt jämfört med symbolernas tidslängd i ett utskickat meddelande. Detta orsakar intersymbolinterferens, vilket gör det svårt att återskapa meddelandet. Denna avhandling behandlar fysikalisk modellering av kommunikationskanalen. Sådan modellering kan öka insikten om de svårigheter som finns vid design av kommunikationssystem och kan vara till hjälp vid utveckling av lämpliga modulationstekniker och avkodningsalgoritmer. Ljudutbredningen simuleras med en strålgångsmetod med reflektionskoefficienter beräknade för plana vågor. I artikel 4 och 5 utvidgas modellen till en algoritm för gaussisk strålsummation. De viktigaste vetenskapliga bidragen är följande. Artikel 1: Aktuell kunskap om impulssvaret hos kommunikationskanalen gör det betydligt lättare att tolka det mottagna meddelandet. I denna artikel studeras tidsvariabiliteten hos impulssvaret i termer av bitfelssannolikhet när ett gammalt impulssvar används för kanalutjämning. Tidsvariabiliteten visar sig variera avsevärt med mottagarpositionen, inte bara när det gäller avståndet till sändaren, utan även när det gäller placeringen i djupled. Artikel 2: En hybridmetod presenteras, där strålgång i ett avståndsberoende medium kombineras med lokal fullfältsmodellering av interaktionen med havsbottnen. Metoden används för simuleringar av akustisk kommunikation i grunt vatten. Artikel 3: För att kunna göra tillförlitliga simuleringar av ljudutbredning behöver man god kunskap om mediets ljudhastighetsprofil --- information som inte alltid är tillgänglig. I denna artikel används den hybrida strålgångsmetoden från artikel 2 för att skatta ljudhastighetsprofilen från kommunikationsdata. Miljöparametrarna som beräknats genom inversionen minskar avvikelsen mellan simulerade och observerade skattningar av impulssvaret jämfört med avvikelsen då en uppmätt, två dagar gammal ljudhastighetsprofil används vid simuleringen. Miljömodellen används också för en genomgång av alternativa käll- och mottagarpositioner. Artikel 4: Gaussisk strålsummation är en vågutbredningsmodell som liknar strålgång men kan ge korrekta resultat i strålgångens singulära områden, som skuggzoner och kaustikor. I denna artikel diskuteras hur några olika val av den komplexa strålparametern $\epsilon$ fungerar i grunda vågledare. Bäst resultat erhålls om man väljer $\epsilon$ så att strålen blir smal i punkten närmast mottagaren och får en plan vågfront där. Artikel 5: En adaptiv metod för gaussisk strålsummation i grunda vågledare presenteras. Algoritmen ger en noggrannhet som är bättre än eller minst lika bra som strålgångens, även i grunda vågledare med en starkt djupberoende ljudhastighet. / Acoustic underwater communication channels are multipath channels where sound is reflected from the surface and the bottom of the sea and refracted by sound speed variations. In shallow water, the impulse response is typically long compared to the time length of the symbols in a transmitted message. This causes inter-symbol interference, which makes the message difficult to decode. This thesis deals with physical modelling of the communication channel. Such modelling can provide insight into the difficulties of communication system design and may serve as an aid in the development of appropriate modulation techniques and decoding algorithms. The sound propagation is simulated by a ray tracing method with plane-wave reflection coefficients, in papers 4 and 5 expanded to a Gaussian beam summation algorithm. The main scientific contributions are the following. Paper 1: Up-to-date knowledge of the impulse response of the communication channel considerably simplifies the extraction of information from a detected signal. In this paper the time variability of the impulse response is studied in terms of the bit-error rate, when an old impulse response is used for channel equalisation. The time variability is found to vary significantly with the receiver position, not only in range, but also in depth. Paper 2: A hybrid raytrace method is presented, combining ray tracing in a range-dependent water column with local full-field modelling of the seabed interaction. The method is applied to simulations of acoustic communication in shallow water. Paper 3: To be able to make reliable simulations of sound propagation, one needs to know, quite accurately, the sound speed profile of the medium --- information which is not always available. In this paper the hybrid raytrace method from paper 2 is used to estimate the sound speed profile from communication data. The environmental model obtained by the inversion reduces the mismatch between the modelled and the observed impulse response estimates, compared to the mismatch with a two-days-old sound speed profile. The model is also used to investigate alternative source-receiver configurations. Paper 4: Gaussian beam summation is a wave propagation model similar to ray tracing, which can yield correct results in singular regions like shadow zones and caustic points. In this paper some different choices of the complex beam parameter $\epsilon$ are discussed for shallow waveguides. Best results are observed when $\epsilon$ is chosen so that each beam is narrow at the point where it is closest to the receiver and has a plane wavefront there. Paper 5: An adaptive method for Gaussian beam summation in shallow waveguides is presented. The algorithm yields better or at least as good accuracy as ray tracing, even in shallow waveguides with a strongly depth-dependent sound speed profile. / QC 20100819
6

Machine learning multicriteria optimization in radiation therapy treatment planning / Flermålsoptimering med maskininlärning inom strålterapiplanering

Zhang, Tianfang January 2019 (has links)
In radiation therapy treatment planning, recent works have used machine learning based on historically delivered plans to automate the process of producing clinically acceptable plans. Compared to traditional approaches such as repeated weighted-sum optimization or multicriteria optimization (MCO), automated planning methods have, in general, the benefits of low computational times and minimal user interaction, but on the other hand lack the flexibility associated with general-purpose frameworks such as MCO. Machine learning approaches can be especially sensitive to deviations in their dose prediction due to certain properties of the optimization functions usually used for dose mimicking and, moreover, suffer from the fact that there exists no general causality between prediction accuracy and optimized plan quality.In this thesis, we present a means of unifying ideas from machine learning planning methods with the well-established MCO framework. More precisely, given prior knowledge in the form of either a previously optimized plan or a set of historically delivered clinical plans, we are able to automatically generate Pareto optimal plans spanning a dose region corresponding to plans which are achievable as well as clinically acceptable. For the former case, this is achieved by introducing dose--volume constraints; for the latter case, this is achieved by fitting a weighted-data Gaussian mixture model on pre-defined dose statistics using the expectation--maximization algorithm, modifying it with exponential tilting and using specially developed optimization functions to take into account prediction uncertainties.Numerical results for conceptual demonstration are obtained for a prostate cancer case with treatment delivered by a volumetric-modulated arc therapy technique, where it is shown that the methods developed in the thesis are successful in automatically generating Pareto optimal plans of satisfactory quality and diversity, while excluding clinically irrelevant dose regions. For the case of using historical plans as prior knowledge, the computational times are significantly shorter than those typical of conventional MCO. / Inom strålterapiplanering har den senaste forskningen använt maskininlärning baserat på historiskt levererade planer för att automatisera den process i vilken kliniskt acceptabla planer produceras. Jämfört med traditionella angreppssätt, såsom upprepad optimering av en viktad målfunktion eller flermålsoptimering (MCO), har automatiska planeringsmetoder generellt sett fördelarna av lägre beräkningstider och minimal användarinteraktion, men saknar däremot flexibiliteten hos allmänna ramverk som exempelvis MCO. Maskininlärningsmetoder kan vara speciellt känsliga för avvikelser i dosprediktionssteget på grund av särskilda egenskaper hos de optimeringsfunktioner som vanligtvis används för att återskapa dosfördelningar, och lider dessutom av problemet att det inte finns något allmängiltigt orsakssamband mellan prediktionsnoggrannhet och kvalitet hos optimerad plan. I detta arbete presenterar vi ett sätt att förena idéer från maskininlärningsbaserade planeringsmetoder med det väletablerade MCO-ramverket. Mer precist kan vi, givet förkunskaper i form av antingen en tidigare optimerad plan eller en uppsättning av historiskt levererade kliniska planer, automatiskt generera Paretooptimala planer som täcker en dosregion motsvarande uppnåeliga såväl som kliniskt acceptabla planer. I det förra fallet görs detta genom att introducera dos--volym-bivillkor; i det senare fallet görs detta genom att anpassa en gaussisk blandningsmodell med viktade data med förväntning--maximering-algoritmen, modifiera den med exponentiell lutning och sedan använda speciellt utvecklade optimeringsfunktioner för att ta hänsyn till prediktionsosäkerheter.Numeriska resultat för konceptuell demonstration erhålls för ett fall av prostatacancer varvid behandlingen levererades med volymetriskt modulerad bågterapi, där det visas att metoderna utvecklade i detta arbete är framgångsrika i att automatiskt generera Paretooptimala planer med tillfredsställande kvalitet och variation medan kliniskt irrelevanta dosregioner utesluts. I fallet då historiska planer används som förkunskap är beräkningstiderna markant kortare än för konventionell MCO.
7

Machine Learning Based Intraday Calibration of End of Day Implied Volatility Surfaces / Maskininlärnings baserad intradagskalibrering av slutet av dagen implicita volatilitetsytor

Herron, Christopher, Zachrisson, André January 2020 (has links)
The implied volatility surface plays an important role for Front office and Risk Management functions at Nasdaq and other financial institutions which require mark-to-market of derivative books intraday in order to properly value their instruments and measure risk in trading activities. Based on the aforementioned business needs, being able to calibrate an end of day implied volatility surface based on new market information is a sought after trait. In this thesis a statistical learning approach is used to calibrate the implied volatility surface intraday. This is done by using OMXS30-2019 implied volatility surface data in combination with market information from close to at the money options and feeding it into 3 Machine Learning models. The models, including Feed Forward Neural Network, Recurrent Neural Network and Gaussian Process, were compared based on optimal input and data preprocessing steps. When comparing the best Machine Learning model to the benchmark the performance was similar, indicating that the calibration approach did not offer much improvement. However the calibrated models had a slightly lower spread and average error compared to the benchmark indicating that there is potential of using Machine Learning to calibrate the implied volatility surface. / Implicita volatilitetsytor är ett viktigt vektyg för front office- och riskhanteringsfunktioner hos Nasdaq och andra finansiella institut som behöver omvärdera deras portföljer bestående av derivat under dagen men också för att mäta risk i handeln. Baserat på ovannämnda affärsbehov är det eftertraktat att kunna kalibrera de implicita volatilitets ytorna som skapas i slutet av dagen nästkommande dag baserat på ny marknadsinformation. I denna uppsats används statistisk inlärning för att kalibrera dessa ytor. Detta görs genom att uttnytja historiska ytor från optioner i OMXS30 under 2019 i kombination med optioner nära at the money för att träna 3 Maskininlärnings modeller. Modellerna inkluderar Feed Forward Neural Network, Recurrent Neural Network och Gaussian Process som vidare jämfördes baserat på data som var bearbetat på olika sätt. Den bästa Maskinlärnings modellen jämfördes med ett basvärde som bestod av att använda föregående dags yta där resultatet inte innebar någon större förbättring. Samtidigt hade modellen en lägre spridning samt genomsnittligt fel i jämförelse med basvärdet som indikerar att det finns potential att använda Maskininlärning för att kalibrera dessa ytor.
8

Robust Non-Linear State Estimation for Underwater Acoustic Localization : Expanding on Gaussian Mixture Methods / Robust icke-linjär tillståndsuppskattning för akustisk lokalisering under vatten : Expanderande pa Gaussiska blandnings metoder

Antunes, Diogo January 2023 (has links)
Robust state estimation solutions must deal with faulty measurements, called outliers, and unknown data associations, which lead to multiple feasible hypotheses. Take, for instance, the scenario of tracking two indistinguishable targets based on position measurements, where each measurement could refer to either of the targets or even be a faulty reading. Common estimation methods model the state as having a unimodal distribution, so they are called unimodal methods. Likewise, multimodal methods model the state as a multimodal distribution. Difficult problems, such as autonomous underwater vehicle (AUV) navigation relying on acoustic localization, frequently involve recurring outliers. In these situations, the correct hypothesis only emerges as the most likely one when a substantial number of measurements are considered. Robust solutions for these problems need to consider multiple hypotheses simultaneously, which, in turn, calls for the representation of multimodal distributions. In this work, a novel approximate inference method is presented, called the Gaussian mixture sum-product algorithm (GM-SPA), as it implements the sum-product algorithm (SPA) for Gaussian mixtures. The GM-SPA can exactly represent under-constrained linear measurements and approximate important non-linear models, such as range measurements and 2D pose kinematics. The outlier robustness of the GM-SPA is tested and compared against the particle filter (PF) and multimodal incremental smoothing and mapping (MMiSAM), both of which are non-parametric methods. Robustness, accuracy, and run-time are improved in simulation tests. The test problems include 1D localization with unknown data association, 3D linear target tracking with correlated outliers, and 2D range-only pose estimation with Gaussian mixture noise. / Robusta lösningar för tillståndsuppskattning måste kunna hantera felaktiga mätningar, så kallade outliers, och okända dataassociationer, vilket leder till flera möjliga hypoteser. Ta till exempel scenariot att spåra två likadana mål baserat på positionsmätningar, där varje mätning kan tillhöra något av målen eller till och med vara en felaktig avläsning. Vanliga skattningsmetoder modellerar tillståndet som en unimodal fördelning, och kallas därför unimodala metoder. På samma sätt modellerar multimodala metoder tillståndet som en multimodal fördelning. Svåra problem, som navigering av autonoma undervattensfarkoster (AUV) med hjälp av akustisk lokalisering, involverar ofta upprepade outliers. I dessa situationer framstår den korrekta hypotesen som den mest sannolika först när ett stort antal mätningar beaktas. Robusta lösningar för dessa problem måste ta hänsyn till flera hypoteser samtidigt, vilket i sin tur kräver representation av multimodala fördelningar. I detta arbete presenteras en ny approximativ inferensmetod, kallad Gaussian mixture sum-product algorithm (GM-SPA), eftersom den implementerar sum-product algorithm (SPA) för gaussiska blandningar. GM-SPA kan representera underbegränsade linjära mätningar exakt och approximera viktiga icke-linjära modeller, till exempel avståndsmätningar eller 2D-posekinematik. GM-SPA:s robusthet mot outliers testas och jämförs med partikelfiltret (PF) och multimodal incremental smoothing and mapping (MM-iSAM), som båda är icke-parametriska metoder. Robusthet, noggrannhet och körtid förbättras i simuleringstester. Simulerade tester inkluderar 1D-lokalisering med okänd dataassociation, 3D linjär målföljning med korrelerade outliers och 2D-ställningsuppskattning av endast räckvidd med Gaussiskt blandningsljud. / Soluções robustas para estimação de estado devem lidar com medidas defeituosas, chamadas de outliers, e com associações de dados desconhecidas, que levam a múltiplas hipóteses possíveis. Considere-se, por exemplo, o cenário de rastreamento de dois alvos indistinguíveis com base em medidas de posição, em que cada medida pode-se referir a qualquer um dos alvos ou até mesmo ser uma leitura defeituosa. Métodos de estimação comuns modelam o estado como tendo uma distribuição unimodal, sendo assim chamados de métodos unimodais. Da mesma forma, métodos multimodais modelam o estado como uma distribuição multimodal. Problemas difíceis, como a navegação de veículos subaquáticos autónomos (AUVs) baseada em localização acústica, frequentemente envolvem outliers recorrentes. Nestas situações, a hipótese correta apenas surge como a mais provável quando um número substancial de medidas é considerado. Soluções robustas para estes problemas precisam de considerar múltiplas hipóteses simultaneamente, o que, por sua vez, exige a representação de distribuições multimodais. Neste trabalho, é apresentado um novo método de inferência aproximada, chamado Gaussian mixture sum-product algorithm (GM-SPA), pois implementa o sum-product algorithm (SPA) para misturas Gaussianas. O GM-SPA pode representar exatamente medidas lineares sub-determinadas e aproximar modelos não lineares importantes, como medidas de distância e cinemática de pose 2D. A robustez a outliers do GM-SPA é testada e comparada com o filtro de partículas (PF) e com multimodal incremental smoothing and mapping (MM- -iSAM), ambos métodos não-paramétricos. A robustez, a exatidão e o tempo de execução em testes de simulação são melhorados. Os problemas de teste incluem localização 1D com associação de dados desconhecida, rastreamento linear de alvos em 3D com outliers correlacionados e estimação de pose 2D com base em medidas de distância com ruído de mistura Gaussiana.
9

Incorporating Metadata Into the Active Learning Cycle for 2D Object Detection / Inkorporera metadata i aktiv inlärning för 2D objektdetektering

Stadler, Karsten January 2021 (has links)
In the past years, Deep Convolutional Neural Networks have proven to be very useful for 2D Object Detection in many applications. These types of networks require large amounts of labeled data, which can be increasingly costly for companies deploying these detectors in practice if the data quality is lacking. Pool-based Active Learning is an iterative process of collecting subsets of data to be labeled by a human annotator and used for training to optimize performance per labeled image. The detectors used in Active Learning cycles are conventionally pre-trained with a small subset, approximately 2% of available data labeled uniformly at random. This is something I challenged in this thesis by using image metadata. With the motivation of many Machine Learning models being a "jack of all trades, master of none", thus it is hard to train models such that they generalize to all of the data domain, it can be interesting to develop a detector for a certain target metadata domain. A simple Monte Carlo method, Rejection Sampling, can be implemented to sample according to a metadata target domain. This would require a target and proposal metadata distribution. The proposal metadata distribution would be a parametric model in the form of a Gaussian Mixture Model learned from the training metadata. The parametric model for the target distribution could be learned in a similar manner, however from a target dataset. In this way, only the training images with metadata most similar to the target metadata distribution can be sampled. This sampling approach was employed and tested with a 2D Object Detector: Faster-RCNN with ResNet-50 backbone. The Rejection Sampling approach was tested against conventional random uniform sampling and a classical Active Learning baseline: Min Entropy Sampling. The performance was measured and compared on two different target metadata distributions that were inferred from a specific target dataset. With a labeling budget of 2% for each cycle, the max Mean Average Precision at 0.5 Intersection Over Union for the target set each cycle was calculated. My proposed approach has a 40 % relative performance advantage over random uniform sampling for the first cycle, and 10% after 9 cycles. Overall, my approach only required 37 % of the labeled data to beat the next best-tested sampler: the conventional uniform random sampling. / De senaste åren har Djupa Neurala Faltningsnätverk visat sig vara mycket användbara för 2D Objektdetektering i många applikationer. De här typen av nätverk behöver stora mängder av etiketterat data, något som kan innebära ökad kostnad för företag som distribuerar dem, om kvaliteten på etiketterna är bristfällig. Pool-baserad Aktiv Inlärning är en iterativ process som innebär insamling av delmängder data som ska etiketteras av en människa och användas för träning, för att optimera prestanda per etiketterat data. Detektorerna som används i Aktiv Inlärning är konventionellt sätt förtränade med en mindre delmängd data, ungefär 2% av all tillgänglig data, etiketterat enligt slumpen. Det här är något jag utmanade i det här arbetet genom att använda bild metadata. Med motiveringen att många Maskininlärningsmodeller presterar sämre på större datadomäner, eftersom det kan vara svårt att lära detektorer stora datadomäner, kan det vara intressant att utveckla en detektor för ett särskild metadata mål-domän. För att samla in data enligt en metadata måldomän, kan en enkel Monte Carlo metod, Rejection Sampling implementeras. Det skulle behövas en mål-metadata-distribution och en faktisk metadata distribution. den faktiska metadata distributionen skulle vara en parametrisk modell i formen av en Gaussisk blandningsmodell som är tränad på träningsdata. Den parametriska modellen för mål-metadata-distributionen skulle kunna vara tränad på liknande sätt, fast ifrån mål-datasetet. På detta sätt, skulle endast träningsbilder med metadata mest lik mål-datadistributionen kunna samlas in. Den här samplings-metoden utvecklades och testades med en 2D objektdetektor: Faster R-CNN med ResNet-50 bildegenskapextraktor. Rejection sampling metoden blev testad mot konventionell likformig slumpmässig sampling av data och en klassisk Aktiv Inlärnings metod: Minimum Entropi sampling. Prestandan mättes och jämfördes mellan två olika mål-metadatadistributioner som var framtagna från specifika mål-metadataset. Med en etiketteringsbudget på 2%för varje cykel, så beräknades medelvärdesprecisionen om 0.5 snitt över union för mål-datasetet. Min metod har 40%bättre prestanda än slumpmässig likformig insamling i första cykeln, och 10 % efter 9 cykler. Överlag behövde min metod endast 37 % av den etiketterade data för att slå den näst basta samplingsmetoden: slumpmässig likformig insamling.
10

Speaker Diarization System for Call-center data

Li, Yi January 2020 (has links)
To answer the question who spoke when, speaker diarization (SD) is a critical step for many speech applications in practice. The task of our project is building a MFCC-vector based speaker diarization system on top of a speaker verification system (SV), which is an existing Call-centers application to check the customer’s identity from a phone call. Our speaker diarization system uses 13-Dimensional MFCCs as Features, performs Voice Active Detection (VAD), segmentation, Linear Clustering and the Hierarchical Clustering based on GMM and the BIC score. By applying it, we decrease the Equal Error Rate (EER) of the SV from 18.1% in the baseline experiment to 3.26% on the general call-center conversations. To better analyze and evaluate the system, we also simulated a set of call-center data based on the public audio databases ICSI corpus. / För att svara på frågan vem som talade när är högtalardarisering (SD) ett kritiskt steg för många talapplikationer i praktiken. Uppdraget med vårt projekt är att bygga ett MFCC-vektorbaserat högtalar-diariseringssystem ovanpå ett högtalarverifieringssystem (SV), som är ett befintligt Call-center-program för att kontrollera kundens identitet från ett telefonsamtal. Vårt högtalarsystem använder 13-dimensionella MFCC: er som funktioner, utför Voice Active Detection (VAD), segmentering, linjär gruppering och hierarkisk gruppering baserat på GMM och BIC-poäng. Genom att tillämpa den minskar vi EER (Equal Error Rate) från 18,1 % i baslinjeexperimentet till 3,26 % för de allmänna samtalscentret. För att bättre analysera och utvärdera systemet simulerade vi också en uppsättning callcenter-data baserat på de offentliga ljuddatabaserna ICSI corpus.

Page generated in 0.0398 seconds