• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • Tagged with
  • 11
  • 9
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Automatisk identifiering av branter för orienteringskartor

Sundlöf, Martin, Persson, Hans January 2011 (has links)
Orientering är en sport som går ut på att besöka ett antal förutbestämda kontrollpunkter med hjälp av en karta. Orienteringskartan redovisar olika objekt som finns i verkligheten så som stenar, gropar, höjder och branter. Att tillverka en orienteringskarta är dyrt och tidskrävande. Omkring 120 000–150 000 kr och mellan 20–30 h/km2 fältarbete läggs ner på varje karta som skapas. Eftersom orienteringskartorna framställs av ideella föreningar är alla sätt som gör kartframställningen billigare välkomna.   I detta examensarbete har en funktion skapats i ett befintligt program vid namn OL Laser. Funktionens syfte är att automatiskt identifiera branter i laserdata för användning som grundmaterial vid framställning av orienteringskartor. För att räknas som en orienteringsbrant krävs det att tre stycken kriterier uppfylls, nämligen minst 1 m höjdskillnad, minst 1 m utbredning och en lutning större än 85°. Dessa kriterier bestämdes genom att komplettera de befintliga avgränsningarna som anges i Internationella Orienteringsförbundets regleringar för orienteringskartor med egna mätningar i tre stycken olika referensområden kring Gävle. Därefter programmerades funktionen så att genom att klicka på en knapp startas en sökning i ett höjdraster. Steg för steg söks höjdrastret igenom efter pixlar som uppfyller de givna parametrarna för höjdskillnad, utbredning och lutning. Värdet på parametrarna för lutning, höjdskillnad och utbredning bestämdes genom att kalibrera funktionen mot referensområdena. Kalibrering gjordes för att det skulle vara möjligt att automatiskt identifiera branter. De inställningar på parametrarna som användes i funktionen efter kalibrering var 42,5° lutning, 0,6 m höjdskillnad och en utbredning över minst två sammanhängande pixlar. Resultatet utgörs av de pixlar som funktionen identifierar som en brant.   Resultatet visar att funktionen klarar av att hitta branter automatiskt, även i områden som den inte kalibrerats mot. För att använda branterna till en orienteringskarta krävs det att en kartritare verifierar resultat av funktionen ute i fält. Med hjälp av funktionen sparas både tid och pengar i framställningen av orienteringskartor. / Orienteering is a sport where the purpose is to visit a number of predefined control points using a map. The orienteering map shows various objects such as rocks, pits, knolls and cliffs. It is expensive and time consuming to produce an orienteering map. Approximately 120.000-150.000 SEK and 20–30 h/km2 field work is invested in every map produced. Considering orienteering maps are financed by non-profit orienteering organizations every time and money saving process is welcome.   In this degree project a function has been created in a software called OL Laser. The aim of the function is to automatically identify cliffs in laser data for the usage as base maps in the production of orienteering maps. First the definition for cliffs in orienteering was defined. To be classified as a cliff three requirements had to be fulfilled, namely at least 1 m in height difference, at least 1 meter wide and a gradient greater than 85°. These requirements were determined by supplementing the existing restrictions specified in the regulations for orienteering maps with own measurements in three different reference areas around Gävle. The function was programmed so that a search in a height raster was started. Step by step the raster was scanned for pixels that meet the given parameters of the height difference, the width and gradient. The values of the parameters were determined by calibrating the function in the reference areas. The calibration was made to make it possible to automatically identify cliffs. The settings of the parameters used in the function after the calibration were 42.5° gradient, 0.6 m height difference and a propagation of at least two consecutive pixels. The pixels that the function identified as a cliff is the result.   The result shows that the function is able to automatically find the cliffs, even in areas which it is not calibrated against. To be able to use the cliffs on an orienteering map, the cartographer has to verify the result of the function in the field. Both time and money is saved by using the function when producing orienteering maps.
2

Digital Twin Sterilizer

Jacobsson, Sebastian, Johnsson, Marcus January 2024 (has links)
An autoclave is an advanced machine that sterilizes objects using high-pressure and high heat, with water steam as the medium. Autoclaves are frequently found in hospitals and other places where sterility is required. This project aims to meet the company's need to create a digital twin (DT) of an autoclave. The purpose is to test the control unit that controls the physical autoclave by exposing the DT to the same program as a real autoclave. A DT is a virtual model of a physical system, and in this project, it represented the autoclave and its sensors. The model was programmed in a graphical programming language NI LabView, with the same input and output signals as a real autoclave. The model was based on data-driven logic rather than physical based logic. From a real autoclave run where signals were recorded every second, conclusions could be drawn about how much each unique analog signal changed in combination with other signals through interpolation. The interpolation of the analog signals was used to capture the characteristics of these signals.  For validation, the DT was loaded into a Hardware In the Loop (HIL) system that simulates the autoclave with the DT but retains the control unit from the autoclave, which is the unit the company wants to test. The developed DT was tested against three goals describing how closely the values should align over an accumulated time. The results were compared each second between the real run and the DT run. The data-driven DT model met one of the three goals set, however, the DT model's characteristics resembled those of the real run, making the model useful as the control system does not interrupt the simulation for disallowed or deviant values. / En autoklav är en avancerad maskin som rengör objekt till en steril nivå med ett högt tryck och hög temperatur, där vattenånga används som medium. Autoklaven har ett vanligt förekommande på sjukhus och andra platser där sterilitet är ett krav. Det här projektet går ut på att möta företagets behov av att skapa en digital tvilling (DT) av en autoklav. Syftet är att testa kontrollenheten som styr den fysiska autoklaven genom att en DT ska utsättas för samma programkörning som en verklig autoklav. En DT är en virtuell modell av ett fysiskt system och i detta projekt var autoklaven och sensorerna i maskinen en DT. Modellen programmerades i ett grafiskt programmeringsspråk, NI LabVIEW med samma in- och utsignaler som en verklig autoklav. Modellen utgår ifrån en datadriven metod och inte en fysikalisk formulerad logik. Datan samlades in från en körning av en verklig autoklav, där signalerna sparades varje sekund. Slutsatser för hur mycket varje unik analog signal förändrades i kombination med övriga signaler kunde dras med hjälp av interpolering. Interpoleringen av de analoga signalera kunde användas för att fånga deras karakteristik.  För validering integrerades DT i ett Hardware In the Loop (HIL) system som hjälper till att simulera autoklaven. HIL-systemet har kontrollenheten kvar från autoklaven som är den enhet företaget vill utföra tester på. Den framtagna DT testades mot tre mål som beskriver hur nära värdena skall ligga under en ackumulerad tid. Resultatet jämfördes för varje sekund mellan den verkliga och DT körningen. Den datadrivna DT modellen uppfyllde 1 av 3 mål som ställdes, men DT modellens karakteristik efterliknade den från verkliga körningen vilket gör modellen användbar då kontrollsystemet inte avbryter simuleringen för ej tillåtna eller avvikande värden.
3

Data interpolation for groundwater modelling : How choice of interpolation method and sample size affect the modelling results

Agerberg, Frida January 2020 (has links)
Over the past several decades, the use of groundwater modelling has been increasing in order to better evaluate the complexities inherent in hydrogeological calculations. Information required for groundwater modelling is for example elevation of soil and bedrock layers, which often is collected by drilling. This is both time consuming and expensive, making it impossible to collect an unlimited number of data points. It is not uncommon that smaller hydrogeological investigations are based on only three or four sample points. To approximate values of unknown points in the study area, the known values of the measured data is interpolated. The interpolation can be done with different methods, and the estimations of the elevation of geological layers at the unknown points might vary with different methods. How the uncertainty of the interpolations then affects the modelling results is generally unknown when simulating groundwater flow. The aim of the thesis work is to investigate how hydrogeological results from groundwater models are affected by choice of interpolation method and by sample size of which the interpolation is based on. The hydrogeological models were simulated within the framework of a Swedish railway project where an unusually large number of probing data was available. The study focuses on two-dimensional, steady-state groundwater flow modelled in the software SEEP/W. Consequently, the objective of the modelling work was to simulate groundwater flow where the difference between the models was how the geometry of the geological layers was defined. The definition of the geometry was done with interpolations of the probing data with different interpolation methods and with interpolation based on different sample sizes. Twelve different interpolation methods in the software Surfer was used to interpolate the total of 357 data points. The interpolations that were estimated to be reliable were then used in the groundwater modelling. Groundwater models were also simulated based on a reduced amount of data in order to investigate the importance of sample size. The total amount of data points was reduced to 50%, 25%, 5% and 1% of the initial sample size before it was interpolated and then used to define the geometry in the groundwater models. The study showed that although the choice of interpolation method and sample size affected the results of the modelled groundwater flow rate, none of the deviations between the model results were larger than what would be considered as acceptable in a hydrogeological context. The models based on at least 90 data points showed good precision while the precision of modelled groundwater flow decreased when sample size decreased. Thus, when interpolating data for groundwater modelling, the sample size should be determined by the required precision of the study. For the modelling of the 1% data, only one of the six models was possible to simulate. This since at least three data points are required for each geological layer in order to perform interpolations, and this was only obtained in one of six randomly selected data sets. The study indicates that around 10-20 sample points is a minimum for a study area with similar conditions as the reference project in order to have a high probability of obtaining enough data of all geological layers of interest. Finally, the study indicates that there are other parameters in groundwater modelling, for example hydraulic conductivity and boundary conditions, that might have an equal of higher impact on the model results. These parameters should therefore also be determined with a high precision in order to gain accurate modelling results. / Under de senaste årtiondena har användandet av grundvattenmodeller ökat för att bättre kunna hantera komplexitet inom hydrogeologiska beräkningar. För att kunna skapa en grundvattenmodell krävs exempelvis data över hur lager av jord och berg är beläget. Dessa geologiska data samlas vanligen i borrpunkter, vilket är både tidskrävande och dyrt. Detta gör det omöjligt att erhålla ett obegränsat antal mätpunkter och det är vanligt att mindre hydrogeologiska undersökningar endast utgår ifrån tre till fyra mätpunkter. Utifrån det begränsade antalet mätpunkter interpoleras kända nivåer av jord- och berglager för att approximera nivåer i okända punkter. Interpolering görs med hjälp av olika matematiska metoder och resultatet av dessa kan variera mellan olika metoder. Hur osäkerheter i interpolering sedan påverkar resultat från grundvattenmodellering är vanligtvis okänt. Syftet med examensarbetet är att undersöka hur hydrogeologiska resultat från grundvattenmodeller påverkas av val av interpolerings metod samt av antal mätpunkter som interpoleringen är baserad på. Grundvattenmodellerna skapades inom ramen av ett svenskt järnvägsprojekt där ovanligt stora mängder sonderingsdata fanns tillgängligt. Undersökningen fokuserar på steady-state grundvattenflöden i två dimensioner, modellerat i programmet SEEP/W. Undersökningen utgick därmed från sonderingsdata i referensprojektet för att skapa ett antal grundvattenmodeller, där skillnaden mellan dessa var hur nivån av de geologiska lagren definierades. Detta gjordes med hjälp av olika interpoleringsmetoder och med interpolering baserad på olika mängder data punkter. Tolv olika interpoleringsmetoder i programmet Surfer användes för att interpolera de totalt 357 data punkterna. De interpoleringar som kunde antas vara rimliga användes sedan för att definiera geometrin i olika grundvattenmodeller. Grundvattenmodeller skapades även utifrån en reducerad mängd data för att undersöka betydelsen av antal mätpunkter vid interpolering. Antal mätpunkter reducerades till 50%, 25%, 5% och 1% och interpolering av dessa användes sedan för att definiera geometrin i olika grundvattenmodeller. Studien visade att även om modeller baserade på olika interpoleringsmetoder och interpolering av olika antal mätpunkter genererade något olika resultat med avseende på modellerat grundvattenflöde, så var inget av resultaten mer avvikande än vad som i ett hydrogeologiskt sammanhang skulle klassas som acceptabelt. Vidare visade resultaten att modeller baserade på 90 data punkter eller mer hade en bra precision av modellerat grundvattenflöde samt att minskat antal mätpunkter ledde till minskad precision. Antal mätpunkter i en undersökning bör därmed väljas utifrån hur bra precision som bör uppnås. Dock kan ett lägre antal mätpunkter försvaras om erhållen precision vägs mot hur resurskrävande insamling av data är. Modelleringen av 1% data visade att endast en av de sex modellerna gick att skapa. Detta var på grund av att minst tre datapunkter för varje geologiskt lager krävdes för att interpolera data och detta uppnåddes alltså bara i en av de slumpade data seten. För att ha en hög sannolikhet att erhålla tillräckligt med data för varje jord- eller berglager av intresse indikerar denna studien på att 10 till 20 mätpunkter är tillräckligt i en undersökning med liknande förutsättningar som i referensprojektet. Slutligen så indikerar studien på att det finns andra parametrar, exempelvis hydraulisk konduktivitet och randvillkor, som kan ha liknande eller större inverkan på modellerat grundvattenflöde och för att få noggranna resultat bör även dessa parametrar bestämmas med hög precision.
4

Avgränsning av tillrinningsområden till grundvattenmagasin - vilken information ger berggrundens överyta?

Bovin, Kajsa January 2011 (has links)
Delineation of recharge areas for aquifers is performed in the groundwater mapping process at the Swedish geological survey, SGU. This work is time consuming and performed manually. It is therefore desirable to develop a more general and repeatable method for defining recharge areas for aquifers. The purpose of this study was to investigate two other possible methods to delineate recharge areas for aquifers. The first method was to examine the possibility of using the topography of the bedrock to define the recharge areas for aquifers. To enable this, a method for generating the topography of the bedrock was developed. The recharge area could then be defined by using the Arc Hydro Tools in ArcMap. The second method was to examine whether topographic water divides delimited from the ground surface topography could be used to delineate recharge areas for aquifers. For this purpose, topographic water divides from Svenskt Vatten ARkiv (SVAR) were used. The results show that it is possible to generate the topography of the bedrock by using information about the soil depth from the databases at SGU for small areas with a lot of data. In order to do the same over a larger area, for example the whole of Sweden, more data and perhaps other methods are needed. The topography of the bedrock gives a lot of new information in areas where the topography of the groundwater surface does not follow the topography of the ground surface, for example where deep soils with high hydraulic conductivity occur. In the outer part of the recharge areas thin layers of soil and outcrops often occur. This means that the topography of the bedrock is very similar to the topography of the ground surface and therefore does not give much new information. Recharge areas delineated from the bedrock topography are very large. This method is not complex enough to calculate the delineation of recharge areas using only the bedrock topography as an input. However, the bedrock topography can be used together with other information, especially the topography of the groundwater surface but also information about soil types and bedrock. The bedrock topography can also serve as background information in the work with delimiting recharge areas as it is done today. It is further shown that the topographic sub-catchments from SVAR are not suitable for defining recharge areas for aquifers. This is partly because the areas of the sub-catchments are entirely dependent on which point they are defined from and these points are chosen arbitrarily along the streams, and partly because the drainage direction of the sub-catchments is difficult to take into account when using this method. / Arbetet med att avgränsa grundvattenmagasin och deras tillrinningsområden sker idag inom grundvattenkarteringen på Sveriges geologiska undersökning, SGU. Detta arbete är tidskrävande och utförs manuellt. Det finns därför en önskan om att utveckla ett mer generellt och repeterbart arbetssätt för att avgränsa tillrinningsområden till grundvattenmagasin. Syftet med detta examensarbete var att undersöka två andra tänkbara metoder för framtagande av grundvattenmagasins tillrinningsområden. Den första metoden innebar att undersöka möjligheterna att avgränsa ett magasins tillrinningsområde utifrån berggrundens topografi. För att möjliggöra detta utvecklades en metod för framtagande av berggrundens topografi. Därefter har tillrinningsområden till grundvattenmagasin avgränsats med hjälp av programmet ArcMap och verktyget Arc Hydro Tools. Den andra metoden innebar att undersöka huruvida topografiska vattendelare avgränsade utifrån markytans topografi kan användas för att avgränsa tillrinningsområden till grundvattenmagasin. För detta ändamål har topografiska vattendelare från Svenskt Vatten ARkiv (SVAR) använts. Resultaten visar att det går att interpolera fram berggrundens topografi utifrån den jorddjupsinformation som finns lagrad i SGUs databaser inom små områden med täta jorddjupsdata. För att göra detsamma över ett större område, kanske till och med hela Sverige, krävs mer data och eventuellt också en annan typ av metod. Berggrundens överyta ger mest ny information i områden där grundvattenytan inte följer markytans topografi, som i mäktiga jordlager med hög hydraulisk konduktivitet. I tillrinningsområdens yttre gräns förekommer ofta hällar och tunna jordlager. Berggrundens topografi följer då markytans topografi till stor utsträckning och ger därmed inte mycket ny information. Tillrinningsområden avgränsade utifrån berggrundens topografi blir till ytan mycket stora. De förenklingar av verkligheten som metoden kräver bedöms vara för omfattande för att metoden ska kunna användas för avgränsning av tillrinningsområden med endast berggrundens topografi som underlag. Däremot kan berggrundens topografi användas i kombination med annan information, främst grundvattenytans topografi men även information om jordarter och bergarter. Berggrundens överyta kan också vara till hjälp i arbetet med att avgränsa tillrinningsområden såsom det utförs på SGU idag genom att fungera som bakgrundsinformation. Vidare visas att topografiska delavrinningsområden från SVAR inte lämpar sig för att avgränsa tillrinningsområden till grundvattenmagasinet. Detta dels på grund av att delavrinningsområdenas utbredning är helt beroende av från vilken punkt de avgränsats och dessa punkter väljs godtyckligt längs vattendragen, dels på grund av att områdenas dräneringsriktning är svår att ta hänsyn till i metoden.
5

Data-driven Interpolation Methods Applied to Antenna System Responses : Implementation of and Benchmarking / Datadrivna interpolationsmetoder applicerade på systemsvar från antenner : Implementering av och prestandajämförelse

Åkerstedt, Lucas January 2023 (has links)
With the advances in the telecommunications industry, there is a need to solve the in-band full-duplex (IBFD) problem for antenna systems. One premise for solving the IBFD problem is to have strong isolation between transmitter and receiver antennas in an antenna system. To increase isolation, antenna engineers are dependent on simulation software to calculate the isolation between the antennas, i.e., the mutual coupling. Full-wave simulations that accurately calculate the mutual coupling between antennas are timeconsuming, and there is a need to reduce the required time. In this thesis, we investigate how implemented data-driven interpolation methods can be used to reduce the simulation times when applied to frequency domain solvers. Here, we benchmark the four different interpolation methods vector fitting, the Loewner framework, Cauchy interpolation, and a modified version of Nevanlinna-Pick interpolation. These four interpolation methods are benchmarked on seven different antenna frequency responses, to investigate their performance in terms of how many interpolation points they require to reach a certain root mean squared error (RMSE) tolerance. We also benchmark different frequency sampling algorithms together with the interpolation methods. Here, we have predetermined frequency sampling algorithms such as linear frequency sampling distribution, and Chebyshevbased frequency sampling distributions. We also benchmark two kinds of adaptive frequency sampling algorithms. The first type is compatible with all of the four interpolation methods, and it selects the next frequency sample by analyzing the dynamics of the previously generated interpolant. The second adaptive frequency sampling algorithm is solely for the modified NevanlinnaPick interpolation method, and it is based on the free parameter in NevanlinnaPick interpolation. From the benchmark results, two interpolation methods successfully decrease the RMSE as a function of the number of interpolation points used, namely, vector fitting and the Loewner framework. Here, the Loewner framework performs slightly better than vector fitting. The benchmark results also show that vector fitting is less dependent on which frequency sampling algorithm is used, while the Loewner framework is more dependent on the frequency sampling algorithm. For the Loewner framework, Chebyshev-based frequency sampling distributions proved to yield the best performance. / Med de snabba utvecklingarna i telekomindustrin så har det uppstått ett behov av att lösa det så kallad i-band full-duplex (IBFD) problemet. En premiss för att lösa IBFD-problemet är att framgångsrikt isolera transmissionsantennen från mottagarantennen inom ett antennsystem. För att öka isolationen mellan antennerna måste antenningenjörer använda sig av simulationsmjukvara för att beräkna isoleringen (den ömsesidiga kopplingen mellan antennerna). Full-wave-simuleringar som noggrant beräknar den ömsesidga kopplingen är tidskrävande. Det finns därför ett behov av att minska simulationstiderna. I denna avhandling kommer vi att undersöka hur våra implementerade och datadrivna interpoleringsmetoder kan vara till hjälp för att minska de tidskrävande simuleringstiderna, när de används på frekvensdomänslösare. Här prestandajämför vi de fyra interpoleringsmetoderna vector fitting, Loewner ramverket, Cauchy interpolering, och modifierad Nevanlinna-Pick interpolering. Dessa fyra interpoleringsmetoder är prestandajämförda på sju olika antennsystemsvar, med avseende på hur många interpoleringspunkter de behöver för att nå en viss root mean squared error (RMSE)-tolerans. Vi prestandajämför också olika frekvenssamplingsalgoritmer tillsammas med interpoleringsmetoderna. Här använder vi oss av förbestämda frekvenssamplingsdistributioner så som linjär samplingsdistribution och Chebyshevbaserade samplingsdistributioner. Vi använder oss också av två olika sorters adaptiv frekvenssamplingsalgoritmer. Den första sortens adaptiv frekvenssamplingsalgoritm är kompatibel med alla de fyra interpoleringsmetoderna, och den väljer nästa frekvenspunkt genom att analysera den föregående interpolantens dynamik. Den andra adaptiva frekvenssamplingsalgoritmen är enbart till den modifierade Nevanlinna-Pick interpoleringsalgoritmen, och den baserar sitt val av nästa frekvenspunkt genom att använda sig av den fria parametern i Nevanlinna-Pick interpolering. Från resultaten av prestandajämförelsen ser vi att två interpoleringsmetoder framgångsrikt lyckas minska medelvärdetsfelet som en funktion av antalet interpoleringspunkter som används. Dessa två metoder är vector fitting och Loewner ramverket. Här så presterar Loewner ramverket aningen bättre än vad vector fitting gör. Prestandajämförelsen visar också att vector fitting inte är lika beroende av vilken frekvenssamplingsalgoritm som används, medan Loewner ramverket är mer beroende på vilken frekvenssamplingsalgoritm som används. För Loewner ramverket så visade det sig att Chebyshev-baserade frekvenssamplingsalgoritmer presterade bättre.
6

FÖRFLYTTNINGSEGENSKAPER ISTILISERADE RÖRELSER : En studie om generaliserbaraanimationskurvor

Nilsson, Jonathan January 2018 (has links)
No description available.
7

The Speed of Clouds : Utilizing Adaptive Sampling to Optimize a Real-Time Volumetric Cloud Renderer / Hastigheten av moln : Användning av adaptiv sampling för att optimera en realtidsrendering av volymetriska moln

Hydén, Emrik January 2023 (has links)
Volumetric clouds are often used in video games in order to improve the realism or graphical quality of the game. However, in order to achieve real-time rendered clouds, optimizations have to be implemented as part of the rendering algorithm. These kinds of optimizations improve the performance, but can also have a negative impact on the visual quality of the clouds. This thesis investigates the use of bilinear interpolation for the purpose of improving the performance of a volumetric cloud renderer, while trying to avoid any substantial reduction in visual quality. This is extended by looking at the effect of adaptively sampling the pixel colors. The renderer itself is created in Unity3D using a ray marching algorithm. As part of the literature study, this research also explores different ways of measuring visual quality within real-time rendering. As a result of this, the thesis uses the Structural Similarity Index Measure to measure the visual quality. The research found that utilizing bilinear interpolation to ray march every eighth pixel results in a performance gain of 45%. However, it also reduces the visual quality of the volumetric clouds. This is counteracted by using adaptive sampling to interpolate only where the standard deviation of pixel colors is below a threshold. We cannot, however, determine the optimal value of this parameter, since it depends on the requirements of the renderer. Instead, it has to be determined on a case-by-case basis. / Volymetriska moln används i spel för att uppnå realism och förbättra den grafiska kvaliteten. Men för att uppnå realtidsrendering så måste optimeringar göras. Dessa typer av optimeringar förbättrar prestandan av programmet, men kan också försämra den visuella kvalteten. Den här studien undersöker hur en optimering baserad på bilinjär interpolering kan användas för att förbättra prestandan av volymetriska moln, utan att försämra den visuella kvaliteten i någon större utsträckning. Studien tittar även på hur adaptiv sampling av pixlarna påverkar optimeringen. För att utföra detta renderas molnen i Unity3D med hjälp av en ray marching-algoritm. Som del av litteraturstudien utforskas även olika sätt att evaluera visuell kvalitet inom realtidsrendering. Utifrån denna använder studien måttet Structural Similarity Index Measure för att mäta visuell kvalitet. Studien fann att den bilinjära interpoleringen resulterade i att prestandan ökade med 45% när endast var åttonde pixel är beräknad med ray marching, och resten interpoleras. Dock reduceras även den visuella kvaliteten av molnen. Detta kan motverkas med hjälp av adaptiv sampling. Då interpoleras endast pixlar där standardavvikelsen av de kringliggande pixlarna är under ett fördefinierat värde. Vi kan däremot inte definiera ett universiellt optimalt värde på detta värde. Det beror på att det optimala värdet beror på kraven vi har på programmet. Dessa kan variera från program till program. Därför måste detta bestämmas individuellt för varje program.
8

Sub-frame synchronisation and motion interpolation for panoramic video stitching / Synkronisering och Interpolering av Videodata för Panoramagenerering

Remì, Chierchia January 2022 (has links)
This study was carried out in collaboration with Tracab, a brand leader in real-time digital sports data. As a result, the application field is centred on sports analytics. The technology, for instance, consists of multiple cameras that capture a football pitch in a panoramic setup. The alignment of two or more cameras in both a spatial and temporal manner is referred to as sub-frame synchronisation. Because the cameras are already in the same geometric coordinates, only temporal synchronisation will be addressed in this project. The main method for retrieving the desynchronisation information that affects the cameras is based on optical flow. The off-sync cameras' spacial information is then synthesised to the time required by the synchronisation constraint using motion interpolation. In addition, the created system is compared to a real-time intermediate flow interpolation approach. The latter method relies on machine learning techniques, whereas this study focuses on more traditional methods. The metrics Peak Signal-to-Noise Ratio and Structural Similarity Index Measure are used to address the quality criteria required by this subject of study. Furthermore, visually perceived quality is examined to identify differences between measured and perceived quality. The results reveal that in every realistic situation investigated, temporal synchronisation can be addressed by an error measure of less than 1ms. The frame synthesis stage, on the other hand, fails to accurately estimate complicated scenarios, while the machine learning approach stands out. The implemented approach, on the other hand, addresses fast-moving objects with greater precision. Furthermore, the machine learning approach is unable to interpolate intermediate frames in arbitrary time steps, which is critical for the project's application. Finally, considering the lack of real-time computational speed and the quality achieved by machine learning approaches, more research is required in these directions. / Denna studie genomfördes i samarbete med Tracab, en marknadsledare inom digital sportdata levererad i realtid. Studiens applikationsområde kommer där av centreras kring sportdata där två eller flera kameror filmar en fotbollsplan i ett videopanorama. Kamerasynkroniseringen måste ske både spatialt och temporalt. Eftersom kamerorna har samma position kommer endast den temporala synkronisering tas upp i detta projekt. Den övergripande metoden för att göra detta är baserat på optiskt flöde. Data från en ej synkroniserad kamera syntetiseras via en synkroniseringkonstant mha. rörelseinterpolering. Detta jämförs även mot ett tillvägagångssätt som bygger på maskininlärning medan man i denna studie fokuserar på en mer traditionell lösningsmetod. Mätvärdena Peak Signal-to-Noise Ratio och Structural Similarity Index Measure används som kvalitetskriteria. Även visuellt upplevd kvalitet undersöks för att identifiera skillnaden mellan mätt och upplevd kvalitet. Resultatet visar att vid realistiska situationer kan den temporala synkroniseringen beräknas till under 1ms. Den syntetiserade datan lyckas dock inte estimera komplicerade situationer, medan maskininlärningsmetoden presterar bra. Dock så klarar studiens lösningsmetod att bättre generera objekt i snabb rörelse. Vidare så kan inte maskininlärningsmetoden generera video med en godtycklig tidförskjutning, något som är avgörande för projektets tillämpningsområde. Slutligen, med tanke på svårigheter i realtidsberäkning kontra kvaliteten hos maskin- inlärningsmetoder krävs därför mer forskning inom området.
9

Preprocesserings påverkan på prediktiva modeller : En experimentell analys av tidsserier från fjärrvärme / Impact of preprocessing on predictive models : An experimental analysis of time series from district heating

Andersson, Linda, Laurila, Alex, Lindström, Johannes January 2021 (has links)
Värme står för det största energibehovet inom hushåll och andra byggnader i samhället och olika tekniker används för att kunna reducera mängden energi som går åt för att spara på både miljö och pengar. Ett angreppssätt på detta problem är genom informatiken, där maskininlärning kan användas för att analysera och förutspå värmebehovet. I denna studie används maskininlärning för att prognostisera framtida energiförbrukning för fjärrvärme utifrån historisk fjärrvärmedata från ett fjärrvärmebolag tillsammans med exogena variabler i form av väderdata från Sveriges meteorologiska och hydrologiska institut. Studien är skriven på svenska och utforskar effekter av preprocessering hos prediktionsmodeller som använder tidsseriedata för att prognostisera framtida datapunkter. Stegen som utförs i studien är normalisering, interpolering, hantering av numeric outliers och missing values, datetime feature engineering, säsongsmässighet, feature selection, samt korsvalidering. Maskininlärningsmodellen som används i studien är Multilayer Perceptron som är en subkategori av artificiellt neuralt nätverk. Forskningsfrågan som besvaras fokuserar på effekter av preprocessering och feature selection för prediktiva modellers prestanda inom olika datamängder och kombinationer av preprocesseringsmetoder. Modellerna delades upp i tre olika datamängder utifrån datumintervall: 2009, 2007–2011, samt 2007–2017, där de olika kombinationerna utgörs av preprocesseringssteg som kombineras inom en iterativ process. Procentuella ökningar på R2-värden för dessa olika intervall har uppnått 47,45% för ett år, 9,97% för fem år och 32,44% för 11 år. I stora drag bekräftar och förstärker resultatet befintlig teori som menar på att preprocessering kan förbättra prediktionsmodeller. Ett antal mindre observationer kring enskilda preprocesseringsmetoders effekter har identifierats och diskuterats i studien, såsom DateTime Feature Engineerings negativa effekter på modeller som tränats med ett mindre antal iterationer. / Heat accounts for the greatest energy needs in households and other buildings in society. Effective production and distribution of heat energy require techniques for minimising economic and environmental costs. One approach to this problem is through informatics where machine learning is used to analyze and predict the heating needs with the help of historical data from a district heating company and exogenous variables in the form of weather data from Sweden's Meteorological and Hydrological Institute (SMHI). This study is written in Swedish and explores the importance of preprocessing practices before training and using prediction models which utilizes time-series data to predict future energy consumption. The preprocessing steps explored in this study consists of normalization, interpolation, identification and management of numerical outliers and missing values, datetime feature engineering, seasonality, feature selection and cross-validation. The machine learning model used in this study is Multilayer Perceptron which is a subcategory of artificial neural network. The research question focuses on the effects of preprocessing and feature selection for predictive model performance within different datasets and combinations of preprocessing methods. The models were divided into three different data sets based on date ranges: 2009, 2007–2011, and 2007–2017, where the different combinations consist of preprocessing steps that are combined within an iterative process. Percentage increases in R2 values for these different ranges have reached 47,45% for one year, 9,97% for five years and 32,44% for 11 years. The results broadly confirm and reinforce the existing theory that preprocessing can improve prediction models. A few minor observations about the effects of individual preprocessing methods have been identified and discussed in the study, such as DateTime Feature Engineering having a detrimental effect on models with very few training iterations.
10

Zero Coupon Yield Curve Construction Methods in the European Markets / Metoder för att konstruera nollkupongkurvor på de europeiska marknaderna

Möller, Andreas January 2022 (has links)
In this study, four frequently used yield curve construction methods are evaulated on a set of metrics with the aim of determining which method is the most suitable for estimating yield curves from European zero rates. The included curve construction methods are Nelson-Siegel, Nelson-Siegel-Svensson, cubic spline interpolation and forward monotone convex spline interpolation. We let the methods construct yield curves on multiple sets of zero yields with different origins. It is found that while the interpolation methods show greater ability to adapt to variable market conditions as well as hedge arbitrary fixed income claims, they are outperformed by the parametric methods regarding the smoothness of the resulting yield curve as well as their sensitivity to noise and perturbations in the input rates. This apart from the Nelson-Siegel method's problem of capturing the behavior of underlying rates with a high curvature. The Nelson-Siegel-Svensson method did also exhibit instability issues when exposed to perturbations in the input rates. The Nelson-Siegel method and the forward monotone convex spline interpolation method emerge as most favorable in their respective categories. The ultimate selection between the two methods must however take the application at hand into consideration due to their fundamentally different characteristics. / I denna studie utvärderas fyra välanvända metode för att konstruera yieldkurvor på ett antal punkter. Detta med syfte att utröna vilken metod som är bäst lämpad för att estimera yieldkurvor på Europeiska nollkupongräntor. Metoderna som utvärderas är Nelson-Siegel, Nelson-Siegel-Svensson, cubic spline-interpolering samt forward monotone convex spline-interpolering. Vi låter metoderna estimera yieldkurvor på flera sammansättningar nollkupongräntor med olika ursprung. Vi ser att interpoleringsmetoderna uppvisar en större flexibilitet vad gäller att anpassa sig till förändrade marknadsförutsättningar samt att replikera godtyckliga ränteportföljer. När det gäller jämnhet av yieldkurvan och känsligheten för brus och störningar i de marknadsräntor som kurvan konstrueras utifrån så presterar de parametiska metoderna däremot avsevärt bättre. Detta bortsett från att Nelson-Siegel-metoden hade problem att fånga beteendet hos nollkupongräntor med hög kurvatur. Vidare hade Nelson-Siegel-Svensson-metoden problem med instabilitet när de underliggande marknadsrentorna utsattes för störningar. Nelson-Siegen-metoden samt foward monotone convex spline-interpolering visade sig vara bäst lämpade för att konstruera yieldkurvor på de Europeiska marknaderna av de utvärderade metoderna. Vilken metod av de två som slutligen bör användas behöver bedömas från fall till fall grundat i vilken tillämpning som avses.

Page generated in 0.1503 seconds