• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 560
  • 32
  • 6
  • 2
  • Tagged with
  • 620
  • 620
  • 585
  • 52
  • 41
  • 40
  • 38
  • 34
  • 33
  • 30
  • 30
  • 29
  • 28
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Collision Detection between Dynamic Rigid Objects and Static Displacement Mapped Surfaces in Computer Games / Kollisionsdetektering mellan dynamiska objekt och statiska terräng

Yang, Fangkai January 2015 (has links)
Collision detection often refers the detection of the intersection of two or more objects. Collision detection algorithms in Avalanche Studios’ game engine need not only to detect the collision, but to get the closest distance and handle penetration. Current algorithms perform well in most cases, but obtain poor accuracy or low efficiency in some cases. This paper will attempt to improve the performance in two ways. First, two new backward projection methods are derived and compared, achieving more accurate backwards projected points. The accurate backwards points are important in collision detection with the terrain surface. Second, multiresolution bounding volumes are constructed in the narrow phase collision detection. These bounding volumes improve the performance when performing collision detection between large complex objects and the terrain. These bounding volumes reduces the number of backward projections needed. / Kollisionsdetektering avser oftast att detektera skärning mellan två eller fler objekt. Kollisionsdetekteringsalgoritmerna i Avalanche Studios spelmotor behöver inte bara upptäcka skärningar, utan även det närmsta avståndet och hantera penetration. Aktuella algoritmer presterar bra i de flesta fall, men erhåller i vissa fall låg noggrannhet eller effektivitet. Detta dokument kommer att förbättra prestandan på två sätt. Först härleds och jämförs två nya bakåtprojektionsmetoder, vilka resulterander i mer exakta bakåtprojicerade punkter. Korrekt bakåtprojektion är viktig för kollisionsdetektering mot terrängytan. Sedan konstrueras och nyttjas flerupplösta begränsnings volymer under den detaljerade kollisionsfasen. Dessa avgränsande volymer förbättrar prestanda när kollisionsdetektering sker mellan stora komplexa objekt och terrängen då de minskar antalet bakåt projiceringar som behöver utföras.
102

Forecasting in contact centers : A step by step method to get an accurate forecast / Prognostisering i kontaktcenter : En steg-för-steg-metod för en exakt och noggrann prognos

Ekelius, Oskar January 2015 (has links)
Teleopti WFM Forecasts is a tool that can be used in order to predict future contact volumes in contact centers and staffing requirements, both in the short and the long term. This tool uses historical data of incoming contact volumes to perform a forecast on a given forecasting period. Today this tool uses a very simple algorithm which is not always very accurate. It also requires inputs from the customer in some of the steps, in order to generate the forecast. The task of this thesis is to improve this algorithm to get a more accurate forecast that can be generated automatically, without any input from the customer. Since Teleopti has more than 730 customers in more than 70 countries worldwide [3] the most challenging part of this project has been to find an algorithm that works for a lot of different historical data. Since different data contains different patterns there is not a single method that works best for all types of data. To investigate what method that is best to use for some specific data, and to perform a forecast according to this method, a step by step method was produced. A shortened version of this method is presented below.  Remove irrelevant data that differs too much from the latest data.  Use the autocorrelation function to find out what seasonal variations that are present in the data.  Estimate and remove the trend.  Split the data, with the estimated trend removed, into two parts. Use the first part of the data to _t different models. Compare the different models with the other part of the data. The one that fits the second part best in least square sense is the one that is going to be used.  Estimate the chosen model again, using all the data, and remove it from the full sample of data.  Forecast the trend with Holts method.  Combine the estimated trend with the estimated seasonal variations to perform the forecast. There are a lot of factors that affect the accuracy of the forecast generated by using this step by step method. By analysing a lot of data and the corresponding forecasts, the following three factors seem to have most impact on the forecasting result. First of all, if the data contains a lot of randomness it is difficult to forecast it, no matter how good the forecasting methods are. Also, if there are small volumes of historical data it will affect the forecasting result in a bad way, since estimating each seasonal variation requires a certain volume of data. And finally, if the trend tends to often change direction considerably in the data it is quite difficult to forecast it, since this means that it could probably change a lot in the future as well. This step by step method has been tested on plenty of data from a lot of different contact centers in order to get it as good as possible for as many customers as possible. However, even though it has exhibited a good forecast of these data there is no guarantee that it will perform a good forecast for all possible data amongst Teleopti's customers. Hence, in the future, if this step by step method will be used by Teleopti, it will probably be updated continuously in order to satisfy as many customers as possible. / Teleopti WFM Forecast är ett verktyg som kan användas för att förutsäga framtida kontaktvolymer och personalbehov, både på kort och lång sikt. Detta görs genom att använda historisk data för inkommande kontaktvolymer för att utföra en prognos av en given prognostiseringsperiod. Idag använder sig detta program av en ganska enkel algoritm som ibland kan ge en ganska dålig prognos. Den kräver också inputs från kunden i vissa steg för att prognosen ska kunna genomföras. Huvudmålet med detta examensarbete har varit att förbättra den nuvarande algoritmen för att få mer noggranna prognoser som kan fås fram automatiskt, utan några inputs från kunden. Eftersom Teleopti har fler än 730 kunder i fler än 70 länder [3], utspridda över hela världen, så har en av de mest utmanande delarna med det här projektet varit att hitta en algoritm som fungerar för många olika sorters data. För att undersöka vilken metod som är bäst lämpad för en specifik datamängd, och för att utföra en prognos med denna metod, togs en steg-för-steg-metod fram. En förkortad variant av denna visas här nedan.  Ta bort icke relevant data som skiljer sig för mycket från övrig data.  Använd autokorrelationsfunktionen för att identifiera vilka säsongsvariationer som finns.  Beräkna trenden och ta bort den.  Dela upp historisk data med borttagen trend i två delar. Använd den första delen till att bestämma parametrarna för olika modeller. Jämför sedan de olika modellerna, med de uppmätta parametrarna, med den andra delen. Den model som skiljer sig minst från den andra delen av data är den modellen som kommer att användas.  Beräkna parametrarna till den valda modellen igen, men använd nu all data.  Prognostisera hur trenden kommer att fortsätta genom att använda Holts metod.  Kombinera den beräknade trenden med de beräknade säsongsvariationerna för att få fram de prognostiserade värdena. Det finns många faktorer som avgör hur exakt prognosen blir genom att använda denna steg-försteg-metod. Genom att analysera mycket data och motsvarande prognos, har följande tre faktorer tagits fram som de som verkar ha mest påverkan på prognostiseringsresultatet. Till att börja med, om data innehåller en hög slumpfaktor är det svårt att utföra en bra prognos, oavsett vilka metoder som används. Om volymen data är väldigt begränsad påverkar det också prognostiseringsresultatet på ett negativt sätt, i och med att beräkningarna för de olika säsongsvariationerna kräver en viss mängd data. Och till sist, om trenden ofta ändrar riktning kraftigt i data är det ganska svårt att prognostisera trenden, i och med att detta betyder att den förmodligen kommer att ändra riktning ofta i framtiden också. Den här steg-för-steg-metoden har testats på mycket olika data, tillhörande många olika kontaktcenter, för att få den så bra som möjligt för så många kunder som möjligt. Men, även om den har uppvisat ett bra resultat på de flesta av dessa data så finns det inga garantier för att den kommer att uppvisa bra prognostiseringar hos alla Teleoptis kunder. Därför, om Teleopti väljer att använda denna steg-för-steg-metod i framtiden, så kommer den förmodligen att uppdateras kontinuerligt för att tillfredsställa så många av kunderna som möjligt.
103

Assessment of Profitability of Electric Vehicle-to-Grid Considering Battery Degradation / Utvärdering av lönsamheten för Vehicle-to-Grid med beaktande av elbilsbatteriers åldrande

Czechowski, Karolina January 2015 (has links)
The electric vehicle (EV) fleet is expected to continue growing in the near future. The increasing electrification of the transportation sector is a promising solution to the global dependency on oil and is expected to drive investments in renewable and intermittent energy sources. In order to facilitate the integration, utilize the potential of a growing EV fleet and to avoid unwanted effects on the electric grid, smart charging strategies will be necessary. The aspect of smart EV charging investigated in this work is the profitability of bidirectional energy transfer, often referred to as vehicle-to-grid (V2G), i.e. the possibility of using aggregated EV batteries as storage for energy which can be injected back to the grid. A mixed integer linear problem (MILP) for minimizing energy costs and battery ageing costs for EV owners is formulated. The battery degradation due to charging and discharging is accounted for in the model used. A realistic case study of overnight charging of EVs in Sweden is constructed, and the results show that given current energy prices and battery costs, V2G is not profitable for EV owners. Further, a hypothetical case for lower battery costs is formulated to demonstrate the ability of our MILP model to treat a number of charging scenarios / Antalet elbilar väntas fortsätta öka de närmsta åren. Den tilltagande elektrifieringen av transportsektorn är en lovande lösning på det globala beroendet av olja och förväntas stimulera investeringar i förnybara intermittenta energikällor. För att främja denna utveckling, och för att till fullo utnyttja potentialen hos en växande elbilsflotta, samt för att undvika oönskade negativa effekter på elnätet kommer smarta strategier för laddning behövas.  I detta arbete undersöks lönsamheten av den aspekt av smart laddning som brukar benämnas vehicle-to-grid (V2G), det vill säga möjligheten att använda aggregerade elbilsbatterier för att lagra energi som sedan kan återföras till elnätet. Hänsyn tas till att batteriet åldras för varje laddning och urladdning som sker. Heltalsoptimering används för att formulera ett problem som minimerar kostnaderna för energi samt för batteriets åldrande. Ett realistiskt scenario där elbilarna ska laddas över natten i svenska förhållanden konstrueras, och resultaten visar att V2G inte är lönsamt för bilägarna givet dagens batteripriser och energipriser. Vidare formuleras ett hypotetiskt fall med lägre batteripriser för att visa att modellen är lösbar för olika scenarion.
104

Dynamic treatment with Leksell Gamma Knife Perfexion - A relaxed path sector duration optimization / Planering och modellering av dynamisk gammaknivsbehandling

Karlander, Rikard January 2015 (has links)
Stereotactic radiosurgery is an increasingly popular method for treating brain tumours and lesions. The Leksell Gamma Knife Perfexion by Elekta is one of the leading instruments for stereotactic radiosurgery. Today the treatment with the Gamma Knife is performed in a static step-and-shoot manner, where several "shots" of gamma rays are delivered to specific regions within the tumour in order to cover it. The treatment generally requires many such shots and thus, in combination with the positioning between shots, the treatment becomes time consuming. There is an interest in a continuous dose delivery where the dose would be delivered through a continuous path through the tumour, i.e. a dynamic treatment. The notion is that this would shorten treatment times as well as increase plan quality and dose homogeneity within the tumour. A previous model for continuous dose delivery from 2014 poses the problem as path finding combined with an optimization of the speed along the path [1]. This thesis aims to improve that model by providing a new, smoothed path as well as allowing the path to be relaxed during the optimization. The findings show that treatment times can be significantly reduced and dose homogeneity as well as plan quality increased through dynamic treatment. The relaxation of the path during the optimization further improved all dynamic models. Furthermore, several interesting properties of dynamic treatment plans have been studied and presented including dose volume histograms, isodose curves and collimator settings. / Stereotaktisk radiokirurgi ar en allt vanligare behandling av hjärntumörer och andra hjärnskador. Leksell Gamma Knife Perfexion ar ett av de ledande instrumenten inom stereotaktisk radiokirurgi. Idag utförs behandlingar med gammakniven enligt en statisk, stegvis modell där en mängd så kallade skott av gammastrålar bestrålar olika områden i tumören för att täcka hela volymen. Generellt sett kräver behandlingar många skott, vilket, i kombination med den tid det tar att ompositionera patienten inför varje skott, gör behandlingen tidskrävande. Det finns därför ett intresse för kontinuerlig dosleverans över en bana genom tumören, en så kallad dynamisk plan. Detta skulle kunna förkorta behandlingstiden markant samt även förbättra plankvalitén och doshomogeniteten i tumören. En studie från 2014 föreslår att en dynamisk planering kan formuleras som en optimering av banan följt av en optimering av hastigheten längs banan [1]. Syftet med den här uppsatsen är att förbättra den modellen genom en förbättrad bana, vilket involverar att relaxera banans placering genom att inkludera den i hastighetsoptimeringen. Resultaten från studien visar att behandlingstiden för en tumör kan bli drastiskt minskad med dynamisk behandling samtidigt som plankvalitén och doshomogeniteten ökar. Den nya funktionen som tillåter att banan förändras under hastighetsoptimeringen ger ytterligare förbättringar till de dynamiska planerna. Slutligen så presenteras era intressanta aspekter och egenskaper hos dynamiska planer så som dos/volym-histogram, isodoskurvor och kollimatorinställningar.
105

A Modal PML for the 2D Shallow Water Equations in Conservative Variables / Ett modalt PML för de två-dimensionella ekvationerna för grunt vatten i konservativa variabler

Johansson, Simon January 2015 (has links)
A modal Perfectly Matched Layer (PML) is constructed for the two-dimensional, non-linear, Shallow Water Equations (SWEs) in conservative variables. The result is an analytical continuation of the original equations where absorption is applied to the outgoing wave modes which are damped exponentially fast in the direction of propagation. Numerical tests are performed using a variation of the Diagonally Implicit Runge-Kutta (DIRK) integration scheme in conjunction with Lax-Wendroff’s method for smooth so- lutions and some variation of Roe’s method for discontinuous solutions. Different absorption functions are used, i.e. the absorption function of the original PML constructed by Berenger for electromagnetic waves, and some variations of the hyperbola functions. The results clearly show that the PML is better than the characteristic boundary condition, but also that improvements through some sort of optimization should lead to better parameter choices, potentially decreasing the reflections further. / Ett modalt Perfekt Matchande Lager (PML) konstrueras för de två-dimensionella, icke-linjära, ekvationerna för grunt vatten (Shallow Water-ekvationerna (SWE)) i konservativa variabler. Resultatet är en analytisk fortsättning av de ursprungliga ekvationerna där absorption tillämpas på de utgående vågmoderna som dämpas med exponentiell hastighet i utbredningsriktningen. Numeriska tester genomförs med en version av det Diagonalt Implicita Runge-Kutta (DIRK) schemat tillsammans med Lax-Wendroffs metod för kontinuerliga lösningar och en variant av Roes metod för diskontinuerliga lösningar. Olika absorptionsfunktioner används, d.v.s. absorptionsfunktionen från det ursprungliga PML:et konstruerat av Berenger för elektromagnetiska vågor, samt olika versioner av hyperbola-funktionerna. Resultaten visar tydligt att PML:et är bättre än det karakteristiska randvillkoret, men också att förbättringar genom någon sorts optimering borde leda till bättre parameterval, och potentiellt minska reflektionerna ytterligare.
106

The Dilemma of Homo Moralis : Preference evolution in the prisoner's dilemma under assortative matching in finite populations without equilibrium assumptions

Nordström, Marcus January 2013 (has links)
Evolutionary game theory has made a big contribution to our understanding of evolutionary and economical processes. Recently, in the article Homo Moralis by Ingela Alger and Jörgen Weibull, a model extending classical evolutionary game theory in two ways is designed. Firstly the matching processes is allowed to be assortative and secondly the evolution is designed in such a way that it acts on preferences instead of strategies. They prove that an individual with a certain morality preference in such a setting can not be outperformed by an individual with another preference. To obtain the results, the authors model the population as a continuum and assume that equilibrium always is reached. In this thesis we design a model where these assumptions are relaxed and then test through computer simulations whether the results hold for the prisoner’s dilemma game. In our experiments we find no case where the results do not hold.
107

A Gauss-Newton Based Approach to Automatic Beam Commissioning / En Gauss-Newton-metod för automatisk maskinkommissionering

Nordström, Marcus January 2016 (has links)
In computer assisted planning of radiation treatment and more specifically the software RayStation developed by RaySearch, certain kinds of model calibration problems arise. The process of solving these problems is called beam commissioning. Today beam commissioning is handled by optimizing subsets of the underlying parameters using a quasi-Newton algorithm. In this thesis we investigate the beam commissioning problem space for all of the parameters. We find that the variables are rather well behaved and therefor propose a method based on linearizing dose before scoring. This reduces the number of expensive function calls drastically and allows us to optimize with regard to all of the underlying parameters simultaneously. When using a least squares score function, the method coincides with the Gauss-Newton method, a well-known nonlinear least squares method with fast convergence properties if good starting points are available. We use this method applied to a weighted least squares approximation of our score function for two different machine models using two different dose engines. For all of our simulation experiments, the models are improved. We conclude that a method like this may be used for beam commissioning processes and that our method probably has room for improvement. / I datorassisterad strålbehandling och mer specifikt i mjukvaran RayStation utvecklad av RaySearch, uppkommer vissa typer av kalibreringsproblem. Processen att lösa dessa kallas maskinkommissionering. Idag hanteras problemet genom att optimera subset av de underliggande modelparametrarna med en quasi- Newton algoritm. I den här uppsatsen undersöker vi hela problemrymden associerad med maskinkommissionerings problemet. Vi finner att parametrarna beter sig ganska enkelt och föreslår på grund av detta att dosen kan linjäriseras i en punkt och poängsättas i en region omkring den punkten. Detta reducerar antalet dyra funktionsanrop kraftigt och tillåter oss att samoptimera alla modelparametrar samtidigt. Om kvadratiska straff används sammanfaller metoden med Gauss-Newton metoden, en välkänd metod med snabb konvergens om bra startvärden finns tillgängliga. Vi använder den här metoden applicerad på en viktad minstakvadratapproximation av vår poängsättningsfunktion för två maskinmodeller och två dosmotorer. För samtliga experiment är modellerna förbättrade. Vi drar slutsatsen att metoder som denna kan användas i maskinkommissionerings processenen och att det antagligen är möjligt att förbättra vår metod ytterligare.
108

Topologioptimering för jämn lastfördelning i skruvförband / Topology optimization for even load distribution in bolted joints

Skuncke, Elsa January 2015 (has links)
Vanligtvis ställs topologioptimeringsproblem upp så att en strukturs komplians minimeras under bivillkor på volymen som den får uppta. I skruvförband med flera ingående skruvar innebär detta ofta att lasten fördelas ojämnt mellan skruvarna och att förbandet med det optimerade fästet ändå går sönder. Fyra problemformuleringar för att erhålla en jämnare fördelning av lasten över de ingående skruvarna har undersökts på två olika förband, ett litet med två skruvar och ett större med sex skruvar. Förbanden utsätts för två respektive tre lastfall och är modellerade med skruvar som förspänns. Metoderna är undersökta med hjälp av topologioptimeringsprogrammet Tosca från FE-DESIGN och FEM-programmet Abaqus från Dassault Systèmes Simulia på Scania CV AB. Tre av problemformuleringarna visade sig vara rimliga metoder att använda. / Usually topology optimization problems are posed so that the compliance of a structure is minimized under condition on the volume. In a joint containing several screws the result is often that the load is unevenly divided among the screws and the joint with the optimized bracket brakes anyway. In this master thesis four different formulations of the topology optimization problem with the purpose of obtaining an even distribution of the load among the screws have been investigated on two different joints, one smaller with two screws and one larger with six screws. The joints are exposed to two and three loadcases respectively and modeled with pretensioned screws. The methods are investigated with the topology optimization program Tosca by FE-DESIGN and the FEM program Abaqus by Dassault Systèmes Simulia at Scania CV AB. Three of the formulations are shown to be reasonable to use.
109

Industrial process error estimation by machine learning / Feluppskattning i industriella processer genom maskininlärning

Loustaunau, Matthieu January 2015 (has links)
Performing a set-up on a complex machine may be difficult. This problem arises frequently for the industry, especially when the relation between input and output data cannot be defined precisely. Heavy methods of optimization may be used to perform a set-up. This master thesis investigate the possibility to use a machine learning approach on a specific machine. We study the structure of the relation between input and output data. We show the variations are smooth. We define a set of tests to evaluate future models. We design and test several models on simulation data, and select the best one. We design a strategy to use data in the best possible way. The selected model is then tested on actual data in order to be optimized. / Att justera ett komplext maskineri kan vara mödosamt. Detta problem uppkommer ofta i industrin när relationen mellan in- och utdata inte kan definieras. Tunga optimeringsmetoder kan användas för justeringprocessen. Dennauppsats undersöker möjligheten att använda en s.k. machine learning approach med ett specifikt maskineri. Vi studerar datastrukturen och relationen mellan in- och utdata. Vi visar på att variationer är släta. Vi definierar en rad av tester för att värdera framtida modeller. Vi formger och testar flera modeller med simulerade data och välja den bästa. Vi designar en strategi för att använda data på bästa sätt, för att sedan testa den utvalda modellen på verklig data för att optimeras.
110

Uncertainty-aware Tracking of Single Bacteria over Image Sequences with Low Frame Rate / Osäkerhetsmedveten tracking av enskilda bakterier som avbildats på en bildserie med låg frekvens

Theorell, Axel January 2015 (has links)
In single-cell analysis, the physiologic states of individual cells are studied. In some studies, the subject of interest is the development over time of some cell characteristic. To obtain time-resolved single-cell data, one possibility is to conduct an experiment on a cell population and make a sequence of images of the population over the course of the experiment. If a mapping is at hand, which determines which cell it is that is the cause of each measured cell in the image sequence, time resolved single-cell data can be extracted. Such a mapping is called a lineage tree, and the process of creating it is called tracking. One aim of this work is to develop a tracking algorithm that incorporates organism specific knowledge, such as average division time, in the tracking process. With respect to this aim, a Bayesian model that incorporates biological knowledge is derived, with which every hypothetical lineage tree can be assigned a probability. Additionally, two Monte Carlo algorithms are developed, that approximate the probability distribution of lineage trees given by the Bayesian model. When an approximate distribution is known, for example the most likely lineage tree can be extracted and used. In many cases, the information provided to an automatic tracking algorithm is insufficient for the algorithm to find the gold standard lineage tree. In these cases, a possibility is to construct the gold standard lineage tree by manual correction of the lineage tree that has been provided by the tracking algorithm. A second aim of this work is to provide a confidence to every assignment in a lineage tree, in order to give the person doing manual corrections useful information about what assignments to change. Such a confidence is provided by the Monte Carlo tracking methods developed in this work. / I enskild-cell analys studeras de fysiologiska tillståndet hos enskilda celler. I vissa studier är man intresserad av hur någon cellegenskap utvecklas över tid. Ett sätt att generera tidsupplöst data på enskild-cellnivå är att utföra ett experiment med en cellpopulation och avbilda den med mikroskop med jämna mellanrum. Med hjälp av en avbildning som beskriver vilken cell i experiment det är som ger upphov till vilken uppmätt cell i bildsekvensen, kan sedan enskild-cell data tillgås. En sådan avbildning kallas ett stamträd (lineage tree), och processen att bestämma stamträdet kallas tracking. En målsättning med detta arbete är att utveckla en trackingalgoritm som använder organismspecifik kunskap, såsom organismens genomsnittliga delningstid, i trackingprocessen. Med denna målsättning i hänseende härleds en bayesiansk modell med vilken varje stamträd kan tillskrivas en sannolikhet, och som kan ta hänsyn till biologisk fakta när detta sker. Därtill utvecklas två Monte Carlo algoritmer som approximerar sannolikhetsfördelningen av stamträd som härrör ur den bayesianska modellen. När en uppskattad fördelning är känd kan t ex det mest sannolika stamträdet i fördelningen användas för enskild-cell analys. I många fall är informationen som en automatisk trackingalgoritm har till hands inte tillräcklig för att algoritmen ska kunna producera gold standard stamträdet. I dessa fall kan det vara befogat att konstruera gold standard stamträdet genom att göra manuella korrektioner på ett stamträd som tagits fram automatiskt med en algoritm. En andra målsättning med detta arbete är att införa ett förtroendemått för enskilda länkar i ett stamträd. Detta förtroendemått ska göra det enklare för personen som gör manuella korrektioner att avgöra ifall en länk i ett stamträd behöver korrigeras eller ej. Ett sådant förtroendemått införs, och de två Monte Carlo algoritmerna som utvecklas i detta arbete tillskriver ett förtroende för varje länk i de stamträd som de levererar.

Page generated in 0.0868 seconds