• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 560
  • 32
  • 6
  • 2
  • Tagged with
  • 620
  • 620
  • 585
  • 52
  • 41
  • 40
  • 38
  • 34
  • 33
  • 30
  • 30
  • 29
  • 28
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Mammography Classification and Nodule Detection using Deep Neural Networks / Mammografiklassificering och Nodulär Detektion med Djupa Neurala Nätverk

Sinzinger, Fabian January 2017 (has links)
Mammographic screenings are the most common modality for an early detection of breast cancer, but a robust annotation of the depicted breast tissue presents an ongoing challenge, even for well-experienced radiologists. Computer-aided diagnosis systems can support the human classification. Modern systems therefore often rely on deep-learning based methods. This thesis investigates the fully automatic on-image classification of mammograms into one of the classes benign, malignant (cancerous) or normal. In this context, we compare two different design paradigms, one straightforward end-to-end model with a more complex decomposition hierarchy. While the end-to-end model consists mainly of the deep-learning based classifier, the decomposition pipeline incorporates multiple stages i.e. a region of interest detection (realized as a fully convolutional architecture) followed by a classification stage. Contrary to initial expectations, the end-to-end classifier turned out to obtain a superior performance in terms of accuracy (end-to-end: 76.57 %, decomposition: 65.66 %, computed as mean over all three classes in a one vs. all evaluation) and an improved area under receiver operating characteristic-score. All discussed parametric models were trained from scratch without using pre-trained network weights. Therefore we discuss the choice of hyper-parameters, initialization, and choice of a feasible cost function. For a successful feature extraction, in the region of interest detection stage, the negative dice coefficient proved itself to be a more robust cost function than the also investigated sensitivity-specificity loss. / Mammografiscreening är den vanligaste modaliteten för tidig detektion av bröstcancer, men en robust annotering av den avbildade bröstvävnaden innebär en fortgående utmaning, till och med för en erfaren radiolog. Datorstödda diagnossystem kan bistå den mänskliga klassifikationen. Moderna system lutar sig därför ofta på datorbaserade metoder för djupinlärning. Den här avhandlingen undersöker den fullt automatiserade ”on-image” klassifikationen av mammogram i klasserna benign, malignt (cancer) eller normal. I denna kontext undersöker vi två olika design paradigm, en direkt end-to-end modell med en mer komplex dekomposition-hierarki. Medan end-to-end-modellen främst består av en deep-learning-baserad klassificerare består decomposition-pipelinen av flera steg, d.v.s. en detektion av en intresseregion (implementerad som en fullt faltningsoperations- neuralnätverk), följt av ett klassificeringsstadium. Till skillnad från initiala förväntningar visade sig det att end-to-end-klassificeraren erhöll en överlägsen prestanda när det gäller noggrannhet (end-to-end: 76.57 %, dekomposition: 65.66 %, mätvärdena är beräknade som medel av alla tre klasser i en en-mot-alla-utvärdering) och en förbättrad area-under-mottagare-operations karaktäristik. Alla behandlade parametriska modeller tränades initialt utan användning av förtränade nätverksvariabler. Därför diskuteras valet av hyper-parametrar, initiering, och val av rimlig kostnadsfunktion. För en funktionsextraktion, vid detektionsstadium i regionen av intresse, visade sig den negativa dice koefficienten vara en mer robust kostnadsfunktion än den också undersökta sensitivity-specifity loss.
222

Evaluation of interpolation methods and boundary data interval resolution for the Lateral Boundary Conditions of Regional Climate Models / Utvärdering av interpolationsmetoder ochtidsupplösning av randdata för de laterala randvillkoren för regionalaklimatmodeller

Kootte, Maria January 2017 (has links)
A Regional Climate Model (RCM) is a comprehensive tool to simulate high- resolution climatic factors. A RCM is driven by low resolution data obtained from a Global Climate Model (GCM). In the one-way nested method, is the GCM data fed into the RCM as a Lateral Boundary Condition (LBC) in certain updates in time, the boundary data interval resolution. The necessary information in between these updates is obtained by using linear interpolation techniques. The ability to reproduce high-resolution RCM output with low-resolution GCM data depends on the accuracy of this LBC. This thesis investigates whether third order interpolation methods lead to a more accurate approximation than the linear method. This is investigated in combination with lowering the boundary data interval resolution. The conclusion is that a third order interpolation method does not lead to a more accurate approximation for a high boundary data interval resolution. But when the resolution is lowered, the linear interpolation method looses its accuracy earlier than the third order method. This results in a boundary data interval resolution of 1.5 hours for the linear method compared to 7.5 hours for the third order method. Implementing a lower boundary data interval resolution in combination with the third order method lead to significant gain in computational time and storage for the RCMs. / En Regional Climate Modell (RCM) är ett avancerat verktyg för att simulera klimatet med hög upplösning. En RCM drivs av data från en Global Climate Modell (GCM), ofta med låg upplösning. I den så kallade envägsnästade metoden sparas GCM-data med vissa tidsintervall för att användas som ett lateralt randvillkor (LBC) till RCM. Den nödvändiga informationen mellan sparade data erhålls med användning av linjära interpoleringstekniker. Möjligheten att reproducera ett hög upplöst GCM-resultat med en RCM med liknande upplösning genom att använda envägsnästning med låg upplösning beror på exaktheten hos denna LBC. Denna avhandling undersöker huruvida tredje ordningens interpoleringsmetoder leder till en mer exakt inställning än den linjära metoden. Detta undersöks i kombination med minskningen av intervallupplösningen av randdata. Slutsatsen är att en tredje ordningens interpolationsmetod inte leder till en mer exakt approximation för en hög dataintervallupplösning. Men när upplösningen sänks, förlorar den linjära interpolationsmetoden sin noggrannhet, tidigare än den tredje ordningens metod. Detta resulterar i en begränsad dataintervallupplösning på respektive 1, 5 timmar respektive 7,5 timmar. Tredje orderinterpolering är således en signifikant vinst för RCM.
223

LQR and MPC control of a simulated data center / LQR och MPC styrning av ett simulerat datacentrum

Berglund, Erik January 2017 (has links)
One of the largest contributions to a data center’s power usage is its cooling system. To decrease the energy usage of the cooling system, an automatic control scheme that adapts the capacity of the cooling units is needed. In this master thesis, a Simulink model of a data center is developed, along with several LQR and one MPC controller. The controllers control the outlet temperature and volumetric airflow of two CRAH units in the simulated data center. Simulations are performed in which the controllers are judged based on their estimated energy usage and how often the server temperatures in the data center exceed 35°C. Based on the experimental results, recommendations are made regarding what kinds of controllers to investigate in ABB’s further research. / Ett av de största bidragen till ett datacenters energiförbrukning kommer från kylsystemet. För att minska kylsystemets energianvändning krävs ett automatiskt reglersystem som anpassar hur stor andel av kylningsenheternas kapacitet som utnyttjas. I detta examensarbete utvecklas en Simulink-modell av ett datacenter, samt flera LQR-regulatorer och en MPCregulator. Regulatorerna kontrollerar utblåsningstemperaturen och luftflödet hos två CRAHenheter i det simulerade datacentret. Simuleringar utförs, där regulatorerna bedöms efter uppskattad energianvändning och efter hur ofta servertemperaturerna övergår 35 ° C. Baserat på experimentella resultat ges rekommendationer angående vilken typ av regulatorer som bör undersökas närmare i ABBs fortsatta forskning.
224

Optimization of selecting codeshare flights in aviation

Vegi, Nishita January 2017 (has links)
Airlines are constantly on a look out for partnerships that could facilitate an increase in revenue without having to invest as much. Codesharing is one such solution, where a marketing carrier sells the tickets on another carrier’s flight as its own with its flight number. The codeshares are highly advantageous as they provide new itineraries for the passengers to choose from and increase the traffic for the airline without having to operate the flights. The selection of codeshare flights can be time consuming, for the planners, in the absence of tools that help in the decision making. It not only requires a thorough network analysis but the legal and technical constraints to the codeshares have to be considered as well. This thesis aims to perform a research about the different kinds of codeshares and codeshare agreements along with the major decision factors that affect the choice of an airline to choose a codeshare partner. The primary purpose of this thesis is to provide a prototype tool that can be developed further and be integrated into the Industrial optimizers’ MP2 software (Multiple purpose/ multiple processing optimization software), a tool used by the transport industry for network planning. The prototype support-tool is designed particularly for the marketing carrier with the devised algorithms which provides a possible method to perform the analysis considering the different options and constraints in regards to the selection of behind and beyond codeshare flights and itineraries. The tool processes the available data after which the feasible itineraries are built with respect to the technical, legal and planner specific constraints. To predict the number of passengers who would choose the newly created itineraries, two different models which are based on utility values have been evaluated. The historic passenger choices with the most important factors that affect them are used to create the utility values. The expected passengers and the possible revenues that can be gained from the itineraries then create the base for the final optimization model that suggests the best codeshare flight, along with the expected number of passengers on each itinerary that it is a part of.It should be noted that the revenue management and revenue spilt ups have not been considered in detail for the tool, the most common and simple methods have been considered to perform the analysis, although the different kinds of revenue split ups have been a part of the research, so as to implement them in the MP2 software when required. / För flygbolag innebär ett partnerskap tillsammans med en eller flera flygbolag en möjlighet att öka intäkterna utan att behöva göra stora investeringar. Codesharing är en sådan lösning, där försäljning av flygbiljetter kan ske för ett annat flygbolags räkning, men det säljande bolaget erbjuder marknaden flygbiljetter under eget namn och med egen flygkod s.k. Marketing Carrier. Codeshare är mycket fördelaktigt eftersom det ger nya möjligheter och resvägar för passagerarna att välja mellan, utöver det ökar trafiken för säljande flygbolaget utan att bolaget behöver göra skapa en egen flygning. Det finns många fördelar, men även några tekniska och juridiska hinder existerar för skapandet av vissa codeshares. Valet av partners och codeshare-flygningar kräver ofta en grundlig nätverksanalys som kan vara mycket tidskrävande för en planerare i synnerhet om verktyg för metodiken saknas. Denna avhandling syftar till att undersöka vilka codeshares som existerar samt att se hur codeshareavtalen ser ut. Utöver det även studera de beslutsfaktorer som påverkar valet av flygbolag som en vald codeshare-partner. Huvudsyftet med denna avhandling är att tillhandahålla ett prototypverktyg som kan utvecklas och integreras med Industrial Optimizers programvara MP2 (Multiple Purpose / Multiple Process Optimization Software), ett verktyg som idag används av transportindustrin för optimering och planering av tidtabell. Prototypstödverktyget är särskilt utformat för det säljande flygbolaget (Marketing Carrier). Med förbättrade och utvecklade algoritmer går det att skapa en möjlig metod för att genomföra analyser med alla de olika alternativ och begränsningar som kan uppstå vid ett val av ett codeshareflyg och tänkta framtida resplaner. Verktyget behandlar all tillgänglig data efter hur och på vilket sätt resrutter är skapade med hänsyn taget till de tekniska, juridiska och planeringsspecifika begränsningar som kan existera. För att förutse antalet passagerare som kan tänkas välja de nya resvägarna har två olika modeller skapats, dessa modeller är baserade på nyttighetsvärden som sedan utvärderats. Det första handlar om de historiska passagerarnas val med de viktigaste faktorerna som påverkar dem. Utöver de historiska värden handlar det även om de förväntade passagerarna och de möjliga intäkter som kan erhållas från deras resvägar. Detta tillsammans skapar grunden för den sista optimeringsmodellen som föreslår det bästa codeshareflyget, men även med det förväntade antalet passagerare för varje resrutt där codeshareflyget ingår. Det bör noteras att intäkter inte har behandlats i detalj för denna modell. De vanligaste och enklaste metoderna har dock används för att kunna utföra själva analysen. Olika former av intäktsuppdelningar har varit en del av underlaget för att implementera dessa i MP2 systemet för ett eventuellt framtida behov.
225

Utilizing the Degrees of Freedom in Radiation Therapy Optimization

Olsson, Henrik January 2017 (has links)
The development of advanced software for radiation therapy treatment has had a significant role in the last decades’ improvements in cancer treatment. By optimizing the radiation dose given to each patient, the probability of a successful treatment increases. The development of mathematical optimization methods, required to produce as good radiation therapy treatment plans as possible, is therefore of high importance. When producing treatment plans for Volumetric Modulated Arc Therapy (VMAT) today, there are degrees of freedom that are not fully utilized. The possibility of rotating the patient couch and collimator during radiation delivery, to achieve a better dose distribution over the patient, is not taken advantage of. In order to take full advantage of these extra degrees of freedom, methods for predicting how good different arcs will perform during VMAT-delivery need to be developed. Since the number of possible VMAT-arcs is very large, such a method needs to be very time efficient in order to be of conventional use. In this thesis, a heuristic method for finding good VMAT-arcs for patients with multiple brain metastasis is proposed. In the method, the sphere around the patient’s head is discretized into a number of beam directions. From each of these beam directions a projection of the patient’s anatomy is produced, and based on the relative location of the cancer metastasis and the organs desired to protect, a cost is assigned. By linking together adjacent beam direction, VMAT-arcs can be created, and each possible VMATarc is assigned an arc cost depending on the cost of the beam directions it traverses. Such arc cost is used as an indication of how good a VMAT-arc will perform during VMAT-delivery. The heuristic method is tested and evaluated on four different patient cases. In three of the patient cases, the proposed method gives good results. Overall the results indicate that it is possible to predict how good a VMAT-arc will perform during VMAT-delivery, by looking at the relative locations of the target and organ projections in a discrete number of points along the arc. However, since the number of test cases are few, no statistically significant conclusions can be drawn. / Utvecklingen av avancerad mjukvara för strålningsterapi är en del av de senaste decenniernas framsteg inom cancerbehandling. Genom att optimera stråldosen som ges till varje patient ökar sannolikheten att behandlingen lyckas. Utvecklingen av matematiska optimeringsmetoder, som används för att producera så bra strålningsplaner som möjligt, är därför av högsta vikt. När man producerar strålningsplaner för VMAT (Volumetric Modulated Arc Therapy) idag, utnyttjas inte alla frihetsgrader. Möjligheten att rotera patientbritsen och kollimatorn för att leverera en bättre strålningsdos till patienten lämnas ute. För att kunna utnyttja dessa frigetsgrader fullt ut krävs utveckling av metoder som kan förutspå hur bra olika strålningstrajektorier är. Då det finns ett väldigt stort antal möjliga strålningstrajektorier måste dessa metoder vara tidseffektiva. Under detta exjobb har en heuristisk metod för att hitta bra VMAT-trajektorier för patienter med flera hjärnmetastaser utvecklats. I metoden discretiseras sfären runt patientens huvud i ett antal strålningsriktningar. Från varje strålningsriktning produceras en projektion av patientens anatomi. Baserat på de relativa positionerna av hjärnmetastaserna och de organ man vill skydda tilldelas varje strålningsriktning ett straff. Genom att binda samman intilliggande strålningsriktningar kan sedan VMAT-trajektorier produceras, och varje VMAT-trajektorie tilldelas ett straff baserat på straffen hos de strålningsriktningar som bundits samman för att bilda trajektorien. Straffet som tilldelats en trajektorie används sedan som en indikator för hur bra trajektorien är för VMAT-behandling. Den heuristiska metoden är testad i fyra olika patientfall. I tre av patientfallen ger metoden bra resultat. I sin helhet tyder resultaten på att det är möjligt att förutsäga hur bra en VMAT-trajektorie är för VMAT-behandling, genom att från ett par punkter längst trajektorien titta på de relativa positionerna av metastaserna och de organ som man vill skydda. Dock gör det låga antalet av testfall att inga statisktiskt säkerställda slutsatser kan dras.
226

Ett kvantitativt verktyg för utfärdande avsäljoptioner / A quantitative tool for issuing put options

Åhlgren, Erik January 2017 (has links)
Denna studie undersöker om man kan utnyttja skillnader mellan optioners implicita volatilitet och den underliggande tillgångens historiska volatilitet för att skapa avkastning till sin portfölj. Detta har gjorts genom att ställa upp ett investeringsproblem vars lösning ska maximera investerarens nytta givet sina egna preferenser gällande risk och tro på marknadens utveckling. Investeringsproblemets uppbyggnad är sådant att investeraren kan välja att utfärda säljoptioner, eller att inte göra det. Hur många optioner som ska utfärdas beror till stor del just på skillnader mellan den implicita volatiliteten och den historiska. För att illustrera detta har en fiktiv portfölj med data från marknaden upprättats där dess avkastning och transaktioner sedan utvärderats och analyserats. Resultatet visar att investeringsstrategin har presterat väl, och att investerarens tro på marknadens utveckling kontra optionernas priser har resulterat i en avkastning betydligt bättre än optionernas underliggande tillgång. Investeringsproblemets lösning kan med andra ord fungera som ett utmärkt verktyg för utfärdande av säljoptioner. / This study investigates whether differences between options implicit volatility and the underlying assets historical volatility can be used to generate returns to a portfolio. This has been done by posing an investment problem which solution is based on maximizing the investor return given the individual preference and attitude towards risk and belief in the market. The structure of the investment problem is such that the investor can choose to issue put options or not to do so. How many options to be issued are largely due to differences between the implicit volatility and the historical. To illustrate this a fictitious portfolio with data from the market has been established where its returns and transactions have been evaluated and analyzed. The result shows that the investment strategy has performed well and that the investors beliefs in the development of the market versus the prices of the options has resulted in returns significantly higher than the underlying asset have. In other words, the solution of the investment problem can serve as an excellent tool for issuing put options.
227

Automatized GARCH parameter estimation / Automatiserad approximation av GARCH parametrar

Sundström, Dennis January 2017 (has links)
This paper is about automatizing parameter estimation of GARCH type conditional volatility models for the sake of using it in an automated risk monitoring system. Many challenges arise with this task such as guaranteeing convergence, being able to yield reasonable results regardless of the quality of the data, accuracy versus speed of the algorithm to name a few. These problems are investigated and a robust framework for an algorithm is proposed, containing dimension reducing and constraint relaxing parameter space transformations with robust initial values. The algorithm is implemented in java with two models, namely the GARCH and gjr-GARCH model. By using real market data, performance of the algorithm are tested with various in-sample and out-of-sample measures, including backtesting of the widely used risk measure Value-at-Risk. The empirical studies conclude that the more complex gjr-sGARCH model with the conditional student’s t distribution was found to yield the most accurate results. However for the purpose of this paper the GARCH orgjr-GARCH seems more appropriate. / Denna uppsats undersöker möjligheten att automatisera approximationen av GARCH parametrar, där syftet är att använda algoritmen till ett automatiserat riskhanteringssystem. Med detta uppstår flera utmaningar som att garantera konvergens, kunna erhålla rimliga resultat oavsett datakvalitet, avvägning mellan algoritmens snabbhet och precision för att nämna några. Uppsatsen undersöker dessa problem och föreslår ett robust ramverk för en algoritm som innehåller transformationer av parameterrymden. Där dessa transformationer reducerar dimensionen av problemet samt reducerar antalet randvillkor. Algoritmen är implementerad i java med två modeller, GARCH och gjr-GARCH. Vidare så är algoritmen testad genom att använda riktig marknadsdata, där olika metoder använts för att utvärdera algoritmen. Modellerna som används backtestas på historisk data och det empiriska resultatet av detta talar för att gjr-sGARCH modellen med student’s t fördelning levererar noggrannast resultat. Det är dock den mest komplexa modellen som används i denna uppsats och för denna uppsats ändamål anses GARCH eller gjr-GARCH modellerna mer passande.
228

Motion Feature Extraction of Video and Movie Data / Extrahering av rörelse-vektorer från film- och videodata

Müglich, Marcel January 2017 (has links)
Since the Video on Demand market grows at a fast rate in terms of available content and user numbers, the task arises to match personal relevant content to each individual user. This problem is tackled by implementing a recommondation system which finds relevant content by automatically detecting patterns in the individual user’s behaviour. To find such patterns, either collaborative filtering, which evaluates patterns of user groups to draw conclusions about a single user’s preferences, or content based strategies can be applied. Those content strategies analyze the watched movies of the individual user and extract quantifiable information from them. This information can be utilized to find relevant movies with similar features. The focus of this thesis lies on the extraction of motion features from movie and video data. Three feature extraction methods are presented and evaluated which classify camera movement, estimate the motion intensity and detect film transitions. / VOD-marknaden (Video på begäran) är en växande marknad, dels i mängden tillgängligt innehåll samt till antalet användare. Det skapar en utmaning att matcha personligt relevant innehåll för varje enskild användare. Utmaningen hanteras genom att implementera ett rekommendationssystem som hittar relevant innehåll genom att automatiskt identifiera mönster i varje användaren beteende. För att hitta sådana mönster används i vanliga fall Collaborative filtering; som utvärderar mönster utifrån grupper av flera användare och kors- rekommenderar produkter mellan dem utan att ta nämnvärd hänsyn till produktens innehåll. (De som har köpt X har också köpt Y) Ett alternativ till detta är att tillämpa en innehållsbaserad strategi. Innehållsbaserade strategier analyserar den faktiska video-datan i de produkter som har konsumerats av en enskild användare med syfte att därifrån extrahera kvantifierbar information. Denna information kan användas för att hitta relevanta filmer med liknande videoinnehåll. Inriktningen för denna avhandling berör utvinning av kamerarörelsevektorer från film- och videodata. Tre extraktionsmetoder presenteras och utvärderas för att klassificera kamerans rörelse, kamerarörelsen intensitet och för att detektera scenbyten.
229

Radar target classification using Support Vector Machines and Mel Frequency Cepstral Coefficients / Klassificiering utav radarmål genom Support Vector Machines och Mel Frequency Cepstral Coefficients

Edman, Sebastian January 2017 (has links)
In radar applications, there are often times when one does not only want to know that there is a target that reflecting the out sent signals but also what kind of target that reflecting these signals. This project investigates the possibilities to from raw radar data transform reflected signals and take use of human perception, in particular our hearing, and by a machine learning approach where patterns and characteristics in data are used to answer the earlier mentioned question. More specific the investigation treats two kinds of targets that are fairly comparable namely smaller Unmanned Aerial Vehicles (UAV) and Birds. By extracting complex valued radar video so called I/Q data generated by these targets using signal processing techniques and transform this data to a real signals and after this transform the signals to audible signals. A feature set commonly used in speech recognition namely Mel Frequency Cepstral Coefficients are used two describe these signals together with two Support Vector Machine classification models. The two models where tested with an independent test set and the linear model achieved a overall prediction accuracy 93.33 %. Individually the prediction resulted in 93.33 % correct classification on the UAV and 93.33 % on the birds. Secondly a radial basis model with a overall prediction accuracy of 98.33 % where achieved. Individually the prediction resulted in 100% correct classification on the UAV and 96.76 % on the birds. The project is partly done in collaboration with J. Clemedson [2] where the focus is, as mentioned earlier, to transform the signals to audible signals. / I radar applikationer räcker det ibland inte med att veta att systemet observerat ett mål när en reflekted signal dekekteras, det är ofta också utav stort intresse att veta vilket typ av föremål som signalen reflekterades mot. Detta projekt undersöker möjligheterna att utifrån rå radardata transformera de reflekterade signalerna och använda sina mänskliga sinnen, mer specifikt våran hörsel, för att skilja på olika mål och också genom en maskininlärnings approach där med hjälp av mönster och karaktärsdrag för dessa signaler används för att besvara frågeställningen. Mer ingående avgränsas denna undersökning till två typer av mål, mindre obemannade flygande farkoster (UAV) och fåglar. Genom att extrahera komplexvärd radar video även känt som I/Q data från tidigare nämnda typer av mål via signalbehandlingsmetoder transformera denna data till reella signaler, därefter transformeras dessa signaler till hörbara signaler. För att klassificera dessa typer av signaler används typiska särdrag som också används inom taligenkänning, nämligen, Mel Frequency Cepstral Coefficients tillsammans med två modeller av en Support Vector Machine klassificerings metod. Med den linjära modellen uppnåddes en prediktions noggrannhet på 93.33%. Individuellt var noggrannheten 93.33 % korrekt klassificering utav UAV:n och 93.33 % på fåglar. Med radial bas modellen uppnåddes en prediktions noggrannhet på 98.33%. Individuellt var noggrannheten 100 % korrekt klassificering utav UAV:n och 96.76% på fåglar. Projektet är delvis utfört med J. Clemedson [2] vars fokus är att, som tidigare nämnt, transformera dessa signaler till hörbara signaler.
230

A predictor corrector method for a Finite ElementMethod for the variable density Navier-Stokes equations / En prediktorkorrigeringsmetod för en Finita Elementmetoden för Navier-Stokes-ekvationer med variabel densitet

Haasler, Isabel January 2017 (has links)
Constructing Finite Element Methods for the incompressible Navier-Stokes equations that are computationally feasible requires the use of pressure segregation methods such as the predictor corrector scheme. From an algebraic point of view these methods correspond to a preconditioned Richardson iteration on the pressure Schur complement. In this work the theory is extended to a variable density model. We suggest a modified preconditioner and investigate its performance experimentally. / Konstruktion av Finita Elementmetoder för de inkompressibla Navier-Stokes ekvationer som är beräkningsmässigt genomförbara kräver användning av trycksegregeringsmetoder såsom prediktorkorrigeringsschemat. Från en algebraisk synvinkel motsvarar dessa metoder en förkonditionerad Richardsoniteration på tryck-Schur-komplementet. I detta arbete utvidgas teorin till en variabel-densitet-modell. Vi föreslår en modifierad preconditioner och undersöker prestanda experimentellt.

Page generated in 0.4245 seconds