• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 558
  • 32
  • 6
  • 2
  • Tagged with
  • 618
  • 618
  • 583
  • 52
  • 41
  • 40
  • 38
  • 34
  • 33
  • 30
  • 30
  • 29
  • 28
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Geometric Shape Preservation in Adaptive Refinement of Finite Element Meshes

Kadir, Ashraful January 2010 (has links)
This thesis presents a vertex repositioning based boundary smoothing technique so that the finite element mesh, as refined, converges to the geometric shape of the domain. Adaptive mesh refinements based on a posteriori error estimates is already available within FEniCS, a free software for automated solution of differential equations. However, as the refinement process runs independently of theCAD (Computer-Aided Design) data, once the initial mesh is created the geometric shape is fixed and remains unchanged. The proposed technique removes this limitation enabling the mesh to be reshaped during the mesh refinement process according to the geometry. In the proposed technique, upon mesh refinements,the boundary vertices are repositioned to the orthogonal projection point on to the surface geometry. Newton iteration based iterative closest point algorithms have been used to search points projection on to the geometry represented as NURBS (Nonuniform Rational B-splines). For the new boundary vertices, old neighbor-nodes’ projection data have been used for obtaining an initial guess for the Newton’s iteration. Projection parameters for the boundary vertices of an initial coarse mesh is gathered using exhaustive search for points projection on the whole geometry. Once the mesh boundary vertices are repositioned, positions of the internal vertices are adjusted using mesh smoothing. Experimental results show that the method is sufficiently accurate and efficient for both 2D and 3D problems for some simple test cases. Inverted cells, which could invalidate the mesh, are not developed. Cell based mesh quality analysis and time performance analysis have been presented. Experimentally, it has been shown that using the proposed technique it is sufficient to start with a coarse mesh all over the domain and adaptively refine the mesh and the coarse mesh, as refined, captures the curved geometry more accurately. Since the proposed technique does not change the mesh topology and the finite element solver or mesh elements are not required to be changed, the developed tools can be plugged in to the finite element solver without much involvements. Although the tools are developed to become integrated parts of FEniCS, the parts representing geometric data manipulation can be used with other applications as well. Implementations in this thesis are limited for single NURBS patch geometry only and recommendations are given for future improvements to incorporate multiple patch NURBS geometry and trimmed NURBS.
142

A Column Generation Method for Minimization of Shift Costs at an Airport

Sundqvist Swahn, Lars January 2019 (has links)
This thesis addresses the problem with minimizing the cost of labor shifts for the workforce at an airport. The cost of idle time is specifically a difficulty for the employer. With idle time means time that it is not a break at the same time as there is no work task to be performed. This originates from big variations in the traffic flow which lead to the workload to be characterized by peaks and valleys. This situation has increased the demand among airport service companies for efficient staff schedules. Even small reductions of the idle time mean considerable savings for the employer. This thesis uses authentic data from an international airport in Europe. The method used to solve the task is an algorithm based on column generation. The mathematical model used has a high flexibility and handles breaks, multi-activity, such as boarding, and non-splittable tasks, in other words tasks that has to be performed by one employee in one shift. The subproblem is a binary integer program that generates feasible shifts following certain rules and is solved using a commercial solver. The results have shown possible improvements. In the best test scenario, the idle time is reduced to 4.7 percent of the total worktime. There is room for improvement of the model and the results. One possible improvement is to reduce the running time of the program which also could lead to improved results. / Det här arbetet adresserar problemet med att minimera skiftkostnaderna för arbetskraften på flygplatser. Speciellt är det tom arbetstid som innebär kostnader för arbetsgivaren. Med tom arbetstid menas att det inte är rast samtidigt som ingen arbetsuppgift finns att utföra. Detta är en följd av stora variationer i trafikflödet vilket leder till att arbetsbördan utmärks av toppar och dalar. Av den anledningen är efterfrågan hög på effektiva scheman för de anställda hos de aktörer som sysslar med service på flygplatser. Även en liten minskning av tomtiden innebär betydande besparingar för arbetsgivaren. Arbetet bygger på autentiska data om arbetsuppgifter och personal vid en europeisk storflygplats. Metoden som används för att lösa uppgiften är en algoritm baserad på kolumngenerering i en matematisk modell med hög flexibilitet. Den hanterar raster, flera aktiviteter, som boarding, samt odelbara uppgifter, det vill säga uppgifter som måste utföras av en person under ett skift. Underproblemet är skrivet som ett binärt heltalsprogram och genererar tillåtna skift enligt ett antal regler och löses med ett kommersiellt lösningsprogram. Resultaten har visat på möjliga effektiviseringar. I det bästa testscenariot reduceras tomtiden till 4,7 procent av den totala arbetstiden. Det finns utrymme att förbättra modellen och resultaten, bland annat genom att förkorta tiden att köra programmet vilket också i sin tur kan förbättra resultaten.
143

A study on Friction Boundary Conditions with Unicorn/FEniCS-HPC / Effektiv Direkt FEM simulation av aerodynamik

Natale, Irene January 2019 (has links)
The aim of this thesis is to present and validate a boundary condition formulation for CFD problems that includes a friction parameter. In the first part of the thesis the incompressible Navier-Stokes system of equations and the friction boundary conditions are presented. Then the Finite Element methodology that is used to discretize the problem is given, with particular emphasis to the a-posteriori error estimate, the adaptive algorithm and the numerical tripping included in the flow. Moreover, since FEniCS-HPC is the software on which this thesis leans on, its framework is explained, together with its powerful parallelization strategy. Then the weak formulation of the Navier Stokes system of equation coupled with friction boundary conditions is presented, together with an initial theoretical derivation of the friction coefficient optimal values. Furthermore, in the last chapter, the preliminary results of a validation study for the lift coefficient of the NACA0012 airfoil benchmark model are included and commented in detail. Even if there still are some aspects to be elucidated, we believe that our preliminary results are very promising and that they open a new pathway for simulation development in aerodynamics-related models. / Målet med denna avhandling är att presentera och validera ett rand-villkor för CFD problem som inkluderar en friktionsparameter. I den första delen av avhandlingen presenterar vi det inkompressibla Navier-Stokes system av ekvationer och dess randvillkor för friktion. Sedan använder vi oss av Finita Elementmetoden som används för att diskretisera problemet som är presenterat, med en särskild betoning på a posteriori feluppskattningen, den adaptiva algoritmen och den numeriska trippingen som fanns med i flödet. Eftersom denna avhandling helt lutar sig mot FEniCS-HPC mjukvara, förklaras dess ramverk, tillsammans med dess kraftfulla parallelliseringsstrategi. Därefter pre-senterar vi den svaga formuleringen av Navier-Stokes system av ekvationer kopplad till friktionsgränserna, tillsammans med en initiell teoretisk härledning av friktionskoefficientens optimala värden. Vidare, i det sista kapitlet, presenteras de preliminära resultaten av en valide-ringsstudie av lyftkoefficienten för modellen som använts vid benchmarking av NACA0012:s bärytan, som är kommenterad i detalj. Även om det fortfarande finns aspekter som bör belysas tror vi att vårt preliminära resultat är väldigt lovande och att det öppnar en ny väg för simuleringsutveckling i aerodynamikrelaterade modeller.
144

Latent Task Embeddings forFew-Shot Function Approximation / Latent funktionsrum för approximering av few-shotfunktioner

Strand, Filip January 2019 (has links)
Approximating a function from a few data points is of great importance in fields where data is scarce, like, for example, in robotics applications. Recently, scalable and expressive parametric models like deep neural networks have demonstrated superior performance on a wide variety of function approximation tasks when plenty of data is available –however, these methods tend to perform considerably worse in low-data regimes which calls for alternative approaches. One way to address such limitations is by leveraging prior information about the function class to be estimated when such data is available. Sometimes this prior may be known in closed mathematical form but in general it is not. This the-sis is concerned with the more general case where the prior can only be sampled from, such as a black-box forward simulator. To this end, we propose a simple and scalable approach to learning a prior over functions by training a neural network on data from a distribution of related functions. This steps amounts to building a so called latent task embedding where all related functions (tasks) reside and which later can be efficiently searched at task-inference time - a process called fine-tuning. The pro-posed method can be seen as a special type of auto-encoder and employs the same idea of encoding individual data points during training as the recently proposed Conditional Neural Processes. We extend this work by also incorporating an auxiliary task and by providing additional latent space search methods for increased performance after the initial training step. The task-embedding framework makes finding the right function from a family of related function quick and generally requires only a few informative data points from that function. We evaluate the method by regressing onto the harmonic family of curves and also by applying it to two robotic systems with the aim of quickly identifying and controlling those systems. / Att snabbt kunna approximera en funktion baserat på ett fåtal data-punkter är ett viktigt problem, speciellt inom områden där tillgängliga datamängder är relativt små, till exempel inom delar av robotikområdet. Under de senaste åren har flexibla och skalbara inlärningsmetoder, såsom exempelvis neurala nätverk, uppvisat framstående egenskaper i scenarion där en stor mängd data finns att tillgå. Dessa metoder tenderar dock att prestera betydligt sämre i låg-data regimer vilket motiverar sökandet efter alternativa metoder. Ett sätt att adressera denna begränsning är genom att utnyttja tidigare erfarenheter och antaganden (eng. prior information) om funktionsklassen som skall approximeras när sådan information finns tillgänglig. Ibland kan denna typ av information uttryckas i sluten matematisk form, men mer generellt är så inte fallet. Denna uppsats är fokuserad på det mer generella fallet där vi endast antar att vi kan sampla datapunkter från en databas av tidigare erfarenheter - exempelvis från en simulator där vi inte känner till de interna detaljerna. För detta ändamål föreslår vi en metod för att lära från dessa tidigare erfarenheter genom att i förväg träna på en större datamängd som utgör en familj av relaterade funktioner. I detta steg bygger vi upp ett så kallat latent funktionsrum (eng. latent task embeddings) som innesluter alla variationer av funktioner från träningsdatan och som sedan effektivt kan genomsökas i syfte av att hitta en specifik funktion - en process som vi kallar för finjustering (eng. fine-tuning). Den föreslagna metoden kan betraktas som ett specialfall av en auto-encoder och använder sig av samma ide som den nyligen publicerade Conditional Neural Processes metoden där individuella datapunkter enskilt kodas och grupperas. Vi utökar denna metod genom att inkorporera en sidofunktion (eng. auxiliary function) och genom att föreslå ytterligare metoder för att genomsöka det latenta funktionsrummet efter den initiala träningen. Den föreslagna metoden möjliggör att sökandet efter en specifik funktion typiskt kan göras med endast ett fåtal datapunkter. Vi utvärderar metoden genom att studera kurvanpassningsförmågan på sinuskurvor och genom att applicera den på två robotikproblem med syfte att snabbt kunna identifiera och styra dessa dynamiska system.
145

A study and further development of nonlinear unsupervised methods : With applications to financial data / En studie och vidarutveckling av ickelinjära oövervakade metoder : Med tillämpningar på finasiell data ​

Rydström, Henning January 2019 (has links)
The main focus for this thesis is nonlinear dimensionality reduction. When analysing data of high dimension it is often vital to find a lower dimension representation of the data, while preserving as much information as possible. Dimension reduction is therefore used in many fields of science and in many industries. This thesis will deal with applications in finance, and hence financial data. The thesis was made in collaboration with the third national Swedish pension fund, AP3. They wanted a dimension reduction method that is efficient, noise robust and which preserves both linear and nonlinear patterns in the data. Consequently, the main purpose of this thesis is to develop such a method. The method proposed by this thesis is a combination of published and self-developed extensions of the Isomap method. For investigating different methods they are applied on both academic data sets in three dimensions, such as the Swiss-roll and the S-plane, and on specific financial data sets such as the S\&P 500 and commodity prices. The results from the academic examples indicate that the proposed method manages to find nonlinear structures in noisy data in an efficient way. The results from the financial data sets are interesting but much harder to interpret. AP3s idea is to use our proposed method as a pre-processing step in their big data algorithms for trading and economic analysis, but that application is out of scope for this thesis. The last part of the thesis will make a brief introduction to Topological data analysis (TDA). It will cover the basic theory and will be used for some simple applications on financial data. / Det huvudsakliga fokuset för denna uppsats är ickelinjär dimensionsreducering. När data av hög dimensionalitet analyseras är det ofta viktigt att finna en representation med färre dimensioner som samtidigt bevarar så mycket information som möjligt. Dimensionsreducering har därför tillämpningar i många olika områden. Denna uppsats kommer att behandla tillämpningar inom finans, och därmed finansiell data. Uppsatsen gjordes i samarbete med den Tredje Allmänna Pensionsfonden, AP3. Deras önskan var en metod för dimensionsreducering som var effektiv, robust mot brus och som bevarade både linjära och icke-linjära datastrukturer. Huvudmålet med denna uppsats är därmed att ta fram en metod som uppfyller dessa krav.  Metoden denna uppsats kommer fram till är en kombination av redan publicerade och egenutvecklade utbyggnader av metoden Isomap. För att undersöka olika metoder testas de på både akademiska datamängder i tre dimensioner, med tydliga ickelinjära strukturer, och på specifika exempel av finansiell data, såsom S\&P 500 och råvarupriser. Resultaten från de akademiska exemplen indikerar att den föreslagna metoden klarar av att finna icke linjära strukturer i brusiga datamängder effektivt. Resultaten från de finansiella exemplen är intressanta men mycket svårare att dra några slutsatser från. AP3s idé är att använda vår föreslagna metod som ett förbehandlingssteg till deras ”big data” algoritmer för värdepappershandel och ekonomisk analys, men den tillämpningen ligger utanför denna uppsats. Sista delen av denna uppsats är en introduktion av Topologisk data analys (TDA). Grundläggande teori täcks och enkla tillämpningar på finansiell data görs.
146

Analysis of a mathematical model in Python for geographical disaggregation of freight growth rates based on the pivot-point method

Hernebrant, Karl January 2019 (has links)
One of the tasks for the Swedish Transport Agency, Trafikverket, is to provide traffic forecasts. To do this, a number of different forecast models are used, where Samgods is a nationally estimated model, where the quality of the results gets more unstable the more disaggregated level you are looking at. For rail this is handled with a model called Bangods. However, in Bangods the difference in geographical growth within each commodity group is lost. This thesis examines whether it is possible to replace the national growth rates from Samgods with geographical disaggregated growth rates. The growth rates are calculated with a mathematical model based on the pivot point method (PPM). The model has been implemented in Python and is used to disaggregate the growth rates from Samgods to maintain the geographical growth. However, the data to the model comes from different systems and models that use different link formats. Therefore a link matching method is required that converts links from one system to another before using PPM. The growth rates from the PPM and the link matching-method has been modelled for twelve commodity groups, 8 or 1417 geographic regions and with or without a train division with four train types. The best result was to used 96 growth rates divided into twelve commodity groups and eight geographical regions. / En av Trafikverkets uppgifter är att ta fram trafikprognoser. För att göra detta används ett antal olika prognosmodeller, där Samgods är den huvudsakliga modellen för godstrafik som beskriver godstransporter med lastbil, järnväg, sjöfart och flyg. Samgods anses dock ge orealistiska resultat för delar av järnvägssystemet. För att lösa detta används en modell som heter Bangods. Bangods resultat blir dock för aggregerat och saknar en geografisk uppdelning för tillväxttalen. Detta examensarbete undersöker om det går att ersätta de nationella tillväxttalen från Samgods med mer dissaggregerade tillväxttal med en geografisk uppdelning. Tillväxttalen tas fram med en matematisk modell som utgår från pivot point-metoden (PPM). Modellen har implementerats i Python och används för att dissaggregera tillväxtalen från Samgods så att den geografiska tillväxten behålls. Data till modellen kommer dock från olika system och modeller som använder olika länkindelningar. Därför behövs det en länkmatchingsmetod som konverterar länkar från ett system till ett annat innan PPM kan användas. Tillväxtallen från PPM och länkmatchningen har tagits fram för tolv varugrupper, 8 eller 1417 geografiska regioner och med eller utan en tåg-indelning med fyra tågtyper. Bäst resultat blev det med 96 tillväxttal uppdelade i tolv varugrupper och åtta geografiska regioner. Det vill säga, tolv tillväxttal som appliceras på samtliga länkar inom en region.
147

Quantification of Model Rrisk / Kvantifiering av modellrisk

Sved, Sofia January 2019 (has links)
The awareness of model risk has increased due to the increased use of models to valuate financial instruments and their increasing complexity and regulators now require financial institutions to manage it. Despite this, there is still no industry or market standard when it comes to the quantification of model risk. The objective with this project is to find and implement a method that may be used to quantify model risk and evaluate it based on accuracy, efficiency and generalizability. Several approaches to model risk in the literature are explored in this thesis and it is concluded that existing methods are generally not efficient, accurate or generalizable. However, by combining two of the existing methods in the literature and using data on counterparty valuations, another method to quantify model risk can be constructed. This method is implemented and backtested and it is found to be accurate, general and more efficient than alternative approaches. Furthermore, this method may also serve in model validation as a mean to judge the quality of valuations and compare valuation models to each other. One limitation of the method is that if there are few counterparties for a valuation model, say 1 or 2, the method used in this thesis is not suitable. / Medvetenheten kring modellrisk har ökat på grund av ökad användning av modeller vid värdering av finansiella instrument samt deras ökande komplexitet. Dessutom begär nu regulatorer att institutioner ska beräkna samt redogöra för modellrisk. Trots detta finns ännu ingen bransch eller marknadsstandard när det kommer till hur modellrisk bör kvantifieras. Syftet med projektet är att hitta och implementera en metod som kan användas för att kvantifiera modellrisk samt utvärdera denna baserat på effektivitet, noggrannhet och generaliserbarhet. I den här uppsatsen har flera olika tillvägagångssätt i litteraturen för att kvantifiera modellrisk utvärderats med slutsatsen att befintliga metoder i allmänhet varken är effektiva, korrekta eller generaliserbara. Däremot, genom att kombinera två av de befintliga metoderna i litteraturen och använda data om motpartsvärderingar kan en annan metod för att kvantifiera modellrisken konstrueras. Denna metod implementeras och backtestas och den visar sig vara noggrann, generaliserbar och effektivare än de alternativa metoderna vilket var vad som eftersöktes. Vidare kan denna metod också tjäna i modellvalidering som ett medel för att bedöma hur väl värderingar från en viss modell överensstämmer med marknadens värderingar samt för att jämföra värderingsmodeller med varandra. En begränsning som kan identifieras för denna metod är att om det finns få motparter till en värderingsmodell, säg 1 eller 2, är metoden som används i denna uppsats inte lämplig för att kvantifiera modellrisk.
148

Improved Differential Diagnostics Using Methods in Machine Learning and Regression / Förbättrad differentialdiagnostik med metoder inom maskininlärning och regression

Andblom, Mikael January 2018 (has links)
There is a desire both from the patient and the society to have efficient tools for differential diagnostics. Mathematical relationships between diseases and observable consequences are defined in the thesis. Specifically artificial neural networks are considered in the modeling of the doctor’s methodology. To suggest further lab tests or symptoms to look for the network is inverted by looking at a minimization problem where the objective function gradient can be analytically calculated. Due to difficulties in obtaining real life medical data a program was constructed to generate artificial patient data sets. These data sets will be used to establish proof of concepts. Some data set quality measures are defined and used to model the network accuracy and training time. It is then estimated that a problem with 4000 diagnoses and 20 000 observable consequences would require 200 000 patients to obtain a classification accuracy of 99% with a training time of 50 hours depending on the computational power. Overall the solution strategy seems promising but studies on real life data is required for definitive answers. / Det finns ett behov från både patienten och samhället att ha effektiva verktyg för differentialdiagnostik. Matematiska förhållanden mellan sjukdomar och ob-serverbara konsekvenser definieras i uppsatsen. Specifikt så används artificiella neuronnät i modelleringen av läkarens metodik. För att föreslå ytterligare labprover eller symptom att leta efter inverteras nätverket genom att studera ett minimeringsproblem där målfunktionens gradient kan beräknas analytiskt. På grund av svårigheter i att erhålla verklig medicinsk data konstruerades ett program för att generera artificiell patientdata. Denna patientdata kommer att användas för att etablera bevis på koncept. Några mått på kvalitén av patientdata definieras och används för att modellera nätverkets noggrannhet och träningstid. Det uppskattas sedan att ett problem med 4000 diagnoser och 20 000 observerbara konsekvenser skulle kräva 200 000 patienter för att uppnå en klassificeringsnoggrannhet på 99%med en träningstid på 50 timmar beroende på beräkningskraften. I helhet verkar lösningsstrategin lovande men studier på verklig data krävs för definitiva svar.
149

Test and Assessment of Derivative Computation Architectures using OpenMDAO and its Application in a Real Airfoil Optimization Problem / Test och bedömning av derivatberäkningsarkitekturer som använder OpenMDAO och dess tillämpning i ett verkligt problem för flygplansoptimering

Shi, Xin January 2018 (has links)
Optimization problems are widespread in everyday life and engineering science. In the engineering optimization domain, the problems are usually modelled with an objective function. To solve these kinds of optimization problems, there are two main classes of optimization algorithms that are used: gradient-based algorithms and gradient-free algorithms. We will focus on gradient-based algorithms where the computation of derivatives is a critical step in the process. In this thesis, we present five different methods for computing the derivatives. These are the finite-differences method (FD), the complex-step method (CS), the automatic-differentiation method (AD), and two analytical methods – the direct and adjoint methods. We demonstrate the procedures involved in these methods in a test case and show their implementation using NASA’s Open source framework for Multidisciplinary Analysis and Optimization (OpenMDAO). Finally, we test and assess their performance in OpenMDAO by modelling a real airfoil problem. / Test och bedömning av derivatberäkningsarkitekturer som använ-der OpenMDAO och dess tillämpning i ett verkligt problem för flygplansoptimering. Optimeringsproblemen är utbredda i vardagsliv och ingenjörsvetenskap. I ingenjörsoptimeringsteknik modelleras problemen vanligtvis med en objektiv funktion. För att lösa dessa slags ingenjörsoptimeringsproblem finns två huvudkategorier av optimeringsalgoritmer: gradientbaserade algoritmer och gradientfria algoritmer. Vi kommer att fokusera på gradientbaserade algoritmer där beräkningen av derivatan är ett kritiskt steg i processen. I denna avhandling presenterar vi fem olika metoder för att beräkna derivatan. Dessa är så kallade Finita differensmetoden (FD), komplexa stegmetoden (CS), den automatiska differentieringsmetoden (AD) och två analytiska metoder - direkt och så kallade adjoint - metoder. Vi demonstrerar hela proceduren med dessa metoder på testfall och visar deras genomförande med hjälp av NASA:s mjukvara Open Source Framework MultiDisciplinary Analy-sis and Optimization (OpenMDAO). Slutligen testar och utvärderar vi deras prestanda i OpenMDAO genom att modellera ett verkligt problem med flygblad.
150

Improving Planning and Scheduling of Appointments at a Rehab Clinic / Förbättring av planering och schemaläggning av bokade tider vid en rehabiliteringsklinik

Stiernman, Karl January 2018 (has links)
An online simulated model of the routine at a rehab clinic was produced. Even if the model would be used only for long-term planning some results could still be relevant. It is also useful for simulating the response of the system when testing alternative scenarios. The subject of this thesis cannot be easily modeled or defined as any standard operations research problem. It belongs to the very general category of scheduling. Some subproblems include employee scheduling and a variant of the bin packing decision problem. Related processes and practices are queuing theory, resource allocation, model building and simulation. The main problem was to schedule a number of activities, part of assessments or rehab programs, that were to be allocated resources in the form of personnel and locations. Each of the referrals and patients were to be assigned to assessments or programs belonging to a certain rehab team. A regression model was developed to predict the arrival rate of the referrals to the clinic. The scheduling of programs was solved by the use of metaheuristics. The purpose of the simulation modeling was to study the effect of certain scheduling strategies. The results are open to interpretation since almost all measures have tradeoffs. Only the management could decide what should be put into practice. The special cases investigated in this work could be part of the decision. / En realtidsanpassad simuleringsmodell framställdes, vilken beskriver verksamheten på en rehabiliteringsklinik. Även om modellen enbart skulle avändas för långtidsplanering skulle vissa resultat fortfarande kunna vara relevanta. Den är också användbar för att simulera systemets uppförande när alternativa scenarion testas. Det går inte att beskriva den framtagna matematiska modellen som ett standardproblem inom operationsanalys. Det tillhör den övergripande kategorin schemaläggningsproblem. Delproblem inbegriper tilldelning av anställda och ett beslutsproblem närbesläktat med flera olika packningsproblem. Andra läror och områden som utnyttjats är köteori, resursfördelning, modellbygge och simulering. Kärnproblemet utgjordes av att schemalägga ett antal aktiviteter, som i sin tur tillhörde bedömningsfasen eller ett rehabiliteringsprogram, och som skulle tilldelas resurser i form av anställda och lokaler. Varje remiss och patient går igenom bedömning eller rehabiliteringsprogram tillhörande ett visst rehabiliteringsteam. En regressionsmodell togs fram för att förutse mängden remisser till kliniken en given dag. Vid schemaläggningen av rehabiliteringsprogram användes en metaheuristisk metod. Syftet med simuleringen var att analysera resultaten av olika schemaläggningsstrategier. Resultaten är flertydiga eftersom i princip alla åtgärder leder till både förbättringar och försämringar. Enbart ledningen bestämmer vad som ska tillämpas i praktiken. Specialfallen som behandlas i denna avhandling skulle kunna vara en del av beslutsprocessen.

Page generated in 0.1779 seconds