• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 271
  • 2
  • Tagged with
  • 550
  • 310
  • 245
  • 82
  • 82
  • 81
  • 77
  • 70
  • 66
  • 65
  • 60
  • 58
  • 58
  • 57
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Framtagning av optimal buffertstorlek för ökad produktion på Scania / Determining optimal buffer size for increased production at Scania

Amnelius, Gustaf, Flink, Gustav January 2023 (has links)
Detta arbete har gjorts åt Scania som är ett av de ledande företagen inom lastbilstillverkning. Arbetet har utförts på plats I Södertälje på Scanias cylinderhuvudstillverkning. Området som arbetet behandlar är relativ nytt och därför upptäcks en del nya problem. Ett av dessa problem är att en befintlig 7 bitars buffert mellan två maskiner, OP70 och OP80, antingen står full eller tom, vilket leder till produktionsbortfall. Dessutom har OP80 många stopp vilket leder till att bufferten snabbt fylls upp och OP70 inte kan fortsätta arbeta. Därför ville Scania undersöka om en förändring på buffertstorlek skulle kunna lösa detta problem. För att kunna undersöka huruvida en större buffert skulle lösa problemet användes simulering som verktyg. I simuleringsprogrammet ExtendSim 10 byggdes två simuleringar upp. Den ena simuleringen som kallas “nuläge” är baserad på hur det såg ut då arbetet startades. Den andra kallas “målbild” och är uppbyggd med de cykeltider och stoppfrekvenser som Scania önskar att dessa maskiner har I framtiden. Under arbetets gång började man använda nya verktyg I OP80 maskinerna och det beslutades att dessa nya verktyg används i simuleringen av målbilden men inte I simuleringen av nuläget. När ett stort antal olika buffertstorlekar hade simulerats kunde grafer ställas upp som visar hur många bitar man får ut vid varje buffertstorlek samt hur stor ökning det motsvarar jämfört med den befintliga bufferten med 7 platser. Genom detta kunde även den optimala buffertstorleken för de två simuleringarna fastställas. Utifrån resultaten diskuteras tre olika handlingsalternativ, fördelar och nackdelar med dessa handlingsalternativ samt vilket av handlingsalternativen som de som utfört arbetet rekommenderar. / This project has been done for Scania, which is one of the leading companies in truck manufacturing. The work has been carried out on site in Södertälje at Scania’s cylinder head manufacturing. The production line the project has been carried out on is relatively new and has had a few problems during its start up. One of these problems is a buffer located between the machines OP70 and OP80 that, most of the time, is either full or empty. This leads to loss of production. That is why Scania wants to investigate whether a change in buffer size can solve this problem. To help with investigating whether a larger buffer would solve the problem simulation was used. In the simulation program ExtendSim 10 two simulation models were built. One model was named “nuläge” and is a reflection of how the production line looked at the start of the project. The other was named “målbild” and uses the cycle times and shut down frequencies Scania wishes to have in the future. During the course of the project Scania started using new tools in the OP80 machines and it was decided to use these new tools in the målbild simulation but not in the nuläge simulation. When all relevant buffer sizes had been simulated, graphs showing how many manufactured pieces you would get at different buffer sizes could be plotted. Graphs showing the percentage of which production was increased, compared to the existing buffer with 7 places, was also created in a similar way. Through these graphs the optimal buffer size for both simulations could be established. From these results three courses of action were discussed and compared by their pros and cons. Lastly a recommended course of action is chosen.
362

Flex Carrier : Den smarta lastbäraren

Luhanka, Jimmy, Musliu, Idriz January 2020 (has links)
Projektet genomförs tillsammans med företaget Getinge AB som ligger i Getinge.   Syftet med projektet är att utveckla en lastbärare som ska bli en Getingelösning. Företaget har föravsikt att kunna erbjuda sina kunder en automatiserad helhetslösning inom steriliseringsprocessen inom Life Science-området. I rapporten så kommer det att presenteras ett slutgiltigt koncept på lastbärare som Getinge kan använda i deras kommande utveckling av lastbärare, för att tillgodose alla behov och krav som ställs. Getinge har ingen universal lösning som kan agera som plattform vid affärsmöjligheter, i stället blir lastbäraren mer kundunik. Projektets mål är att hitta en lösning på problemet och även skapa mervärde åt kunden. Antalet steriliserade produkter begränsas av autoklavens volym samt hur effektiv lastbäraren är på att utnyttja varje volymenhet. Verktygen som tillämpats bygger på Lean Produktutveckling med bland annat SWOT, intervjuer, BAD-PAD-CAD-MAD, FMEA-analys.   Det slutgiltiga konceptet har en innovationshöjd som maximerar kapaciteten och ökar användarmöjligheten. / The project is carried out together with the company Getinge AB, located in Getinge, Sweden.  The purpose of the project is to develop a load carrier that will become a Getinge solution. The company intends to be able to offer its customers an automated complete solution within the sterilization process within the Life Science area. The report will present a final concept for load carriers that Getinge can use in their future development of load carriers, to meet all needs and requirements.  Getinge has no universal solution that can act as a platform for business opportunities, instead the load carrier becomes a unique customer solution. The project's goal is to find a solution to the problem and create added value for the customer. The number of sterilized products is limited by the volume of the autoclave and how efficient the load carrier is at utilizing each volume unit.  The tools applied are based on Lean Product Development with, among other things, SWOT, interviews, BAD-PAD-CAD-MAD, FMEA analysis.  The final concept has an innovation height that maximizes capacity and increases user potential.
363

Offline Reinforcement Learning for Optimization of Therapy Towards a Clinical Endpoint / Offline förstärkningsinlärning för optimering av terapi mot ett kliniskt slutmål

Jenner, Simon January 2022 (has links)
The improvement of data acquisition and computer heavy methods in recentyears has paved the way for completely digital healthcare solutions. Digitaltherapeutics (DTx) are such solutions and are often provided as mobileapplications that must undergo clinical trials. A common method for suchapplications is to utilize cognitive behavioral-therapy (CBT), in order toprovide their patients with tools for self-improvement. The Swedish-basedcompany Alex Therapeutics is such a provider. They develop state-of-theartapplications that utilize CBT to help patients. Among their applications,they have one that aims to help users quit smoking. From this app, they havecollected user data with the goal of continuously improving their servicesthrough machine learning (ML). In their current application, they utilizemultiple ML methods to personalize the care, but have opened up possibilitiesfor the usage of reinforcement learning (RL). Often the wanted behavior isknown, such as to quitting smoking, but the optimal path, within the app, forhow to reach such a goal is not. By formalizing the problem as a Markovdecision process, where the transition probabilities have to be inferred fromuser data, such an optimal policy can be found. Standard methods of RL arereliant on direct access of an environment for sampling of data, whereas theuser data sampled from the application are to be treated as such. This thesisthus explores the possibilities of using RL on a static dataset in order to inferan optimal policy. A double deep Q-network (DDQN) was chosen as the reinforcement learningagent. The agent was trained on two different datasets and showed goodconvergence for both, using a custom metric for the task. Using SHAPvaluesthe strategy of the agent is visualized and discussed, together with themethodological challenges. Lastly, future work for the proposed methods arediscussed. / Förbättringar av datainsamling och datortunga metoder har på senare år banatväg för helt digitala vårdlösningar. Digitala terapier (DTx) är sådana lösningaroch tillhandahålls ofta som mobila applikationer. Till skillnad från andrahälsoappar måste DTx-applikationer genomgå klinisk prövning. En vanligmetod för sådana applikationer är att använda kognitiv beteendeterapi (KBT)för att ge patienter verktyg för självförbättring. Det svenskbaserade företagetAlex Therapeutics är en sådan leverantör. De utvecklar moderna applikationersom använder KBT för att hjälpa patienter. Bland deras appar har de förrökavvänjning. Från denna har de samlat in användardata med målet attkontinuerligt förbättra tjänsten via maskininlärning (ML). I sina nuvarandetillämpning använder de flera ML metoder för att personifiera vården, menhar öppnat möjligheter för användningen av Reinforcement learning (RL)(förstärkningsinlärning). Ofta är det önskade beteendet känt, t.ex att slutaröka, men den optimala vägen, inom appen, för hur man når ett sådant mål ärinte känt. Genom att formalisera problemet som en Markovsk beslutsprocess(Markov decision process), där övergångssannolikheterna måste härledas frånanvändardata, kan en sådan optimal väg hittas. Standardmetoder för RLär beroende av direktåtkomst till en miljö för att samla data. Dock skulleanvändardatan som samlats in från appen kunna behandlas på samma sätt.Detta examensarbete undersöker möjligheten att använda RL på statisk dataför att dra slutsatser om en optimal policy. Ett double deep Q-network (DDQN) (dubbelt djupt Q-nätverk) valdes somagent. Agenten tränades på 2 olika datasets och visar bra konvergens förbåda, med hjälp av ett anpassat mått för evaluering. SHAP-värden beräknadesför att visualisera agentens strategi. Detta diskuteas tillsammans med demetodologiska utmaningarna. Till sist behandlas framtida arbete för de föreslagnametoderna.
364

Study of yield variation in a pharmaceutical manufacturing process and optimization of purification subsection : By a design of experiments study of the production parameters and a laboratory study of the purification step / Studie av utbytesvariation i farmaceutisk tillverkningsprocess och optimering av processens reningssteg : Genom en försöksplaneringsstudie av produktionsparametrar och en laborativstudie av renings steget

Lord, Sandra January 2022 (has links)
The product R1-MR2E is an ester formed from an esterification of a carboxylic acid and an alcohol at Cambrex Karlskoga AB. The production of the intermediate R1-MR2E is a large-scale production and there are two main objectives and two sub-objectives that this project aims to study of the manufacturing.The manufacturing of R1-MR2E experience big variations in the product yield which is affecting theproductions stability and economic aspects of it. Thus, one of the main objectives in this project was to use experimental design to find significant factors that causes yield variations. The results from this study showed five significant factors that affect the yield positively or negatively by resulting in higher or lower product weight. The factors found are the amount of charged toluene solution containing the by-product R1-DR2E from the recycling system, the amount of charged carboxylic acid, the reaction time, the amount of added Na2SO3 in the neutralisation step and the regulated pH value after the crystallisation step. The other main objective is to optimize the purification sub-section using activated carbon (AC). There are two sub-objectives for this part of the study where the first sub-objective is to evaluate how much activated carbon that is needed to remove the impurities and colouration in the product. The second sub-objective is to investigate if an activated carbon filter could be used as a substitute for the commonly used loose powder activated carbon. To answer this objective a laboratory method was used, where the large-scale purification- and crystallisation step as well as after treatment were scaled down to lab scaleand then experiments were conducted to determine the effects of different amounts of activated carbon, using no carbon, and utilizing another type of activated carbon known as activated carbon filters. The results were then analysed for colour and purity by a visual observation method and High-Performance Liquid Chromatography (HPLC) method. The conclusion from this study is that only 25% of the amount of activated carbon used today is needed to remove the colouration in the product. The activated carbon did not completely remove the impurities in the product. The other conclusion was that the idea that the activated carbon removed the small impurities was wrong, and the levels of the impurities are already small enough in the large-scale production that the purification step is not needed to reach approved levels of these impurities. The activated carbon filter also works to remove the colouration with only one filtration but does not work well on removing the impurities in the product. / Produkten R1-MR2E är en ester som formas med en förestring av en karboxylsyra och en alkohol på Cambrex Karlskoga AB. Produktionen av intermediet R1-MR2E är en storskalig produktion och det finns två huvudmål och två delmål som studeras i studien. Produktionen av R1-MR2E upplever stora variationer i produktsutbytet vilket påverkar produktionensstabilitet och ekonomiska aspekter. Ett av målen med detta projekt är därmed att använda experimentell design för att hitta signifikanta faktorer som orsakar utbytesvariationer. Resultatet från den här studien visar på fem faktorer som påverkar utbytet positivt eller negativt genom att bidra till högre eller lägre utpackad vikt. Faktorerna som hittades är mängden av den satsade R1-DR2E från återvinningssystemet, mängden av den satsade karboxylsyran, reaktionstiden, mängden av den adderade Na2SO3 under neutralisation steget och de reglerade pH efter kristallisations steget. Det andra målet är att optimera ett av produktionens delsteg, rening med aktivt kol (AC). Det finns två delmål för den delen av studien, de två delmålen är att ta reda på hur mycket aktivt kol som behövs för att ta bort föroreningar och förbättra färgen i produkten samt undersöka om aktivt kolfilter kan användas som ett substitut för det vanligen använda lösa aktiva kolpulver. För att genomföra det här målet så användes en laborativ metod, där det storskaliga renings- och kristallisationssteget samt efterbehandling skalades ner till laborativ skala. Sedan genomomfördes experiment för att bestämma effekten av olika mängder aktivt kol, inget aktivt kol, och använda en annan typ av aktivt kol i formen av ett aktivtkolfilter. Resultaten från det laborativa arbetet analyserades sedan med en visuell metod samt högpresterande vätskekromatografisk (HPLC) metod. Slutsatsen från studien är att bara en 25% av den mängd aktivt kol som används i dagens läge behövs för att ta bort färgen i produkten. Det aktiva kolet tog dock inte bort föroreningarna i produkten speciellt bra. Det betyder att idén om att det aktiva kolet tar bort föroreningar är fel och att nivåerna av föroreningarna redan är tillräckligt låga i den storskaligaproduktionen för att bli godkända i koncentration utan reningssteget. AC filter fungerar också för att ta bort färgen med endast en filtrering men fungerar inte att använda för att ta bort föroreningarna i produkten.
365

Optimization Of A Virtual Power Plant In The German Electricity Market

Le Louarn, Theobald January 2017 (has links)
Distributed energy sources are becoming more and more important in the German electricitynetwork. One solution to manage this growing number of distributed assets liesin the Virtual Power Plant concept. A Virtual Power Plant aggregates decentralizedgenerators and loads to behave like a large power plant. Based on new technologies, ituses advanced communication technologies to provide different services (generation ofenergy, steering of power systems, balancing services ...). This thesis proposes a mixedintegerstochastic model of a Virtual Power Plant. The participation to different productsis being studied: selling power on day-ahead basis on the spot market, providingflexibility to the secondary and tertiary reserve market. The particularity of this modelis to consider the revenue generated by the stochastic activation of the reserve market.An operational tool named AlocaBid is implemented in Python, based on the developedmathematical model. The performance of the model is being evaluated using four studycases, representing typical market situations. The results demonstrate the advantage ofthe proposed model over state-of-the-art method for bids’ allocation. / Distribuerade energik¨allor blir allt viktigare i det tyska eln¨atverket. En l¨osning f¨or atthantera det v¨axande antalet distribuerade tillg°angar ¨ar Virtual Power Plant-konceptet.Ett virtuellt kraftverk styr decentraliserade generatorer och laster f¨or att efterlikna ettnormalt kraftverk. Baserat p°a ny teknik anv¨ander det avancerad kommunikationsteknikf¨or att tillhandah°alla olika tj¨anster (generering av energi, styrning av kraftsystem, balanseringstj¨anster ...). Denna avhandling f¨oresl°ar en stokastisk blanda heltalsmodell avett virtuellt kraftverk. Deltagandet i olika produkter studeras: F¨ors¨aljning av maktp°a daglig basis p°a spotmarknaden, vilket ger flexibilitet till den sekund¨ara och terti¨arareservmarknaden. Det speciella med denna modell ¨ar att den tar h¨ansyn till de int¨aktersom genereras av den stokastiska aktiveringen av reservmarknaden. Ett operationsverktygmed namnet AlocaBid implementeras i Python, baserat p°a den utvecklade matematiskamodellen. Modellens prestanda utv¨arderas med fyra studiefall, som representerartypiska marknadssituationer. Resultaten visar f¨ordelen med den f¨oreslagna modelleframf¨or den senaste tekniken f¨or budgivningens f¨ordelning.
366

Optimering av försörjningskedja av frysboxar / Optimization of supply chain of cooling boxes

de Sá Gustafsson, Alexandra Maria-Pia Madeleine, Delifotis, Georgios January 2019 (has links)
Dometic är ett stort industribolag som tillverkar lösningar främst för mobila hem. Fem procent av bolagets omsättning utgörs av en typ av kylbox, så kallad TE-box. TE-boxar består av kropp och ett lock där kylteknologin finns. Långa genomloppstider har resulterat i svårigheter med höga kostnader, långa ledtider från beställning till kund samt svårigheter att hantera fluktuationer i efterfrågan och planera lager. Syftet med detta arbete är att analysera Försörjningskedja för TE-boxarna och föreslå eventuelle förändrings- och förbättringsåtgärder gällande, material-, information- och penningflöde (direkta kostnader). Arbetet är utformat som en fallstudie hos Dometics huvudkontor i Solna strand. Metodvalet för att skapa en förståelse kring operationerna blev möten med intressepersoner. För att skapa en djupare förståelse kring hur problematiken och vilka delar av Supply Chain som är intressanta att undersöka användes teorier inom verksamhetsledning. För att lösa problem användes metoder från optimeringslära och systemteknik. All data som används i studien har tillhandahållits av olika representanter för Dometic. Resultatet visar att informationsflödet bör effektiviseras och att ledtiderna kan sänkas genom att ställa krav på underleverantörer att hålla råvarulager. Det visar även att den nuvarande placeringen av produktionsenheter är den optimala om man väger in olika kostnader och jämför med andra alternativ. Om resultatet skall användas som ett verkligt beslutsunderlag bör fler intressepersoner vara inblandade då man viktar kostnaderna. / Dometic group is a company that produces and sells products for mobile lifestyles. One of many products is a type of coolingbox, called TE-box. The TE-box stands for approximately five percent (5%) of Dometics revenue. Long lead times and presumably avoidable high costs are some problems connected to the production of TE-bxes. There are also imposing difficulties of meeting changes in demand and planning stock. The main purpose of this paper is to examine the supply chain of Dometic, with the TE-box in focus. Recommendations including improvement strategies with respect to material, information and money flows. These will be based on the results of our mathematical analysis and approach to the presented problem. The framework of this paper is the application of relevant mathematical theory to this real-life industrial problem. The models are derived from optimization and systems theory. Data was received directly from the source.
367

Gamma Knife treatment planning with new degrees of freedom / Behandlingsplanering med nya frihetsgrader för Strålkniven

Norell, Emil January 2019 (has links)
The Leksell Gamma Knife® is an instrument designed for high precision treatment of tumours and lesions located in the brain and upper spine. Today, the radioactive cobalt-60 sources can only move linearly along the radiation unit, but the machine could be modified to include rotational motion as well. We extend an existing linear programming approach to inverse planning for the Gamma Knife by examining the benefits from rotational degrees of freedom. The improvements offered from rotations are limited, but easy to make use of. We investigate the model in four patient cases, and find that an upper bound on the improvement of the optimization cost function is between 4.5% and 7.0% depending on case. With a total of four angles distributed uniformly over a 45 degree interval, one can in each case achieve a solution that performs up to within 1% of this bound. The average maximal improvements in terms of clinical metrics are 0.5% selectivity and 1.9% gradient index, at the cost of 5.9% worse beam-on time. No statistically significant change in coverage is found. A dynamic model based on column generation is proposed, which allows treatment during constant velocity angular motion and can achieve practically the same plan quality as the model with uniformly distributed angles at a significantly lower problem size. A similar algorithm can be designed to locate the most effective angles in a non-uniform manner that achieves better plans with fewer added rotational degrees of freedom. Trade-offs between memory and solution times are used to successively reduce the RAM occupation by around 90% and make significantly larger models computationally feasible to solve. A voxel clustering approach with emphasis on surface voxels, adapted to the radiosurgical framework, can significantly reduce the problem size while still producing competitive plans. / Strålkniven Leksell Gamma Knife® är ett instrument designat för högprecisionsbestrålning av tumörer och lesioner i hjärnan och övre delen av ryggraden. Idag kan de radioaktiva källorna endast förflyttas linjärt under behandlingen, men maskinen skulle kunna modifieras för att även tillåta rotationsrörelser. Vi utvidgar ett ramverk för inversplanering, formulerat som ett linjär-programmeringsproblem, genom att undersöka fördelarna med nya rotationsfrihetsgrader. Förbättringarna som rotationer möjliggör är begränsade, men kan relativt enkelt tas till vara. Vi undersöker de potentiella förändringarna i fyra patientfall och finner att den övre gränsen av förbättringarna för målfunktionsvärdet i optimeringsproblemet är mellan 4.5% och 7.0% beroende på fall. Genom att tillåta rotation av källorna till fyra jämnt fördelade vinklar över 45 grader kan man i samtliga fall hitta en lösning som är inom 1% från det bästa målfunktionsvärdet. De genomsnittliga förbättringarna i form av kliniska metriker är 0.5% selektivitet och 1.9% gradient-index, dock på bekostnad av en försämring av bestrålningstiden med 5.9%. Ingen tydlig förändring av täckningen kunde påvisas. En modell baserad på kolumngenerering, som tillåter behandling under rotation av kollimator-kroppen med konstant hastighet, föreslås. I denna modell kan praktiskt taget lika bra lösningar uppnås som för likformigt fördelade vinklar, men med betydligt mindre problemstorlek. En liknande algoritm kan lokalisera de mest effektiva vinklarna och åstadkomma samma plankvalitet med färre, men olikformt fördelade, rotationsfrihetsgrader. RAM-användningen kan reduceras med cirka 90% genom avvägningar mellan minne och beräknings-tider, vilket möjliggör lösning av probleminstanser som tidigare var beräkningsmässigt omöjliga. Klustringsmetoder av voxlar anpassade till strålkniven kan minska problemstorleken betydelsefullt medan de resulterande behandlingsplanerna är fortsatt konkurrenskraftiga.
368

Optimal Multi-Skilled Workforce Scheduling for Contact Centers Using Mixed Integer Linear Programming : A Method to Automatize Workforce Management / Optimal schemaläggning av multikompetent arbetskraft vid kundtjänstkontor med mixad linjär heltalsprogrammering : En metod för att automatisera personalplanering

Eriksson, Sara January 2020 (has links)
This master thesis in optimization and systems theory is a development of two different optimization models formulated to schedule multi-skilled agents for contact centers depending on the forecasted demand, assigned by Teleopti. Four mixed integer linear programming models are created with the optimization programming language GAMS and solved by the internet based solver NEOS. Two of the models are formulated to perform an optimal scheduling that matches a forecasted demand per skill and day and the remaining two models are formulated to perform an optimal scheduling that matches a forecasted demand per skill, day and half hour. The first two models are referred to as the Basic Models and the second two are referred to as the Complex Models. The Basic Models includes seven constraints and the Complex Model includes nine constraints, describing regulations at the contact center. The main goal of the project is to find an optimal solution that results in an as even distribution of under or over scheduling. The scheduling optimization covers a period of 28 days, starting on a Monday which results in four weeks. The optimization models are based on two sets of data, there are 104 assigned agents that possesses one, two or three of the skills Channel, Direct and Product. All agents are bound to work according to a contract specified through the constraints. In the Basic Model the forecasted demand is given in amount of hours per day and skill, the demand is non-cyclical. In the Complex model the forecasted demand is given in amount of half hours per day, skill and half hour. Each day is scheduled from 7 a.m. to 11 p.m. resulting in 32 available half hours. All optimization models are developed to correctly mathematically formulate the constraints specified by Teleopti. Any non-linear equation that arises are linearized to maintain linearity, this is favourable in the sense of computational time solving the models. The objective functions in this thesis are formulated to describe the main goal of even distribution as correctly as possible. The result for the Basic Model shows that an optimal solution is achieved after 34 seconds. This model contains 169,080 variables and 39,913 equations. In the Complex Models integer solutions are achieved, but no optimal solution is found in 8 hours of computational time. The larger Complex Model contains 9,385,984 variables and 1,052,253 equations and the smaller Complex Model contains 5,596,952 variables and 210,685 equations. Teleopti’s scheduler produces an integer solution matching the Complex Model in 4 minutes. / Detta examensarbete i optimering och systemteori är framtagningen av två olika optimeringsmodeller formulerade för att schemalägga multikompetenta agenter för kontaktcenters beroende av den förväntade efterfrågan, tilldelad av Teleopti. Fyra blandade heltals linjära programmeringsmodeller skapas med optimeringsprogrammeringsspråket GAMS och löses av den internetbaserade lösaren NEOS. Två av modellerna är formulerade för att utföra en optimal schemaläggning som matchar en prognostiserad efterfrågan per skicklighet och dag och de återstående två modellerna är formulerade för att utföra en optimal schemaläggning som matchar en prognostiserad efterfrågan per färdighet, dag och en halvtimme. De två första modellerna i detta arbete benämns de Grundläggande Modellerna och de resterande två benämns de Komplexa Modellerna. Grundmodellerna inkluderar sju bivillkor och de Komplexa modellerna innehåller nio bivillkor, vilka beskriver arbetsvillkoren på kontaktcentret. Projektets huvudmål är att hitta en optimal lösning som resulterar i en jämn fördelning av under- eller överschemaläggning. Den schemalagda optimeringen täcker en period av 28 dagar, vilken börjar på en måndag vilket resulterar i fyra veckor. Optimeringsmodellerna är baserade på två uppsättningar data, det finns 104 tillgängliga agenter vilka har en, två eller tre av kompetenserna Channel, Direct och Product. Alla agenter är bundna att arbeta enligt det kontrakt som specificeras genom bivillkoren. I grundmodellen anges den prognostiserade efterfrågan i timmar per dygn och kompetens, efterfrågan är icke-cyklisk. I den komplexa modellen anges den beräknade efterfrågan i mängd halvtimmar per dag, kompetens och halvtimme. Varje dag är schemalagd från kl. 07.00 till 23.00 vilket resulterar i 32 tillgängliga halvtimmar. Alla optimeringsmodeller är utvecklade för att matematiskt beskriva de begränsningar som Teleopti specificerar. Alla icke-linjära ekvationer som uppstår linjäriseras för att upprätthålla linjäritet, detta är gynnsamt i avseendet mängd tid beräkningen av modellerna tar. Målfunktionerna i detta arbete är formulerade för att beskriva huvudmålet för jämn distribution så korrekt som möjligt. Resultatet för grundmodellen visar att en optimal lösning uppnås efter 34 sekunder. Denna modell innehåller 169,080 variabler och 39,913 ekvationer. I de komplexa modellerna uppnås heltalslösningar, men ingen optimal lösning hittas på 8 timmars beräkningstid. Den större komplexa modellen innehåller 9,385,984 variabler och 1,052,253 ekvationer och den mindre komplexa modellen innehåller 5,596,952 variabler och 210,665 ekvationer. Teleoptis schemaläggare producerar en heltalslösning som matchar den komplexa modellen på 4 minuter.
369

Automated Bid Adjustments in Search Engine Advertising

Aly, Mazen January 2017 (has links)
In digital advertising, major search engines allow advertisers to set bid adjustments on their ad campaigns in order to capture the valuation differences that are a function of query dimensions. In this thesis, a model that uses bid adjustments is developed in order to increase the number of conversions and decrease the cost per conversion. A statistical model is used to select campaigns and dimensions that need bid adjustments along with several techniques to determine their values since they can be between -90% and 900%. In addition, an evaluation procedure is developed that uses campaign historical data in order to evaluate the calculation methods as well as to validate different approaches. We study the problem of interactions between different adjustments and a solution is formulated. Real-time experiments showed that our bid adjustments model improved the performance of online advertising campaigns with statistical significance. It increased the number of conversions by 9%, and decreased the cost per conversion by 10%. / I digital marknadsföring tillåter de dominerande sökmotorerna en annonsör att ändra sina bud med hjälp av så kallade budjusteringar baserat på olika dimensioner i sökförfrågan, i syfte att kompensera för olika värden de dimensionerna medför. I det här arbetet tas en modell fram för att sätta budjusteringar i syfte att öka mängden konverteringar och samtidigt minska kostnaden per konvertering. En statistisk modell används för att välja kampanjer och dimensioner som behöver justeringar och flera olika tekniker för att bestämma justeringens storlek, som kan spänna från -90% till 900%, undersöks. Utöver detta tas en evalueringsmetod fram som använder en kampanjs historiska data för att utvärdera de olika metoderna och validera olika tillvägagångssätt. Vi studerar interaktionsproblemet mellan olika dimensioners budjusteringar och en lösning formuleras. Realtidsexperiment visar att vår modell för budjusteringar förbättrade prestandan i marknadsföringskampanjerna med statistisk signifikans. Konverteringarna ökade med 9% och kostnaden per konvertering minskade med 10%.
370

Improving the performance of GPU-accelerated spatial joins

Hrstic, Dusan Viktor January 2017 (has links)
Data collisions have been widely studied by various fields of science and industry. Combing CPU and GPU for processing spatial joins has been broadly accepted due to the increased speed of computations. This should redirect efforts in GPGPU research from straightforward porting of applications to establishing principles and strategies that allow efficient mapping of computation to graphics hardware. As threads are executing instructions while using hardware resources that are available, impact of different thread organizations and their effect on spatial join performance is analyzed and examined in this report.Having new perspectives and solutions to the problem of thread organization and warp scheduling may contribute more to encourage others to program on the GPU side. The aim with this project is to examine the impact of different thread organizations in spatial join processes. The relationship between the items inside datasets are examined by counting the number of collisions their join produce in order to understand how different approaches may have an influence on performance. Performance benchmarking, analysis and measuring of different approaches in thread organization are investigated and analyzed in this report in order to find the most time efficient solution which is the purpose of the conducted work.This report shows the obtained results for the utilization of different thread techniques in order to optimize the computational speeds of the spatial join algorithms. There are two algorithms on the GPU, one implementing thread techniques and the other non-optimizing solution. The GPU times are compared with the execution times on the CPU and the GPU implementations are verified by observing the collision counters that are matching with all of the collision counters from the CPU counterpart.In the analysis part of this report the the implementations are discussed and compared to each other. It has shown that the difference between algorithm implementing thread techniques and the non-optimizing one lies around 80% in favour of the algorithm implementing thread techniques and it is also around 56 times faster then the spatial joins on the CPU. / Datakollisioner har studerats i stor utsträckning i olika områden inom vetenskap och industri. Att kombinera CPU och GPU för bearbetning av rumsliga föreningar har godtagits på grund av bättre prestanda. Detta bör omdirigera insatser i GPGPU-forskning från en enkel portning av applikationer till fastställande av principer och strategier som möjliggör en effektiv användning av grafikhårdvara. Eftersom trådar som exekverar instruktioner använder sig av hårdvaruresurser, förekommer olika effekter beroende på olika trådorganisationer. Deras på verkan på prestanda av rumsliga föreningar kommer att analyseras och granskas i denna rapport. Nya perspektiv och lösningar på problemet med trådorganisationen och schemaläggning av warps kan bidra till att fler uppmuntras till att använda GPU-programmering. Syftet med denna rapport är att undersöka effekterna av olika trådorganisationer i rumsliga föreningar. Förhållandet mellan objekten inom datamängder undersöks genom att beräkna antalet kollisioner som ihopslagna datamängder förorsakar. Detta görs för att förstå hur olika metoder kan påverka effektivitet och prestanda. Prestandamätningar av olika metoder inom trå dorganisationer undersö ks och analyseras fö r att hitta den mest tidseffektiva lösningen. I denna rapport visualiseras också det erhållna resultatet av olika trådtekniker som används för att optimera beräkningshastigheterna för rumsliga föreningar. Rapporten undersökeren CPU-algoritm och två GPU-algoritmer. GPU tiderna jämförs hela tiden med exekveringstiderna på CPU:n, och GPU-implementeringarna verifieras genom att jämföra antalet kollisioner från både CPU:n och GPU:n. Under analysdelen av rapporten jämförs och diskuteras olika implementationer med varandra. Det visade sig att skillnaden mellan en algoritm som implementerar trådtekniker och en icke-optimerad version är cirka 80 % till förmån för algoritmen som implementerar trådtekniker. Det visade sig också föreningarna på CPU:n att den är runt 56 gånger snabbare än de rumsliga

Page generated in 0.0783 seconds