• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 14
  • Tagged with
  • 54
  • 26
  • 10
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Anbudsstrategi vid offentlig upphandling : Beslutsmodell vid analys av anbud och prissättning hos Permobil AB

Krohn, Lisa, Henriksson, Julia January 2015 (has links)
Syftet med studien har varit att undersöka om det är möjligt att tillämpa en beslutsmodell för att lösa ett problem avseende anbudsstrategi vid offentlig upphandling. När ett företag har en kund som omfattas av lagen om offentlig upphandling gäller särskilda regler vid upphandlingar. För ett företag är det viktigt att känna till dessa regler vid inlämning av anbud. Detta är dock oftast inte tillräckligt för att vinna en upphandling, eftersom det då också gäller att deras produkts jämförelsepris är lägre än konkurrenternas. En beslutsmodell, baserad på data från tidigare upphandlingar, har tagits fram för att kunna underbygga ett verktyg gällande anbudsstrategi. Beslutsmodellen är uppbyggd av diverse teorier som beslutsmatris, beslutsträd, lognormal fördelning och förväntat monetärt värde. Tillvägagångssättet har bestått av insamling av information och data via intervjuer, samt andra källor såsom litteratur, artiklar, uppsatser och upphandlingar, där metoden design science har använts. Utifrån en generell beslutsmatris och ett beslutsträd samt beräkningar har beslutsmodellen kunnat tas fram. Beslutsmodellen är i första hand avsedd för att underbygga ett verktyg för företag som är leverantör av eldrivna rullstolar men skulle även kunna appliceras i andra typer av upphandlingar. Beslutsmodellen kan ge stöd till ett verktyg som i sin tur skulle kunna användas av beslutsfattare. Beslutsfattarna får dock inte endast utgå från dess information, som är baserad på tidigare upphandlingar, utan bör också analysera konkurrenternas nutidssituation. Nyckelord: Beslutsmodell, offentlig upphandling, anbudspris, jämförelsepris, beslutsfattare, beslutsmatris, beslutsträd, lognormal fördelning, förväntat monetärt värde / The aim of the study has been to investigate if it is possible to apply a decision model when solving a problem with bidding strategies in public procurement. When a company has costumers comprehended by the laws in public procurement, there are certain rules involved. For a company it is important to be aware about these rules, when setting their bids. Though this is often not enough for a winning procurement, because of the fact that the products comparison prices need to be lower than the competitors'. A decision model, based on data from earlier procurements, has been developed to reinforce a tool with bidding strategies. The decision model is composed by various theories, like decision matrix, decision tree, lognormal distribution and expected monetary value. The procedure through the study has contained data and information acquisition via interviews and other references like literature, articles, thesis and procurements. Based on a general decision matrix and a decision tree, as with calculations, the decision model has been generated. The decision model is mainly designed to reinforce a tool for companies supplying electric wheelchairs to costumers but could also be applicable in other types of procurements. The decision model could be a support when constructing a tool, which consequently could be used by decision makers. The decision makers can however not only adopt the ideas based on earlier procurements. They also need to analyse the competitors’ situations in present time. Keywords: Decision model, public procurement, bidding prices, comparison prices, decision maker, decision matrix, decision tree, lognormal distribution, expected monetary value
42

Investigating the properties of Planck's radiation law through theoretical and numerical studies

Graf Brolund, Alice, Persson, Rebecca January 2018 (has links)
A black body is an ideal object that absorbs all incident electromagnetic radiation and simultaneously emits radiation that only depends on the temperature. The radiation is described by Planck's radiation law and its maximum by Wien's displacement law. The aim of this project is to study Planck's and Wien's laws in the frequency and wavelength domains, by theoretical studies and numerical studies in the programming language Python. Planck's law can be derived by regarding a cavity where the internal radiation either can be regarded as waves or as a gas of photons. In this study, the main focus lies in the derivation assuming radiation can be treated as waves, which uses the Maxwell-Boltzmann distribution. This derivation is also used when the radiation is simulated numerically in Python. The numerical studies use the stochastic method "hit and miss" to generate the different properties of the emitted radiation. Planck's law occurs in many different forms, the differences between some of them is explained in this project. When transforming between the domains one must use a Jacobian. If this is forgotten Wien's law, which is derived from Planck’s law, efficiently shows how the peaks of the correct and the transformed curves are at different positions. The results show that Planck's law accurately can be derived numerically. Even though the chosen method successfully reproduces the Planck distribution the program can be improved by using the inverse transform method for sampling. To study this subject further one could consider deriving and simulating the Maxwell-Boltzmann distribution. / En svart kropp är intressant att undersöka på grund av dess unika förmåga att absorbera och emittera elektromagnetisk strålning. Dessvärre kan den svarta kroppen vara svår att föreställa sig. Det vedertagna knepet för att illustrera detta fenomen är att tänka sig en låda inuti vilken det finns fotoner, och därmed energi. Fotoner kan som bekant betraktas som vågor likväl som partiklar och turligt nog spelar det ingen roll vilket sätt man väljer, svartkroppsstrålningen kan studeras ur båda dessa infallsvinklar. Tänker man sig också att det finns ett mycket litet hål i lådans vägg är det lätt att inse att fotonerna kommer att lämna lådan ur detsamma. Det är denna strålning som är svartkroppsstrålning. Svartkroppsstrålningen är fördelad enligt Plancks strålningslag som vanligtvis härleds med hjälp av teorin kring statistisk fysik som appliceras på den tänkta lådan. Detta görs även i denna studie, såväl som en numerisk simulering i programmeringsspråket Python. Ett program för studier av svartkroppsstrålning, vars främsta syfte är att simulera denna med utgångspunkt i samma låda, har skapats och förväntas kunna hjälpa den intresserade att skaffa sig förståelse för egenskaperna hos Plancks lag. För detta program används med framgång den stokastiska metoden "hit and miss" som tillåter användaren att sampla slumptal från en given fördelning. Utöver Plancks lag studeras också Wiens lag. Wiens lag beskriver vid vilken frekvens strålningen kommer att ha sitt maximum och härleds ur Plancks lag. Plancks lag förekommer i många olika former vilka beskriver olika fysikaliska storheter. I denna studie utreds dessa. Att transformera mellan de olika formerna av lagen är inte så simpelt som man kan luras att tro, utan kräver viss matematisk eftertanke. Det visar sig vara avgörande att använda en mycket viktig transformationsfaktor kallad Jacobian. Detta ger såklart också konsekvenser för Wiens lag som kommer att se olika ut beroende på vilken form av Plancks lag den härleds ur.
43

The role of semantic context and attentional resource distribution in semantic comprehension in Swedish pre-schoolers

Schelhaas, Johanna Renate January 2016 (has links)
Research on semantic processing focused mainly on isolated units in language, which does not reflect the complexity of language. In order to understand how semantic information is processed in a wider context, the first goal of this thesis was to determine whether Swedish pre-school children are able to comprehend semantic context and if that context is semantically built up over time. The second goal was to investigate how the brain distributes attentional resources by means of brain activation amplitude and processing type. Swedish preschool children were tested in a dichotic listening task with longer children’s narratives. The development of event-related potential N400 component and its amplitude were used to investigate both goals. The decrease of the N400 in the attended and unattended channel indicated semantic comprehension and that semantic context was built up over time. The attended stimulus received more resources, processed the stimuli in more of a top-down manner and displayed prominent N400 amplitude in contrast to the unattended stimulus. The N400 and the late positivity were more complex than expected since endings of utterances longer than nine words were not accounted for. More research on wider linguistic context is needed in order to understand how the human brain comprehends natural language. / Tidigare forskning på semantisk processning har fokuserad på isolerade språkliga enheter vilket inte reflekterar språkets komplexitet. För att kunna förstår hur semantisk information processeras i en större kontext, var studiens första syfte att undersöka om svenska förskolebarn om svenska förskolebarn förmår att förstå semantisk kontext och om denna kontext byggs upp över tid. Det andra syftet var att undersöka hur hjärnan fördelar uppmärksamhetsbaserade resurser i avseende på hjärnaktiveringsamplitud och olika processesningstyper. För detta testades svenska förskolebarn i ett dikotiskt lyssningstest med olika barnsagor. Utvecklingen av N400-komponenten, en händelse-relaterad potential, användes för detta. Nedgången av N400 komponenten och den sena positiviteten visades i både de uppmärksammade och ouppmärksammade kanalerna och detta indikerar semantisk förståelse och att semantisk kontext byggdes upp över tid. Därutöver kunde en större N400-amplitud observeras i den uppmärksammade kanalen, vilket indikerar att den fick mer hjärnresurser och använde sig av top-down-bearbetning i större utsträckning än bottom-up-processer. N400-komponenten och sena positiviteten visade sig vara mer komplex än förväntat. Det kan bero för att de sista orden i ett yttrande som var längre än nio ord exkluderades från analysen. Det finns ett behov av forskning som använder sig av längre lingvistiska kontexter och deras effekter i människohjärnan.
44

Spelar det någon roll? : Kommunikativa strukturer och frågornas struktur i lågstadielärares klassrum / Does it matter? : Communicative structures and the structure of questions in the classroom of primary school teachers

Ek, Kajsa, Hildorsson, Emma January 2020 (has links)
Föreliggande studie ämnar undersöka fyra lågstadielärares roller utifrån derasanvändande av kommunikativa strukturer och frågornas struktur samt hur lärarnaresonerar om samma begrepp. Analysen tar sin utgångspunkt i vilken utsträckninglärarna ger eleverna möjlighet att tala. Lärarrollerna som studien fokuserar på är enstyrande, vägledande, stödjande samt delegerande roll. Centrala begrepp som kopplastill kommunikativa strukturer är möblering, arbetssätt och fördelning av ordet.Frågornas struktur kategoriseras i begreppen IRE och IRU, vilka också är centrala istudien. Begreppen samt lärarnas roller utgör studiens teoretiska referensram. För attsamla in material används observationer och intervjuer. Resultatet av studien visar attlärarnas val av strukturer inte behöver påverka elevernas talutrymme. Det som harbetydelse är på vilket sätt lärarna använder strukturerna. Slutsatsen är att den rolllärarna antar påverkar elevernas utrymme att tala. När lärarna antar en roll däreleverna tillåts arbeta självständigt samt ta eget ansvar ökar elevernas talutrymme.
45

Approximation of General Semi-Markov Models Using Expolynomials / Approximation av generella Semi-Markov modeller med hjälp av Expolynomials

Nyholm, Niklas January 2021 (has links)
Safety analysis is critical when developing new engineering systems. Many systems have to function under randomly occurring events, making stochastic processes useful in a safety modelling context. However, a general stochastic process is very challenging to analyse mathematically. Therefore, model restrictions are necessary to simplify the mathematical analysis. A popular simplified stochastic model is the Semi-Markov process (SMP), which is a generalization of the "memoryless" continuous-time Markov chain. However, only a subclass of Semi-Markov models can be analysed with non-simulation based methods. In these models, the cumulative density function (cdf) of the random variables describing the system is in the form of expolynomials. This thesis investigates the possibility to extend the number of Semi-Markov models that can be analysed with non-simulation based methods by approximating the non-expolynomial random variables with expolynomials. This thesis focus on approximation of models partially described by LogNormal and Weibull distributed random variables. The result shows that it is possible to approximate some Semi-Markov models with non-expolynomial random variables. However, there is an increasing difficulty in approximating a non-expolynomial random variable when the variability in the distribution increases. / Säkerhetsanalys är avgörande när man utvecklar nya tekniska system. Många system måste fungera under slumpmässigt inträffande händelser, vilket gör stokastiska processer användbara i ett säkerhetsmodellerande sammanhang. En allmän stokastisk process är dock mycket utmanande att analysera matematiskt. Därför är begränsningar på modellen nödvändiga för att förenkla den matematiska analysen. En populär förenklad stokastisk modell är Semi-Markov-processen (SMP), vilket är en generalisering av den "minneslösa" tids-kontinuerliga Markov-kedjan. Dock är det endast en underklass av Semi-Markov-modeller som kan analyseras med icke-simuleringsbaserade metoder. I dessa modeller är den kumulativa densitetsfunktionen (cdf) för de slumpmässiga variablerna som beskriver systemet i form av expolynomials. Denna rapport undersöker möjligheten att utöka antalet Semi-Markov-modeller som kan analyseras med icke-simuleringsbaserade metoder genom att approximera de icke-expolynomial slumpvariablerna med expolynomials. Vi fokuserar på approximering av modeller som delvis beskrivs av LogNormal distribuerade och Weibull distribuerade slumpmässiga variabler. Resultatet visar att det är möjligt att approximera vissa stokastiska variabler som är icke-expolynomial i Semi-Markov-modeller. Resultatet visar dock att det är en ökande svårighet att approximera en icke-expolynomial slumpmässiga variabeln när variabiliteten i fördelningen ökar.
46

EU:s politik för vidarebosättning av invandrare : En kvalitativ fallstudie av flyktingkrisen 2015 i Europa / EU policy for resettlement of immigrants : A qualitative case study of the refugee crisis in 2015 in Europe

Al-Eid, Celina January 2022 (has links)
The refugee crisis in the world, specifically after 2015, which came as a result of the repercussions of the war in Syria and the absence of the right political vision in Iraq and Libya. This migration has led to increased pressures on many countries in the European Union, as a result of the influx of more immigrants from the Middle East and North Africa. The purpose of this research for the bachelor's degree in POLITICAL SCIENCE, is to reveal the impact of the political integration process on solving the refugee crisis that plagued Europe in 2015, with a close focus on the asylum policy adopted by the EU during the refugee crisis in 2015.   The method used in this research is a qualitative case study in order to get an in depth understanding of the selected case and with the help of the data material obtained from the sources used. Through the method, materials and theoretical and empirical analysis, the purpose and questions posed within the research were answered. In this thesis, two theories were used in the research topic, namely, the theory of integration and the constructivist theory in international relations.  The results were as follows. Europe was seeking for solidarity among their countries in solving the refugee crisis that occurred in 2015. Further that solidarity could provide solutions that contribute to the distribution of burdens among the countries of the European Union. Solidarity means establishing compatible solutions among the countries of the Union. The result also showed that the 2013 Dublin III Regulation and European Asylum Policy need to be reformed because they do not work effectively during times of crisis and exceptional events.
47

Applying Peaks-Over-Threshold for Increasing the Speed of Convergence of a Monte Carlo Simulation / Peaks-Over-Threshold tillämpat på en Monte Carlo simulering för ökad konvergenshastighet

Jakobsson, Eric, Åhlgren, Thor January 2022 (has links)
This thesis investigates applying the semiparametric method Peaks-Over-Threshold on data generated from a Monte Carlo simulation when estimating the financial risk measures Value-at-Risk and Expected Shortfall. The goal is to achieve a faster convergence than a Monte Carlo simulation when assessing extreme events that symbolise the worst outcomes of a financial portfolio. Achieving a faster convergence will enable a reduction of iterations in the Monte Carlo simulation, thus enabling a more efficient way of estimating risk measures for the portfolio manager.  The financial portfolio consists of US life insurance policies offered on the secondary market, gathered by our partner RessCapital. The method is evaluated on three different portfolios with different defining characteristics.  In Part I an analysis of selecting an optimal threshold is made. The accuracy and precision of Peaks-Over-Threshold is compared to the Monte Carlo simulation with 10,000 iterations, using a simulation of 100,000 iterations as the reference value. Depending on the risk measure and the percentile of interest, different optimal thresholds are selected.  Part II presents the result with the optimal thresholds from Part I. One can conclude that Peaks-Over-Threshold performed significantly better than a Monte Carlo simulation for Value-at-Risk with 10,000 iterations. The results for Expected Shortfall did not achieve a clear improvement in terms of precision, but it did show improvement in terms of accuracy.  Value-at-Risk and Expected Shortfall at the 99.5th percentile achieved a greater error reduction than at the 99th. The result therefore aligned well with theory, as the more "rare" event considered, the better the Peaks-Over-Threshold method performed.  In conclusion, the method of applying Peaks-Over-Threshold can be proven useful when looking to reduce the number of iterations since it do increase the convergence of a Monte Carlo simulation. The result is however dependent on the rarity of the event of interest, and the level of precision/accuracy required. / Det här examensarbetet tillämpar metoden Peaks-Over-Threshold på data genererat från en Monte Carlo simulering för att estimera de finansiella riskmåtten Value-at-Risk och Expected Shortfall. Målet med arbetet är att uppnå en snabbare konvergens jämfört med en Monte Carlo simulering när intresset är s.k. extrema händelser som symboliserar de värsta utfallen för en finansiell portfölj. Uppnås en snabbare konvergens kan antalet iterationer i simuleringen minskas, vilket möjliggör ett mer effektivt sätt att estimera riskmåtten för portföljförvaltaren.  Den finansiella portföljen består av amerikanska livförsäkringskontrakt som har erbjudits på andrahandsmarknaden, insamlat av vår partner RessCapital. Metoden utvärderas på tre olika portföljer med olika karaktär.  I Del I så utförs en analys för att välja en optimal tröskel för Peaks-Over-Threshold. Noggrannheten och precisionen för Peaks-Over-Threshold jämförs med en Monte Carlo simulering med 10,000 iterationer, där en Monte Carlo simulering med 100,000 iterationer används som referensvärde. Beroende på riskmått samt vilken percentil som är av intresse så väljs olika trösklar.  I Del II presenteras resultaten med de "optimalt" valda trösklarna från Del I. Peaks-over-Threshold påvisade signifikant bättre resultat för Value-at-Risk jämfört med Monte Carlo simuleringen med 10,000 iterationer. Resultaten för Expected Shortfall påvisade inte en signifikant förbättring sett till precision, men visade förbättring sett till noggrannhet.  För både Value-at-Risk och Expected Shortfall uppnådde Peaks-Over-Threshold en större felminskning vid 99.5:e percentilen jämfört med den 99:e. Resultaten var därför i linje med de teoretiska förväntningarna då en högre percentil motsvarar ett extremare event.  Sammanfattningsvis så kan metoden Peaks-Over-Threshold vara användbar när det kommer till att minska antalet iterationer i en Monte Carlo simulering då resultatet visade att Peaks-Over-Threshold appliceringen accelererar Monte Carlon simuleringens konvergens. Resultatet är dock starkt beroende av det undersökta eventets sannolikhet, samt precision- och noggrannhetskravet.
48

A Markovian Approach to Financial Market Forecasting / En Markovisk ansats för finansiell marknadsprognostisering

Sun Wang, Kevin, Borin, William January 2023 (has links)
This thesis aims to investigate the feasibility of using a Markovian approach toforecast short-term stock market movements. To assist traders in making soundtrading decisions, this study proposes a Markovian model using a selection ofthe latest closing prices. Assuming that each time step in the one-minute timeframe of the stock market is stochastically independent, the model eliminates theimpact of fundamental analysis and creates a feasible Markov model. The modeltreats the stock price’s movement as entirely randomly generated, which allowsfor a more simplified model that can be implemented with ease. The modelis intended to serve as a starting ground for more advanced technical tradingstrategies and act as useful guidance for a short-term trader when combinedwith other resources. The creation of the model involves Laplace smoothing toensure there are no zero-probabilities and calculating the steady-state probabilityvector of the smoothed matrix to determine the predicted direction of the nexttime step. The model will reset daily, reducing the impact of fundamental factorsoccurring outside trading hours and reducing the risk of carrying over bias fromprevious trading day. Any open positions will hence be closed at the end of theday. The study’s purpose is to research and test if a simple forecasting modelbased on Markov chains can serve as a useful tool for forecasting stock prices atshort time intervals. The result of the study shows that a Markov-based tradingstrategy is more profitable than a simple buy-and-hold strategy and that theprediction accuracy of the Markov model is relatively high. / Denna avhandling syftar till att undersöka möjligheten att använda en markoviskmetod för att förutsäga kortsiktiga rörelser på aktiemarknaden. För att hjälpaaktörer på aktiemarknaden att fatta välgrundade handelsbeslut föreslår dennastudie en markovisk modell för att förutsäga nästa stängningspris baserat påde senaste stängningspriserna. Modellen antar att varje tidssteg i ett en-minuts intervall på aktiemarknaden är stokastiskt oberoende, vilket eliminerarpåverkan från fundamental analys och skapar förutsättningen för en genomförbarmarkov-modell. Modellen behandlar aktieprisets rörelse som helt slumpmässigtgenererat, vilket möjliggör en mer förenklad modell som kan implementeraspå marknaden. Modellen är avsedd att tjäna som en utgångspunkt förmer avancerade tekniska handelsalgoritmer och fungera som en användbarvägledning för en akitehandlare med kort tidshorisont i kombination med andraresurser. Skapandet av modellen inkluderar använding av Laplace-jämning föratt säkerställa att det inte finns nollsannolikheter samt beräknandet av denstationära sannolikhetsvektorn för den jämnade matrisen i syfte att bestämmaden förutsedda riktningen för nästa tidssteg. Modellen kommer att återställasdagligen, vilket minskar påverkan från de fundamentala faktorer som inträffarutanför handelstiderna och ser till att bias inte överförs till nästa börsdag. Dettainnebär att alla öppna positioner stängs vid dagens slut. Studiens syfte är attforska och testa om en enkel prognosmodell baserad på Markovkedjor kan varaanvändbar som ett verktyg för att förutsäga aktiepriser vid korta tidsintervall.Resultatet från studien visar på att en markov-baserad trading strategi är merlönsam än en enkel köp-och-behåll strategi och att prediktionernas träffsäkerhetfrån en markov modell är relativt höga.
49

Development of a Novel Social Media Sentiment Risk Model for Financial Assets / Utveckling av ett finansiellt riskmått med hänsyn till sentimentalitet från sociala medier

Rudert, Emelie January 2023 (has links)
This thesis aims to investigate the potential effects on Value at Risk (VaR) measurements when including social media sentiments from Reddit and Twitter. The investigated stock companies are Apple, Alphabet and Tesla. Furthermore, the VaR measurements will be computed through volatility forecasts and assumptions about the return distributions. The volatility will be forecasted by two different models and each model will both include and exclude social media sentiments, so there will be four different volatility forecasts for each stock. Moreover, the volatility models will be the Heterogeneous autoregression (HAR) model and the Heterogeneous autoregression Neural Network (HAR-NN) model. The assumptions of return distributions are a log-logistic distribution and a log-normal distribution. In addition to this, the VaR measurements are computed and evaluated through number of breaches for each of the volatility forecasts and for both assumptions of a return distribution. The result shows that there is an improvement in forecasting volatility for Apple and Alphabet, as well as fewer VaR breaches for both assumptions of log-return distributions. However, the results for Tesla showed that the volatility forecasts were better when excluding social media sentiment. A possible reason for this might be due to Twitter posts made by influential people, like Elon Musk that would have a larger effect on the volatility than the average sentiment score over that day. Another possible explanation to this might be due to multicollinearity. Overall, the results showed that the assumption of a log-logistic distribution was more suitable over a log- normal return distribution for all three stocks. / Den här studien undersöker de potentiella effekterna av att inkludera sentiment från Reddit och Twitter vid beräkning av det finansiella riskmåttet VaR. De undersökta aktierna är Apple, Alphabet och Tesla. VaR måtten beräknas genom att förutspå volatiliteten samt genom att göra antaganden om aktiernas avkast- ningsfördelning. Volatiliteten förutspås genom två olika modeller och bägge modeller kommer både att inkludera sentiment från sociala medier samt exkludera sentimenten. Därav kommer det totalt vara fyra olika volatilitets prognoser för vardera aktie. Volatilitetsmodellerna som används i denna studie är HAR modellen och HAR-NN modellen. De antaganden som görs om logartimen av avkastningsfördelningarna är att de följer en logistik fördelning samt en normalfördelning. Dessutom är VaR måtten beräknade och eval- uerade genom antalet gånger portföljen överskrider VaR måttet för varje volatilitetsprognos och för vardera antagande om avkastningsfördelning. Resultaten av denna studie visar att inkludering av sentiment från sociala medier förbättrar volatilitetsprognosen för Apple och Alphabet, samt att portföljen överskrider dessa VaR mått för båda fördelningsantaganden. Däremot, visar resultaten för Tesla att volatilitetsprog- nosen är sämre då sentiment från sociala medier inkluderas i modellerna. En möjlig anledning till detta skulle kunna vara på grund av inflyelserika personer, så som Elon Musk vars Twitter inlägg har större påverkan på aktievolatiliteten än medelsentimentet. En annan anledning till detta skulle kunna vara på grund av multikollinearitet, ifall sentimenten till Tesla är starkt korrelerade med volatiliteten. Samman- taget visade resultaten att antagandet av att logaritmen av avkastningarna följer en logistikt fördelning var mer passande än antagandet av en normalfördelning för alla tre aktier.
50

Digital tvilling simulering avakutmottagningen : En studie av flödesprocesser och tillämpning av köteorier på Danderyds sjukhus

Titrouq, Yassen, Hasani, Monir January 2024 (has links)
År 2024 upplevde Sverige längre väntetider och sämre tillgänglighet inom både primär- och specialiserad vård jämfört med andra länder. Detta ledde till ökat tryck på akutmottagningar då många patienter sökte sig dit för vård som annars kunde hanterats på ordinära mottagningar om tillräcklig personal funnits tillgänglig. Denna studie fokuserar på att undersöka patientflöden vid Danderyds sjukhus genom att identifiera flaskhalsar inom akutmottagningen. Studiens syfte var att hitta flaskhalsar som kan åtgärdas för att minska väntetiderna och förbättra resursanvändningen genom att använda matematiska modeller och diskret händelsesimulering. Analysen baseras på data insamlad under det första kvartalet för åren 2022, 2023 och 2024. Resultaten från simuleringarna visar kritiska statistiska mått som är avgörande för att förstå systemets kapacitet och prestanda under varierande belastningar. Dessa resultat belyser även nödvändigheten av resursallokering och förväntade väntetider för patienter. Studien bidrar inte bara till en bra förståelse av de nuvarande processerna utan presenterar även strategier för att effektivt hantera de utmaningar akutmottagningarna står inför. Slutsatserna diskuterar de teoretiska och praktiska implikationerna med betoning på hur simuleringarna kan användas för att utforska nya arbetsmetoder för akutmottagningar framöver. Denna forskning lägger grunden för framtida innovationer inom sjukvårdens arbetsflöden och resursallokering, vilket kan leda till förbättrad patientvård och effektivare sjukhusdrift. / In 2024, Sweden experienced longer wait times and reduced accessibility in both primary and specialized care compared to other countries. This led to increased pressure on emergency departments, as many patients sought care there that could have been managed at regular clinics if sufficient staff were available. This study focuses on examining patient flows at Danderyd Hospital by identifying bottlenecks within the emergency department. The aim of the study was to find bottlenecks that can be addressed to reduce wait times and improve resource utilization through the use of mathematical models and discrete event simulation. The analysis is based on data collected during the first quarter of the years 2022, 2023, and 2024. The results from the simulations reveal critical statistical measures that are essential for understanding the system's capacity and performance under varying loads. These results also highlight the need for resource allocation and expected wait times for patients. The study not only contributes to a better understanding of the current processes but also presents strategies for effectively addressing the challenges faced by emergency departments. The conclusions discuss the theoretical and practical implications, emphasizing how the simulations can be used to explore new working methods for emergency departments in the future. This research lays the foundation for future innovations in healthcare workflows and resource allocation, which can lead to improved patient care and more efficient hospital operations.

Page generated in 0.0791 seconds