Spelling suggestions: "subject:"förutsägelser.""
1 |
Normalized conformalprediction for time series dataKowalczewski, Jakub January 2019 (has links)
Every forecast is valid only if proper prediction intervals are stated. Currently models focus mainly on point forecast and neglect the area of prediction intervals. The estimation of the error of the model is made and is applied to every prediction in the same way, whereas we could identify that every case is different and different error measure should be applied to every instance. One of the state-of-the-art techniques which can address this behaviour is conformal prediction with its variant of normalized conformal prediction. In this thesis we apply this technique into time series problems. The special focus is put to examine the technique of estimating the difficulty of every instance using the error of neighbouring instances. This thesis describes the entire process of adjusting time series data into normalized conformal prediction framework and the comparison with other techniques will be made. The final results do not show that aforementioned method is superior over an existing techniques in various setups different method performed the best. However, it is similar in terms of performance. Therefore, it is an interesting add-on to data science forecasting toolkit. / Varje prognos är endast giltig om korrekt förutsägningsintervall anges. För närvarande fokuserar modeller huvudsakligen på punktprognos och försummar området med förutsägelsesintervall. Uppskattningen av modellens fel görs och tillämpas på varje förutsägelse på samma sätt, medan vi kunde identifiera att varje fall är annorlunda och olika felmått bör tillämpas på varje instans. En av de senaste teknikerna som kan hantera detta beteende är konform förutsägelse med dess variant av normaliserad konform förutsägelse. I denna avhandling tillämpar vi denna teknik i tidsserieproblem. Det speciella fokus ligger på att undersöka tekniken för att uppskatta svårigheten för varje instans med hjälp av felet i angränsande instanser. Den här avhandlingen beskriver hela processen för att anpassa tidsseriedata till normaliserat konformitetsprognosram och jämförelsen med andra tekniker kommer att göras. De slutliga resultaten visar inte att ovannämnda metod är överlägsen jämfört med en befintlig teknik - i olika uppsättningar utförde olika metoder bäst. Men det är liknande vad gäller prestanda. Därför är det ett intressant tillägg till datavetenskapens prognosverktygssats.
|
2 |
Social-pose : Human Trajectory Prediction using Input PoseGao, Yang January 2022 (has links)
In this work, we study the benefits of predicting human trajectories using human body poses instead of solely their x-y locations in time. We propose ‘Social-pose’, an attention-based pose encoder that encodes the poses of all humans in the scene and their social relations. Our method can be used as a plugin to any existing trajectory predictor. We explore the advantages to use 2D versus 3D poses, as well as a limited set of poses. We also investigate the attention map to find out which frames of poses are critical to improve human trajectory prediction. We have done extensive experiments on state-of-the-art models (based on LSTMs, GANs and transformers), and showed improvements over all of them on synthetic (Joint Track Auto) and real (Human3.6M and Pedestrians and Cyclists in Road Traffic) datasets. / I det här arbetet studerar vi fördelarna med att förutsäga mänskliga banor med hjälp av människokroppspositioner istället för enbart deras x-y-positioner i tiden. Vi föreslår ”Social-pose”, en uppmärksamhetsbaserad poseringskodare som kodar poserna för alla människor på scenen och deras sociala relationer. Vår metod kan användas som en plugin till vilken befintlig bana som helst. Vi utforskar fördelarna med att använda 2D kontra 3D poser, såväl som en begränsad uppsättning poser. Vi undersöker också uppmärksamhetskartan för att ta reda på vilka ramar av poser som är avgörande för att förbättra förutsägelsen av mänsklig bana. Vi har gjort omfattande experiment på toppmoderna modeller (baserade på LSTM, GAN och transformers) och visat förbättringar jämfört med dem alla på syntetiska (Joint Track Auto) och riktiga (Human3.6M och Fotgängare och cyklister på vägen) trafik) datauppsättningar.
|
3 |
Aircraft Contrail Prediction for Commercial Flights / Förutsägning av flygplans kondensspår för kommersiella flygningarKundgol, Chirag January 2022 (has links)
The prediction of contrails have been studied since the 1930s primarily for militaryapplications. In present times, contrail avoidance strategies are gaining popularity insustainable aviation. In this project, the theory behind their formation, persistenceand the mitigation strategies are explored, studied and implemented.Several methods are evaluated in order to predict the critical temperature. Aircraftparameters are included in the prediction of contrails and implemented. This dynamicprogramming is contrasted against real case operational flight plans.The first implementation considers an operational flight plan for which contrails are pre-dicted along the trajectory. The second involves the prediction of contrails at the end ofthe vertical trajectory optimisation. The optimisation for contrail persistence avoidanceis also accomplished. Results show that contrail persistence can be avoided. / Förutsägelsen av kondensspår har studerats sedan 1930-talet, främst för militära tillämp-ningar. I nutid, strategier för undvikande av långvariga kondensspår ökar i popularitetinom hållbar flygning. I det här examensarbetet, utforskas och studeras teorin bakombildning, uthållighet och begränsningsstrategier för kondensspår för att sedan imple-menteras.Flera metoder evalueras för att förutsäga den kritiska temperaturen. Flygplansparame-trar är inkluderade och implementerade i förutsägelsen av kondesspår. Den dynamiskaprogrammeringen jämförs mot verkliga operativa färdplaner.Den första implementeringen avser en operativ färdplan för vilken kondensspår förut-spås längs banan. Den andra implementeringen involverar förutsägelse av kondensspåri slutet av den vertikala banoptimeringen. Optimeringen med avseende på långvarigakondensspår genomförs också. Resultaten visar att långvariga kondensspår kan und-vikas.
|
4 |
Algorithmic Study on Prediction with Expert Advice : Study of 3 novel paradigms with Grouped ExpertsCayuela Rafols, Marc January 2018 (has links)
The main work for this thesis has been a thorough study of the novel Prediction with Partially Monitored Grouped Expert Advice and Side Information paradigm. This is newly proposed in this thesis, and it extends the widely studied Prediction with Expert Advice paradigm. The extension is based on two assumptions and one restriction that modify the original problem. The first assumption, Grouped, presumes that the experts are structured into groups. The second assumption, Side Information, introduces additional information that can be used to timely relate predictions with groups. Finally, the restriction, Partially Monitored, imposes that the groups’ predictions are only known for one group at a time. The study of this paradigm includes the design of a complete prediction algorithm, the proof of a theoretical bound of the worse-case cumulative regret for such algorithm, and an experimental evaluation of the algorithm (proving the existence of cases where this paradigm outperforms Prediction with Expert Advice). Furthermore, since the development of the algorithm is constructive, it allows to easily build two additional prediction algorithms for the Prediction with Grouped Expert Advice and Prediction with Grouped Expert Advice and Side Information paradigms. Therefore, this thesis presents three novel prediction algorithms, with corresponding regret bounds, and a comparative experimental evaluation including the original Prediction with Expert Advice paradigm. / Huvudarbetet för den här avhandlingen har varit en grundlig studie av den nya Prediction with Partially Monitored Grouped Expert Advice and Side Information paradigmet. Detta är nyligen föreslagit i denna avhandling, och det utökar det brett studerade Prediction with Expert Advice paradigmet. Förlängningen baseras på två antaganden och en begränsning som ändrar det ursprungliga problemet. Det första antagandet, Grouped, förutsätter att experterna är inbyggda i grupper. Det andra antagandet, Side Information, introducerar ytterligare information som kan användas för att i tid relatera förutsägelser med grupper. Slutligen innebär begränsningen, Partially Monitored, att gruppens förutsägelser endast är kända för en grupp i taget. Studien av detta paradigm innefattar utformningen av en komplett förutsägelsesalgoritm, beviset på en teoretisk bindning till det sämre fallet kumulativa ånger för en sådan algoritm och en experimentell utvärdering av algoritmen (bevisar förekomsten av fall där detta paradigm överträffar Prediction with Expert Advice). Eftersom algoritmens utveckling är konstruktiv tillåter den dessutom att enkelt bygga två ytterligare prediksionsalgoritmer för Prediction with Grouped Expert Advice och Prediction with Grouped Expert Advice and Side Information paradigmer. Därför presenterar denna avhandling tre nya prediktionsalgoritmer med motsvarande ångergränser och en jämförande experimentell utvärdering inklusive det ursprungliga Prediction with Expert Advice paradigmet.
|
5 |
Comparison of different machine learning models for wind turbine power predictionsWerngren, Simon January 2018 (has links)
The goal of this project is to compare different machine learning algorithms ability to predict wind power output 48 hours in advance from earlier power data and meteorological wind speed predictions. Three different models were tested, two autoregressive integrated moving average (ARIMA) models one with exogenous regressors one without and one simple LSTM neural net model. It was found that the ARIMA model with exogenous regressors was the most accurate while also beingrelatively easy to interpret and at 1h 45min 32s had a comparatively short training time. The LSTM was less accurate, harder to interpretand took 14h 3min 5s to train. However the LSTM only took 32.7s to create predictions once the model was trained compared to the 33min13.7s it took for the ARIMA model with exogenous regressors to deploy.Because of this fast deployment time the LSTM might be preferable in certain situations. The ARIMA model without exogenous regressors was significantly less accurate than the other two without significantly improving on the other ARIMA model in any way
|
6 |
Selection Intent Prediction in Online Virtual Environments : A Comparison StudyMarichal, Charles-Eole January 2022 (has links)
In this work, we address the problem of the selection of 3D objects based on the user’s intent to interact with them in online virtual environments, both on desktop and VR devices. In addition to the traditional ray-casting technique, we select four promising techniques from the literature using time-dependent volumetric scoring (IntenSelect), trajectory prediction (KEP), Kalman filters enhancement (KalmanKEP) and machine learning with decision trees (MTP). We refine and adapt them to be implemented on both devices. We gather a number of raycasting-based 3D selections in a remote virtual environment, forming a small dataset that serves for simulations and training. The performance of the techniques is evaluated using these simulations through the theoretic relative amount of time and movement required for each technique to be able to predict the target corresponding to the user’s selection intent, called availability. The users’ experience is assessed through a user evaluation on two axes that are usability and task load. The results show that IntenSelect and the adapted KEP technique are credible alternatives to ray-casting. However, the ray-casting technique is still among the preferred ones in terms of user experience, despite being a method with a low spatial and temporal availability compared to others. / I det här arbetet tar vi upp problemet med att välja 3D-objekt baserat på användarens avsikt att interagera med dem i virtuella miljöer online, både på stationära datorer ochVR-enheter. Förutomdentraditionellaray-casting-tekniken väljer vi fyra lovande tekniker från litteraturen som använder tidsberoende volymetrisk poängsättning (IntenSelect), banaförutsägelse (KEP), Kalmanfilterförbättring (Kalman-KEP) och maskininlärning med beslutsträd (MTP). Vi förfinar och anpassar dem så att de kan genomföras på båda enheterna. Vi samlar in ett antal raycastingbaserade 3D-val i en avlägsen virtuell miljö och bildar en liten datamängd som tjänar till simuleringar och träning. Teknikernas prestanda utvärderas med hjälp av dessa simuleringar genom den teoretiska relativa mängden tid och rörelse som krävs för att varje teknik ska kunna förutsäga det mål som motsvarar användarens urvalsintention, så kallad tillgänglighet. Användarnas upplevelse bedöms genom en användarutvärdering på två axlar, nämligen användbarhet och arbetsbelastning. Resultaten visar att IntenSelect och den anpassade KEP-tekniken är trovärdiga alternativ till ray-casting. Ray-casting-tekniken är dock fortfarande bland de föredragna när det gäller användarupplevelsen, trots att det är en metod med låg rumslig och tidsmässig tillgänglighet jämfört med andra metoder.
|
7 |
Monthly heatwave prediction in Sweden based on Machine Learning techniques with remote sensing data / Månadsförutsägelse av värmeböljor i Sverigebaserad på maskininlärningstekniker med fjärranalysdataLi, Zhuoran January 2023 (has links)
Heatwave events as a kind of extreme climate event, have plagued the human race for the past few years. It severely influences people’s life quality, sometimes even leads to some serious diseases. In order to alleviate the possible damages heatwave events can do, some targeted actions are necessary and forecasting heatwaves is one of them. This study focuses on predicting potential heatwave events in Sweden, replying on the correlations between multiple meteorological and surface-related features, with the help of machine learning techniques. The related remote sensing data of 21 features are extracted and implemented with features selection using a correlation heatmap and 16 of them are finally determined to be used for prediction. Five types of classifiers LR, Gaussian NB, KNN, RF and XGBoost are utilized on the training and validation datasets with hyperparameter tuning and threshold tuning methods to choose the model that has the best performance to predict heatwaves using the test dataset. The results show that RF and XGBoost both perform well on the validation set, but XGBoost is more suitable applying on the test set since XGBoost possesses a higher generality. / Värmeböljor som en sorts extrem klimathändelse har plågat mänskligheten under de senaste åren. Det påverkar allvarligt människors livskvalitet, ibland till och med leder till några allvarliga sjukdomar. För att lindra de möjliga skadorna som värmeböljor kan orsaka är några riktade åtgärder nödvändiga och att förutse värmeböljor är en av dem. Denna studie fokuserar på att förutsäga potentiella värmeböljshändelser i Sverige, svara på sambanden mellan flera meteorologiska och ytrelaterade egenskaper, med hjälp av maskininlärningstekniker. De relaterade fjärravkänningsdata för 21 funktioner extraheras och implementeras med funktionsval med hjälp av en korrelationsvärmekarta och 16 av dem bestäms slutligen att användas för förutsägelse. Fem typer av klassificerare LR, Gaussian NB, KNN, RF och XGBoost används på tränings- och valideringsdataseten med hyperparameterjustering och tröskeljusteringsmetoder för att välja den modell som har bäst prestanda för att förutsäga värmeböljor med hjälp av testdatauppsättningen. Resultaten visar att RF och XGBoost båda presterar bra på valideringssetet, men XGBoost är mer lämpligt att applicera på testsetet eftersom XGBoost har en högre generalitet.
|
8 |
Isoconversional analysis for the prediction of mass-loss rates during pyrolysis of biomassNorberg Samuelsson, Lina January 2016 (has links)
Biomass is the only renewable carbon source that can compete with fossil energy sources in terms of production of materials, chemicals and fuels. Biomass can be transformed into charcoal, liquid and gas through pyrolysis, i.e. pure thermal decomposition. By changing the pyrolysis conditions either solid, liquid or gaseous fractions can become the main product and pyrolysis is thus a very versatile process. Pyrolysis is also the first step in combustion and gasification, two important thermal processes in our society. The importance of biomass pyrolysis has led to extensive research in this area but due to the complexity of the process there is still no general understanding of how to describe biomass pyrolysis, which is essential in order to optimize thermal processes. The research presented in this thesis thus aims at finding a simple yet accurate way to model the decomposition rate of biomass during pyrolysis. Thermogravimetric analysis, a well known method that is simple to use, was chosen to collect the experimental data used for kinetic evaluation. The reaction kinetics were derived using two different model-free, isoconversional methods, i.e. the non-linear form of the Friedman method and the incremental, integral method ofVyazovkin. By using these two methods and experimental data, complete reactionrate expressions could be derived for commercial cellulose, Norway spruce and seven different samples originating from kraft cooking, the most common process to produce pulp for the paper industry. The derivation of model-free rate expressions have never been performed before for these materials and since the rate expressions are model-free, no assumptions or knowledge about the pyrolysis reactions were required. This is a great advantage compared to the commonly used model-fitting methods that rely on information about these aspects. All therate expressions were successful in predicting mass-loss rates at extrapolated pyrolysis conditions. This is a clear indication of the soundness of the methodologypresented in this thesis. / Biomassa är den enda förnybara kolkällan som kan konkurrera med fossila energikällor när det gäller produktion av material, kemikalier och bränslen. Biomassakan omvandlas till biokol, bioolja och gas med hjälp av pyrolys, dvs termisk nedbrytning. Genom att variera de processförhållanden som råder under pyrolysen kan man få antingen fast, flytande eller gasfasiga ämnen som huvudprodukt, något som gör pyrolys väldigt flexibelt. Utöver detta är pyrolys även betydelsefull vid förbränning och förgasning, två viktiga processer i dagens samhälle. Vikten av biomassapyrolys har resulterat i omfattande forskning inom området men pga biomassas komplexa natur råder det ännu ingen enighet gällande hur biomassapyrolys bör modelleras. Detta försvårar utveckling och optimering av termiska processer matade med biomassa. Forskningen som presenteras i denna avhandling fokuserar således på att finna en enkel men noggrann metod för att beskriva hastigheten med vilken biomassa bryts ned under pyrolys. Termogravimetrisk analys, en vanligt förekommande metod som är enkel att använda, valdes för att samla in experimentell data som kan användas för att undersöka hastigheten för termisk nedbrytning, dvs kinetiken. Två olika metoder som på engelska går under benämningen “model-free” och “isoconversional” har använts, nämligen den icke-linjära formen av Friedmans metod och den stegvisa, integrala metoden som utvecklats av Vyazovkin. Genom att använda dessa två metoder och experimentell data kunde kompletta reaktionshastighetsuttryck tas fram för kommersiell cellulosa, gran och sju olika material framställda genom sulfatprocessen, den idag vanligast förekommande pappersmassaprocessen. Pyrolyskinetiken för dessa material har aldrig tidigare analyserats med dessa två metoder och fördelarna med metoderna gjorde det möjligt att bestämma hastighetsuttryck utan någon kunskap om de pågående reaktionerna. Detta är en viktig fördel jämfört med andra metoder som är beroende av sådan information. Alla framtagna reaktionshatighetsuttryck kunde användas för att framgångsrikt förutsäga minskningen av massa vid extrapolerade pyrolysförhållanden. Detta är en tydlig indikation på att metoden använd i denna avhandling fungerar väl. / <p>QC 20160524</p>
|
9 |
Konkursprediktion på tjänsteföretag i SverigeAndersson, Johan January 2012 (has links)
Problem: Konkurser drar med sig höga kostnader på olika sätt, och genom åren har många försök gjorts att finna modeller som kan förutse konkurser och därigenom undvika dem. Några av de mest beprövade modellerna är Altmans olika Z-scoremodeller, som genom åren visat olika resultat. Allt fler företag blir också verksamma inom tjänstesektorn, och forskningen menar att dessa företag skiljer sig från tillverkande företag när det gäller dess nyckeltal, vilket alltså borde påverka möjligheterna att förutse konkurser enligt de modeller som idag finns. Syfte: Kontrollera huruvida Altmans Z´´-scoremodell fungerar på små- och medelstora tjänsteföretag i Sverige, men även om korrelation mellan ett företags kreditbetyg och dess Z´´-score föreligger. Metod: Uppsatsen är skriven utifrån ett positivistiskt synsätt med deduktiv ansats, och bygger på kvantitativ sekundärdata. Analyser görs genom hypotesprövning. Slutsats: Altmans Z´´-scoremodell fungerar dåligt på tjänsteföretag inom segmentet små- och medelstora företag i Sverige. Resultatet blir detsamma, även om modellen tillämpas på tillverkande företag och handelsföretag. Däremot går det se skillnad på nyckeltal i företag försatta i konkurs och friska företag, bland annat genom att konkursföretag har sämre lönsamhet, balanslikviditet och skuldsättningsgrad. Fortsatt forskning: Forskningen går isär när det gäller möjligheterna att förutse konkurser, och det finns fortfarande många aspekter att pröva. Förslag på fortsatt forskning är därför att undersöka hur nyckeltalen verkligen skiljer sig åt, och om det därigenom är möjligt att undvika konkurser. Ytterligare alternativ kan vara att undersöka variablerna i Z´´-scoremodellen, och eventuellt justera dessa för bättre utfall. / Problem: Bankruptcy is associated with a high cost in different ways, and over the years, many attempts have been made to find models that can predict failures and thru that avoid them. Some of the most proven models are Altmans Z-score in various forms, which over the years have shown different results. More and more companies work with services, and research says that these companies differ from manufacturing companies when it comes to its economic ratios, which should affect the possibilities in predicting bankruptcy according to today available models. Purpose: Check whether the Altman Z´´-score model works on small- and medium-sized services companies in Sweden, but also check if correlation exist between a company's credit rating and its Z´´-score. Method: The thesis is written with a positivist and deductive approach, based on quantitative secondary data. Analyses are made by hypothesis testing. Conclusion: Altman's Z´´-score does not work on small- and medium-sized service companies in Sweden. The result is the same, even if the model is applied to manufacturing and trading companies. However, it is possible to see differences between bankrupt companies and healthy companies. Some ratios that show differences are profitability, balance sheet liquidity and leverage, which all are lower in bankrupt companies. Continued research: Researchers are divided when it comes to the possibilities to predict bankruptcy, and there are still many aspects to consider. Suggestions for continued researchis to examine how ratios really differ, and if it is thru that is possible to avoid bankruptcy. Another angle might be to examine the variables of the Z´´-score-model, and maybe adjust them for more accurate result.
|
10 |
Encoding Temporal Healthcare Data for Machine LearningLaczik, Tamás January 2021 (has links)
This thesis contains a review of previous work in the fields of encoding sequential healthcare data and predicting graft- versus- host disease, a medical condition, based on patient history using machine learning. A new encoding of such data is proposed for machine learning purposes. The proposed encoding, called bag of binned weighted events, is a combination of two strategies proposed in previous work, called bag of binned events and bag of weighted events. An empirical experiment is designed to evaluate the predictive performance of the proposed encoding over various binning windows to that of the previous encodings, based on the area under the receiver operating characteristic curve (AUC) metric. The experiment is carried out on real- world healthcare data obtained from Swedish registries, using the random forest and the logistic regression algorithms. After filtering the data, solving quality issues and tuning hyperparameters of the models, final results are obtained. These results indicate that the proposed encoding strategy performs on par, or slightly better than the bag of weighted events, and outperforms the bag of binned events in most cases. However, differences in metrics show small differences. It is also observed that the proposed encoding usually performs better with longer binning windows which may be attributed to data noise. Future work is proposed in the form of repeating the experiment with different datasets and models, as well as changing the binning window length of the baseline algorithms. / Denna avhandling innehåller en recension av tidigare arbete inom områden av kodning av sekventiell sjukvårdsdata och förutsägelse av transplantat- mot- värdsjukdom, ett medicinskt tillstånd, baserat på patienthistoria med maskininlärning. En ny kodning av sådan data föreslås i maskininlärningssyfte. Den föreslagna kodningen, kallad bag of binned weighted events, är en kombination av två strategier som föreslagits i tidigare arbete, kallad bag of binned events och bag of weighted events. Ett empiriskt experiment är utformat för att utvärdera den föreslagna prestandan för den föreslagna kodningen över olika binningfönster jämfört med tidigare kodningar, baserat på AUC- måttet. Experimentet utförs på verkliga sjukvårdsdata som erhållits från svenska register, med random forest och logistic regression. Efter filtrering av data, lösning av kvalitetsproblem och justering av hyperparametrar för modellerna, erhålls slutliga resultat. Dessa resultat indikerar att den föreslagna kodningsstrategin presterar i nivå med, eller något bättre än bag of weighted events, och överträffar i de flesta fall bag of binned events. Skillnader i mått är dock små. Det observeras också att den föreslagna kodningen vanligtvis fungerar bättre med längre binningfönster som kan tillskrivas dataljud. Framtida arbete föreslås i form av att upprepa experimentet med olika datamängder och modeller, samt att ändra binningfönstrets längd för basalgoritmerna.
|
Page generated in 0.0767 seconds