Spelling suggestions: "subject:"probability "" "subject:"aprobability ""
441 |
Modeling COPD with a Generalized Linear Mixed Effect Model : Results from the OLIN-study / Modellering av KOL med en Generalized Linear Mixed Effect Model : Resultat från OLIN-studienSjödin, Jenny January 2022 (has links)
The purpose of this thesis is to analyze which factors are associated with physicians’ diagnosis of Chronic Obstructive Pulmonary Disease (COPD) where time is of primary interest. The data that is used in the analysis is from the OLIN studies. The OLIN studies are a longitudinal epidemiological research project that focuses on obstructive lung diseases. The study population contains two groups, one group with COPD according to a lung function test criteria at inclusion in the study and one reference group with matching gender and age. All subjects were invited to annual examinations of a basic program including structured interviews, health-related questionnaires, and lung function testing. The analysis is performed with a generalized linear mixed effect model that accounts for dependencies within-subject observation, which make the selected model idea lwhen analyzing longitudinal data with repeated measurements from the same subject. Results show that smoking and poor performance from the lung function tests increases the risk of getting the COPD diagnosis by a physician. The thesis also reaches the conclusion that time has different effect depending on which group the subject belongs to. For subject that had COPD according to the lung function test criteria at inclusion in the study, the risk of getting the diagnosis increases with time, and for subject that did not have COPD at inclusion in the study, the risk decreases with time.
|
442 |
Jämförelse av män och kvinnors risk att återinsjukna i stroke : En överlevnadsanalys som tar hänsyn till konkurrerande utfall / Comparing the risk of stroke recurrence in men and women : A survival analysis in the presence of competing risksGrundberg, Anton, Inge, Erik January 2022 (has links)
Stroke är den tredje vanligaste dödsorsaken i Sverige. Varje år drabbas omkring 25 000 personer, och av dem är det ungefär fyra av fem som insjuknar för första gången. Det är ungefär lika många män som kvinnor som drabbas av stroke. Dock får kvinnor i genomsnitt en allvarligare stroke än män. Kvinnor är också oftast äldre när de drabbas: kvinnor är i genomsnitt 78 år och än 73 år. Av de som drabbas av stroke varje år dör ungefär 20% inom de tre första månaderna och drygt 20% återinsjuknar senare. I vår studie har vi undersökt om det finns någon skillnad i risk för att återinsjukna i stroke mellan män och kvinnor. I studien har vi arbetat med data från Riksstroke. Riksstroke är ett nationellt kvalitetsregister som samlar in, tillhandahåller och analyserar data rörande svenska strokepatienter och svensk strokevård. Sammanlagt har vi studerat 27 981 insjuknanden. I analysen har vi använt oss av Kaplan-Meier-estimation, Cox Proportional Hazard Cause-Specific Model samt Fine and Gray Subdistributional Hazard Model. Den sistnämnda metoden har vi använt för att kunna ta hänsyn till konkurrerande utfall. I vårt fall har död varit det konkurrerande utfallet till återinsjuknande. Resultatet visar att det inte finns någon signifikant skillnad i risk mellan könen att återinsjukna i stroke från 60 dagar (efter första stroken) och framåt. Detta gäller oavsett om man tar hänsyn till konkurrerande utfall eller inte. Däremot finns det en signifikant skillnad i risk att dö efter en stroke med avseende på kön under samma tidsintervall. Enligt vår studie har män en högre risk att dö 60 dagar eller senare efter en stroke jämfört med kvinnor. Vi har också kunnat se att modeller som inte tar hänsyn till konkurrerande utfall i vissa fall överskattar riskerna för respektive utfall.
|
443 |
Variabelselektion för högdimensionella data : En jämförande simuleringsstudie av variabelselektionsmetoder / Variable selection for high dimensional data : a comparative simulation study between variable selection methodsLindberg, Jesper, Lidström, Oscar January 2022 (has links)
Högdimensionella data är något som blir allt vanligare inom flera områden som ekonomi, medicin och geologi. Detta kan ofta vara svårt att hantera. Det är därför viktigt att veta hur olika metoder som skattar regressionsmodeller fungerar och presterar för att kunna använda den metod som passar bäst utefter det syfte som finns. Syftet för denna studie är att jämföra olika metoder som skattar regressionsmodeller på högdimensionella data baserat på prediktionsförmåga, variabelselektion och koefficientskattningar. Studien jämför metoderna Lasso, Ridge, Elastic net, adaptive Lasso och adaptive Elastic net. Metoderna jämförs genom att skapa åtta olika simuleringar med olika förutsättningar för linjär regression. Även metoden Random forest jämförs med metoderna ovan i variabelselektion på högdimensionella data, där risken för Bardet-Biedl Syndrom undersöks utifrån nivån av olika gener i däggdjurs ögon. Resultatet visar på att skattningsmetoden Elastic net är den metod som i våra simuleringar oftast ger den bästa prediktionen. Denna metod fungerar bra för både variabelselektion och koefficientskattningar på de påverkande variablerna medan den är sämre i att plocka bort ochskatta de icke-påverkande variablerna. Att peka ut en metod som alltid skapar den bästa modellen är däremot svårt. Olika förutsättningar på data gör att den metod som skapar den bästa modellen varierar. Syftet till att en modell skapas har också stor inverkan på vilken metod somkommer att ge den optimala modellen.
|
444 |
Investigating the relationship between dementia and cognitive tests performance : do better scores on cognitive tests relate to a lower risk of developing dementia? / Undersökning av sambandet mellan demens och prestation på kognitiva tester : innebär bättre resultat på kognitiva tester en lägre risk för demens?Kwon, Emma, Lindvall, Markus January 2022 (has links)
In 2021, dementia was the seventh leading cause of death among all diseases in the world according to the World Health Organization (2021). Dementia is an overall medical term indicating deteriorated brain health associated with loss of memory, cognitive abnormality and difficulties in daily activities. There is no medical cure for dementia yet. However, if we can detect early brain changes through various cognitive tests, we may delay the progression of dementia. The purpose of this study is to investigate the relationship between dementia and cognitive tests. We use two methods to examine their relationship. The first method is called an extended Cox model. Since we are using longitudinal data regarding cognitive aging provided from the Betula Project collected from 1988 to 2010 with repeated cognitive examinations from four different sample groups, we introduce time-varying covariates in the usual Cox proportional hazard model. Secondly, the regularization method from the extended Cox model is implied. We have 12 cognitive tests and four additional covariates such as genetic information (APOEe4), information on age, sex and education to fit into the extended Cox model. As a result, we have many variables in the regression. If we can shrink the model, we can examine which variables have more important relations to dementia. With an aim to find more important variables, we apply the Elastic net regularization. To sum up, an extended Cox regression and a regularized extended Cox model are fitted to investigate the relationship between dementia and cognitive test results. The study finds that a person who performs better at Episodic Memory test, Prospective Memory test and/or Mini-Mental State Examination, has lower risk of developing dementia.
|
445 |
Control charts for statistical quality control of Swedish stroke care using Riksstroke data / Statistiska kontrolldiagram för kvalitetskontroll av strokevård i Sverige med data från Riksstroke registerMorin, Edvin, Novossad, Martiina January 2022 (has links)
The aim of this study was to implement statistical quality control to stroke care in Sweden by designing control charts for data from the Riksstroke registry to detect potential unnatural, or special cause variation in the years 2019-2020. Suitable control charts were designed for three quality indicators: the time elapsed from hospital admission to receiving reperfusion therapy (door-to-needle time), the proportion of patients directly admitted to stroke unit, and the fatality rate. The data was sourced from three anonymous hospitals from the Riksstroke registry. The data was split into two phases, one for calibration of the control charts (phase-I) and one for monitoring the process (phase-II). Phase-I consisted of data from 2015-2018 and phase-II of data from 2019-2020. The control charts X-bar and s charts were designed for the door-to-needle time, p charts for the proportion of patients directly admitted to stroke unit, while p charts in addition to EWMA charts were used for the fatality rate. The x-bar and s charts for the two larger hospitals signalled for special cause variation in some months in 2019-2020, whereas the process appeared to be in control during the same period at the smallest hospital. The p chart for the proportion of directly admitted at the largest hospital signalled for special cause variation which lasted throughout 2019-2020. As a consequence, this p chart was modified with recalibrated control limits and it could be seen that the proportion of patients directly admitted had increased in 2019-2020 from previous years. None of the p and EWMA charts for the fatality rate at each hospital signalled for any special cause variation. In conclusion, in this study it is shown how control charts could be useful tools for detecting and evaluating changes in values for quality indicators in stroke care. In order to design adequate control charts, the data should be collected at each time unit and the process should be in control during calibration. This way the control charts may retain good sensitivity of detecting special cause variation.
|
446 |
Modelling of Stochastic Volatility using Partially Observed Markov Models / Modellering av Stokastisk Volatilitet genom Partiellt Observerbara MarkovmodellerHeimbürger, Hjalmar January 2016 (has links)
In this thesis, calibration of stochastic volatility models that allow correlation between the volatility and the returns has been considered. To achieve this, the dynamics has been modelled as an extension of hidden Markov models, and a special case of partially observed Markov models. This thesis shows that such models can be calibrated using sequential Monte Carlo methods, and that a model with correlation provide a better fit to the observed data. However, the results are not conclusive and more research is needed in order to confirm this for other data sets and models. / Detta examensarbete behandlar kalibrering av stokastiska volatilitetsmodeller som tillåter korrelation mellan volatiliteten och avkastningen. För att uppnå detta beteende har dynamiken modellerats som ett specialfall av partiellt observerbara Markovmodeller som är en utvidgning av dolda Markovmodeller (HMMer). I denna masteruppsats visas att dessa typer av modeller kan kalibreras med sekventiella Monte Carlo-metoder och att dessa modeller ger en bättre anpassning till observerad data. Resultaten är emellertid inte entydiga och det är nödvändigt utreda frågan vidare för andra modelltyper och andra datamängder.
|
447 |
Measurement and valuation of country risk: how to get a right value? / Mätning och värdering av landrisk: hur man får ett rätt värde?Prevost, Quentin January 2016 (has links)
The purpose of this master thesis is to focus on country risk and its quantification as a premium. Country risk is an important parameter for investors willing to invest abroad and especially in emerging countries. Indeed, there is additional risk to invest in such countries for numerous reasons. It is thus imperative to be able to quantify it. The actual state of the art about this topic is still at its beginning. In this master thesis, I have developed two axis of reflection to get a country risk premium. The first one derives from the Capital Asset Pricing Model and related corporate finance theory. The second axis is based on a more mathematical approach. In the end, I have managed to have a quantified results with those two approaches. They are converging for both methods. I have applied my results with case studies on two countries: Sweden and Mexico / Syftet med detta examensarbete är att fokusera på landrisken och dess kvantifiering som en premie. Landrisken är en viktig parameter för investerare som är villiga att investera utomlands och i synnerhet i tillväxtländerna. I själva verket finns det ytterligare risk att investera i dessa länder på grund av flera skäl. Det är därför viktigt att kunna kvantifiera det. Forskningen om detta ämne är för närvarande fortfarande i ett begynnelsestadium. I detta examensarbete har jag utvecklat två reflektionsaxlar för att få ett lands riskpremie. Den första härrör från Capital Asset Pricing och tillhörande corporate finance teori. Den andra axeln är baserad på en mer matematisk metod. I slutändan har jag lyckats få ett kvantifierat resultat med dessa två synsätt. De konvergerande för båda metoderna. Jag har kommit fram till mina resultat genom fallstudier på två länder: Sverige och Mexiko.
|
448 |
Long-term and Short-term Forecasting Techniques for Regional Airport Planning / Lång- och Kortsiktiga Prognostekniker för Hanterande av Regionala FlygplatserWargentin, Robin January 2016 (has links)
The aim of this thesis is to forecast passenger demand in long term and short term perspectives at the Airport of Bologna, a regional airport in Italy with a high mix of low cost traffic and conventional airline traffic. In the long term perspective, time series are applied to forecast a significant growth of passenger volumes in the airport in the period 2016-2026. In the short term perspective, time-of-week passenger demand is estimated using two non-parametric techniques; local regression (LOESS) and a simple method of averaging observations. Using cross validation to estimate the accuracy of the estimates, the simple averaging method and the more complex LOESS method are concluded to perform equally well. Peak hour passenger volumes at the airport are observed in historical data and by use of bootstrapping, these are proved to contain little variability and can be concluded to be stable. / Målet med denna uppsats är att prognosticera passagerefterfrågan i lång- och kortsiktigt perspektiv på Bologna Flygplats, en regional flygplats i Italien med hög mix av lågkostnadsbolag och konventionella flygbolag. I det långsiktiga perspektivet appliceras en tidsseriemodell som prognosticerar hög tillväxt i passagerarvolymer på flygplatsen under perioden 2016-2026. I det korta perspektivet uppskattas efterfrågan utefter tid i veckan med hjälp av två icke-parametriska modeller; local regression (LOESS) och en simpel metod som beräknar medelvärdet utav observationer. Med cross validation uppskattas precisionen i modellerna och det kan fastställas att den simpla medelvärdesmetoden och den mer avancerade LOESS-metoden har likvärdig precision. Passagerarvolymer på flygplatsen under högtrafik observeras i historisk data och med hjälp av bootstrapping visas att dessa volymer har låg variabilitet och det kan fastställas att de är stabila.
|
449 |
Peptide Retention Time Prediction using Artificial Neural Networks / Peptid retentionstids prediktering med artificiella neuronnätVäljamets, Sara January 2016 (has links)
This thesis describes the development and evaluation of an artificial neural network, trained to predict the chromatographic retention times of peptides, based on their amino acid sequence. The purpose of accurately predicting retention times is to increase the number of protein identifications in shotgun proteomics and to improve targeted mass spectrometry experiment. The model presented in this thesis is a branched convolutional neural network (CNN) consisting of two convolutional layers, followed by three fully connected layers, all with leaky rectifier as the activation function. Each amino acid sequence is represented by a 20-by-20 matrix X, with each row corresponding to a certain amino acid and the columns representing the position of the amino acid in the peptide. This model achieves a RMSE corresponding to 3.8% of the total running time of the liquid chromatography and a 95 % confidence interval proportional to 14% of the running time, when trained on 20 000 unique peptides from a yeast sample. The CNN predicts retention times slightly more accurately than the software ELUDE when trained on a larger dataset, yet ELUDE performs better on smaller datasets. The CNN does however have a considerable shorter training time. / Det här examensarbetet beskriver utveckningen och utvärderingen av ett artificiellt neuronnät som har tränats för att prediktera kromotografisk retentionstid för peptider baserat på dess aminosyrasekvens. Syftet med att prediktera retentionstider är att kunna identifiera fler peptider i ”shotgun” proteomik experiment och att förbättra riktade masspektrometri experiment. Den slutgiltiga modellen i detta arbete är ett konvolutions neuronnät (CNN) bestående av två konvolutions lager följt av tre lager med fullt kopplade neuroner, alla med ’leaky rectifier’ som aktiveringsfunktion. Varje aminosyrasekvens representeras av en 20x25-matris X, där varje rad representerar en specifik aminosyra och kolumnerna beskriver aminosyrans position i peptiden. Den här modellen uppnår ett kvadratiskt medelfel motsvarande 3.8% av körtiden för vätskekromatografin och ett 95 % konfidensinterval motsvarande 14% av körtiden, när CNN modellen tränas på 20 000 unika peptides från ett jästprov. CNN modellen presterar marginellt bättre än mjukvaran ELUDE när de är tränade på ett stort dataset, men för begränsade dataset så presenterar ELUDE bättre. CNN modellen tränar dock avsevärt mycket snabbare.
|
450 |
Numerical Instability of Particle Learning: a case study / Numerisk instabilitet i Particle Learning: en fallstudieKlingmann Rönnqvist, Max January 2016 (has links)
This master's thesis is about a method called Particle Learning (PL) which can be used to analyze so called hidden Markov models (HMM) or, with an alternative terminology, state-space models (SSM) which are very popular for modeling time series. The advantage of PL over more established methods is its capacity to process new datapoints with a constant demand on computational resources but it has been suspected to su er from a problem known as particle path degeneracy. The purpose with this report is to investigate the degeneracy of PL by testing it on two examples. The results suggest that the method may not work very well for long time series. / Detta examensarbete handlar om en metod som kallas Particle Learning (PL) som kan användas för att analysera dolda Markovmodeller eller hidden Markov models (HMM), vilka med en alternativ terminologi även kallas tillståndsmodeller, som är mycket populära för att modellera tidsserier. Fördelen med PL över mera etablerade metoder är dess förmåga att bearbeta nya datapunkter med konstant behov av beräkningskapacitet men den har även misstänkts lida av ett problem känt som är känt som degenerering av partikelbanorna. Syftet med denna rapport är att undersöka degenereringen av PL genom att testa den på två exempel. Resultaten tyder på att metoden inte fungerar så bra för långa tidsserier.
|
Page generated in 0.0806 seconds