• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1373
  • 380
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2521
  • 1657
  • 1214
  • 1211
  • 1199
  • 455
  • 390
  • 363
  • 341
  • 341
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Classification Models for Activity Recognition using Smart Phone Accelerometers / Klassificeringsmodeller för aktivitetsigenkänning använder sig av accelerometrar för smarta telefoner

Kumar, Biswas January 2022 (has links)
The huge amount of data generated by accelerometers in smartphones creates new opportunities for useful data mining applications. Machine Learning algorithms can be effectively used for tasks such as the classification and clustering of physical activity patterns. This paper builds and evaluates a system that uses real-world smartphone-based tri-axial accelerometers labeled data to perform activity recognition tasks. Over a million data recorded at the frequency 20Hz, was filtered and pre-processed to extract relevant features for the classification task. The features were selected to obtain higher classification accuracy. These supervised classification models, namely, random forest, support vector machines, decision tree, naïve Bayes classifier, and multinomial logistic regression are evaluated and finally compared with a few unsupervised classification models such as k-means and self-organizing map (SOM) technique built on an unlabelled dataset. Statistical model evaluation metrics such as accuracy-precision-recall are used to compare the classification performances of the models. It was interesting to see that all supervised learning methods achieved very high accuracy (over 95%) on labeled datasets as against 65% by unsupervised SOM. Moreover, they registered very low similarity (23%) among themselves on unlabelled datasets with the same selected features.
322

Modeling COPD with a Generalized Linear Mixed Effect Model : Results from the OLIN-study / Modellering av KOL med en Generalized Linear Mixed Effect Model : Resultat från OLIN-studien

Sjödin, Jenny January 2022 (has links)
The purpose of this thesis is to analyze which factors are associated with physicians’ diagnosis of Chronic Obstructive Pulmonary Disease (COPD) where time is of primary interest. The data that is used in the analysis is from the OLIN studies. The OLIN studies are a longitudinal epidemiological research project that focuses on obstructive lung diseases. The study population contains two groups, one group with COPD according to a lung function test criteria at inclusion in the study and one reference group with matching gender and age. All subjects were invited to annual examinations of a basic program including structured interviews, health-related questionnaires, and lung function testing. The analysis is performed with a generalized linear mixed effect model that accounts for dependencies within-subject observation, which make the selected model idea lwhen analyzing longitudinal data with repeated measurements from the same subject. Results show that smoking and poor performance from the lung function tests increases the risk of getting the COPD diagnosis by a physician. The thesis also reaches the conclusion that time has different effect depending on which group the subject belongs to. For subject that had COPD according to the lung function test criteria at inclusion in the study, the risk of getting the diagnosis increases with time, and for subject that did not have COPD at inclusion in the study, the risk decreases with time.
323

Jämförelse av män och kvinnors risk att återinsjukna i stroke : En överlevnadsanalys som tar hänsyn till konkurrerande utfall / Comparing the risk of stroke recurrence in men and women : A survival analysis in the presence of competing risks

Grundberg, Anton, Inge, Erik January 2022 (has links)
Stroke är den tredje vanligaste dödsorsaken i Sverige. Varje år drabbas omkring 25 000 personer, och av dem är det ungefär fyra av fem som insjuknar för första gången. Det är ungefär lika många män som kvinnor som drabbas av stroke. Dock får kvinnor i genomsnitt en allvarligare stroke än män. Kvinnor är också oftast äldre när de drabbas: kvinnor är i genomsnitt 78 år och än 73 år. Av de som drabbas av stroke varje år dör ungefär 20% inom de tre första månaderna och drygt 20% återinsjuknar senare. I vår studie har vi undersökt om det finns någon skillnad i risk för att återinsjukna i stroke mellan män och kvinnor. I studien har vi arbetat med data från Riksstroke. Riksstroke är ett nationellt kvalitetsregister som samlar in, tillhandahåller och analyserar data rörande svenska strokepatienter och svensk strokevård. Sammanlagt har vi studerat 27 981 insjuknanden. I analysen har vi använt oss av Kaplan-Meier-estimation, Cox Proportional Hazard Cause-Specific Model samt Fine and Gray Subdistributional Hazard Model. Den sistnämnda metoden har vi använt för att kunna ta hänsyn till konkurrerande utfall. I vårt fall har död varit det konkurrerande utfallet till återinsjuknande.  Resultatet visar att det inte finns någon signifikant skillnad i risk mellan könen att återinsjukna i stroke från 60 dagar (efter första stroken) och framåt. Detta gäller oavsett om man tar hänsyn till konkurrerande utfall eller inte. Däremot finns det en signifikant skillnad i risk att dö efter en stroke med avseende på kön under samma tidsintervall. Enligt vår studie har män en högre risk att dö 60 dagar eller senare efter en stroke jämfört med kvinnor. Vi har också kunnat se att modeller som inte tar hänsyn till konkurrerande utfall i vissa fall överskattar riskerna för respektive utfall.
324

Variabelselektion för högdimensionella data : En jämförande simuleringsstudie av variabelselektionsmetoder / Variable selection for high dimensional data : a comparative simulation study between variable selection methods

Lindberg, Jesper, Lidström, Oscar January 2022 (has links)
Högdimensionella data är något som blir allt vanligare inom flera områden som ekonomi, medicin och geologi. Detta kan ofta vara svårt att hantera. Det är därför viktigt att veta hur olika metoder som skattar regressionsmodeller fungerar och presterar för att kunna använda den metod som passar bäst utefter det syfte som finns. Syftet för denna studie är att jämföra olika metoder som skattar regressionsmodeller på högdimensionella data baserat på prediktionsförmåga, variabelselektion och koefficientskattningar. Studien jämför metoderna Lasso, Ridge, Elastic net, adaptive Lasso och adaptive Elastic net. Metoderna jämförs genom att skapa åtta olika simuleringar med olika förutsättningar för linjär regression. Även metoden Random forest jämförs med metoderna ovan i variabelselektion på högdimensionella data, där risken för Bardet-Biedl Syndrom undersöks utifrån nivån av olika gener i däggdjurs ögon. Resultatet visar på att skattningsmetoden Elastic net är den metod som i våra simuleringar oftast ger den bästa prediktionen. Denna metod fungerar bra för både variabelselektion och koefficientskattningar på de påverkande variablerna medan den är sämre i att plocka bort ochskatta de icke-påverkande variablerna. Att peka ut en metod som alltid skapar den bästa modellen är däremot svårt. Olika förutsättningar på data gör att den metod som skapar den bästa modellen varierar. Syftet till att en modell skapas har också stor inverkan på vilken metod somkommer att ge den optimala modellen.
325

Investigating the relationship between dementia and cognitive tests performance : do better scores on cognitive tests relate to a lower risk of developing dementia? / Undersökning av sambandet mellan demens och prestation på kognitiva tester : innebär bättre resultat på kognitiva tester en lägre risk för demens?

Kwon, Emma, Lindvall, Markus January 2022 (has links)
In 2021, dementia was the seventh leading cause of death among all diseases in the world according to the World Health Organization (2021). Dementia is an overall medical term indicating deteriorated brain health associated with loss of memory, cognitive abnormality and difficulties in daily activities. There is no medical cure for dementia yet. However, if we can detect early brain changes through various cognitive tests, we may delay the progression of dementia. The purpose of this study is to investigate the relationship between dementia and cognitive tests. We use two methods to examine their relationship. The first method is called an extended Cox model. Since we are using longitudinal data regarding cognitive aging provided from the Betula Project collected from 1988 to 2010 with repeated cognitive examinations from four different sample groups, we introduce time-varying covariates in the usual Cox proportional hazard model. Secondly, the regularization method from the extended Cox model is implied. We have 12 cognitive tests and four additional covariates such as genetic information (APOEe4), information on age, sex and education to fit into the extended Cox model. As a result, we have many variables in the regression. If we can shrink the model, we can examine which variables have more important relations to dementia. With an aim to find more important variables, we apply the Elastic net regularization. To sum up, an extended Cox regression and a regularized extended Cox model are fitted to investigate the relationship between dementia and cognitive test results. The study finds that a person who performs better at Episodic Memory test, Prospective Memory test and/or Mini-Mental State Examination, has lower risk of developing dementia.
326

Control charts for statistical quality control of Swedish stroke care using Riksstroke data / Statistiska kontrolldiagram för kvalitetskontroll av strokevård i Sverige med data från Riksstroke register

Morin, Edvin, Novossad, Martiina January 2022 (has links)
The aim of this study was to implement statistical quality control to stroke care in Sweden by designing control charts for data from the Riksstroke registry to detect potential unnatural, or special cause variation in the years 2019-2020. Suitable control charts were designed for three quality indicators: the time elapsed from hospital admission to receiving reperfusion therapy (door-to-needle time), the proportion of patients directly admitted to stroke unit, and the fatality rate. The data was sourced from three anonymous hospitals from the Riksstroke registry. The data was split into two phases, one for calibration of the control charts (phase-I) and one for monitoring the process (phase-II). Phase-I consisted of data from 2015-2018 and phase-II of data from 2019-2020. The control charts X-bar and s charts were designed for the door-to-needle time, p charts for the proportion of patients directly admitted to stroke unit, while p charts in addition to EWMA charts were used for the fatality rate. The x-bar and s charts for the two larger hospitals signalled for special cause variation in some months in 2019-2020, whereas the process appeared to be in control during the same period at the smallest hospital. The p chart for the proportion of directly admitted at the largest hospital signalled for special cause variation which lasted throughout 2019-2020. As a consequence, this p chart was modified with recalibrated control limits and it could be seen that the proportion of patients directly admitted had increased in 2019-2020 from previous years. None of the p and EWMA charts for the fatality rate at each hospital signalled for any special cause variation. In conclusion, in this study it is shown how control charts could be useful tools for detecting and evaluating changes in values for quality indicators in stroke care. In order to design adequate control charts, the data should be collected at each time unit and the process should be in control during calibration. This way the control charts may retain good sensitivity of detecting special cause variation.
327

Modelling of Stochastic Volatility using Partially Observed Markov Models / Modellering av Stokastisk Volatilitet genom Partiellt Observerbara Markovmodeller

Heimbürger, Hjalmar January 2016 (has links)
In this thesis, calibration of stochastic volatility models that allow correlation between the volatility and the returns has been considered. To achieve this, the dynamics has been modelled as an extension of hidden Markov models, and a special case of partially observed Markov models. This thesis shows that such models can be calibrated using sequential Monte Carlo methods, and that a model with correlation provide a better fit to the observed data. However, the results are not conclusive and more research is needed in order to confirm this for other data sets and models. / Detta examensarbete behandlar kalibrering av stokastiska volatilitetsmodeller som tillåter korrelation mellan volatiliteten och avkastningen. För att uppnå detta beteende har dynamiken modellerats som ett specialfall av partiellt observerbara Markovmodeller som är en utvidgning av dolda Markovmodeller (HMMer). I denna masteruppsats visas att dessa typer av modeller kan kalibreras med sekventiella Monte Carlo-metoder och att dessa modeller ger en bättre anpassning till observerad data. Resultaten är emellertid inte entydiga och det är nödvändigt utreda frågan vidare för andra modelltyper och andra datamängder.
328

Measurement and valuation of country risk: how to get a right value? / Mätning och värdering av landrisk: hur man får ett rätt värde?

Prevost, Quentin January 2016 (has links)
The purpose of this master thesis is to focus on country risk and its quantification as a premium. Country risk is an important parameter for investors willing to invest abroad and especially in emerging countries. Indeed, there is additional risk to invest in such countries for numerous reasons. It is thus imperative to be able to quantify it. The actual state of the art about this topic is still at its beginning. In this master thesis, I have developed two axis of reflection to get a country risk premium. The first one derives from the Capital Asset Pricing Model and related corporate finance theory. The second axis is based on a more mathematical approach. In the end, I have managed to have a quantified results with those two approaches. They are converging for both methods. I have applied my results with case studies on two countries: Sweden and Mexico / Syftet med detta examensarbete är att fokusera på landrisken och dess kvantifiering som en premie. Landrisken är en viktig parameter för investerare som är villiga att investera utomlands och i synnerhet i tillväxtländerna. I själva verket finns det ytterligare risk att investera i dessa länder på grund av flera skäl. Det är därför viktigt att kunna kvantifiera det. Forskningen om detta ämne är för närvarande fortfarande i ett begynnelsestadium. I detta examensarbete har jag utvecklat två reflektionsaxlar för att få ett lands riskpremie. Den första härrör från Capital Asset Pricing och tillhörande corporate finance teori. Den andra axeln är baserad på en mer matematisk metod. I slutändan har jag lyckats få ett kvantifierat resultat med dessa två synsätt. De konvergerande för båda metoderna. Jag har kommit fram till mina resultat genom fallstudier på två länder: Sverige och Mexiko.
329

Long-term and Short-term Forecasting Techniques for Regional Airport Planning / Lång- och Kortsiktiga Prognostekniker för Hanterande av Regionala Flygplatser

Wargentin, Robin January 2016 (has links)
The aim of this thesis is to forecast passenger demand in long term and short term perspectives at the Airport of Bologna, a regional airport in Italy with a high mix of low cost traffic and conventional airline traffic. In the long term perspective, time series are applied to forecast a significant growth of passenger volumes in the airport in the period 2016-2026. In the short term perspective, time-of-week passenger demand is estimated using two non-parametric techniques; local regression (LOESS) and a simple method of averaging observations. Using cross validation to estimate the accuracy of the estimates, the simple averaging method and the more complex LOESS method are concluded to perform equally well. Peak hour passenger volumes at the airport are observed in historical data and by use of bootstrapping, these are proved to contain little variability and can be concluded to be stable. / Målet med denna uppsats är att prognosticera passagerefterfrågan i lång- och kortsiktigt perspektiv på Bologna Flygplats, en regional flygplats i Italien med hög mix av lågkostnadsbolag och konventionella flygbolag. I det långsiktiga perspektivet appliceras en tidsseriemodell som prognosticerar hög tillväxt i passagerarvolymer på flygplatsen under perioden 2016-2026. I det korta perspektivet uppskattas efterfrågan utefter tid i veckan med hjälp av två icke-parametriska modeller; local regression (LOESS) och en simpel metod som beräknar medelvärdet utav observationer. Med cross validation uppskattas precisionen i modellerna och det kan fastställas att den simpla medelvärdesmetoden och den mer avancerade LOESS-metoden har likvärdig precision. Passagerarvolymer på flygplatsen under högtrafik observeras i historisk data och med hjälp av bootstrapping visas att dessa volymer har låg variabilitet och det kan fastställas att de är stabila.
330

Peptide Retention Time Prediction using Artificial Neural Networks / Peptid retentionstids prediktering med artificiella neuronnät

Väljamets, Sara January 2016 (has links)
This thesis describes the development and evaluation of an artificial neural network, trained to predict the chromatographic retention times of peptides, based on their amino acid sequence. The purpose of accurately predicting retention times is to increase the number of protein identifications in shotgun proteomics and to improve targeted mass spectrometry experiment. The model presented in this thesis is a branched convolutional neural network (CNN) consisting of two convolutional layers, followed by three fully connected layers, all with leaky rectifier as the activation function. Each amino acid sequence is represented by a 20-by-20 matrix X, with each row corresponding to a certain amino acid and the columns representing the position of the amino acid in the peptide. This model achieves a RMSE corresponding to 3.8% of the total running time of the liquid chromatography and a 95 % confidence interval proportional to 14% of the running time, when trained on 20 000 unique peptides from a yeast sample. The CNN predicts retention times slightly more accurately than the software ELUDE when trained on a larger dataset, yet ELUDE performs better on smaller datasets. The CNN does however have a considerable shorter training time. / Det här examensarbetet beskriver utveckningen och utvärderingen av ett artificiellt neuronnät som har tränats för att prediktera kromotografisk retentionstid för peptider baserat på dess aminosyrasekvens. Syftet med att prediktera retentionstider är  att kunna identifiera fler peptider i ”shotgun” proteomik experiment och att förbättra riktade masspektrometri experiment. Den slutgiltiga modellen i detta arbete är ett konvolutions neuronnät (CNN) bestående av två konvolutions lager följt av tre lager med fullt kopplade neuroner, alla med ’leaky rectifier’ som aktiveringsfunktion. Varje aminosyrasekvens representeras av en 20x25-matris X, där varje rad representerar en specifik aminosyra och kolumnerna beskriver aminosyrans position i peptiden. Den här modellen uppnår ett kvadratiskt medelfel motsvarande 3.8% av körtiden för vätskekromatografin och ett 95 % konfidensinterval motsvarande 14% av körtiden, när CNN modellen tränas på 20 000 unika peptides från ett jästprov. CNN modellen presterar marginellt bättre än mjukvaran ELUDE när de är tränade på ett stort dataset, men för begränsade dataset så presenterar ELUDE bättre. CNN modellen tränar dock avsevärt mycket snabbare.

Page generated in 0.0657 seconds