• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 20
  • 1
  • Tagged with
  • 46
  • 27
  • 16
  • 13
  • 11
  • 10
  • 9
  • 9
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

A comparison of a distributed control system’s graphical interfaces : a DoE approach to evaluate efficiency in automated process plants / En jämförelse av grafiska gränssnitt för ett distribuerat kontrollsystem : en försöksplaneringsstrategi för att utvärdera effektiviteten i fabriker med automatiserade processer

Maanja, Karen January 2024 (has links)
Distributed control systems play a central role for critical processes within a plant that needs to be monitored or controlled. They ensure high production availability and output while simultaneously ensuring the safety of the personnel and the environment. However, 5% of global annual production is lost due to unscheduled downtime. 80% of the unscheduled shutdowns could have been prevented and 40% of these are caused by human error.  This study is conducted at ABB's Process Automation team in Umeå. The aim is to examine if different human-machine interfaces affect operators' effectiveness in resolving errors and maintaining a high production level. DoE is the chosen approach for this study which includes planning and conducting an experiment where the two dependent variables are Effect and Time. The independent variables examined are Scenario, Graphic, and Operator which are used as factors in a factorial design, each having two levels.  Experiments showed that the design of the human-machine interface has no impact on either responses, i.e. it has no statistically significant effect on the production in terms of operator effectiveness or production efficiency. Instead, the level of experience of the operators seems to be the main contributor of variance in production in the models used. / Distribuerade styrsystem spelar en central roll för kritiska processer inom en anläggning som måste övervakas eller kontrolleras. De säkerställer hög produktionstillgänglighet ochproduktion samtidigt som säkerheten för personalen och miljön säkerställs. Det har visats att 5% av den globala årsproduktionen går förlorad på grund av oplanerade driftstopp. 80% av de oplanerade avbrotten kunde ha förhindrats och 40% av dessa orsakas av den mänskliga faktorn. Denna studie genomförs hos ABB:s Process Automation team i Umeå. Målet är att undersöka om olika gränssnitt för styrsystemen är en viktig faktor för operatörens effektivitet i att åtgärda fel och att upprätthålla en hög produktionsnivå. Försöksplanering är det valda tillvägagångssättet för denna studie som inkluderar planering och genomförande av experimentet där de två beroende variabler är Effekt och Tid. De oberoende variabler som undersöks är Scenario, Grafik och Operatör, och används som faktorer i en faktoriell design, där faktorerna har två nivåer vardera. Experimentet visade att utformningen av den grafiska designen för gränssnittet inte har någon inverkan på någondera svaren, d.v.s. den har ingen statistiskt signifikant effekt på produktionen i form av operatörseffektivitet eller produktionseffektivitet. Istället tycks operatörernas erfarenhetsnivå vara den främsta orsaken till variationen i produktionen i de modeller som används.
32

Explorative Multivariate Data Analysis of the Klinthagen Limestone Quarry Data / Utforskande multivariat analys av Klinthagentäktens projekteringsdata

Bergfors, Linus January 2010 (has links)
<p> </p><p>The today quarry planning at Klinthagen is rough, which provides an opportunity to introduce new exciting methods to improve the quarry gain and efficiency. Nordkalk AB, active at Klinthagen, wishes to start a new quarry at a nearby location. To exploit future quarries in an efficient manner and ensure production quality, multivariate statistics may help gather important information.</p><p>In this thesis the possibilities of the multivariate statistical approaches of Principal Component Analysis (PCA) and Partial Least Squares (PLS) regression were evaluated on the Klinthagen bore data. PCA data were spatially interpolated by Kriging, which also was evaluated and compared to IDW interpolation.</p><p>Principal component analysis supplied an overview of the variables relations, but also visualised the problems involved when linking geophysical data to geochemical data and the inaccuracy introduced by lacking data quality.</p><p>The PLS regression further emphasised the geochemical-geophysical problems, but also showed good precision when applied to strictly geochemical data.</p><p>Spatial interpolation by Kriging did not result in significantly better approximations than the less complex control interpolation by IDW.</p><p>In order to improve the information content of the data when modelled by PCA, a more discrete sampling method would be advisable. The data quality may cause trouble, though with sample technique of today it was considered to be of less consequence.</p><p>Faced with a single geophysical component to be predicted from chemical variables further geophysical data need to complement existing data to achieve satisfying PLS models.</p><p>The stratified rock composure caused trouble when spatially interpolated. Further investigations should be performed to develop more suitable interpolation techniques.</p>
33

Utformning av mjukvarusensorer för avloppsvatten med multivariata analysmetoder / Design of soft sensors for wastewater with multivariate analysis

Abrahamsson, Sandra January 2013 (has links)
Varje studie av en verklig process eller ett verkligt system är baserat på mätdata. Förr var den tillgängliga datamängden vid undersökningar ytterst begränsad, men med dagens teknik är mätdata betydligt mer lättillgängligt. Från att tidigare enbart haft få och ofta osammanhängande mätningar för någon enstaka variabel, till att ha många och så gott som kontinuerliga mätningar på ett större antal variabler. Detta förändrar möjligheterna att förstå och beskriva processer avsevärt. Multivariat analys används ofta när stora datamängder med många variabler utvärderas. I det här projektet har de multivariata analysmetoderna PCA (principalkomponentanalys) och PLS (partial least squares projection to latent structures) använts på data över avloppsvatten insamlat på Hammarby Sjöstadsverk. På reningsverken ställs idag allt hårdare krav från samhället för att de ska minska sin miljöpåverkan. Med bland annat bättre processkunskaper kan systemen övervakas och styras så att resursförbrukningen minskas utan att försämra reningsgraden. Vissa variabler är lätta att mäta direkt i vattnet medan andra kräver mer omfattande laboratorieanalyser. Några parametrar i den senare kategorin som är viktiga för reningsgraden är avloppsvattnets innehåll av fosfor och kväve, vilka bland annat kräver resurser i form av kemikalier till fosforfällning och energi till luftning av det biologiska reningssteget. Halterna av dessa ämnen i inkommande vatten varierar under dygnet och är svåra att övervaka. Syftet med den här studien var att undersöka om det är möjligt att utifrån lättmätbara variabler erhålla information om de mer svårmätbara variablerna i avloppsvattnet genom att utnyttja multivariata analysmetoder för att skapa modeller över variablerna. Modellerna kallas ofta för mjukvarusensorer (soft sensors) eftersom de inte utgörs av fysiska sensorer. Mätningar på avloppsvattnet i Linje 1 gjordes under tidsperioden 11 – 15 mars 2013 på flera ställen i processen. Därefter skapades flera multivariata modeller för att försöka förklara de svårmätbara variablerna. Resultatet visar att det går att erhålla information om variablerna med PLS-modeller som bygger på mer lättillgänglig data. De framtagna modellerna fungerade bäst för att förklara inkommande kväve, men för att verkligen säkerställa modellernas riktighet bör ytterligare validering ske. / Studies of real processes are based on measured data. In the past, the amount of available data was very limited. However, with modern technology, the information which is possible to obtain from measurements is more available, which considerably alters the possibility to understand and describe processes. Multivariate analysis is often used when large datasets which contains many variables are evaluated. In this thesis, the multivariate analysis methods PCA (principal component analysis) and PLS (partial least squares projection to latent structures) has been applied to wastewater data collected at Hammarby Sjöstadsverk WWTP (wastewater treatment plant). Wastewater treatment plants are required to monitor and control their systems in order to reduce their environmental impact. With improved knowledge of the processes involved, the impact can be significantly decreased without affecting the plant efficiency. Several variables are easy to measure directly in the water, while other require extensive laboratory analysis. Some of the parameters from the latter category are the contents of phosphorus and nitrogen in the water, both of which are important for the wastewater treatment results. The concentrations of these substances in the inlet water vary during the day and are difficult to monitor properly. The purpose of this study was to investigate whether it is possible, from the more easily measured variables, to obtain information on those which require more extensive analysis. This was done by using multivariate analysis to create models attempting to explain the variation in these variables. The models are commonly referred to as soft sensors, since they don’t actually make use of any physical sensors to measure the relevant variable. Data were collected during the period of March 11 to March 15, 2013 in the wastewater at different stages of the treatment process and a number of multivariate models were created. The result shows that it is possible to obtain information about the variables with PLS models based on easy-to-measure variables. The best created model was the one explaining the concentration of nitrogen in the inlet water.
34

Explorative Multivariate Data Analysis of the Klinthagen Limestone Quarry Data / Utforskande multivariat analys av Klinthagentäktens projekteringsdata

Bergfors, Linus January 2010 (has links)
The today quarry planning at Klinthagen is rough, which provides an opportunity to introduce new exciting methods to improve the quarry gain and efficiency. Nordkalk AB, active at Klinthagen, wishes to start a new quarry at a nearby location. To exploit future quarries in an efficient manner and ensure production quality, multivariate statistics may help gather important information. In this thesis the possibilities of the multivariate statistical approaches of Principal Component Analysis (PCA) and Partial Least Squares (PLS) regression were evaluated on the Klinthagen bore data. PCA data were spatially interpolated by Kriging, which also was evaluated and compared to IDW interpolation. Principal component analysis supplied an overview of the variables relations, but also visualised the problems involved when linking geophysical data to geochemical data and the inaccuracy introduced by lacking data quality. The PLS regression further emphasised the geochemical-geophysical problems, but also showed good precision when applied to strictly geochemical data. Spatial interpolation by Kriging did not result in significantly better approximations than the less complex control interpolation by IDW. In order to improve the information content of the data when modelled by PCA, a more discrete sampling method would be advisable. The data quality may cause trouble, though with sample technique of today it was considered to be of less consequence. Faced with a single geophysical component to be predicted from chemical variables further geophysical data need to complement existing data to achieve satisfying PLS models. The stratified rock composure caused trouble when spatially interpolated. Further investigations should be performed to develop more suitable interpolation techniques.
35

Long term organic carbon dynamics in 17 Swedish lakes : The impact of acid deposition and climate change / Förändringar i koncentrationer av organiskt kol i 17 Svenska sjöar : Påverkan av försurande nedfall och klimatförändringar

Lovell, Jessica January 2015 (has links)
During the last three decades, a number of studies based on national environmental monitoring data have found increased concentrations of total organic carbon (TOC) in surface waters in much of the northern hemisphere including Sweden. There are many hypothesis of what has been the main cause of this trend, including changes in land use, decreased atmospheric deposition of acidifying compounds and climate change. Different hypothesis may have different implications for quantifying pre-industrial levels and for future predictions of TOC concentrations, which in turn will have different implications for water classification according to the European Water Framework Directive, water management and drinking water treatment. To analyse the long term effects of industrialisation and climate change on TOC in surface waters there is a need for long term time series of data. Since environmental monitoring data in Sweden only extends back to the mid-1980s, other techniques must be used in order to reconstruct data. In this study, sediment cores from 17 lakes along a climatic and deposition gradient in Sweden were collected and analysed with visible near infrared spectroscopy (VNIRS), an analytical technique that makes it possible to reconstruct historic surface water concentrations of TOC to pre-industrial conditions. A previous study with VNIRS showed that TOC concentrations declined in response to sulfate deposition until peak sulfur deposition in 1980, and thereafter increased as a result of sharp reductions of sulfate emissions. It was noted that the rate of increase of TOC after 1980 was faster than the rate of decrease due to sulfate deposition before 1980. The purpose of this study was therefore to explore the hypothesis that increasing TOC concentrations have not only been due to recovery from acidification, but also due to changes in climate. It was possible to analyse the long term effects of industrialisation and climate change on surface water TOC by analysing the reconstructed TOC data together with climate data from the beginning of the 1900s, modelled data of atmospheric sulfate deposition and environmental monitoring data, with uni- and multivariate analysis methods. It was found that the recent increase in TOC concentrations could be explained by both decreases in acidifying atmospheric deposition and increased precipitation, while temperature may have a decreasing effect on TOC. It was also found that the rate of increase of TOC-concentrations has been faster in the colder northern parts of Sweden and slower in the warmer south. The results imply that TOC concentrations will continue to rise to unpreceded levels and should be of concern for drinking water treatment plants that will need to adapt their treatment processes in the future. / Under de senaste tre årtiondena har ett flertal studier baserade på data från nationella miljöövervakningsprogram rapporterat ökande koncentrationer av organiskt kol (TOC) i ytvatten på norra halvklotet inklusive Sverige. Det finns många hypoteser om vad som ligger bakom trenden, till exempel förändringar i markanvändning, minskad atmosfärisk deposition av försurande ämnen och klimatförändringar. Olika förklaringar till vad som ligger bakom den ökande trenden ger konsekvenser vid kvantifiering av förindustriella nivåer och för förutsägelser om framtida koncentrationer, vilket i sin tur ger konsekvenser för vattenklassificering enligt Ramvattendirektivet, vattenförvaltning och dricksvattenberedning. För att kunna analysera de långsiktiga effekterna av industrialisering och klimatförändringar på TOC i ytvatten behövs långa tidsserier av data. Då den svenska miljöövervakningen endast sträcker sig tillbaka till mitten av 1980-talet måste andra tekniker användas för att rekonstruera data. I den här studien har sedimentproppar från 17 sjöar längs en klimat- och depositionsgradient analyserats med visible near infrared spektroskopi (VNIRS), en analysteknik som gör det möjligt att rekonstruera TOC-koncentrationer i ytvatten till förindustriell tid. En tidigare studie med VNIRS visade att TOC-koncentrationer sjönk till följd av försurande nedfall fram till 1980 då nedfallet kraftigt minskade, varefter koncentrationer av TOC började öka. Det noterades i studien att ökningen av TOC efter 1980 varit snabbare än vad minskningen var före 1980 på grund av försurande nedfall. Syftet med den här studien var därför att undersöka hypotesen att den senaste tidens ökning av TOC inte bara berott på minskat nedfall av försurande ämnen, utan även på grund av klimatförändringar. Det var möjligt att undersöka de långsiktiga effekterna av industrialisering och klimatförändringar på TOC i ytvatten genom att analysera rekonstruerad TOC data, klimatdata från början av 1900-talet, modellerad sulfatdepositionsdata och miljöövervakningsdata med uni- och multivariata analysmetoder. Resultaten visade att den senaste tidens ökning av TOC kunde förklaras med både en minskande deposition av försurande ämnen och en ökad nederbörd, medan ökande temperaturer kan ha haft en minskande effekt på TOC. Resultaten visade även att förändringshastigheten av TOC-koncentrationer varit snabbare i de norra, kalla delarna av Sverige och långsammare i de varmare södra. Resultaten indikerar att koncentrationer av TOC kommer att öka till nivåer som aldrig tidigare skådats, vilket är något vattenreningsverk kommer att behöva anpassa sina reningsmetoder till i framtiden.
36

PCA för detektering av avvikande händelser i en kraftvärmeprocess / PCA for outlier detection in a CHP plant

Königsson, Sofia January 2018 (has links)
Panna 6 på Högdalenverket i södra Stockholm (P6) med tillhörande ångturbin producerar kraftvärme genom förbränning av utsorterat returbränsle från industri och samhälle. För att minimera underhållskostnader och öka anläggningens tillgänglighet är det viktigt att fel och oönskat processbeteende kan upptäckas i ett tidigt skede. I detta syfte testas här en metod för detektering av avvikande händelser med hjälp av principalkomponentanalys (PCA) på produktionsprocessen för kraftvärme. En PCA-modell med reducerad dimension skapas utifrån processdata från en problemfri driftperiod och används som mall för inkommande data att jämföras med i ett kontrolldigram. Avvikelser ifrån modellen bör vara en indikation på att ett onormalt drifttillstånd har uppkommit och orsaker till avvikelsen analyseras. Som avvikande händelse testas två fall av tubläckage som uppstod i ett av tubpaketen för kylning av rökgaserna under 2014 och 2015. Resultatet visar att processavvikelser ifrån normallägesmodellerna tydligt syns i kontrolldiagrammen vid båda tubläckagen och avvikelserna kan härledas till variabler som är kopplade till tubläckage. Det finns potential för att tillämpa metoden för övervakning av processen, en svårighet ligger i att skapa en modell som representerar processen när den är stabil på grund av att det finns många varierande driftfall som anses stabila, detta kräver vidare arbete. Metoden kan redan användas som analysverktyg exempelvis vid misstanke om tubläckage. / Boiler 6 at the Högdalen facility in southern Stockholm (P6) combined with a a steam turbine produces Combined Heat and Power (CHP) through combustion of treated industry waste. In order to minimise maintenance costs and increase plant availability it is of importance to detect process faults and deviations at an early state. In this study a method for outlier detection using Principal Component Analysis (PCA) is applied on the CHP production process. A PCA model with reduced dimension is created using process data from a problem free period and is used as a template for new operating data to be compared with in a control chart. Deviations from the model should be an indication of the presence of abnormal conditions and the reasons for the deviations are analysed. Two cases of tube failure in 2014 and 2015 are used to study the deviations. The result shows that process deviations from the models can be detected in the control chart in both cases of tube failure and the variables known to be associated with tube failure contributes highly to the deviating behaviour. There is potential for applying this method for process control, a difficulty lies in creating a model that represents the stable process when there are big variances within what is considererd a stable process state. The method can be used for data analysis when suspecting a tube failure.
37

Modellering av volym samt max- och medeldjup i svenska sjöar : en statistisk analys med hjälp av geografiska informationssystem / Modeling volume, max- and mean-depth in Swedish lakes : a statistical analysis with geographical information systems

Sandström, Sara January 2017 (has links)
Lake volume and lake depth are important variables that defines a lake and its ecosystem. Sweden has around 100 000 lakes, but only around 8000 lakes has measured data for volume, max- and mean-depth. To collect data for the rest of the lakes is presently too time consuming and expensive, therefore a predictive method is needed. Previous studies by Sobek et al. (2011) have found a model predicting lake volume from map-derived parameters with high degrees of explanation for mean volume of 15 lakes or more. However, the predictions for one individual lake, as well as max- and mean-depth, were not accurate enough. The purpose with this study was to derive better models based on new map material with higher resolution. Variables used was derived using GIS-based calculations and then analyzed with multivariate statistical analysis with PCA, PLS-regression and multiple linear regression. A model predicting lake volume for one individual lake with better accuracy than previous studies was found. The variables best explaining the variations in lake volume was lake area and the median slope of an individual zone around each lake (R2=0.87, p&lt;0.00001). Also, the model predicting max-depth from lake area, median slope of an individual zone around each lake and height differences in the closest area surrounding each lake, had higher degrees of explanation than in previous studies (R2=0.42). The mean-depth had no significant correlation with map-derived parameters, but showed strong correlation with max-depth. Reference Sobek, S., Nisell, J. &amp; Fölster J. (2011). Predicting the volume and depths of lakes from map-derived parameters. Inland Waters, vol. 1, ss. 177-184.
38

Monitoring Kraft Recovery Boiler Fouling by Multivariate Data Analysis

Edberg, Alexandra January 2018 (has links)
This work deals with fouling in the recovery boiler at Montes del Plata, Uruguay. Multivariate data analysis has been used to analyze the large amount of data that was available in order to investigate how different parameters affect the fouling problems. Principal Component Analysis (PCA) and Partial Least Square Projection (PLS) have in this work been used. PCA has been used to compare average values between time periods with high and low fouling problems while PLS has been used to study the correlation structures between the variables and consequently give an indication of which parameters that might be changed to improve the availability of the boiler. The results show that this recovery boiler tends to have problems with fouling that might depend on the distribution of air, the black liquor pressure or the dry solid content of the black liquor. The results also show that multivariate data analysis is a powerful tool for analyzing these types of fouling problems. / Detta arbete handlar om inkruster i sodapannan pa Montes del Plata, Uruguay. Multivariat dataanalys har anvands for att analysera den stora datamangd som fanns tillganglig for att undersoka hur olika parametrar paverkar inkrusterproblemen. Principal·· Component Analysis (PCA) och Partial Least Square Projection (PLS) har i detta jobb anvants. PCA har anvants for att jamfora medelvarden mellan tidsperioder med hoga och laga inkrusterproblem medan PLS har anvants for att studera korrelationen mellan variablema och darmed ge en indikation pa vilka parametrar som kan tankas att andras for att forbattra tillgangligheten pa sodapannan. Resultaten visar att sodapannan tenderar att ha problem med inkruster som kan hero pa fdrdelningen av luft, pa svartlutens tryck eller pa torrhalten i svartluten. Resultaten visar ocksa att multivariat dataanalys ar ett anvandbart verktyg for att analysera dessa typer av inkrusterproblem.
39

Real-time Classification of Multi-sensor Signals with Subtle Disturbances Using Machine Learning : A threaded fastening assembly case study / Realtidsklassificering av multi-sensorsignaler med små störningar med hjälp av maskininlärning : En fallstudie inom åtdragningsmontering

Olsson, Theodor January 2021 (has links)
Sensor fault detection is an actively researched area and there are a plethora of studies on sensor fault detection in various applications such as nuclear power plants, wireless sensor networks, weather stations and nuclear fusion. However, there does not seem to be any study focusing on detecting sensor faults in the threaded fastening assembly application. Since the threaded fastening tools use torque and angle measurements to determine whether or not a screw or bolt has been fastened properly, faulty measurements from these sensors can have dire consequences. This study aims to investigate the use of machine learning to detect a subtle kind of sensor faults, common in this application, that are difficult to detect using canonical model-based approaches. Because of the subtle and infrequent nature of these faults, a two-stage system was designed. The first component of this system is given sensor data from a tightening and then tries to classify each data point in the sensor data as normal or faulty using a combination of low-pass filtering to generate residuals and a support vector machine to classify the residual points. The second component uses the output from the first one to determine if the complete tightening is normal or faulty. Despite the modest performance of the first component, with the best model having an F1-score of 0.421 for classifying data points, the design showed promising performance for classifying the tightening signals, with the best model having an F1-score of 0.976. These results indicate that there indeed exist patterns in these kinds of torque and angle multi-sensor signals that make machine learning a feasible approach to classify them and detect sensor faults. / Sensorfeldetektering är för nuvarande ett aktivt forskningsområde med mängder av studier om feldetektion i olika applikationer som till exempel kärnkraft, trådlösa sensornätverk, väderstationer och fusionskraft. Ett applikationsområde som inte verkar ha undersökts är det inom åtdragningsmontering. Eftersom verktygen inom åtdragningsmontering använder mätvärden på vridmoment och vinkel för att avgöra om en skruv eller bult har dragits åt tillräckligt kan felaktiga mätvärden från dessa sensorer få allvarliga konsekvenser. Målet med denna studie är att undersöka om det går att använda maskininlärning för att detektera en subtil sorts sensorfel som är vanlig inom åtdragningsmontering och har visat sig vara svåra att detektera med konventionella modell-baserade metoder. I och med att denna typ av sensorfel är både subtila och infrekventa designades ett system bestående av två komponenter. Den första får sensordata från en åtdragning och försöker klassificera varje datapunkt som antingen normal eller onormal genom att uttnyttja en kombination av lågpassfiltrering för att generera residualer och en stödvektormaskin för att klassificera dessa. Den andra komponenten använder resultatet från den första komponenten för att avgöra om hela åtdragningen ska klassificeras som normal eller onormal. Trots att den första komponenten hade ett ganska blygsamt resultat på att klassificera datapunkter så visade systemet som helhet mycket lovande resultat på att klassificera hela åtdragningar. Dessa resultat indikerar det finns mönster i denna typ av sensordata som gör maskininlärning till ett lämpligt verktyg för att klassificera datat och detektera sensorfel.
40

A Deep Learning Approach to Predicting the Length of Stay of Newborns in the Neonatal Intensive Care Unit / En djupinlärningsstrategi för att förutsäga vistelsetiden för nyfödda i neonatala intensivvårdsavdelingen

Straathof, Bas Theodoor January 2020 (has links)
Recent advancements in machine learning and the widespread adoption of electronic healthrecords have enabled breakthroughs for several predictive modelling tasks in health care. One such task that has seen considerable improvements brought by deep neural networks is length of stay (LOS) prediction, in which research has mainly focused on adult patients in the intensive care unit. This thesis uses multivariate time series extracted from the publicly available Medical Information Mart for Intensive Care III database to explore the potential of deep learning for classifying the remaining LOS of newborns in the neonatal intensive care unit (NICU) at each hour of the stay. To investigate this, this thesis describes experiments conducted with various deep learning models, including long short-term memory cells, gated recurrentunits, fully-convolutional networks and several composite networks. This work demonstrates that modelling the remaining LOS of newborns in the NICU as a multivariate time series classification problem naturally facilitates repeated predictions over time as the stay progresses and enables advanced deep learning models to outperform a multinomial logistic regression baseline trained on hand-crafted features. Moreover, it shows the importance of the newborn’s gestational age and binary masks indicating missing values as variables for predicting the remaining LOS. / Framstegen inom maskininlärning och det utbredda införandet av elektroniska hälsoregister har möjliggjort genombrott för flera prediktiva modelleringsuppgifter inom sjukvården. En sådan uppgift som har sett betydande förbättringar förknippade med djupa neurala nätverk är förutsägelsens av vistelsetid på sjukhus, men forskningen har främst inriktats på vuxna patienter i intensivvården. Den här avhandlingen använder multivariata tidsserier extraherade från den offentligt tillgängliga databasen Medical Information Mart for Intensive Care III för att undersöka potentialen för djup inlärning att klassificera återstående vistelsetid för nyfödda i den neonatala intensivvårdsavdelningen (neonatal-IVA) vid varje timme av vistelsen. Denna avhandling beskriver experiment genomförda med olika djupinlärningsmodeller, inklusive longshort-term memory, gated recurrent units, fully-convolutional networks och flera sammansatta nätverk. Detta arbete visar att modellering av återstående vistelsetid för nyfödda i neonatal-IVA som ett multivariat tidsserieklassificeringsproblem på ett naturligt sätt underlättar upprepade förutsägelser över tid och gör det möjligt för avancerade djupa inlärningsmodeller att överträffaen multinomial logistisk regressionsbaslinje tränad på handgjorda funktioner. Dessutom visar det vikten av den nyfödda graviditetsåldern och binära masker som indikerar saknade värden som variabler för att förutsäga den återstående vistelsetiden.

Page generated in 0.0473 seconds