• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 19
  • Tagged with
  • 71
  • 53
  • 46
  • 40
  • 33
  • 32
  • 30
  • 27
  • 18
  • 15
  • 14
  • 14
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Simulation and time-series analysis for Autonomous Emergency Braking systems / Simulering och tidsserie-analys för Autonoma nödbromsning system

Xu, Zhiying January 2021 (has links)
One central challenge for Autonomous Driving (AD) systems is ensuring functional safety. This is affected by all parts of vehicle automation systems: environment perception, decision making, and actuation. The AD system manages its activity towards achieving its goals to maintain in the safety domain, upon an environment using observation through sensors and consequent actuators. Therefore, this research investigates the operational safety for the AD system. In this research, a simulation for the Autonomous Emergency Braking (AEB) system and a simple scenario are constructed on CARLA, an open-source simulator for autonomous driving systems, to investigate the factors that impact the performance of the AEB system. The time-series data that influence the AEB are collected and fed into three time-series analysis algorithms, Autoregressive Integrated Moving Average model (ARIMA), regression tree and Long short-term memory (LSTM), to select a suitable time-series algorithm to be used for the AEB system. The results show that weather, the measurement range of the sensors, and noise can affect the results of the AEB system. After comparing the performance of these three time-series algorithms through contrasting the recall and precision of these three algorithms to detect noise in the data, the results can be obtained that LSTM has the better performance for long-term analysis. And ARIMA is more suitable for short-term time-series analysis. LSTM is chosen to analyze the time-series data, since the long-term time-series analysis is necessary for the AEB system and it can detect the noise in the variables of the AEB system with better performance. / En central utmaning för AD system är att säkerställa funktionell säkerhet. Detta påverkas av alla delar av fordonsautomatiseringssystem: miljöuppfattning, beslutsfattande och aktivering. AD -systemet hanterar sin aktivitet för att uppnå sina mål att upprätthålla inom säkerhetsområdet, i en miljö som använder observation genom sensorer och därav följande ställdon. Därför undersöker denna forskning den operativa säkerheten för AD systemet. I denna forskning konstrueras en simulering för AEB -systemet och ett enkelt scenario på CARLA, en simulator med öppen källkod för autonoma körsystem, för att undersöka de faktorer som påverkar prestandan för AEB systemet. Tidsseriedata som påverkar AEB samlas in och matas in i tre tidsserieanalysalgoritmer, ARIMA, regressionsträd och LSTM, för att välja en lämplig tidsserie-algoritm som ska används för AEB systemet. Resultaten visar att väder, mätområdet för sensorerna och brus kan påverka resultaten av AEB systemet. Efter att ha jämfört prestandan för dessa tre tidsserie-algoritmer genom att kontrastera återkallelsen och precisionen för dessa tre algoritmer för att detektera brus i data kan resultaten erhållas att LSTM har bättre prestanda för långsiktig analys. Och ARIMA är mer lämpad för korttidsanalyser i tidsserier. LSTM väljs för att analysera tidsseriedata, eftersom långsiktig tidsserieanalys är nödvändig för AEB systemet och det kan detektera bruset i variablerna i AEB system med bättre prestanda.
42

Optimizing web camera based eye tracking system : An investigating of the effect of network pruning and image resolution / Optimera webbkamerabaserat ögonspårningssystem : En undersökning av effekten av beskärning och inmatning av olika bildupplösningar

Svensson, Olle January 2021 (has links)
Deep learning has opened new doors to things that were only imaginable before. When it comes to eye tracking, the advances in deep learning have made it possible to predict gaze using the integrated camera that most mobile and desktop devices have nowadays. This has enabled the technique to move from needing advanced eye tracking equipment to being available to everyone with mobile and desktop devices. To make a more accurate gaze prediction more advanced neural network is needed and more computational power. This study investigates how a convolutional neural network used for eye tracking using a desktop web camera could be optimized in terms of computational cost while not compromising the accuracy of the network. In this work, two different methods to decrease the computational cost are investigated and evaluated how it impacts the accuracy, namely pruning and reducing the input image resolution fed to the convolutional neural network. Pruning is when weights in a neural network are removed to make the network sparser. The result shows that pruning works for regression tasks like eye tracking using a desktop web camera without compromising accuracy. When the convolutional neural network is pruned to 80% of its original weights in the convolutional layers, the accuracy improves by 6.8% compared to the same network that has not been pruned. The result also shows that reducing the number of pixels in the input images also improves the accuracy of the neural network. This is investigated further and by injecting noise into the input images used for testing, which shown that the networked trained with a lower resolution image for the face input is more robust to noise than the baseline model. This could be one explanation for the improvement when the face image is downsampled to a lower resolution. It is also shown that a model trained with reduced face and eyes input by a factor of four decreases its computational time by 85.7% compared to a baseline model. / Djuptinlärning har öppnat nya dörrar till saker som bara var tänkbara innan. När det gäller ögonspårning har framstegen inom djupinlärning gjort det möjligt att förutsäga blicken med hjälp av den integrerade kameran som de flesta mobil- och datorenheter har idag. Detta har gjort det möjligt för tekniken att gå från att behöva avancerad ögonspårningsutrustning till att vara tillgänglig till alla med mobil och datorenheter. För att göra en mer exakt ögonspårning behövs mer avancerat neuralt nätverk och mer beräkningskraft. Den här studien undersöker hur ett convolutional neural network som används för ögonspårning med hjälp av dator webbkamera skulle kunna optimeras vad gäller beräkningskostnader men samtidigt inte äventyrar nätverkets noggrannhet. I detta arbete undersöks två olika metoder för att minska beräkningskostnaden och utvärderar hur det påverkar noggrannheten, närmare bestämt beskärning och komprimering av bildupplösningen av bilderna som matas till det neurala nätverket. Beskärning är när vikter i ett neuralt nätverk tas bort för att göra nätverket glesare. Beskärning har, såvitt vi vet, aldrig testats på regressionsuppgifter som ögonspårning på dator. Resultatet visar att beskärning fungerar för regressionsuppgifter som ögonspårning med en dator webbkamera utan att kompromettera med noggrannheten. När det neurala nätverket beskärs till 80% av dess ursprungliga vikter i convolutional lagrena förbättras noggrannheten med 6.8% jämfört med samma nätverk som inte har beskärts. Resultatet visar också att komprimering av bildupplösningen också förbättrar neuralnätets noggrannhet. Detta undersöks vidare och genom att injicera brus i bilderna testbilderna som matas till det neurala nätverket, vilket visade att nätverket som tränats med en reducerad bilder med en faktor fyra är mer robusta vad gäller brus än basmodellen. Detta kan vara en förklaring till förbättringen när bilden på ansiktet komprimeras till en lägre upplösning. Det visas också att en modell som tränats med minskat ansikts- och ögoninmatning med en faktor fyra minskar dess beräkningstid med 85.7% jämfört med en basmodell.
43

Deep Reinforcement Learning for Temperature Control in Buildings and Adversarial Attacks

Ammouri, Kevin January 2021 (has links)
Heating, Ventilation and Air Conditioning (HVAC) systems in buildings are energy consuming and traditional methods used for building control results in energy losses. The methods cannot account for non-linear dependencies in the thermal behaviour. Deep Reinforcement Learning (DRL) is a powerful method for reaching optimal control in many different control environments. DRL utilizes neural networks to approximate the optimal actions to take given that the system is in a given state. Therefore, DRL is a promising method for building control and this fact is highlighted by several studies. However, neural network polices are known to be vulnerable to adversarial attacks, which are small, indistinguishable changes to the input, which make the network choose a sub-optimal action. Two of the main approaches to attack DRL policies are: (1) the Fast Gradient Sign Method, which uses the gradients of the control agent’s network to conduct the attack; (2) to train a a DRL-agent with the goal to minimize performance of control agents. The aim of this thesis is to investigate different strategies for solving the building control problem with DRL using the building simulator IDA ICE. This thesis is also going to use the concept of adversarial machine learning by applying the attacks on the agents controlling the temperature inside the building. We first built a DRL architecture to learn how to efficiently control temperature in a building. Experiments demonstrate that exploration of the agent plays a crucial role in the training of the building control agent, and one needs to fine-tune the exploration strategy in order to achieve satisfactory performance. Finally, we tested the susceptibility of the trained DRL controllers to adversarial attacks. These tests showed, on average, that attacks trained using DRL methods have a larger impact on building control than those using FGSM, while random perturbation have almost null impact. / Ventilationssystem i byggnader är energiförbrukande och traditionella metoder som används för byggnadskontroll resulterar i förlust av energisparande. Dessa metoder kan inte ta hänsyn till icke-linjära beroenden i termisk beteenden. Djup förstärkande inlärning (DRL) är en kraftfull metod för att uppnå optimal kontroll i många kontrollmiljöer. DRL använder sig av neurala nätverk för att approximera optimala val som kan tas givet att systemet befinner sig i en viss stadie. Därför är DRL en lovande metod för byggnadskontroll och detta faktumet är markerat av flera studier. Likväl, neurala nätverk i allmänhet är kända för att vara svaga mot adversarial attacker, vilket är små ändringar i inmatningen, som gör att neurala nätverket väljer en åtgärd som är suboptimal. Syftet med denna anvhandling är att undersöka olika strategier för att lösa byggnadskontroll-problemet med DRL genom att använda sig av byggnadssimulatorn IDA ICE. Denna avhandling kommer också att använda konceptet av adversarial machine learning för att attackera agenterna som kontrollerar temperaturen i byggnaden. Det finns två olika sätt att attackera neurala nätverk: (1) Fast Gradient Sign Method, som använder gradienterna av kontrollagentens nätverk för att utföra sin attack; (2) träna en inlärningsagent med DRL med målet att minimera kontrollagenternas prestanda. Först byggde vi en DRL-arkitektur som lärde sig kontrollera temperaturen i en byggad. Experimenten visar att utforskning av agenten är en grundläggande faktor för träningen av kontrollagenten och man måste finjustera utforskningen av agenten för att nå tillfredsställande prestanda. Slutligen testade vi känsligheten av de tränade DRL-agenterna till adversarial attacker. Dessa test visade att i genomsnitt har det större påverkan på kontrollagenterna att använda DRL metoder än att använda sig av FGSM medans att attackera helt slumpmässigt har nästan ingen påverkan.
44

Predictive Maintenance of Induction Motors using Deep Learning : Anomaly Detection using an Autoencoder Neural Network and Fault Classification using a Convolutional Neural Network

Moreno Salinas, Diego Andres January 2022 (has links)
With the fast evolution of the Industry 4.0, the increased use of sensors and the rapid development of the Internet of Things (IoT), and the adoption of artificial intelligence methods, smart factories can automate their processes to vastly improve their efficiency and production quality. However, even the most well cared-for machines develop faults eventually. Given that Prognostics and Health Management (PHM) is an indispensable aspect for proper machine performance, Predictive Maintenance (PdM) is an emerging topic within maintenance methodologies whose aim is to predict failure prior to occurrence with the goal of scheduling maintenance only when needed. As data can be collected faster than ever before, deep learning is an effective tool that can leverage big data for data-driven fault diagnosis methodologies. This thesis explores two different fault diagnosis methodologies associated with predictive maintenance: an anomaly detection using an Autoencoder Neural Network, and a fault classifier using a Convolutional Neural Network (CNN). The system under analysis is a 3phase AC induction motor commonly used in industry. Results show great performance and indicate the viability for the implementation of both methods in production applications. / Med den snabba utvecklingen av industri 4.0, den ökade användningen av sensorer och den snabba utvecklingen av Internet of Things samt införandet av metoder för artificiell intelligens kan smarta fabriker automatisera sina processer för att avsevärt förbättra effektiviteten och produktionskvaliteten. Även de mest välskötta maskinerna utvecklar dock fel så småningom. PHM är en oumbärlig aspekt för korrekt maskinunderhåll. PdM är ett nytt ämne inom underhållsmetodik som syftar till att förutsäga fel innan de inträffar, med målet att planera underhållet endast när det behövs. Eftersom data kan samlas in snabbare än någonsin tidigare är djupinlärning ett effektivt verktyg som kan utnyttja stora datamängder för datadrivna metoder för feldiagnostik. I den här uppsatsen undersöks två olika metoder för feldiagnostik i samband med förebyggande underhåll: en anomalidetektion med hjälp av ett neuralt nätverk med autoencoder och en felklassificering med hjälp av ett CNN. Det system som analyseras är en induktionsmotor med 3fas växelström som ofta används inom industrin. Resultaten visar på goda resultat och visar att det är möjligt att genomföra båda metoderna i produktionstillämpningar.
45

The V-SLAM Hurdler : A Faster V-SLAM System using Online Semantic Dynamic-and-Hardness-aware Approximation / V-SLAM Häcklöparen : Ett Snabbare V-SLAM System med Online semantisk Dynamisk-och-Hårdhetsmedveten Approximation

Mingxuan, Liu January 2022 (has links)
Visual Simultaneous Localization And Mapping (V-SLAM) and object detection algorithms are two critical prerequisites for modern XR applications. V-SLAM allows XR devices to geometrically map the environment and localize itself within the environment, simultaneously. Furthermore, object detectors based on Deep Neural Network (DNN) can be used to semantically understand what those features in the environment represent. However, both of these algorithms are computationally expensive, which makes it challenging for them to achieve good real-time performance on device. In this thesis, we first present TensoRT Quantized YOLOv4 (TRTQYOLOv4), a faster implementation of YOLOv4 architecture [1] using FP16 reduced precision and INT8 quantization powered by NVIDIA TensorRT [2] framework. Second, we propose the V-SLAM Hurdler: A Faster VSLAM System using Online Dynamic-and-Hardness-aware Approximation. The proposed system integrates the base RGB-D V-SLAM ORB-SLAM3 [3] with the INT8 TRTQ-YOLOv4 object detector, a novel Entropy-based Degreeof- Difficulty Estimator, an Online Hardness-aware Approximation Controller and a Dynamic Object Eraser, applying online dynamic-and-hardness aware approximation to the base V-SLAM system during runtime while increasing its robustness in dynamic scenes. We first evaluate the proposed object detector on public object detection dataset. The proposed FP16 precision TRTQ-YOLOv4 achieves 2×faster than the full-precision model without loss of accuracy, while the INT8 quantized TRTQ-YOLOv4 is almost 3×faster than the full-precision one with only 0.024 loss in mAP@50:5:95. Second, we evaluate our proposed V-SLAM system on public RGB-D SLAM dataset. In static scenes, the proposed system speeds up the base VSLAM system by +21.2% on average with only −0.7% loss of accuracy. In dynamic scenes, the proposed system not only accelerate the base system by +23.5% but also improves the accuracy by +89.3%, making it as robust as in the static scenes. Lastly, the comparison against the state-of-the-art SLAMs designed dynamic environments shows that our system outperforms most of the compared methods in highly dynamic scenes. / Visual SLAM (V-SLAM) och objektdetekteringsalgoritmer är två kritiska förutsättningar för moderna XR-applikationer. V-SLAM tillåter XR-enheter att geometriskt kartlägga miljön och lokalisera sig i miljön samtidigt. Dessutom kan DNN-baserade objektdetektorer användas för att semantiskt förstå vad dessa egenskaper i miljön representerar. Men båda dessa algoritmer är beräkningsmässigt dyra, vilket gör det utmanande för dem att uppnå bra realtidsprestanda på enheten. I det här examensarbetet presenterar vi först TRTQ-YOLOv4, en snabbare implementering av YOLOv4 arkitektur [1] med FP16 reducerad precision och INT8 kvantisering som drivs av NVIDIA TensorRT [2] ramverk. För det andra föreslår vi V-SLAM-häckaren: ett snabbare V-SLAM-system som använder online-dynamisk och hårdhetsmedveten approximation. Det föreslagna systemet integrerar basen RGB-D V-SLAM ORB-SLAM3 [3] med INT8 TRTQYOLOv4 objektdetektorn, en ny Entropi-baserad svårighetsgradsuppskattare, en online hårdhetsmedveten approximationskontroller och en Dynamic Object Eraser, applicerar online-dynamik- och hårdhetsmedveten approximation till bas-V-SLAM-systemet under körning samtidigt som det ökar dess robusthet i dynamiska scener. Vi utvärderar först den föreslagna objektdetektorn på datauppsättning för offentlig objektdetektering. Den föreslagna FP16 precision TRTQ-YOLOv4 uppnår 2× snabbare än fullprecisionsmodellen utan förlust av noggrannhet, medan den INT8 kvantiserade TRTQ-YOLOv4 är nästan 3× snabbare än fullprecisionsmodellen med endast 0.024 förlust i mAP@50:5:95. För det andra utvärderar vi vårt föreslagna V-SLAM-system på offentlig RGB-D SLAM-datauppsättning. I statiska scener snabbar det föreslagna systemet upp V-SLAM-bassystemet med +21.2% i genomsnitt med endast −0.7% förlust av noggrannhet. I dynamiska scener accelererar det föreslagna systemet inte bara bassystemet med +23.5% utan förbättrar också noggrannheten med +89.3%, vilket gör det lika robust som i de statiska scenerna. Slutligen visar jämförelsen med de senaste SLAM-designade dynamiska miljöerna att vårt system överträffar de flesta av de jämförda metoderna i mycket dynamiska scener.
46

Pushing the boundary of Semantic Image Segmentation

Jain, Shipra January 2020 (has links)
The state-of-the-art object detection and image classification methods can perform impressively on more than 9k classes. In contrast, the number of classes in semantic segmentation datasets are fairly limited. This is not surprising , when the restrictions caused by the lack of labeled data and high computation demand are considered. To efficiently perform pixel-wise classification for c number of classes, segmentation models use cross-entropy loss on c-channel output for each pixel. The computational demand for such prediction turns out to be a major bottleneck for higher number of classes. The major goal of this thesis is to reduce the number of channels of the output prediction, thus allowing to perform semantic segmentation with very high number of classes. The reduction of dimension has been approached using metric learning for the semantic feature space. The metric learning provides us the mapping from pixel to embedding with minimal, still sufficient, number of dimensions. Our proposed approximation of groundtruth class probability for cross entropy loss helps the model to place the embeddings of same class pixels closer, reducing inter-class variabilty of clusters and increasing intra-class variability. The model also learns a prototype embedding for each class. In loss function, these class embeddings behave as positive and negative samples for pixel embeddings (anchor). We show that given a limited computational memory and resources, our approach can be used for training a segmentation model for any number of classes. We perform all experiments on one GPU and show that our approach performs similar and in some cases slightly better than deeplabv3+ baseline model for Cityscapes and ADE20K dataset. We also perform experiments to understand trade-offs in terms of memory usage, inference time and performance metrics. Our work helps in alleviating the problem of computational complexity, thus paving the way for image segmentation task with very high number of semantic classes. / De ledande djupa inlärningsmetoderna inom objektdetektion och bildklassificering kan hantera väl över 9000 klasser. Inom semantisk segmentering är däremot antalet klasser begränsat för vanliga dataset. Detta är inte förvånande då det behövs mycket annoterad data och beräkningskraft. För att effektivt kunna göra en pixelvis klassificering av c klasser, använder segmenteringsmetoder den s.k. korsentropin över c sannolikhets värden för varje pixel för att träna det djupa nätverket. Beräkningskomplexiteten från detta steg är den huvudsakliga flaskhalsen för att kunna öka antalet klasser. Det huvudsakliga målet av detta examensarbete är att minska antalet kanaler i prediktionen av nätverket för att kunna prediktera semantisk segmentering även vid ett mycket högt antal klasser. För att åstadkomma detta används metric learning för att träna slutrepresentationen av nätet. Metric learning metoden låter oss träna en representation med ett minimalt, men fortfarande tillräckligt antal dimensioner. Vi föreslår en approximation av korsentropin under träning som låter modellen placera representationer från samma klass närmare varandra, vilket reducerar interklassvarians och öka intraklarrvarians. Modellen lär sig en prototyprepresentation för varje klass. För inkärningskostnadsfunktionen ses dessa prototyper som positiva och negativa representationer. Vi visar att vår metod kan användas för att träna en segmenteringsmodell för ett godtyckligt antal klasser givet begränsade minnes- och beräkningsresurser. Alla experiment genomförs på en GPU. Vår metod åstadkommer liknande eller något bättre segmenteringsprestanda än den ursprungliga deeplabv3+ modellen på Cityscapes och ADE20K dataseten. Vi genomför också experiment för att analysera avvägningen mellan minnesanvändning, beräkningstid och segmenteringsprestanda. Vår metod minskar problemet med beräkningskomplexitet, vilket banar väg för segmentering av bilder med ett stort antal semantiska klasser.
47

A Cycle-Accurate Simulator for Accelerating Convolution on AXI4-based Network-on-Chip Architecture / En cykelexakt simulator för att accelerera konvolution på AXI4-baserad nätverk-på-chip-arkitektur

Liu, Mingrui January 2024 (has links)
Artificial intelligence is probably one of the most prevalent research topics in computer science area, because the technology, if well developed and used properly, is promising to affect the daily lives of ordinaries or even reshape the structure of society. In the meantime, the end of Moore’s Law has promoted the development trend towards domain-specific architectures. The upsurge in researching specific architectures for artificial intelligence applications is unprecedented. Network-on-Chip (NoC) was proposed to address the scalability problem of multi-core system. Recently, NoC has gradually appeared in deep learning computing engines. NoC-based deep learning accelerator is an area worthy of research and currently understudied. Simulating a system is an important step in computer architecture research because it not only allows for rapid verification and measurement of design’s performance, but also provides guidance for subsequent hardware design. In this thesis, we present CNNoCaXiM, a flexible and cycle-accurate simulator for accelerating 2D convolution based on NoC interconnection and AXI4 protocol. We demonstrate its ability by simulating and measuring a convolution example with two different data flows. This simulator can be very useful for upcoming research, either as a baseline case or as a building block for further research. / Artificiell intelligens är förmodligen ett av de vanligaste forskningsämnena inom datavetenskap, eftersom tekniken, om den väl utvecklas och används på rätt sätt, lovar att påverka vanliga människors vardag eller till och med omforma samhällets struktur. Under tiden har slutet av Moores lag främjat utvecklingstrenden mot domänspecifika arkitekturer. Uppsvinget i forskning om specifika arkitekturer för tillämpningar av artificiell intelligens är utan motstycke. Network-on-Chip (NoC) föreslogs för att ta itu med skalbarhetsproblemet med flerkärniga system. Nyligen har NoC gradvis dykt upp i djuplärande datormotorer. NoC-baserad accelerator för djupinlärning är ett område som är värt forskning och för närvarande understuderat. Simulering av ett system är ett viktigt steg i forskning om datorarkitektur eftersom det inte bara möjliggör snabb verifiering och mätning av designens prestanda, utan också ger vägledning för efterföljande hårdvarudesign. I detta examensarbete presenterar vi CNNoCaXiM, en flexibel och cykelnoggrann simulator för att accelerera 2D-faltning baserad på NoC-interconnection och AXI4-protokoll. Vi visar dess förmåga genom att simulera och mäta ett faltningsexempel med två olika dataflöden. Denna simulator kan vara mycket användbar för kommande forskning, antingen som ett grundfall eller som en byggsten för vidare forskning.
48

Quantification of Terrestrial CO2 Sources to a Headwater Streamin a Boreal Forest Catchment / Kvantifiering av terrestriellt CO2 till en bäcki ett borealt vattenavrinningsområde

Hultin Eriksson, Elin January 2016 (has links)
Carbon Dioxide (CO2) emissions from streams are a significant component of the global carbon cycle.Terrestrial export of CO2 through runoff is increasingly recognized as a major source of CO2 in boreal headwater streams. However, the spatial and temporal distribution of soil water CO2 within theterrestrial landscape remains poorly quantified, contributing to large uncertainties about the origin of CO2 in headwater streams. The riparian zone (i.e. the area with fine sediments and organic rich soils closest to the stream) is accepted as a main contributor of organic carbon to streams, but its importanceas a source of CO2 is less evident. Here I evaluate the riparian zone as a main source by quantifying the contribution of lateral CO2 export from the riparian and hillslope zones to a headwater stream in a Swedish boreal catchment. Hourly measurements of CO2 concentration, conductivity, soil temperature and water table levels were taken in the riparian zone and the hillslope from June 2014 to October 2015. The riparian zone accounted for 58-89 % (August 2014 and March respectively) of the total terrestrial CO2 export from the slope to the stream. The hillslope, in turn, became a progressively larger source of CO2 to the stream during high flow events. To identify the drivers behind these zone-dependent and seasonal patterns in CO2 export, the CO2 production dissolved in the groundwater (groundwater- absorbed carbon) was estimated by taking the temporarily stored CO2  into account. The highest groundwater-absorbed carbon was observed during April and May (5.0 and 7.1 g C-CO2 m-2 month-1 respectively) which is the period with the highest discharge due to snow melt and the initiation of spring production. As such, conventional methods (gas chambers and the gradient method) may underestimate the soil respiration up to 50% during periods of high flow, as they exclude groundwater-absorbed carbon. CO2 consumption was observed in September 2014 and October 2015 (-0.2 and -0.7 g C-CO2 m-2 month-1 respectively) and may be explained by a major amount of the soil respiration being emitted instead of diluted in the groundwater during periods of low groundwater levels. It can be concludedthat, regardless of season, the riparian zone is a major source of CO2 to the headwater stream. / En signifikant mängd koldioxid (CO2) är lagrad i skog och marken. Marken i barrskogsregionernaförvarar en signifikant mängd CO2 där det partiella trycket av CO2 varierar mellan ~10 000 – 50 000 ppm i jämförelse med atmosfären (400 ppm). Mättnaden av CO2 gör att mycket avdunstar tillbaka till atmosfären. Dock absorberas en del CO2 av grundvattnet; vilket resulterar i en naturlig transport av CO2 vidare till ytvattnen där det kapillära nätverket av bäckar är största recipienten. Det är fortfarande oklart hur transporten av CO2 är distribuerad i ett vattenavrinningsområde vilket medför brister i förståelsen av en viktig processväg som kan komma att spela en större roll i framtidens kolkretslopp på grund av den globala uppvärmningen. Därför är en kvantifiering av olika områdens bidrag av CO2 till bäckarna nödvändig. Två betydande zoner i ett vattenavrinningsområde som troligen bidrar olika är: the riparian zone som är närmast bäcken och består av fina sediment med hög organisk halt och, the hillslope som är resterande område och består av grovkorniga jordar med låg organisk halt. Den förstnämnda misstänks transportera mer CO2 via grundvattnet på grund av dess närhet till bäcken, höga halter av CO2 och höga vattenmättnad men detta är ännu inte verifierat. Jag evaluerar the riparian zone som en viktig källa till CO2 i ett vattenavrinningsområde genom att kvantifiera transporten av CO2 från de två zonerna. För att förklara varför transporten varierar presenterar jag en ny modell (GVR) som beräknar den månatliga fluktuationen av den del av CO2-produktionen som absorberas i grundvattnet i the riparian zone. Mätningar av data utfördes i Västrabäcken, ett mindre vattenavrinningsområde i ett större vid namn Krycklan, i norra Sverige. En transekt av tre mätstationer (i bäcken, the riparian zone och the hillslope) installerades i den förmodade grundvattenströmningsriktningen. Resultaten visar på en hög produktion av CO2 under vårfloden (maj) då en hög grundvattenyta troligen absorberar en signifikant mängd CO2. Detta kan betyda att jordrespiration under våren underskattas då dagens mätmetoder är begränsade till mätningar i jorden av CO2 ovan grundvattenytan. Fortsatta studier rekommenderas där GVR-modellen och andra mätmetoder utförs samtidigt för att vidare utröna den kvantitativa underskattningen under perioder med hög grundvattenyta (speciellt under våren). Bidraget från the riparian zone till den totala laterala transporten av CO2 till bäcken under ett år varierar mellan 58-89 % och det månatliga transportmönstret kunde förklaras med resultaten från GVR-modellen. Resultaten verifierar att oberoende av säsong så är the riparian zone den huvudsakliga laterala koltransporten från landvegetationen; medan the hillslope procentuellt bidrar med mer CO2 under höga grundvattenflöden.
49

Segmentation of Cone Beam CT in Stereotactic Radiosurgery / Segmentering av Cone Beam CT I stereotaktisk radiokirurgi

Ashfaq, Awais January 2016 (has links)
C-arm Cone Beam CT (CBCT) systems – due to compact size, flexible geometry and low radiation exposure – inaugurated the era of on-board 3D image guidance in therapeutic and surgical procedures. Leksell Gamma Knife Icon by Elekta introduced an integrated CBCT system to determine patient position prior to surgical session, thus advancing to a paradigm shift in facilitating frameless stereotactic radiosurgeries. While CBCT offers a quick imaging facility with high spatial accuracy, the quantitative values tend to be distorted due to various physics based artifacts such as scatter, beam hardening and cone beam effect. Several 3D reconstruction algorithms targeting these artifacts involve an accurate and fast segmentation of craniofacial CBCT images into air, tissue and bone. The objective of the thesis is to investigate the performance of deep learning based convolutional neural networks (CNN) in relation to conventional image processing and machine learning algorithms in segmenting CBCT images. CBCT data for training and testing procedures was provided by Elekta. A framework of segmentation algorithms including multilevel automatic thresholding, fuzzy clustering, multilayer perceptron and CNN is developed and tested against pre-defined evaluation metrics carrying pixel-wise prediction accuracy, statistical tests and execution times among others. CNN has proven its ability to outperform other segmentation algorithms throughout the evaluation metrics except for execution times. Mean segmentation error for CNN is found to be 0.4% with a standard deviation of 0.07%, followed by fuzzy clustering with mean segmentation error of 0.8% and a standard deviation of 0.12%. CNN based segmentation takes 500s compared to multilevel thresholding which requires ~1s on similar sized CBCT image. The present work demonstrates the ability of CNN in handling artifacts and noise in CBCT images and maintaining a high semantic segmentation performance. However, further efforts targeting CNN execution speed are required to utilize the segmentation framework within real-time 3D reconstruction algorithms. / C-arm Cone Beam CT (CBCT) system har tack vare sitt kompakta format, flexibla geometri och låga strålningsdos startat en era av inbyggda 3D bildtagningssystem för styrning av terapeutiska och kirurgiska ingripanden. Elektas Leksell Gamma Knife Icon introducerade ett integrerat CBCT-system för att bestämma patientens position för operationer och på så sätt gå in i en paradigm av ramlös stereotaktisk strålkirurgi. Även om CBCT erbjuder snabb bildtagning med hög spatiel noggrannhet så tenderar de kvantitativa värdena att störas av olika artefakter som spridning, beam hardening och cone beam effekten. Ett flertal 3D rekonstruktionsalgorithmer som försöker reducera dessa artefakter kräver en noggrann och snabb segmentering av kraniofaciala CBCT-bilder i luft, mjukvävnad och ben. Målet med den här avhandlingen är att undersöka hur djupa neurala nätverk baserade på faltning (convolutional neural networks, CNN) presterar i jämförelse med konventionella bildbehandlings- och maskininlärningalgorithmer för segmentering av CBCT-bilder. CBCT-data för träning och testning tillhandahölls av Elekta. Ett ramverk för segmenteringsalgorithmer inklusive flernivåströskling (multilevel automatic thresholding), suddig klustring (fuzzy clustering), flerlagersperceptroner (multilayer perceptron) och CNN utvecklas och testas mot fördefinerade utvärderingskriterier som pixelvis noggrannhet, statistiska tester och körtid. CNN presterade bäst i alla metriker förutom körtid. Det genomsnittliga segmenteringsfelet för CNN var 0.4% med en standardavvikelse på 0.07%, följt av suddig klustring med ett medelfel på 0.8% och en standardavvikelse på 0.12%. CNN kräver 500 sekunder jämfört med ungefär 1 sekund för den snabbaste algorithmen, flernivåströskling på lika stora CBCT-volymer. Arbetet visar CNNs förmåga att handera artefakter och brus i CBCT-bilder och bibehålla en högkvalitativ semantisk segmentering. Vidare arbete behövs dock för att förbättra presetandan hos algorithmen för att metoden ska vara applicerbar i realtidsrekonstruktionsalgorithmer.
50

Engelska och dyslexi – en (o)möjlig kombination? : En retrospektiv studie om erfarenheter av andraspråkslärande i grundskolan hos elever med dyslexi. / English and dyslexia – An (im)possible combination? : A retrospective study about experiences of second language learning in primary and secondary school in students with dyslexia.

Persson, Kristin January 2020 (has links)
Many people with dyslexia find second language learning difficult (Gallardo, et al., 2015; Csizér, et al., 2010; DiFino & Lombardino, 2004; Simon, 2000). A language with a deep orthography has little correspondence between the spelling of a word and its pronunciation, and is said to cause a higher degree of faulty decoding by people with dyslexia (Lindgren & Laine, 2011; Rontou, 2012). English is one of the languages with the deepest orthography (Seymour, Aro & Erskine, 2003). In contrast, one study has found that some exceptional dyslectics read with greater ease and correctness in English compared to their mother tongue Swedish (Miller Guron & Lundberg, 2000). The aim of this study is to contribute to knowledge about how young adults with dyslexia have experienced learning English in primary and secondary school. It is a retrospective study with two participants, whose life histories are in focus. The research questions for this study are: -          What themes arise in the participants’ life histories, concerning the connection between dyslexia and second language learning in English? -          What perspectives of special education have pervaded the English teaching that the participants took part in? -          In which ways were the participants included in the English teaching that they took part in, seen from three aspects of inclusion: spatial-, social- and didactic inclusion? Firstly, the results show that despite having very different experiences of dyslexia and learning English in primary and secondary school, certain common themes arise when cross-analysing the participants’ life histories: -          Support at home and in school affects the motivation for learning English -          English is more difficult to learn compared to other school subjects -          Lower self-esteem/self-worth -          The need for repetition and time for learning English Secondly, the results show that it was mainly the compensatory- and critical perspectives that pervaded the teaching of English that the participants took part in. Only to a minor extent was the dilemma perspective noticeable. Finally, the results show that one of the participants mainly experienced two aspects of inclusion, spatial- and social inclusion, throughout primary and secondary school. Although, one specific teacher managed to include the participant according to all three aspects of inclusion. The other participant, on the other hand, did not experience being included according to any of the aspects. The participants of this study have shown that learning English is definitely a possibility for a person with dyslexia. However, it has not been a walk in the park for either of them but has required a lot of hard work and feelings of distress along the way.

Page generated in 0.0306 seconds