• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • Tagged with
  • 9
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Stabila approximationer av ett illaställt Cauchy-problem för värmeledningsekvationen i flera lager / Stable Approximations for a Cauchy Problem for the Heat Equations

Gustafsson, Fredrik January 2014 (has links)
I den här kandidatuppsatsen betraktar vi ett illa ställt Cauhy-problem för värmeekvationen i tunna väggar. Problemet kan matematiskt formuleras som: givet brusiga mätningar u x(L, t) och u(L, t) av ux(L, t) och u(L, t) längs linjen x = L bestäm lösningen för u(x, t) för 0 ≤ x, där u uppfyller värmeledningsekvationen ut = ((x)ux)x. Problemet dyker upp i många tillämpningar när man vill uppskatta en temperatur men att en direkt mätning inte låter sig göras. Man mäter en temperatur på ett annat ställe och beräknar temperaturen i den punkt man är intresserad av. Tyngdpunkten i uppsatsen ligger i att undersöka det inversa värmeproblemet i en vägg med flera lager. Det modelleras med att (x) antas vara styckvis konstant.    Problemet undersöks med Fourieranalys. Analysen visar att problemet är extremt illaställt och att det beror på förstärkning av höga frekvenser från mätbruset. Vi presenterar numeriska metoder för att regularisera och lösa problmet. Numersiska exempel som illustrar illaställdheten och regulariserade lösningar ges.
2

Uppehållstillstånd genom undantagsbestämmelse : En explorativ studie av svenska regulariseringsbeslut

Frykskog, Nadja January 2019 (has links)
Följande uppsats synliggör ett slags migrationspolitiskt beslut som återkommit i svenskt beslutsfattande sedan slutet av 1980-talet. Beslutet syftar till att bevilja uppehållstillstånd till utvalda grupper av migranter genom införandet av en tillfällig undantagsbestämmelse. Sammanlagt redogör uppsatsen för åtta beslut som studeras inom ramen för den internationella teoribildningen om regulariseringar. Resultatet visar att ett flertal av besluten genomförts till följd av utdragna handläggningstider av asylärenden, samt består av särskilda bestämmelser för, eller uteslutande riktar sig till, minderåriga och barnfamiljer.
3

Solving an inverse problem for an elliptic equation using a Fourier-sine series.

Linder, Olivia January 2019 (has links)
This work is about solving an inverse problem for an elliptic equation. An inverse problem is often ill-posed, which means that a small measurement error in data can yield a vigorously perturbed solution. Regularization is a way to make an ill-posed problem well-posed and thus solvable. Two important tools to determine if a problem is well-posed or not are norms and convergence. With help from these concepts, the error of the reg- ularized function can be calculated. The error between this function and the exact function is depending on two error terms. By solving the problem with an elliptic equation, a linear operator is eval- uated. This operator maps a given function to another function, which both can be found in the solution of the problem with an elliptic equation. This opera- tor can be seen as a mapping from the given function’s Fourier-sine coefficients onto the other function’s Fourier-sine coefficients, since these functions are com- pletely determined by their Fourier-sine series. The regularization method in this thesis, uses a chosen number of Fourier-sine coefficients of the function, and the rest are set to zero. This regularization method is first illustrated for a simpler problem with Laplace’s equation, which can be solved analytically and thereby an explicit parameter choice rule can be given. The goal with this work is to show that the considered method is a reg- ularization of a linear operator, that is evaluated when the problem with an elliptic equation is solved. In the tests in Chapter 3 and 4, the ill-posedness of the inverse problem is illustrated and that the method does behave like a regularization is shown. Also in the tests, it can be seen how many Fourier-sine coefficients that should be considered in the regularization in different cases, to make a good approximation. / Det här arbetet handlar om att lösa ett inverst problem för en elliptisk ekvation. Ett inverst problem är ofta illaställt, vilket betyder att ett litet mätfel i data kan ge en kraftigt förändrad lösning. Regularisering är ett tillvägagångssätt för att göra ett illaställt problem välställt och således lösbart. Två viktiga verktyg för att bestämma om ett problem är välställt eller inte är normer och konvergens. Med hjälp av dessa begrepp kan felet av den regulariserade lösningen beräknas. Felet mellan den lösningen och den exakta är beroende av två feltermer. Genom att lösa problemet med den elliptiska ekvationen, så är en linjär operator evaluerad. Denna operator avbildar en given funktion på en annan funktion, vilka båda kan hittas i lösningen till problemet med en elliptisk ekva- tion. Denna operator kan ses som en avbildning från den givna funktions Fouri- ersinuskoefficienter på den andra funktionens Fouriersinuskoefficienter, eftersom dessa funktioner är fullständigt bestämda av sina Fouriersinusserier. Regularise- ringsmetoden i denna rapport använder ett valt antal Fouriersinuskoefficienter av funktionen, och resten sätts till noll. Denna regulariseringsmetod illustreras först för ett enklare problem med Laplaces ekvation, som kan lösas analytiskt och därmed kan en explicit parametervalsregel anges. Målet med detta arbete är att visa att denna metod är en regularisering av den linjära operator som evalueras när problemet med en elliptisk ekvation löses. I testerna i kapitel 3 och 4, illustreras illaställdheten av det inversa problemet och det visas att metoden beter sig som en regularisering. I testerna kan det också ses hur många Fouriersinuskoefficienter som borde betraktas i regulariseringen i olika fall, för att göra en bra approximation.
4

Neural Network Regularization for Generalized Heart Arrhythmia Classification

Glandberger, Oliver, Fredriksson, Daniel January 2020 (has links)
Background: Arrhythmias are a collection of heart conditions that affect almost half of the world’s population and accounted for roughly 32.1% of all deaths in 2015. More importantly, early detection of arrhythmia through electrocardiogram analysis can prevent up to 90% of deaths. Neural networks are a modern and increasingly popular tool of choice for classifying arrhythmias hidden within ECG-data. In the pursuit of achieving increased classification accuracy, some of these neural networks can become quite complex which can result in overfitting. To combat this phenomena, a technique called regularization is typically used. Thesis’ Problem Statement: Practically all of today’s research on utilizing neural networks for arrhythmia detection incorporates some form of regularization. However, most of this research has chosen not to focus on, and experiment with, regularization. In this thesis we measured and compared different regularization techniques in order to improve arrhythmia classification accuracy. Objectives: The main objective of this thesis is to expand upon a baseline neural network model by incorporating various regularization techniques and compare how these new models perform in relation to the baseline model. The regularization techniques used are L1, L2, L1 + L2, and Dropout. Methods: The study used quantitative experimentation in order to gather metrics from all of the models. Information regarding related works and relevant scientific articles were collected from Summon and Google Scholar. Results: The study shows that Dropout generally produces the best results, on average improving performance across all parameters and metrics. The Dropout model with a regularization parameter of 0.1 performed particularly well. Conclusions: The study concludes that there are multiple models which can be considered to have the greatest positive impact on the baseline model. Depending on how much one values the consequences of False Negatives vs. False Positives, there are multiple candidates which can be considered to be the best model. For example, is it worth choosing a model which misses 11 people suffering from arrhythmia but simultaneously catches 1651 mistakenly classified arrhythmia cases? / Bakgrund: Arytmier är en samling hjärt-kärlsjukdomar som drabbar nästan hälften av världens befolkning och stod för ungefär 32,1% av alla dödsfall 2015. 90% av dödsfallen som arytmi orsakar kan förhindras om arytmin identifieras tidigare. Neurala nätverk har blivit ett populärt verktyg för att detektera arytmi baserat på ECG-data. I strävan på att uppnå bättre klassificeringsnogrannhet kan dessa nätverk råka ut för problemet ’overfitting’. Overfitting kan dock förebyggas med regulariseringstekniker. Problemställning: Praktiskt taget all forskning som utnyttjar neurala nätverk för att klassifiera arytmi innehåller någon form av regularisering. Dock har majoriteten av denna forsknings inte valt att fokusera och experimentera med regularisering. I den här avhandlingen kommer vi att testa olika regulariseringstekniker för att jämföra hur de förbättrar grundmodellens arytmiklassificeringsförmåga. Mål: Huvudmålet med denna avhandling är att modifiera ett neuralt nätverk som utnyttjar transfer learning för att klassificera arytmi baserat på två-dimensionell ECG-data. Grundmodellen utökades med olika regulariseringstekniker i mån om att jämföra dessa och därmed komma fram till vilken teknik som har störst positiv påverkan. De tekniker som jämfördes är L1, L2, L1 + L2, och Dropout. Metod: Kvantitativa experiment användes för att samla in data kring teknikernas olika prestationer och denna data analyserades och presenterades sedan. En litteraturstudie genomfördes med hjälp av Summon och Google Scholar för att hitta information från relevanta artiklar. Resultat: Forskningen tyder på att generellt sett presterar Dropout bättre än de andra teknikerna. Dropout med parametern 0.1 förbättrade mätvärderna mest. Slutsatser: I specifikt denna kontext presterade Dropout(0.1) bäst. Dock anser vi att falska negativ och falska positiv inte är ekvivalenta. Vissa modeller presterar bättre än andra beroende på hur mycket dessa variabler värderas, och därmed är den bästa modellen subjektiv. Är det till exempel värt att låta 11 personer dö om det innebär att 1651 personer inte kommer att vidare testas i onödan?
5

Learning the Forward Operator in Photon-Counting Computed Tomography / Fotonräknande Datortomografi med en Inlärd Framåtoperator

Ström, Emanuel January 2021 (has links)
Computed Tomography (CT) is a non-invasive x-ray imaging method capable of reconstructing highly detailed cross-sectional interior maps of an object. CT is used in a range of medical applications such as detection of skeletal fractures, organ trauma and artery calcification. Reconstructing CT images requires the use of a forward operator, which is essentially a simulation of the scanning process. Photon-Counting CT is a rapidly developing alternative to conventional CT that promises higher spatial resolution, more accurate material separation and more robust reconstructions. A major difficulty in Photon-Counting CT is to model cross-talk between detectors. One way is to incorporate a wide point-spread function into the forward operator. Although this method works, it drastically slows down the reconstruction process.  In this thesis, we accelerate image reconstruction tasks for photon-counting CT by approximating the cross-talk component of the forward operator with a deep neural network, resulting in a learned forward operator. The learned operator reduces reconstruction error by an order of magnitude at the cost of a 20% increase in computation time, compared to ignoring cross-talk altogether. Furthermore, it generalises well to both unseen data and unseen detector settings. Our results indicate that a learned forward operator is a suitable way of approximating the forward operator in photon-counting CT. / Datortomografi (CT) är en icke-invasiv röntgenmetod som kan skapa högupplösta tvärsnittsbilder av objekt. CT används i en stor mängd tillämpningar, exempelvis vid detektion av frakturer, mjukvävnadstrauma och åderförkalkning. När man rekonstuerar tvärsnitt i CT krävs en simuleringsmodell som kallas framåtoperatorn. Fotonräknande CT är ett alternativ till konventionell CT som utlovar högre upplösning, mer precis uppdelning av material och högre robusthet i rekonstruktionerna. I fotonräknande CT är det viktigt att ta hänsyn till överhörning mellan detektorerna. Ett sätt är att inkorporera en punktspridningsfunktion i framåtoperatorn, vilket dessvärre saktar ned rekonstruktionsprocessen drastiskt.  I detta examensarbete approximerar vi överhörningseffekten mellan detektorer med ett djupt neuralt nätverk, med syfte att accelerera rekonstruktionsprocessen för fotonräknande spektral CT. Den inlärda framåtoperatorn reducerar rekonstruktionsfelet med en faktor tio på bekostnad av en 20-procentig ökning i beräkningstid, jämfört med en framåtoperator som inte modellerar överhörning. Vi visar att den inlärda framåtoperatorn generaliserar väl till data som den inte är tränad på, men även detektorinställningar den inte är van vid. Våra resultat tyder på att den inlärda framåtoperatorn är en lämplig approximationsmetod för framåtoperatorn i fotonräknande CT.
6

Inverse source modeling of roll induced magnetic signature / Invers källmodellering av rullningsinducerad magnetisk signatur

Thermaenius, Erik January 2022 (has links)
Vessels constructed in electrically conductive materials give rise to frequency-dependent, induced magnetic fields when waves of water cause them to roll in the Earth's magnetic field. These fields, typically referred to as roll-induced magnetic vortex fields, are a component of the ship's overall signature, where signature refers to measurable quantities which can reveal or identify objects. It is crucial for military platforms to keep the signature low and thereby increase the possibilities of operation. For magnetic signatures, this is done through strategic design and construction of the platform or by using magnetic silencing systems. The signature is then decreased to minimize the risk of detection from naval mines and marine detection systems.  This report covers the initial research on the subject of an inverse source model for roll induced magnetic fields. By limiting the analysis to two basic objects and applying a time variant magnetic field to them, we induce a magnetic field which we then model. The inverse modeling is done using magnetic dipoles as sources which are placed around the area of the object. The parameters of the model are then found by applying a least squares algorithm coupled with Tikhonov regularization. The focus of this report is the configuration of this setup in terms of measurements and sources, as well as finding a proper regularization parameter. Since the applied magnetic field is dependent on the roll frequency, also the inverse model depends on a frequency parameter in addition to the geometry and material of the object. The objects here studied are of two simple geometries, a rectangular block and a hollow cylinder. Both objects are constructed in an aluminum alloy with well known material parameters. Measurement data is gathered using a numerical solver utilizing the finite element method for solving the partial differential equations. The numerical measurement data is compared to physical measurements as well. The physical measurement data is gathered by placing the objects in a Helmholtz-cage which is used to apply a homogeneous time variant magnetic field upon them. The project was carried out at the Swedish Defence Research Agency (FOI) at the department of underwater research.
7

Predicting Subprime Customers' Probability of Default Using Transaction and Debt Data from NPLs / Predicering av högriskkunders sannolikhet för fallissemang baserat på transaktions- och lånedata på nödlidande lån

Wong, Lai-Yan January 2021 (has links)
This thesis aims to predict the probability of default (PD) of non-performing loan (NPL) customers using transaction and debt data, as a part of developing credit scoring model for Hoist Finance. Many NPL customers face financial exclusion due to default and therefore are considered as bad customers. Hoist Finance is a company that manages NPLs and believes that not all conventionally considered subprime customers are high-risk customers and wants to offer them financial inclusion through favourable loans. In this thesis logistic regression was used to model the PD of NPL customers at Hoist Finance based on 12 months of data. Different feature selection (FS) methods were explored, and the best model utilized l1-regularization for FS and predicted with 85.71% accuracy that 6,277 out of 27,059 customers had a PD between 0% to 10%, which support this belief. Through analysis of the PD it was shown that the PD increased almost linearly with respect to an increase in either debt quantity, original total claim amount or number of missed payments. The analysis also showed that the payment behaviour in the last quarter had the most predictive power. At the same time, from analysing the type II error it was shown that the model was unable to capture some bad payment behaviour, due to putting to large emphasis on the last quarter. / Det här examensarbetet syftar till att predicera sannolikheten för fallissemang för nödlidande lånekunder genom transaktions- och lånedata. Detta som en del av kreditvärdighetsmodellering för Hoist Finance. På engelska kallas sannolikheten för fallissemang för "probability of default" (PD) och nödlidande lån kallas för "non-performing loan" (NPL). Många NPL-kunder står inför ekonomisk uteslutning på grund av att de konventionellt betraktas som kunder med dålig kreditvärdighet. Hoist Finance är ett företag som förvaltar nödlidande lån och påstår att inte alla konventionellt betraktade "dåliga" kunder är högrisk kunder. Därför vill Hoist Finance inkludera dessa kunder ekonomisk genom att erbjuda gynnsamma lån. I detta examensarbetet har Logistisk regression används för att predicera PD på nödlidande lånekunder på Hoist Finance baserat på 12 månaders data. Olika metoder för urval av attribut undersöktes och den bästa modellen utnyttjade lasso för urval. Denna modell predicerade med 85,71 % noggrannhet att 6 277 av 27 059 kunder har en PD mellan 0 % till 10 %, vilket stödjer påståendet. Från analys av PD visade det sig att PD ökade nästan linjärt med avseende på ökning i antingen kvantitet av lån, det ursprungliga totala lånebeloppet eller antalet missade betalningar. Analysen visade också att betalningsbeteendet under det sista kvartalet hade störst prediktivt värde. Genom analys av typ II-felet, visades det sig samtidigt att modellen hade svårigheter att fånga vissa dåliga betalningsbeteende just på grund av att för stor vikt lades på det sista kvartalet.
8

Clustering of Unevenly Spaced Mixed Data Time Series / Klustring av ojämnt fördelade tidsserier med numeriska och kategoriska variabler

Sinander, Pierre, Ahmed, Asik January 2023 (has links)
This thesis explores the feasibility of clustering mixed data and unevenly spaced time series for customer segmentation. The proposed method implements the Gower dissimilarity as the local distance function in dynamic time warping to calculate dissimilarities between mixed data time series. The time series are then clustered with k−medoids and the clusters are evaluated with the silhouette score and t−SNE. The study further investigates the use of a time warping regularisation parameter. It is derived that implementing time as a feature has the same effect as penalising time warping, andtherefore time is implemented as a feature where the feature weight is equivalent to a regularisation parameter. The results show that the proposed method successfully identifies clusters in customer transaction data provided by Nordea. Furthermore, the results show a decrease in the silhouette score with an increase in the regularisation parameter, suggesting that the time at which a transaction occurred might not be of relevance to the given dataset. However, due to the method’s high computational complexity, it is limited to relatively small datasets and therefore a need exists for a more scalable and efficient clustering technique. / Denna uppsats utforskar klustring av ojämnt fördelade tidsserier med numeriska och kategoriska variabler för kundsegmentering. Den föreslagna metoden implementerar Gower dissimilaritet som avståndsfunktionen i dynamic time warping för att beräkna dissimilaritet mellan tidsserierna. Tidsserierna klustras sedan med k-medoids och klustren utvärderas med silhouette score och t-SNE. Studien undersökte vidare användningen av en regulariserings parameter. Det härledes att implementering av tid som en egenskap hade samma effekt som att bestraffa dynamic time warping, och därför implementerades tid som en egenskap där dess vikt är ekvivalent med en regulariseringsparameter.  Resultaten visade att den föreslagna metoden lyckades identifiera kluster i transaktionsdata från Nordea. Vidare visades det att silhouette score minskade då regulariseringsparametern ökade, vilket antyder att tiden transaktion då en transaktion sker inte är relevant för det givna datan. Det visade sig ytterligare att metoden är begränsad till reltaivt små dataset på grund av dess höga beräkningskomplexitet, och därför finns det behov av att utforksa en mer skalbar och effektiv klusteringsteknik.
9

Towards topology-aware Variational Auto-Encoders : from InvMap-VAE to Witness Simplicial VAE / Mot topologimedvetna Variations Autokodare (VAE) : från InvMap-VAE till Witness Simplicial VAE

Medbouhi, Aniss Aiman January 2022 (has links)
Variational Auto-Encoders (VAEs) are one of the most famous deep generative models. After showing that standard VAEs may not preserve the topology, that is the shape of the data, between the input and the latent space, we tried to modify them so that the topology is preserved. This would help in particular for performing interpolations in the latent space. Our main contribution is two folds. Firstly, we propose successfully the InvMap-VAE which is a simple way to turn any dimensionality reduction technique, given its embedding, into a generative model within a VAE framework providing an inverse mapping, with all the advantages that this implies. Secondly, we propose the Witness Simplicial VAE as an extension of the Simplicial Auto-Encoder to the variational setup using a Witness Complex for computing a simplicial regularization. The Witness Simplicial VAE is independent of any dimensionality reduction technique and seems to better preserve the persistent Betti numbers of a data set than a standard VAE, although it would still need some further improvements. Finally, the two first chapters of this master thesis can also be used as an introduction to Topological Data Analysis, General Topology and Computational Topology (or Algorithmic Topology), for any machine learning student, engineer or researcher interested in these areas with no background in topology. / Variations autokodare (VAE) är en av de mest kända djupa generativa modellerna. Efter att ha visat att standard VAE inte nödvändigtvis bevarar topologiska egenskaper, det vill säga formen på datan, mellan inmatningsdatan och det latenta rummet, försökte vi modifiera den så att topologin är bevarad. Det här skulle i synnerhet underlätta när man genomför interpolering i det latenta rummet. Denna avhandling består av två centrala bidrag. I första hand så utvecklar vi InvMap-VAE, som är en enkel metod att omvandla vilken metod inom dimensionalitetsreducering, givet dess inbäddning, till en generativ modell inom VAE ramverket, vilket ger en invers avbildning och dess tillhörande fördelar. För det andra så presenterar vi Witness Simplicial VAE som en förlängning av en Simplicial Auto-Encoder till dess variationella variant genom att använda ett vittneskomplex för att beräkna en simpliciel regularisering. Witness Simplicial VAE är oberoende av dimensionalitets reducerings teknik och verkar bättre bevara Betti-nummer av ett dataset än en vanlig VAE, även om det finns utrymme för förbättring. Slutligen så kan de första två kapitlena av detta examensarbete också användas som en introduktion till Topologisk Data Analys, Allmän Topologi och Beräkningstopologi (eller Algoritmisk Topologi) till vilken maskininlärnings student, ingenjör eller forskare som är intresserad av dessa ämnesområden men saknar bakgrund i topologi.

Page generated in 0.5011 seconds