• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 12
  • Tagged with
  • 30
  • 20
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Artificiell intelligens och gender bias : En studie av samband mellan artificiell intelligens, gender bias och könsdiskriminering / Addressing Gender Bias in Artificial Intelligence

Lycken, Hanna January 2019 (has links)
AI spås få lika stor påverkan på samhället som elektricitet haft och avancemangen inom till exempel maskininlärning och neurala nätverk har tagit AI in i sektorer som rättsväsende, rekrytering och hälso- och sjukvård. Men AI-system är, precis som människor, känsliga för olika typer av snedvridningar, vilket kan leda till orättvisa beslut. En alarmerande mängd studier och rapporter visar att AI i flera fall speglar, sprider och förstärker befintliga snedvridningar i samhället i form av fördomar och värderingar vad gäller könsstereotyper och könsdiskriminering. Algoritmer som används i bildigenkänning baserar sina beslut på stereotyper om vad som är manligt och kvinnligt, röstigenkänning är mer trolig att korrekt känna igen manliga röster jämfört med kvinnliga röster och röstassistenter som Microsoft:s Cortona eller Apple:s Siri förstärker befintlig könsdiskriminering i samhällen. Syftet med denna studie är att undersöka hur könsdiskriminering kan uppstå i AI-system generellt, hur relationen mellan gender bias och AI-system ser ut samt hur ett företag som arbetar med utveckling av AI resonerar kring relationen mellan gender bias och AI-utveckling. Studiens syfte uppfylls genom en litteraturgenomgång samt djupintervjuer med nyckelpersoner som på olika sätt arbetar med AI-utveckling på KPMG. Resultaten visar att bias i allmänhet och gender bias i synnerhet finns närvarande i alla steg i utvecklingen av AI och kan uppstå på grund av en mängd olika faktorer, inklusive men inte begränsat till mångfald i utvecklingsteamen, utformningen av algoritmer och beslut relaterade till hur data samlas in, kodas, eller används för att träna algoritmer. De lösningar som föreslås handlar dels om att adressera respektive orsaksfaktor som identifierats, men även att se problemet med gender bias och könsdiskriminering i AI-system från ett helhetsperspektiv. Essensen av resultaten är att det inte räcker att ändra någon av parametrarna om inte systemets struktur samtidigt ändras. / Recent advances in, for example, machine learning and neural networks have taken artificial intelligence into disciplines such as justice, recruitment and health care. As in all fields subject to AI, correct decisions are crucial and there is no room for discriminatory conclusions. However, AI-systems are, just like humans, subject to various types of distortions, which can lead to unfair decisions. An alarming number of studies and reports show that AI in many cases reflects and reinforces existing gender bias in society. Algorithms used in image recognition base their decisions on character stereotypes of male and female. Voice recognition is more likely to correctly recognize male voices compared to female voices, and earlier 2019 the United Nations released a study showing that voice assistants, such as Microsoft's Cortona or Apple's Siri, reinforce existing gender bias. The purpose of this study is to investigate how gender discrimination can appear in AI-systems, and what constitutes the relationship between gender bias, gender discrimination and AI-systems. Furthermore it addresses how a company that works with the development of AI reason concerning the relationship between gender bias, gender discrimination and AI development. The study contains a thorough literature review, as well as in-depth interviews with key persons working with various aspects of AI development at KPMG.  The results show that bias in general, and gender bias in particular, are present at all stages of AI development. It can occur due to a variety of factors, including but not limited to the lack of diversity in the workforce, the design of algorithms and the decisions related to how data is collected, encoded and used to train algorithms. The solutions proposed are partly about addressing the identified factors, but also about looking at the problem from a holistic perspective. The significance of seeing and understanding the links between gender bias in society and gender bias in AI-systems, as well as reconsidering how each factor depends on and correlates with other ones, is emphasized. The essence of the results is that it is not enough to alter any of the parameters unless the structure of the system is changed as well.
22

Optimering av algoritmisk elhandelsstrategi genom prediktiv analys : Datavisualisering, regression, maskin- och djupinlärning / Optimization of algorithmic power trading strategy using predictive analysis : Data visualization, regression, machine learning and deep learning

Forssell, Jacob, Staffansdotter, Erika January 2022 (has links)
The world is right now in a global transition from a fossil fuel dependency towards an electrified society based on green and renewable energy. Investments in power grid capacity are therefore needed to meet the increased future demand which this transition implicates. One part of this is the expansion of intermittent energy sources, such as wind and solar power. Even though these sources have benefits in form of cheap and green energy, they have other characteristics that need to be addressed. Per definition, intermittent power sources cannot produce energy on demand since they are dependent on weather conditions such as wind and sun. This induces a second problem which is that it can be hard to predict the production from intermittent power sources, especially wind, which increases the volatility in the power market. Because of these characteristics, the expansion of wind power has increased the volume traded on the intraday power market. The intermittent energy surge, emphasizes the need of a good trading strategy for balance responsible parties to handle the increased trading volume and volatility. The prupose of this report is to introduce the elements which affect intraday power trading, formulate the fundamentals of a power trading strategy and thereafter explore how predictive models can be used in such a strategy. This includes predicting regulating and intraday market prices using linear regression models, neural networks and LSTM-models. Furthermore, the report highlights underlying properties which affects the predictive power of a prediction model used to forecast wind power production. Regulating prices can be predicted well using both linear regression models and more complex deep learning models based on weather and market data. Both approaches are better than using a simple model based on the latest regulating and market price, since the simple model tends to fall short in a volatile market. Overall, the deep learning models performs the best.  The difference in result when predicting the volume weighted average price on the intraday market, using linear regression and machine learning, are not as substantial. In fact, the linear models tends to outperform the machine learning models in some instaces. The conclusion when analyzing how underlying properties affect wind power prediction models is that how far ahead the model predicts is not the key factor affecting predictive power. Instead, the production volume predicted has a larger effect.
23

Consistent Projection of the Balance Sheet : A Holistic Approach to Modelling Interest Rate Risk in the Banking Book

Hulström, Gabriella January 2021 (has links)
When modelling risk in the banking book, a simple capital level approach can fail to capture the interactions between different risk measures or risk classes since they are modelled separately. In this thesis we propose a model for projecting the book value of a run-off balance sheet portfolio of fixed and variable rate loans, while also calculating net interest income, economic value of equity, capital requirement and capital cost within the same model. Using adjoint algorithmic differentiation, we also retrieve the sensitivities of each measure and the balance sheet towards a term structure of zero rates, for the lifetime of the portfolio. The model is an attempt at a holistic approach to modelling interest rate risk in the banking book, and its design allows for extensions to other financial risk classes such as credit risk and liquidity risk. / Vid modellering av risker i bankboken kan en enkel kapitalmodell misslyckas med att fånga interaktionerna mellan olika riskmått eller riskklasser eftersom de modelleras separat. I den här masteruppsatsen föreslår vi en modell för att projicera balansräkningen framåt i tiden för en portfölj av lån med fast och rörlig ränta, och beräknar samtidigt Räntenetto, Ekonomiskt Värde av Eget Kapital, kapitalkrav och kapitalkostnad inom samma modell. Med hjälp av adjoint algoritmisk derivering beräknar vi även känsligheterna för varje mått samt bokfört värde av portföljen mot en terminstruktur av nollräntor under portföljens livstid. Modellen är ett försök att holistisk modellera ränterisk i bankboken, och dess utformning möjliggör utvidgning till andra finansiella riskklasser som kreditrisk och likviditetsrisk.
24

"Vi är bara siffror" : En sociologisk intervjustudie om matbuden på ett företag inom gig-ekonomin / "We are only numbers" : A sociological interview study about the food delivery workers within the gig economy

Mikuljan, Kristina January 2021 (has links)
This study aims to describe food delivery workers experiences in the gig economy of a specific company, their relationship with the trade union, and their thoughts on their future, within and outside the industry. The empirical data consists of seven semi-structured interviews. The purpose will be answered with help of the theoretical concepts of precariat, dependency, algorithmic control, and aspirations. Previous research in algorithmic control and the precariat shows that the freedom that the work provides, the so-called flexibility, exists under the algorithmic control, but isn’t considered positive for everyone. Those who benefit from flexibility are those who have other occupations, and they are the ones who are more likely to be satisfied with the work. At the same time, the flexible work can be negative for others, with negative impact on their mental health, which means that they are less to be satisfied with the work and they experience the precarious to a greater extent. This study shows that the workers are exposed to insecure work through mental and physical risks, which are the results of the conditions that the algorithmic control and the company produces. The workers with several occupations experience the flexible work as something positive. There is also a culture of silence in the company, where those with permanent contracts are those who try to make a change in the insecure work. Those with short- term contracts are afraid of being sanctioned by the company. The union and the company maintain a precariousness for the workers by not meeting them on their terms. The workers future plans and aspirations are dependent and affected by their Swedish language skills.
25

LSTM-based Directional Stock Price Forecasting for Intraday Quantitative Trading / LSTM-baserad aktieprisprediktion för intradagshandel

Mustén Ross, Isabella January 2023 (has links)
Deep learning techniques have exhibited remarkable capabilities in capturing nonlinear patterns and dependencies in time series data. Therefore, this study investigates the application of the Long-Short-Term-Memory (LSTM) algorithm for stock price prediction in intraday quantitative trading using Swedish stocks in the OMXS30 index from February 28, 2013, to March 1, 2023. Contrary to previous research [12, 32] suggesting that past movements or trends in stock prices cannot predict future movements, our analysis finds limited evidence supporting this claim during periods of high volatility. We discover that incorporating stock-specific technical indicators does not significantly enhance the predictive capacity of the model. Instead, we observe a trade-off: by removing the seasonal component and leveraging feature engineering and hyperparameter tuning, the LSTM model becomes proficient at predicting stock price movements. Consequently, the model consistently demonstrates high accuracy in determining price direction due to consistent seasonality. Additionally, training the model on predicted return differences, rather than the magnitude of prices, further improves accuracy. By incorporating a novel long-only and long-short trading strategy using the one-day-ahead predictive price, our model effectively captures stock price movements and exploits market inefficiencies, ultimately maximizing portfolio returns. Consistent with prior research [14, 15, 31, 32], our LSTM model outperforms the ARIMA model in accurately predicting one-day-ahead stock prices. Portfolio returns consistently outperforms the stock market index, generating profits over the entire time period. The optimal portfolio achieves an average daily return of 1.2%, surpassing the 0.1% average daily return of the OMXS30 Index. The algorithmic trading model demonstrates exceptional precision with a 0.996 accuracy rate in executing trades, leveraging predicted directional stock movements. The algorithmic trading model demonstrates an impressive 0.996 accuracy when executing trades based on predicted directional stock movements. This remarkable performance leads to cumulative and annualized excessive returns that surpass the index return for the same period by a staggering factor of 800. / Djupinlärningstekniker har visat en enastående förmåga att fånga icke-linjära mönster och samband i tidsseriedata. Med detta som utgångspunkt undersöker denna studie användningen av Long-Short-Term-Memory (LSTM)-algoritmen för att förutsäga aktiepriser med svenska aktier i OMXS30-indexet från den 28 februari 2013 till den 1 mars 2023. Vår analys finner begränsat stöd till tidigare forskning [12, 32] som hävdar att historisk aktierörelse eller trend inte kan användas för att prognostisera framtida mönster. Genom att inkludera aktiespecifika tekniska indikatorer observerar vi ingen betydande förbättring i modellens prognosförmåga. genom att extrahera den periodiska komponenten och tillämpa metoder för egenskapskonstruktion och optimering av hyperparametrar, lär sig LSTM-modellen användbara egenskaper och blir därmed skicklig på att förutsäga akrieprisrörelser. Modellen visar konsekvent högre noggrannhet när det gäller att bestämma prisriktning på grund av den regelbundna säsongsvariationen. Genom att träna modellen att förutse avkastningsskillnader istället för absoluta prisvärden, förbättras noggrannheten avsevärt. Resultat tillämpas sedan på intradagshandel, där förutsagda stängningspriser för nästkommande dag integreras med både en lång och en lång-kort strategi. Vår modell lyckas effektivt fånga aktieprisrörelser och dra nytta av ineffektiviteter på marknaden, vilket resulterar i maximal portföljavkastning. LSTM-modellen är överlägset bättre än ARIMA-modellen när det gäller att korrekt förutsäga aktiepriser för nästkommande dag, i linje med tidigare forskning [14, 15, 31, 32], är . Resultat från intradagshandeln visar att LSTM-modellen konsekvent genererar en bättre portföljavkastning jämfört med både ARIMA-modellen och dess jämförelseindex. Dessutom uppnår strategin positiv avkastning under hela den analyserade tidsperioden. Den optimala portföljen uppnår en genomsnittlig daglig avkastning på 1.2%, vilket överstiger OMXS30-indexets genomsnittliga dagliga avkastning på 0.1%. Handelsalgoritmen är oerhört exakt med en korrekthetsnivå på 0.996 när den genomför affärer baserat på förutsagda rörelser i aktiepriset. Detta resulterar i en imponerande avkastning som växer exponentiellt och överträffar jämförelseindex med en faktor på 800 under samma period.
26

Sequence-to-sequence learning of financial time series in algorithmic trading / Sekvens-till-sekvens-inlärning av finansiella tidsserier inom algoritmiskhandel

Arvidsson, Philip, Ånhed, Tobias January 2017 (has links)
Predicting the behavior of financial markets is largely an unsolved problem. The problem hasbeen approached with many different methods ranging from binary logic, statisticalcalculations and genetic algorithms. In this thesis, the problem is approached with a machinelearning method, namely the Long Short-Term Memory (LSTM) variant of Recurrent NeuralNetworks (RNNs). Recurrent neural networks are artificial neural networks (ANNs)—amachine learning algorithm mimicking the neural processing of the mammalian nervoussystem—specifically designed for time series sequences. The thesis investigates the capabilityof the LSTM in modeling financial market behavior as well as compare it to the traditionalRNN, evaluating their performances using various measures. / Prediktion av den finansiella marknadens beteende är i stort ett olöst problem. Problemet hartagits an på flera sätt med olika metoder så som binär logik, statistiska uträkningar ochgenetiska algoritmer. I den här uppsatsen kommer problemet undersökas medmaskininlärning, mer specifikt Long Short-Term Memory (LSTM), en variant av rekurrentaneurala nätverk (RNN). Rekurrenta neurala nätverk är en typ av artificiellt neuralt nätverk(ANN), en maskininlärningsalgoritm som ska efterlikna de neurala processerna hos däggdjursnervsystem, specifikt utformat för tidsserier. I uppsatsen undersöks kapaciteten hos ett LSTMatt modellera finansmarknadens beteenden och jämförs den mot ett traditionellt RNN, merspecifikt mäts deras effektivitet på olika vis.
27

MahlerNet : Unbounded Orchestral Music with Neural Networks / Orkestermusik utan begränsning med neurala nätverk

Lousseief, Elias January 2019 (has links)
Modelling music with mathematical and statistical methods in general, and with neural networks in particular, has a long history and has been well explored in the last decades. Exactly when the first attempt at strictly systematic music took place is hard to say; some would say in the days of Mozart, others would say even earlier, but it is safe to say that the field of algorithmic composition has a long history. Even though composers have always had structure and rules as part of the writing process, implicitly or explicitly, following rules at a stricter level was well investigated in the middle of the 20th century at which point also the first music writing computer program based on mathematics was implemented. This work in computer science focuses on the history of musical composition with computers, also known as algorithmic composition, using machine learning and neural networks and consists of two parts: a literature survey covering in-depth the last decades in the field from which is drawn inspiration and experience to construct MahlerNet, a neural network based on the previous architectures MusicVAE, BALSTM, PerformanceRNN and BachProp, capable of modelling polyphonic symbolic music with up to 23 instruments. MahlerNet is a new architecture that uses a custom preprocessor with musical heuristics to normalize and filter the input and output files in MIDI format into a data representation that it uses for processing. MahlerNet, and its preprocessor, was written altogether for this project and produces music that clearly shows musical characteristics reminiscent of the data it was trained on, with some long-term structure, albeit not in the form of motives and themes. / Matematik och statistik i allmänhet, och maskininlärning och neurala nätverk i synnerhet, har sedan långt tillbaka använts för att modellera musik med en utveckling som kulminerat under de senaste decennierna. Exakt vid vilken historisk tidpunkt som musikalisk komposition för första gången tillämpades med strikt systematiska regler är svårt att säga; vissa skulle hävda att det skedde under Mozarts dagar, andra att det skedde redan långt tidigare. Oavsett vilket, innebär det att systematisk komposition är en företeelse med lång historia. Även om kompositörer i alla tider följt strukturer och regler, medvetet eller ej, som en del av kompositionsprocessen började man under 1900-talets mitt att göra detta i högre utsträckning och det var också då som de första programmen för musikalisk komposition, baserade på matematik, kom till. Den här uppsatsen i datateknik behandlar hur musik historiskt har komponerats med hjälp av datorer, ett område som också är känt som algoritmisk komposition. Uppsatsens fokus ligger på användning av maskininlärning och neurala nätverk och består av två delar: en litteraturstudie som i hög detalj behandlar utvecklingen under de senaste decennierna från vilken tas inspiration och erfarenheter för att konstruera MahlerNet, ett neuralt nätverk baserat på de tidigare modellerna MusicVAE, BALSTM, PerformanceRNN och BachProp. MahlerNet kan modellera polyfon musik med upp till 23 instrument och är en ny arkitektur som kommer tillsammans med en egen preprocessor som använder heuristiker från musikteori för att normalisera och filtrera data i MIDI-format till en intern representation. MahlerNet, och dess preprocessor, är helt och hållet implementerade för detta arbete och kan komponera musik som tydligt uppvisar egenskaper från den musik som nätverket tränats på. En viss kontinuitet finns i den skapade musiken även om det inte är i form av konkreta teman och motiv.
28

Reinforcement Learning for Market Making / Förstärkningsinlärningsbaserad likviditetsgarantering

Carlsson, Simon, Regnell, August January 2022 (has links)
Market making – the process of simultaneously and continuously providing buy and sell prices in a financial asset – is rather complicated to optimize. Applying reinforcement learning (RL) to infer optimal market making strategies is a relatively uncharted and novel research area. Most published articles in the field are notably opaque concerning most aspects, including precise methods, parameters, and results. This thesis attempts to explore and shed some light on the techniques, problem formulations, algorithms, and hyperparameters used to construct RL-derived strategies for market making. First, a simple probabilistic model of a limit order book is used to compare analytical and RL-derived strategies. Second, a market making agent is trained on a more complex Markov chain model of a limit order book using tabular Q-learning and deep reinforcement learning with double deep Q-learning. Results and strategies are analyzed, compared, and discussed. Finally, we propose some exciting extensions and directions for future work in this research field. / Likviditetsgarantering (eng. ”market making”) – processen att simultant och kontinuerligt kvotera köp- och säljpriser i en finansiell tillgång – är förhållandevis komplicerat att optimera. Att använda förstärkningsinlärning (eng. ”reinforcement learning”) för att härleda optimala strategier för likviditetsgarantering är ett relativt outrett och nytt forskningsområde. De flesta publicerade artiklarna inom området är anmärkningsvärt återhållsamma gällande detaljer om de tekniker, problemformuleringar, algoritmer och hyperparametrar som används för att framställa förstärkningsinlärningsbaserade strategier. I detta examensarbete så gör vi ett försök på att utforska och bringa klarhet över dessa punkter. Först används en rudimentär probabilistisk modell av en limitorderbok som underlag för att jämföra analytiska och förstärkningsinlärda strategier. Därefter brukas en mer sofistikerad Markovkedjemodell av en limitorderbok för att jämföra tabulära och djupa inlärningsmetoder. Till sist presenteras även spännande utökningar och direktiv för framtida arbeten inom området.
29

Enshittification av sociala medier : En studie i digitala fotbojor / Enshittification of social media : A study in the shackles of the digital age

Johansson, Carl-Johan, Kovacevic Gahne, Franco January 2024 (has links)
Majoriteten av jordens befolkning har profiler på något av den handfull av sociala nätverk som dominerar Internet. Samtidigt som dessa tjänster växer i dominans och användarantal upplevs det ofta att användarupplevelsen blir allt sämre. Kritik har bland annat riktats mot hur de låter desinformation spridas och hur de monetäriserar användardata för att sälja målstyrd reklam. Enshittification är ett fenomen som definierades av techjournalisten och -kritikern Cory Doctorow för att beskriva hur dessa plattformar aktivt gör upplevelsen sämre för användarna. Enshittification gör gällande att användare stannar på plattformar som exploaterar dem på grund av höga omställningskostnader, såväl ekonomiska som sociala, trots en uppenbar försämring av den digitala miljön. Forskningsarbetet som presenteras här är en teoriutvecklande kritisk studie av enshittification och hur det manifesteras inom sociala medieplattformar. Studiens syfte är att grunda fenomenet och etablera en dialog kring enshittification i en IS-kontext. Den erbjuder insikter i enshittifications underliggande orsaker och dess konsekvenser för användarna, men även i hur man kan motverka fenomenet. Studien argumenterar även för att kritisk teori behövs inom IS för att kunna analysera sådana här fenomen och relaterade sociala aspekter inom informationsteknik. / A majority of the world’s population today resides on social media. At the same time a small group of platforms dominate the social media landscape. While these services have experienced great growth both in terms of registered users and market dominance, they’ve also been heavily criticized for the way the user experience seems to have deteriorated over time, particularly in respect to how disinformation is spreading throughout the networks and the way these services monetize their users’ personal data. Enshittification is a phenomenon, coined by the tech journalist and -critic Cory Doctorow, that describes the way these platforms actively work to make the user experience worse. The phenomenon asserts that people will keep using services that exploit them due to high switching costs—of either personal or economic nature, or both—even though the user experience deteriorates. This study offers a grounding theory of enshittification as a phenomenon, along with a critical perspective of its manifestation in social networks. Its purpose is to create a definition of the phenomenon and to establish a dialogue within the research field of information systems. The study also offers greater insight into the underpinnings of enshittification and its consequences for the end users, along with a critical reflection over possible mitigation strategies. It also argues that critical theory is needed in the field of IS research in order to be able to analyze phenomenons like enshittification and similar social aspects that manifest themselves within information technology.
30

Towards topology-aware Variational Auto-Encoders : from InvMap-VAE to Witness Simplicial VAE / Mot topologimedvetna Variations Autokodare (VAE) : från InvMap-VAE till Witness Simplicial VAE

Medbouhi, Aniss Aiman January 2022 (has links)
Variational Auto-Encoders (VAEs) are one of the most famous deep generative models. After showing that standard VAEs may not preserve the topology, that is the shape of the data, between the input and the latent space, we tried to modify them so that the topology is preserved. This would help in particular for performing interpolations in the latent space. Our main contribution is two folds. Firstly, we propose successfully the InvMap-VAE which is a simple way to turn any dimensionality reduction technique, given its embedding, into a generative model within a VAE framework providing an inverse mapping, with all the advantages that this implies. Secondly, we propose the Witness Simplicial VAE as an extension of the Simplicial Auto-Encoder to the variational setup using a Witness Complex for computing a simplicial regularization. The Witness Simplicial VAE is independent of any dimensionality reduction technique and seems to better preserve the persistent Betti numbers of a data set than a standard VAE, although it would still need some further improvements. Finally, the two first chapters of this master thesis can also be used as an introduction to Topological Data Analysis, General Topology and Computational Topology (or Algorithmic Topology), for any machine learning student, engineer or researcher interested in these areas with no background in topology. / Variations autokodare (VAE) är en av de mest kända djupa generativa modellerna. Efter att ha visat att standard VAE inte nödvändigtvis bevarar topologiska egenskaper, det vill säga formen på datan, mellan inmatningsdatan och det latenta rummet, försökte vi modifiera den så att topologin är bevarad. Det här skulle i synnerhet underlätta när man genomför interpolering i det latenta rummet. Denna avhandling består av två centrala bidrag. I första hand så utvecklar vi InvMap-VAE, som är en enkel metod att omvandla vilken metod inom dimensionalitetsreducering, givet dess inbäddning, till en generativ modell inom VAE ramverket, vilket ger en invers avbildning och dess tillhörande fördelar. För det andra så presenterar vi Witness Simplicial VAE som en förlängning av en Simplicial Auto-Encoder till dess variationella variant genom att använda ett vittneskomplex för att beräkna en simpliciel regularisering. Witness Simplicial VAE är oberoende av dimensionalitets reducerings teknik och verkar bättre bevara Betti-nummer av ett dataset än en vanlig VAE, även om det finns utrymme för förbättring. Slutligen så kan de första två kapitlena av detta examensarbete också användas som en introduktion till Topologisk Data Analys, Allmän Topologi och Beräkningstopologi (eller Algoritmisk Topologi) till vilken maskininlärnings student, ingenjör eller forskare som är intresserad av dessa ämnesområden men saknar bakgrund i topologi.

Page generated in 0.0494 seconds