• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 12
  • Tagged with
  • 30
  • 20
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Polypharmacy Side Effect Prediction with Graph Convolutional Neural Network based on Heterogeneous Structural and Biological Data / Förutsägning av biverkningar från polyfarmaci med grafiska faltningsneuronnät baserat på heterogen strukturell och biologisk data

Diaz Boada, Juan Sebastian January 2020 (has links)
The prediction of polypharmacy side effects is crucial to reduce the mortality and morbidity of patients suffering from complex diseases. However, its experimental prediction is unfeasible due to the many possible drug combinations, leaving in silico tools as the most promising way of addressing this problem. This thesis improves the performance and robustness of a state-of-the-art graph convolutional network designed to predict polypharmacy side effects, by feeding it with complexity properties of the drug-protein network. The modifications also involve the creation of a direct pipeline to reproduce the results and test it with different datasets. / För att minska dödligheten och sjukligheten hos patienter som lider av komplexa sjukdomar är det avgörande att kunna förutsäga biverkningar från polyfarmaci. Att experimentellt förutsäga biverkningarna är dock ogenomförbart på grund av det stora antalet möjliga läkemedelskombinationer, vilket lämnar in silico-verktyg som det mest lovande sättet att lösa detta problem. Detta arbete förbättrar prestandan och robustheten av ett av det senaste grafiska faltningsnätverken som är utformat för att förutsäga biverkningar från polyfarmaci, genom att mata det med läkemedel-protein-nätverkets komplexitetsegenskaper. Ändringarna involverar också skapandet av en direkt pipeline för att återge resultaten och testa den med olika dataset.
12

Ramverk för att motverka algoritmisk snedvridning

Engman, Clara, Skärdin, Linnea January 2019 (has links)
Användningen av artificiell intelligens (AI) har tredubblats på ett år och och anses av vissa vara det viktigaste paradigmskiftet i teknikhistorien. Den rådande AI-kapplöpningen riskerar att underminera frågor om etik och hållbarhet, vilket kan ge förödande konsekvenser. Artificiell intelligens har i flera fall visat sig avbilda, och till och med förstärka, befintliga snedvridningar i samhället i form av fördomar och värderingar. Detta fenomen kallas algoritmisk snedvridning (algorithmic bias). Denna studie syftar till att formulera ett ramverk för att minimera risken att algoritmisk snedvridning uppstår i AI-projekt och att anpassa det efter ett medelstort konsultbolag. Studiens första del är en litteraturstudie på snedvridningar - både ur ett kognitivt och ur ett algoritmiskt perspektiv. Den andra delen är en undersökning av existerande rekommendationer från EU, AI Sustainability Center, Google och Facebook. Den tredje och sista delen består av ett empiriskt bidrag i form av en kvalitativ intervjustudie, som har använts för att justera ett initialt ramverk i en iterativ process. / In the use of the third generation Artificial Intelligence (AI) for the development of products and services, there are many hidden risks that may be difficult to detect at an early stage. One of the risks with the use of machine learning algorithms is algorithmic bias which, in simplified terms, means that implicit prejudices and values are comprised in the implementation of AI. A well-known case is Google’s image recognition algorithm, which identified black people as gorillas. The purpose of this master thesis is to create a framework with the aim to minimise the risk of algorithmic bias in AI development projects. To succeed with this task, the project has been divided into three parts. The first part is a literature study of the phenomenon bias, both from a human perspective as well as from an algorithmic bias perspective. The second part is an investigation of existing frameworks and recommendations published by Facebook, Google, AI Sustainability Center and the EU. The third part consists in an empirical contribution in the form of a qualitative interview study which has been used to create and adapt an initial general framework. The framework was created using an iterative methodology where two whole iterations were performed. The first version of the framework was created using insights from the literature studies as well as from existing recommendations. To validate the first version, the framework was presented for one of Cybercom’s customers in the private sector, who also got the possibility to ask questions and give feedback regarding the framework. The second version of the framework was created using results from the qualitative interview studies with machine learning experts at Cybercom. As a validation of the applicability of the framework on real projects and customers, a second qualitative interview study was performed together with Sida - one of Cybercom’s customers in the public sector. Since the framework was formed in a circular process, the second version of the framework should not be treated as constant or complete. The interview study at Sida is considered the beginning of a third iteration, which in future studies could be further developed.
13

Algoritmisk aktiehandel : Ett experiment i att förutsäga aktiemarknaden med hjälp av neurala nätverk / Algorithmic stocktrading : An experiment in predicting the stockmarket using neural networks

Mellgren, Henrik January 2019 (has links)
Ursprungligen fungerade aktier som ett medel för företag att säkerställa finansiering för nya satsningar och investeringar.    Företag ställde ut aktiebrev som investerare köpte och till skillnad mot ett vanligt banklån behövde inte företagen betala tillbaka dessa aktier. Detta säkerställde att de investerar som köpte aktier var tvungna att vara långsiktiga för ett aktieköp kunde vara för livet. Aktiemarknaden är en marknad där dessa aktier kan handlas mellan investerare. Fördelen med detta är att en investerare kan avbryta sin investering och växla in den i förtid. Nackdelen med aktiemarknaden är att detta innebar att det långsiktiga perspektivet inte längre var nödvändigt för en investerare. För många investerare blev det viktigare hur aktiemarknaden kommer utvecklas ”imorgon” snarare än om företaget hen investerare i gör en lönsam investering på tio års sikt. Koppling till företagens egentliga värde riskerar därmed brytas. Konsekvens av detta är att spekulativa bubblar byggs upp på aktiemarknaden i cykler med efterföljande krascher som medför stora förmögenhetsförluster för vanliga privatpersoner och stora omvälvningar i samhället i stort. Denna uppsats utforskar möjligheten att använda maskininlärning som ett verktyg för att kunna värdera aktier och förutspå kommande kursrörelser med syfte att hjälp investerare på aktiemarknaden att fatta bättre investeringsbeslut. Den tar avstamp i de datakällor som aktiemarknadsanalytiker använder för att studera denna marknad – det vill säga med hjälp av tekniska och fundamentala data.  Ett system har konstruerats för att dels klassificera bolag med hjälp av algoritmen ”artificiella neurala nätverk” och fundamentala data och dels för att förutsäga kommande dagskurser med hjälp av algoritmen ”Long Short Term Memory network” och tekniska data. Algoritmerna har utvärderats var för sig och som ett gemensamt system genom att simulerad handel utförs på en given test och valideringsperiod. Den hypotes som prövats är att ”att processa fundamentala data genom ett ANN och tekniska data genom ett LSTM kommer genera bra investeringsrekommendationer”. Resultaten som studien genererat har givet som konsekvens att denna hypotes inte har kunnat motbevisas.
14

Litteraturstudie: Tillämpningen av maskininlärning vid algoritmisk handel

Larsson, Therése, Paradis, Karl January 2019 (has links)
Vi genomför en litteraturstudie där vi studerar och analyserar publikationer inom maskininlärning i kombination med algoritmisk handel. I denna studie undersöker vi vilka typer av data samt vilka maskininlärningstekniker som kunnat visas vara tillämpningsbara vid system för algoritmisk handel. Till vår litteraturstudie använder vi oss av publikationer som är peer-reviewed från trovärdiga databaser. Resultatet visar att det huvudsakligen finns tre typer av data som är av betydelse för algoritmisk handel. Dessa är historisk prisdata, tekniska indikatorer samt den typ av data som ingår i fundamental analys. Historisk prisdata tycks ofta användas som bas för att sedan bearbetas om till andra typer av data. Det vanligaste exemplet på detta är tekniska indikatorer som ofta förekommer som datakälla i system för algoritmisk handel.Vi finner även ett antal maskininlärningstekniker som av tidigare publikationer demonstreras vara tillämpningsbara för algoritmisk handel. Publikationer påvisar att en maskininlärningsteknik kallad SVM (support vector machine) kan tillämpas på tekniska indikatorer och även analys av nyhetsrubriker. Vi påträffar även publikationer som demonstrerar tillämpningen av två typer av neurala nätverk, klassifikationsnätverk samt regressionsnätverk. Dessa nyttjas för att generera trade signals i ett algoritmiskt handelssystem. I vår studie hittar vi också en tillämpning av evolutionär maskininlärning som används för att approximera en lösning på det optimala orderexekveringsproblemet.Vi diskuterar även ett ekonomiskt incitament som missgynnar akademisk öppenhet och publikation av nya upptäckter inom området. Detta existerar på grund av att fördelaktiga resultat kan vara finansiellt gynnsamma att undanhålla. / We conduct a literature review in which we study and analyze publications in the area of machine learning in combination with algorithmic trading. In this study we investigate what types of data and which machine learning techniques that are shown to be applicable to systems used for algorithmic trading. For our literature review we use peer-reviewed publications from trustworthy databases. The result shows that we find mainly three types of data that are relevant for algorithmic trading. These are financial data quotes, technical indicators and the types of data that is relevant for fundamental analysis. Financial data quotes often seem to be used as a basis for later processing into other types of data. The most common example of this is technical indicators that are frequently used as a source of data in systems for algorithmic trading.We also find a number of machine learning techniques that have been demonstrated by previous publications to be applicable for algorithmic trading. Publications show that a machine learning technique called SVM (support vector machine) can be applied on technical indicators as well as for analysis of news headlines. We also find publications that demonstrate the application of two types of neural networks, classification and regression network. These are used in order to generate trade signals in an algorithmic trading system. In our study we also find an application of evolutionary machine learning which is used to approximate an optimal solution to the order execution problem. Moreover, we also discuss a financial incentive that disadvantage academic openness and the publications of new discoveries in the relevant area of research. This financial incentive exists because advantageous results may be financially beneficial to withhold.
15

Operationalizing FAccT : A Case Study at the Swedish Tax Agency / FAccT i praktiken : En fallstudie på Skatteverket

Jansson, Daniel, Strallhofer, Daniel January 2020 (has links)
Fairness, accountability and transparency (FAccT) in machine learning is an interdisciplinary area that concerns the design, development, deployment and maintenance of ethical AI and ML. Examples of research challenges in the field are detecting biased models, accountability issues that arise with systems that make decisions without human intervention or oversight, and the blackbox issues where decisions made by an AI system are untraceable. Whereas previous research within the FAccT domain typically only uses one perspective to investigate and research ethical AI, this paper takes the opposite approach of considering all three perspectives and uses them together to conduct a holistic case study. The aim of this paper is to provide tangible insights into how organizations can work with ethical AI and ML. The empirical evidence is gathered from the advanced data analytics (ADA) team at the Swedish Tax Agency in the form of interviews and quantitative data from a model developed by the team. Most notably, the quantitative and qualitative results show that: the data set used to train the model is biased, and there are risks with the current modus operandi due to (1) disagreeing views on accountability and (2) differences in literacy and understanding of ML and AI. Furthermore, this paper also features examples of how newly proposed frameworks such as SMACTR (a large scale AI systems audit framework), data sheets and model cards can be used by ADA in the development process to address these issues, and the potential benefits and caveats of the frameworks themselves. We also showcase how theoretical models such as Larssons 7 nuances of transparency and Bovens accountability framework can be applied in a practical setting and provide supporting evidence that shows their respective applicability. Finally, the implications of taking a collective approach to FAccT, the importance of ethics and transparency, and comparisons of different used frameworks are discussed. / Rättvisa, ansvarsskyldighet och transparens (eng. Fairness, accountability and transparency (FAccT) inom maskininlärning (ML) är ett tvärvetenskapligt område som berör designen, utvecklingen, implementeringen och underhållet av etisk AI och ML. Exempel på områdets forskningsutmaningar är att upptäcka partiska modeller, ansvarighetsfrågors som uppstår med system som fattar beslut utan mänskligt ingripande eller översikt, och black-box frågor där beslut som fattas av ett AI-system inte kan spåras. Medan tidigare forskning inom FAccT-domänen oftast använder ett av de tre tidigare nämnda perspektiven för att undersöka och utforska etisk AI tar denna artikel en motsatt strategi genom att beakta alla tre perspektiv för att tillsammans kunna genomföra en heltäckande fallstudie. Syftet med denna uppsats är ge konkreta insikter för hur organisationer kan arbeta med etisk AI och ML. De empiriska bevisen samlas in med hjälp av det avancerade dataanalysteamet (ADA) på Skatteverket via intervjuer. Kvantitativ data samlas även in från en modell som har utvecklats och används av ADA. De kvalitativa och kvantitativa resultaten visar att: datasetet som används för att träna modellen är partisk och det finns risker med den nuvarande modus operandi på grund av (1) oeniga åsikter om ansvarsskyldighet och (2) skillnader i läskunnighet och förståelse för AI och ML. Vidare så innehåller denna uppsats också exempel på hur nyligen utvecklade ramverk såsom SMACTR, datasheets och model cards kan användas av ADA i utvecklingsprocessen för att motverka dessa problem, samt de potentiella fördelarna och varningarna som ramverken har och ger. Vi visar även hur teoretiska modeller såsom Larssons 7 nyanser av transparens och Bovens ramverk för ansvarsskyldighet kan tillämpas i en praktisk miljö och ger underlag för deras respektive användbarhet. Slutligen diskuteras konsekvenserna av att ta en kollektiv inställning till FAccT, vikten av etik och transparens och en jämförelse av olika ramverk görs.
16

A Study on Algorithmic Trading / En studie om algoritmisk aktiehandel

Hägg, Philip January 2023 (has links)
Algorithms have been used in finance since the early 2000s and accounted for 25% of the market around 2005. In this research, algorithms account for approximately 85% of the market. The challenge faced by many investors and fund managers is beating the Swedish market index OMXS30. This research investigates publicly available algorithms and their potential for implementation and modification to outperform the market. There is a lot of research done on the subject and most of the research found was mostly at a high academic level. Although few algorithms were found in the search, some algorithms that managed to beat other markets caught interest. The market data for this research was obtained from Nordnets closed API, specifically the historical price data of various financial securities. The algorithms use the historical price data to generate buy and sell signals which represents a trade. These trades were then used to calculate performance metrics such as the geometric mean and the sharpe ratio. The performance metrics are used to measure and compare performance with the OMXS30 using a quantitative method. On average, the algorithms did not perform well on the chosen securities, although some securities stood out in all cases. Beating the market is considered a difficult task, and this research reflects some of the challenges involved. The chosen method highlights the importance of the stocks the algorithms trade, emphasizing that stocks cannot be chosen randomly. Building a fully automated unsupervised trading system is challenging and requires extensive work. Some strategies tend to require human supervision to maximize returns and limit losses, while others yield low returns for low risk. / Algoritmer har använts inom finans sedan början av 2000-talet och utgjorde cirka 25% av marknaden runt 2005. När detta arbete utförs står algoritmer för cirka 85% av marknadsvolymen. Utmaningen som många investerare och fondförvaltare står inför är att slå den svenska marknadsindexet OMXS30. Detta arbete undersöker offentligt tillgängliga algoritmer och deras potential att implementeras och modifieras för att överträffa marknaden. Det finns mycket forskning gjord inom ämnet och majoriteten av denna forskning är på en hög akademisk nivå. Trots att få algoritmer hittades i sökningen, fanns det ett fåtal algoritmer som lyckats slå andra marknadsindex. Marknadsdata för denna forskning erhölls från Nordnets slutna API, specifikt historisk prisdata från olika finansiella värdepapper. Algoritmerna använder den historiska prisdatan för att generera köp- och säljsignaler. Dessa köp och säljsignaler användes sedan för att beräkna prestandamått som geometrisk medelvärde och riskjusterad avkastning. Prestandamåtten används för att mäta och jämföra prestanda med OMXS30 genom en kvantitativ metod. I genomsnitt presterade algoritmerna inte väl på de valda värdepappren, även om vissa värdepapper utmärkte sig i alla fall. Att slå marknaden anses vara en svår uppgift och denna forskning speglar några av de utmaningar som är involverade. Den valda metoden belyser vikten av de aktier som algoritmerna handlar med och betonar att aktier inte kan väljas slumpmässigt. Att bygga ett helt automatiserat obevakat handelssystem är utmanande och kräver omfattande arbete. Vissa strategier visade sig vara i behov av mänsklig övervakning för att maximera avkastningen och begränsa förluster, medan andra gav låg avkastning för låg risk.
17

Algorithmic Trading and Prediction of Foreign Exchange Rates Based on the Option Expiration Effect / Algoritmisk handel och prediktion av valutakurser baserade på effekten av FX-optioners förfall

Mozayyan Esfahani, Sina January 2019 (has links)
The equity option expiration effect is a well observed phenomenon and is explained by delta hedge rebalancing and pinning risk, which makes the strike price of an option work as a magnet for the underlying price. The FX option expiration effect has not previously been explored to the same extent. In this paper the FX option expiration effect is investigated with the aim of finding out whether it provides valuable information for predicting FX rate movements. New models are created based on the concept of the option relevance coefficient that determines which options are at higher risk of being in the money or out of the money at a specified future time and thus have an attraction effect. An algorithmic trading strategy is created to evaluate these models. The new models based on the FX option expiration effect strongly outperform time series models used as benchmarks. The best results are obtained when the information about the FX option expiration effect is included as an exogenous variable in a GARCH-X model. However, despite promising and consistent results, more scientific research is required to be able to draw significant conclusions. / Effekten av aktieoptioners förfall är ett välobserverat fenomen, som kan förklaras av delta hedge-ombalansering och pinning-risk. Som följd av dessa fungerar lösenpriset för en option som en magnet för det underliggande priset. Effekten av FX-optioners förfall har tidigare inte utforskats i samma utsträckning. I denna rapport undersöks effekten av FX-optioners förfall med målet att ta reda på om den kan ge information som kan användas till prediktioner av FX-kursen. Nya modeller skapas baserat på konceptet optionsrelevanskoefficient som bestämmer huruvida optioner har en större sannolikhet att vara "in the money" eller "out of the money" vid en specificerad framtida tidpunkt och därmed har en attraktionseffekt. En algoritmisk tradingstrategi skapas för att evaluera dessa modeller. De nya modellerna baserade på effekten av FX-optioners förfall överpresterar klart jämfört med de tidsseriemodeller som användes som riktmärken. De bästa resultaten uppnåddes när informationen om effekten av FX-optioners förfall inkluderas som en exogen variabel i en GARCH-X modell. Dock, trots lovande och konsekventa resultat, behövs mer vetenskaplig forskning för att kunna dra signifikanta slutsatser.
18

Biases in AI: An Experiment : Algorithmic Fairness in the World of Hateful Language Detection / Bias i AI: ett experiment : Algoritmisk rättvisa inom detektion av hatbudskap

Stozek, Anna January 2023 (has links)
Hateful language is a growing problem in digital spaces. Human moderators are not enough to eliminate the problem. Automated hateful language detection systems are used to aid the human moderators. One of the issues with the systems is that their performance can differ depending on who is the target of a hateful text. This project evaluated the performance of the two systems (Perspective and Hatescan) with respect to who is the target of hateful texts. The analysis showed, that the systems performed the worst for texts directed at women and immigrants. The analysis involved tools such as a synthetic dataset based on the HateCheck test suite, as well as wild datasets created from forum data. Improvements to the test suite HateCheck have also been proposed. / Hatiskt språk är ett växande problem i digitala miljöer. Datamängderna är för stora för att enbart hanteras av mänskliga moderatorer. Automatiska system för hatdetektion används därför som stöd. Ett problem med dessa system är att deras prestanda kan variera beroende på vem som är målet för en hatfull text. Det här projektet evaluerade prestandan av de två systemen Perspective och Hatescan med hänsyn till olika mål för hatet. Analysen visade att systemen presterade sämst för texter där hatet riktades mot kvinnor och invandrare. Analysen involverade verktyg som ett syntetiskt dataset baserat på testsviten HateCheck och vilda dataset med texter inhämtade från diskussionsforum på internet. Dessutom har projektet utvecklat förslag på förbättringar till testsviten HateCheck.
19

En rekvisitörs arbete - Kreativt eller ej?

Hagerman, Karolina January 2017 (has links)
I denna uppsats har jag undersökt kreativitet i förhållande till rekvisitörens arbete. Detta har jag gjort genom att vara ansvarig rekvisitör för Malmö Operas turnéproduktion ”Jag blir nog aldrig bjuden dit igen” och på så sätt får yrkeserfarenhet som jag kunnat jämföra med de textanalyser jag gjort kring begreppet kreativitet. När jag gick in i detta projekt så var jag övertygad om att en rekvisitörs arbete var kreativt men ju mer kunskap jag fick i området så blev jag mer ifrågasättande då det fanns många förutsättningar som skulle uppfyllas för att något skulle få räknas som kreativt. Efter mycket diskuterande och analyserande fick jag dra de slutsatser jag kunde utifrån det material jag hade tillgång till och har kommit fram till att en rekvisitörs arbete är kreativt men hur mycket beror på situationen. Det finns olika förutsättningar för att kreativitet ska uppstå, ju mindre styrd och friare en rekvisitör är i sina arbetsuppgifter desto mer kreativ är hen.
20

Flytande musik : Strategier för att komponera i en digital samtid

Janson Johansen, Joel January 2024 (has links)
No description available.

Page generated in 0.0549 seconds