• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Explainable Multimodal Fusion

Alvi, Jaweriah January 2021 (has links)
Recently, there has been a lot of interest in explainable predictions, with new explainability approaches being created for specific data modalities like images and text. However, there is a dearth of understanding and minimal exploration in terms of explainability in the multimodal machine learning domain, where diverse data modalities are fused together in the model. In this thesis project, we look into two multimodal model architectures namely single-stream and dual-stream for the Visual Entailment (VE) task, which compromises of image and text modalities. The models considered in this project are UNiversal Image-TExt Representation Learning (UNITER), Visual-Linguistic BERT (VLBERT), Vision-and-Language BERT (ViLBERT) and Learning Cross-Modality Encoder Representations from Transformers (LXMERT). Furthermore, we conduct three different experiments for multimodal explainability by applying the Local Interpretable Model-agnostic Explanations (LIME) technique. Our results show that UNITER has the best accuracy among these models for the problem of VE. However, the explainability of all these models is similar. / Under den senaste tiden har intresset för förklarbara prediktioner (eng. explainable predictions) varit stort, med nya metoder skapade för specifika datamodaliteter som bilder och text. Samtidigt finns en brist på förståelse och lite utforskning har gjorts när det gäller förklarbarhet för multimodal maskininlärning, där olika datamodaliteter kombineras i modellen. I detta examensarbete undersöker vi två multimodala modellarkitekturer, så kallade en-ström och två-strömsarkitekturer (eng. single-steam och dual-stream) för en uppgift som kombinerar bilder och text, Visual Entailment (VE). Modellerna som studeras är UNiversal Image-TExt Representation Learning (UNITER), Visual-Linguistic BERT (VLBERT), Vision-and-Language BERT (ViLBERT) och Learning Cross-Modality Encoder Representations from Transformers (LXMERT). Dessutom genomför vi tre olika experiment för multimodal förklarbarhet genom att tillämpa en metod som heter Local Interpretable Model-agnostic Explanations (LIME). Våra resultat visar att UNITER har bäst prestanda av dessa modeller för VE-uppgiften. Å andra sidan är förklarbarheten för alla dessa modeller likvärdig.
2

Explainable Machine Learning for Lead Time Prediction : A Case Study on Explainability Methods and Benefits in the Pharmaceutical Industry / Explainable Machine Learning för Ledtids Prognos : En Fallstudie om Förklarbarhetsmetoder och Fördelar i Farmaceutiska Industri

Fussenegger, Paul, Lange, Niklas January 2022 (has links)
Artificial Intelligence (AI) has proven to be highly suitable for a wide range of problems in manufacturing environments, including the prediction of lead times. Most of these solutions are based on ”black-box” algorithms, which hinder practitioners to understand the prediction process. Explainable Artificial Intelligence (XAI) provides numerous tools and methods to counteract this problem. There is however a need to qualify the methods with human-centered studies in manufacturing environments, since explainabilityis context-specific. The purpose of this mixed-method case study is to examine the explainability of regression models for lead time prediction in quality control laboratories at a biopharmaceutical production site in Sweden. This entails the research questions of which methods can increase the explainability of lead time prediction, what type of explanation is required to enable explainability and what are the benefits of explaining regression models in this context. This is why relevant literature in the field of XAI and AI-based lead time prediction is reviewed. An explainable lead time prediction modelis developed and a Delphi study is carried out to gauge the importance of different explanation types and to identify explainability-related benefits. The results show a transparency-performance trade-off and highlight eight benefits that are mapped to the model’s life cycle. These findings provide new insights into the explainability requirements and benefits in quality control processes and support practitioners in steering their implementation efforts. / Artificiell Intelligens (AI) har visat sig vara mycket lämplig för ett stort antal problem i tillverkningsmiljöer, bland annat när det gäller att förutsäga ledtider. De flesta av dessa lösningar är baserade på algoritmer som är ”svarta lådor”, vilket gör det svårt för tillämparna att förstå förutsägelseprocessen. Explainable Artificial Intelligence (XAI) erbjuder många verktyg och metoder för att motverka detta problem. Det finns dock ett behov av att kvalificera metoderna med människocentrerade studier i tillverkningsmiljöer, eftersom förklarbarhet är kontextspecifikt. Syftet med denna fallstudie med blandad metod är att undersöka förklaringsbarheten hos regressionsmodeller för prediktion av ledtider i kvalitets kontrolllaboratorier vid en biopharmaceutisk produktionsanläggning i Sverige. Vilket syftar till forskningsfrågorna samt vilka metoder som kan öka förklaringsbarheten och av prognoser för ledtider, vilken typ av förklaring som krävs för att möjliggöra en förklarbarhet och vilka fördelar som finns med att förklara regressionsmodeller i detta sammanhang. Det är därför som relevant litteratur på området XAI och AI baserade prognostisering av ledtider granskas. En förklaringsbar modell för prognostisering av ledtider utvecklas och en Delphi-studie genomförs för att bedöma betydelsen av olika typer av förklaringar och för att identifiera förklaringsrelaterade fördelar.
3

Improving Visual Question Answering by Leveraging Depth and Adapting Explainability / Förbättring av Visual Question Answering (VQA) genom utnyttjandet av djup och anpassandet av förklaringsförmågan

Panesar, Amrita Kaur January 2022 (has links)
To produce smooth human-robot interactions, it is important for robots to be able to answer users’ questions accurately and provide a suitable explanation for why they arrive to the answer they provide. However, in the wild, the user may ask the robot questions relating to aspects of the scene that the robot is unfamiliar with and hence be unable to answer correctly all of the time. In order to gain trust in the robot and resolve failure cases where an incorrect answer is provided, we propose a method that uses Grad-CAM explainability on RGB-D data. Depth is a critical component in producing more intelligent robots that can respond correctly most of the time as some questions might rely on spatial relations within the scene, for which 2D RGB data alone would be insufficient. To our knowledge, this work is the first of its kind to leverage depth and an explainability module to produce an explainable Visual Question Answering (VQA) system. Furthermore, we introduce a new dataset for the task of VQA on RGB-D data, VQA-SUNRGBD. We evaluate our explainability method against Grad-CAM on RGB data and find that ours produces better visual explanations. When we compare our proposed model on RGB-D data against the baseline VQN network on RGB data alone, we show that ours outperforms, particularly in questions relating to depth such as asking about the proximity of objects and relative positions of objects to one another. / För att skapa smidiga interaktioner mellan människa och robot är det viktigt för robotar att kunna svara på användarnas frågor korrekt och ge en lämplig förklaring till varför de kommer fram till det svar de ger. Men i det vilda kan användaren ställa frågor till roboten som rör aspekter av miljön som roboten är obekant med och därmed inte kunna svara korrekt hela tiden. För att få förtroende för roboten och lösa de misslyckade fall där ett felaktigt svar ges, föreslår vi en metod som använder Grad-CAM-förklarbarhet på RGB-D-data. Djup är en kritisk komponent för att producera mer intelligenta robotar som kan svara korrekt för det mesta, eftersom vissa frågor kan förlita sig på rumsliga relationer inom scenen, för vilka enbart 2D RGB-data skulle vara otillräcklig. Såvitt vi vet är detta arbete det första i sitt slag som utnyttjar djup och en förklaringsmodul för att producera ett förklarabart Visual Question Answering (VQA)-system. Dessutom introducerar vi ett nytt dataset för uppdraget av VQA på RGB-D-data, VQA-SUNRGBD. Vi utvärderar vår förklaringsmetod mot Grad-CAM på RGB-data och finner att vår modell ger bättre visuella förklaringar. När vi jämför vår föreslagna modell för RGB-Ddata mot baslinje-VQN-nätverket på enbart RGB-data visar vi att vår modell överträffar, särskilt i frågor som rör djup, som att fråga om objekts närhet och relativa positioner för objekt jämntemot varandra.
4

Explainable Reinforcement Learning for Remote Electrical Tilt Optimization

Mirzaian, Artin January 2022 (has links)
Controlling antennas’ vertical tilt through Remote Electrical Tilt (RET) is an effective method to optimize network performance. Reinforcement Learning (RL) algorithms such as Deep Reinforcement Learning (DRL) have been shown to be successful for RET optimization. One issue with DRL is that DRL models have a black box nature where it is difficult to ’explain’ the decisions made in a human-understandable way. Explanations of a model’s decisions are beneficial for a user not only to understand but also to intervene and modify the RL model. In this work, a state-ofthe-art Explainable Reinforcement Learning (XRL) method is evaluated on the RET optimization problem. More specifically, the chosen XRL method is the Embedded Self-Prediction (ESP) model proposed by Lin, Lam, and Fern [16] which can generate contrastive explanations in terms of why an action is preferred over the other. The ESP model was evaluated on two different RET optimization scenarios. The first scenario is formulated as a single agent RL problem in a ’simple’ environment whereas the second scenario is formulated as a multi agent RL problem with a more complex environment. In both scenarios, the results show little to no difference in performance compared to a baseline Deep Q-Network (DQN) algorithm. Finally, the explanations of the model were validated by comparing them to action outcomes. The conclusions of this work is that the ESP model offers explanations of its behaviour with no performance decrease compared to a baseline DQN and the generated explanations offer value in debugging and understanding the given problem. / Att styra antenners vertikala lutning genom RET är en effektiv metod för att optimera nätverksprestanda. RL-algoritmer som DRL har visat sig vara framgångsrika för REToptimering. Ett problem med DRL är att DRL-modeller är som en svart låda där det är svårt att ’förklara’ de beslut som fattas på ett sätt som är begripligt för människor. Förklaringar av en modells beslut är fördelaktiga för en användare inte bara för att förstå utan också för att ingripa och modifiera RL-modellen. I detta arbete utvärderas en toppmodern XRL-metod på RET-optimeringsproblemet. Mer specifikt är den valda XRL-metoden ESP-modellen som föreslagits av Lin, Lam och Fern [16] som kan generera kontrastiva förklaringar i termer av varför en handling föredras framför den andra. ESP-modellen utvärderades på två olika RET-optimeringsscenarier. Det första scenariot är formulerat som ett problem med en enstaka agent i en ’enkel’ miljö medan det andra scenariot är formulerat som ett problem med flera agenter i en mer komplex miljö. I båda scenarierna visar resultaten liten eller ingen skillnad i prestanda jämfört med en DQN-algoritm. Slutligen validerades modellens förklaringar genom att jämföra dem med handlingsresultat. Slutsatserna av detta arbete är att ESPmodellen erbjuder förklaringar av dess beteende utan prestandaminskning jämfört med en DQN och de genererade förklaringarna ger värde för att felsöka och förstå det givna problemet.
5

Exploring attribution methods explaining atrial fibrillation predictions from sinus ECGs : Attributions in Scale, Time and Frequency / Undersökning av attributionsmetoder för att förklara förmaksflimmerprediktioner från EKG:er i sinusrytm : Attribution i skala, tid och frekvens

Sörberg, Svante January 2021 (has links)
Deep Learning models are ubiquitous in machine learning. They offer state-of- the-art performance on tasks ranging from natural language processing to image classification. The drawback of these complex models is their black box nature. It is difficult for the end-user to understand how a model arrives at its prediction from the input. This is especially pertinent in domains such as medicine, where being able to trust a model is paramount. In this thesis, ways of explaining a model predicting paroxysmal atrial fibrillation from sinus electrocardiogram (ECG) data are explored. Building on the concept of feature attributions, the problem is approached from three distinct perspectives: time, scale, and frequency. Specifically, one method based on the Integrated Gradients framework and one method based on Shapley values are used. By perturbing the data, retraining the model, and evaluating the retrained model on the perturbed data, the degree of correspondence between the attributions and the meaningful information in the data is evaluated. Results indicate that the attributions in scale and frequency are somewhat consistent with the meaningful information in the data, while the attributions in time are not. The conclusion drawn from the results is that the task of predicting atrial fibrillation for the model in question becomes easier as the level of scale is increased slightly, and that high-frequency information is either not meaningful for the task of predicting atrial fibrillation, or that if it is, the model is unable to learn from it. / Djupinlärningsmodeller förekommer på många håll inom maskininlärning. De erbjuder bästa möjliga prestanda i olika domäner såsom datorlingvistik och bildklassificering. Nackdelen med dessa komplexa modeller är deras “svart låda”-egenskaper. Det är svårt för användaren att förstå hur en modell kommer fram till sin prediktion utifrån indatan. Detta är särskilt relevant i domäner såsom sjukvård, där tillit till modellen är avgörande. I denna uppsats utforskas sätt att förklara en modell som predikterar paroxysmalt förmaksflimmer från elektrokardiogram (EKG) som uppvisar normal sinusrytm. Med utgångspunkt i feature attribution (särdragsattribution) angrips problemet från tre olika perspektiv: tid, skala och frekvens. I synnerhet används en metod baserad på Integrated Gradients och en metod baserad på Shapley-värden. Genom att perturbera datan, träna om modellen, och utvärdera den omtränader modellen på den perturberade datan utvärderas graden av överensstämmelse mellan attributionerna och den meningsfulla informationen i datan. Resultaten visar att attributioner i skala- och frekvensdomänerna delvis stämmer överens med den meningsfulla informationen i datan, medan attributionerna i tidsdomänen inte gör det. Slutsatsen som dras utifrån resultaten är att uppgiften att prediktera förmaksflimmer blir enklare när skalnivån ökas något, samt att högre frekvenser antingen inte är betydelsefullt för att prediktera förmaksflimmer, eller att om det är det, så saknar modellen förmågan att lära sig detta.
6

Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry / Att förklara utfall av AI system för konsumenter : Insikter från den svenska kreditupplyssningsindustrin

Matz, Filip, Luo, Yuxiang January 2021 (has links)
The field of explainable artificial intelligence (XAI) has gained momentum in recent years following the increased use of AI systems across industries leading to bias, discrimination, and data security concerns. Several conceptual frameworks for how to reach AI systems that are fair, transparent, and understandable have been proposed, as well as a number of technical solutions improving some of these aspects in a research context. However, there is still a lack of studies examining the implementation of these concepts and techniques in practice. This research aims to bridge the gap between prominent theory within the area and practical implementation, exploring the implementation and evaluation of XAI models in the Swedish credit scoring industry, and proposes a three-step framework for the implementation of local explanations in practice. The research methods used consisted of a case study with the model development at UC AB as a subject and an experiment evaluating the consumers' levels of trust and system understanding as well as the usefulness, persuasive power, and usability of the explanation for three different explanation prototypes developed. The framework proposed was validated by the case study and highlighted a number of key challenges and trade-offs present when implementing XAI in practice. Moreover, the evaluation of the XAI prototypes showed that the majority of consumers prefers rulebased explanations, but that preferences for explanations is still dependent on the individual consumer. Recommended future research endeavors include studying a longterm XAI project in which the models can be evaluated by the open market and the combination of different XAI methods in reaching a more personalized explanation for the consumer. / Under senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
7

Rättfärdigade prioriteringar : en kvalitativ analys av hur personal i äldreomsorgen hanterar motstridiga verksamhetslogiker

Lundin, Anette January 2017 (has links)
This dissertation aims at contributing to social scientific knowledge about prevailing prioritizations in eldercarepractice by looking at an economic and a caring logic, and how these logics are overlapping, contradictory or comein conflict with each other. A more concrete aim is to understand how the personnel describe their work with orfor balance between the logics and their justifications prioritizations made in the care of older persons. The researchquestion is: How do personnel and care unit manager at a public nursing home understand and handle the twologics that govern care work for facilitating wellbeing of the residents. The aim and research question led to threesub-aims: 1) to analyze the personnel’s experiences of and meaning making about the care work they carry out, 2)to illuminate and problematize the two logics above, and 3)to analyze how the personnel justify their prioritizationsin prevailing context, and how their accountability have an effect on their professional identities.Empirical material was gathered through 13 individual interviews with care personnel and their care unitmanager at a public nursing home in Sweden. These interviews were complemented by a group interview. Thematerial was analyzed by the use of three methods: phenomenology (Paper I and II), reflexive analysis (Paper III),and a positioning analysis (Paper IV). Paper I found that the personnel understands the residents’ well-being asbeing characterized by feeling of being existentially touched. This essence is constituted by feeling freedom ofchoice, pleasure, and closeness to someone or something. In Paper II, the work for facilitating this kind of wellbeingwas characterized by three ambiguities: (i) freedom of choice for the older persons vs. institutionalconstraints, (ii) the residents' need for activation vs. wanting not to be activated, and (iii) the residents' need forroutine vs. the eldercarers' not being able to know what the residents need. Paper III showed that the care unitmanager created a hybrid of the two logics (economy is care and vice versa) and that the personnel oppose thishybrid. The opposition is shaped as the personnel divides their work in care and “those other things”. Thesefindings showed how interaction between the logics expresses itself in practice and that it is the personnel who hasto handle contradictions between the logics in their everyday care work. The positioning analysis in Paper IV hadthree levels. The first level showed how the carers align with their peers and that they find the organizationalframe, within which they have agency, changed due to increased workload. This change led to an order of priorities.The second level showed that the carers relate to three aspects when making accounts: the care itself, the olderpersons, and the media. The third level showed that the carers share a view of administration, cleaning, servingmeals, and filling up supplies, as not being parts of caring.The dissertation’s theoretical framework focused on theories on logics, accountability, and professionalidentity. The conclusion is that both logics are needed in order to facilitate the well-being of the older persons. Therelationships between the two logics are not always clear and if their contradictions are not illuminated, there is arisk for a care practice that does not facilitate the well-being of their residents. An important theoreticalcontribution is that logics of activities should be understood vertically (form political, through management, anddown to the level of practice) instead of horizontally. The practical implications emphasize the importance ofsupporting the personnel’s professional identity on the one hand, and discussing the logics on the other. Byunderstanding differences between definitions on management-level and practice level, a homogeneity can bereached. / <p>Huvudämne: Välfärd och socialvetenskap</p>

Page generated in 0.084 seconds