• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 12
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 95
  • 20
  • 18
  • 16
  • 15
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Mäns våld mot kvinnor ur ett teoretiskt perspektiv

Mårtensson, Ingrid January 2006 (has links)
The essay begins by asserting that the theoretical approaches of men’s violence against women are just as important to study as its extent. The purpose is therefore to analyse and compare two theoretical approaches which is done by a comparative text analysis of two texts written on the subject. The essay attempts to answer two questions; what the theoretical approaches are and how they can be understood in light of feminist theory. Previous research on men’s violence against women discuss especially three theoretical aspects. These are how the concept is defined, if the different forms of violence are being treated separately or not, and how it is explained. These aspects are used as the basis for the analysis which is conducted in two steps. The result shows that the theoretical approaches analysed share many similarities with both each other and the feminist theory. All apply a broad definition, hold the different forms of violence together, and consider the most basic explanation for the violence to be the unequal power structure between the sexes. The biggest difference between the two theoretical approaches and the feminist theory is that the former also emphasizes other explanatory levels as well as the purely structural.
72

AI-system för sjukvården - en studie kring design av förklaringar till AI-modeller och dess inverkan på sjukvårdspersonalens förståelse och tillit / AI systems for healthcare - a study on the design of explanations for AI models and its impact on healthcare professionals' understanding and trust

Bohlander, Joacim January 2021 (has links)
Användningsområdena för artificiell intelligens ökar ständigt vilket är inte förvånande då AIs förmåga att lösa komplicerade problem många gånger överstiger den mänskliga motsvarigheten. Implementeringen av AI-system har ibland gått så långt att utvecklarna själva inte längre vet hur systemet har tagit fram en slutsats; vilket har gjort att möjligheten att undersöka, förstå och felsöka utfall är näst intill icke-existerande. Eftersom dagens AI-system inte erbjuder förklaringar till utfallen har det resulterat i en ovilja hos slutanvändaren. Forskningsområdet eXplainable AI (XAI) menar att genom att använda genererade förklaringar kan AI-systemen bli mer förståeliga för slutanvändaren. Ett område som är i stort behov av AI-system är sjukvården, speciellt inom sepsis där en snabb diagnostisering drastiskt minskar sjukdomens mortalitet. Syftet med denna studie var att ta fram designriktlinjer vid utveckling av förklaringar som är ämnade att främja tillit till och förståelse för AI-baserade kliniska beslutsstöd menade för diagnostisering av sepsis. Studien påbörjades med en förstudie som bestod av en enkät och en litteraturstudie, sedan utvecklades en mid-fi prototyp som följdes av användarupplevelsetester. Insamlad dataanalyserades med hjälp av top-down och en induktiv analysmetod varefter ett slutligt resultat togs fram. Resultatet säkerställde att det finns flera faktorer som behöver inkorporeras vid framtagandet avförklaringar till ett AI-systems rekommendationer för främjande av tillit och förståelse. För en ökad tillit behöver en förklaring kompletteras med data som tillåter slutanvändaren att validera förklaringen och bemöta användarens informationsbehov. För en ökad förståelse bör en förklaring innehålla information som tillåter användaren förstå anledningen till förklaringens huvudinnehåll, exempelvis ”X beror på Z och Y”. Tilliten och förståelsen i denna studie mättes endast vid ett tillfälle vilket gör att frågan om hur riktlinjerna skulle påverka tillit till och förståelse för AI-system över tid kvarstår. / The fields of application for artificial intelligence is constantly increasing, which is not suprising as the AI's ability to solve complex problems often exceeds the human counterpart. The development of AI systems has come so far that somtimes not even the developers themselves can explain how the system came to its conclusion; which has made the possibility of examining, understanding and troubleshooting outcomes almost non-existent. Since today's AI systems do not offer explanations for the outcomes, it has resulted in resistance on the part of the end user. The research are eXplainable AI (XAI) believes that using generated explanations, AI systems can become more understandable to the end user. One area that is in great need of AI systems is healthcare, especially for diagnosing sepsis where a rapid diagnosis drastically reduces the mortality of the disease. The purpose of this study was to develop design guidelines for the development of explanations that are intended to promote trust and understanding of AI-based clinical decision support intended for the diagnosis of sepsis.The study began with a feasibility study consisting of a questionnaire and a literature study, then amid-fi prototype was developed that was followed by user experience tests. Collected data were analyzed using top-down and an inductive analysis after which a final result was obtained.The results ensured that there are several factors that need to be incorporated in the development of explanations for the promotion of trust and understanding. For increased trust, an explanation needs to be supplemented with data that allows the end user to validate the explanation and meet the user's information needs. For an increased understanding, an explanation should contain information that allows the user to understand the reason for the main content of the explanation, for example "Xdepends on Z and Y".The trust and understanding in this study was only measured at one occasion, as such the question of how the guidelines would affect trust and understanding of AI systems over time remains.
73

Rekommendationssystemet i centrum : En designstudie om hur förklaringar kan stötta reflektion kring förtroende för rekommendationssystem på sociala medier

Arvidsson, Alfvar, Lundgren, Moa January 2023 (has links)
Rekommendationssystem (RS) implementeras på sociala medier för att filtrera information. RS följs av risker, som att användare endast blir exponerade för innehåll som överensstämmer med egna åsikter, vilket bland annat kan resultera i ojämlik tillgång till kritisk information. Inom sociala medier har RS blivit centralt för värdeerbjudandet. Denna typ av sociala medier har en inverkan på sociala, kulturella och politiska aspekter. Förtroende är en nödvändighet för acceptans av system. Olämpligt högt förtroende ökar däremot risken för manipulation då det inte ger förutsättningar för ett kritiskt förhållningssätt. Förtroende kan genereras genom förståelse eller övertygelse, där båda är möjliga utkomster av förklaringar. Design för förtroende genom övertygelse ökar acceptansen men också risken för olämpligt högt förtroende. Design för förtroende genom förståelse är lämpligare ur ett användarperspektiv, eftersom det låter användare bedöma vad som är lämpligt förtroende.  En designorienterad studie har genomförts för att undersöka hur transparenta förklaringar kan stötta användares reflektioner kring förtroende. Resultatet av studien är fem designförslag för att stötta användares reflektioner kring förtroende. Designförslagen kan användas som stöd för designers vid skapandet av gränssnitt för rekommendationssystem i sociala medier. / Recommender systems (RS) are implemented on social media to filter information. RS brings the risk that users are only exposed to content that matches their own opinions, which can result in unequal access to critical information. Within social media, RS has become central to the value proposition. This means that social media with RS as a central feature has an impact on social, cultural, and political aspects. Trust is a necessity for acceptance of the system. Inappropriately high trust, however, increases the risk of manipulation as it does not provide conditions for a critical approach. Trust can be generated through understanding or persuasion, both of which are possible outcomes of explanations. Design for trust through persuasion increases acceptance but also the risk of inappropriate high trust. Design for trust through understanding is more appropriate from a user perspective, as it allows users to assess what is appropriate trust. This study was conducted through a design study method approach where we evaluated how transparent explanations can support users' reflections on trust. The result of the study is five design suggestions to support users' reflections on trust. These design suggestions can be used as guidance for designers in creating interfaces for recommendation systems in social media.
74

Applicant Reactions to Non-Discrimination and Predictive Validity Explanations: Contextualized and Generic Personality Tests

Levey, Zachary J. 19 May 2023 (has links)
No description available.
75

Implementing Machine Learning in the Credit Process of a Learning Organization While Maintaining Transparency Using LIME

Malmberg, Jacob, Nystad Öhman, Marcus, Hotti, Alexandra January 2018 (has links)
To determine whether a credit limit for a corporate client should be changed, a financial institution writes a PM containingtext and financial data that then is assessed by a credit committee which decides whether to increase the limit or not. To make thisprocess more efficient, machine learning algorithms was used to classify the credit PMs instead of a committee. Since most machinelearning algorithms are black boxes, the LIME framework was used to find the most important features driving the classification. Theresults of this study show that credit memos can be classified with high accuracy and that LIME can be used to indicate which parts ofthe memo had the biggest impact. This implicates that the credit process could be improved by utilizing machine learning, whilemaintaining transparency. However, machine learning may disrupt learning processes within the organization. / För att bedöma om en kreditlimit för ett företag ska förändras eller inte skriver ett finansiellt institut ett PM innehållande text och finansiella data. Detta PM granskas sedan av en kreditkommitté som beslutar om limiten ska förändras eller inte. För att effektivisera denna process användes i denna rapport maskininlärning istället för en kreditkommitté för att besluta om limiten ska förändras. Eftersom de flesta maskininlärningsalgoritmer är svarta lådor så användes LIME-ramverket för att hitta de viktigaste drivarna bakom klassificeringen. Denna studies resultat visar att kredit-PM kan klassificeras med hög noggrannhet och att LIME kan visa vilken del av ett PM som hade störst påverkan vid klassificeringen. Implikationerna av detta är att kreditprocessen kan förbättras av maskininlärning, utan att förlora transparens. Maskininlärning kan emellertid störa lärandeprocesser i organisationen, varför införandet av dessa algoritmer bör vägas mot hur betydelsefullt det är att bevara och utveckla kunskap inom organisationen.
76

Counterfactual and Causal Analysis for AI-based Modulation and Coding Scheme Selection / Kontrafaktisk och orsaksanalys för AI-baserad modulerings- och kodningsval

Hao, Kun January 2023 (has links)
Artificial Intelligence (AI) has emerged as a transformative force in wireless communications, driving innovation to address the complex challenges faced by communication systems. In this context, the optimization of limited radio resources plays a crucial role, and one important aspect is the Modulation and Coding Scheme (MCS) selection. AI solutions for MCS selection have been predominantly characterized as black-box models, which suffer from limited explainability and consequently hinder trust in these algorithms. Moreover, the majority of existing research primarily emphasizes enhancing explainability without concurrently improving the model’s performance which makes performance and explainability a trade-off. This work aims to address these issues by employing eXplainable AI (XAI), particularly counterfactual and causal analysis, to increase the explainability and trustworthiness of black-box models. We propose CounterFactual Retrain (CF-Retrain), the first method that utilizes counterfactual explanations to improve model performance and make the process of performance enhancement more explainable. Additionally, we conduct a causal analysis and compare the results with those obtained from an analysis based on the SHapley Additive exPlanations (SHAP) value feature importance. This comparison leads to the proposal of novel hypotheses and insights for model optimization in future research. Our results show that employing CF-Retrain can reduce the Mean Absolute Error (MAE) of the black-box model by 4% while utilizing only 14% of the training data. Moreover, increasing the amount of training data yields even more pronounced improvements in MAE, providing a certain level of explainability. This performance enhancement is comparable to or even superior to using a more complex model. Furthermore, by introducing causal analysis to the mainstream SHAP value feature importance, we provide a novel hypothesis and explanation of feature importance based on causal analysis. This approach can serve as an evaluation criterion for assessing the model’s performance. / Artificiell intelligens (AI) har dykt upp som en transformativ kraft inom trådlös kommunikation, vilket driver innovation för att möta de komplexa utmaningar som kommunikationssystem står inför. I detta sammanhang spelar optimeringen av begränsade radioresurser en avgörande roll, och en viktig aspekt är valet av Modulation and Coding Scheme (MCS). AI-lösningar för val av modulering och kodningsschema har övervägande karaktäriserats som black-box-modeller, som lider av begränsad tolkningsbarhet och följaktligen hindrar förtroendet för dessa algoritmer. Dessutom betonar majoriteten av befintlig forskning i första hand att förbättra förklaringsbarheten utan att samtidigt förbättra modellens prestanda, vilket gör prestanda och tolkningsbarhet till en kompromiss. Detta arbete syftar till att ta itu med dessa problem genom att använda XAI, särskilt kontrafaktisk och kausal analys, för att öka tolkningsbarheten och pålitligheten hos svarta-box-modeller. Vi föreslår CF-Retrain, den första metoden som använder kontrafaktiska förklaringar för att förbättra modellens prestanda och göra processen med prestandaförbättring mer tolkningsbar. Dessutom gör vi en orsaksanalys och jämför resultaten med de som erhålls från en analys baserad på värdeegenskapens betydelse. Denna jämförelse leder till förslaget av nya hypoteser och insikter för modelloptimering i framtida forskning. Våra resultat visar att användning av CF-Retrain kan minska det genomsnittliga absoluta felet för black-box-modellen med 4% samtidigt som man använder endast 14% av träningsdata. Dessutom ger en ökning av mängden träningsdata ännu mer uttalade förbättringar av Mean Absolute Error (MAE), vilket ger en viss grad av tolkningsbarhet. Denna prestandaförbättring är jämförbar med eller till och med överlägsen att använda en mer komplex modell. Dessutom, genom att introducera kausal analys till de vanliga Shapley-tillsatsförklaringarna värdesätter egenskapens betydelse, ger vi en ny hypotes och tolkning av egenskapens betydelse baserad på kausalanalys. Detta tillvägagångssätt kan fungera som ett utvärderingskriterium för att bedöma modellens prestanda.
77

Orsak och förklaring till tids- och kostnadsöverskridande i små och okomplicerade infrastrukturprojekt : En fallstudie på Trafikverkets verksamhetsområde Investering region Öst i Uppsala / Cause and Explanation of Time and Cost Overruns in Small and Uncomplicated Infrastructure Projects

Linder, Fredrik January 2023 (has links)
Infrastructure projects frequently exceed their budgets in both time and cost, which often burdens the taxpayers. A significant percentage of these projects are neither complex nor unique, where the contract sum is a fraction of the contract sum of known megaprojects however has a higher percentage of cost overruns. The purpose of this study is to identify the cause, particularly the explanation behind these small and uncomplicated infrastructure projects' time and cost overruns, and to propose methods to avoid this wastage of taxpayer money. To achieve this purpose, a qualitative case study has been conducted within the scope of the Swedish Transport Administration's (Trafikverket) Investment division in the Eastern region in Uppsala, with a focus on pedestrian and bicycle paths. Empirical data has been gathered using Trafikverket's tools for deviation management, and semi-structured interviews were conducted with forecasters at Trafikverket's Investment division in Uppsala. A literature review has been made and were used to better interpret the empirical results. The identified causes are manifold but can be summarized as legal, political, and bureaucratic obstacles, communication issues, working methods, lack of experience and bad luck. The explanations for time and cost overruns can solely be attributed to the phenomenon of optimism bias, as this encompasses the forecaster's role as a decision maker in the project and the extent to which they could anticipate emerging situations. To mitigate optimism bias, the method of reference class forecasting is proposed. Furthermore, it is suggested to Trafikverket to reconsider the intervals of forecasting to be reviewed and adjusted according to the industry's way of setting forecasts on time. In conclusion, this study states that this is an important topic for future research in cost overruns in infrastructure projects. The recommendation is to focus on small and uncomplicated infrastructure projects. In addition, research must find the explanations for the causes of cost overruns before addressing the problem with appropriate methods.
78

Identification of the Critical Delay Factors in the Subway Tunnel Construction in Stockholm : An explanatory Study Investigating the Project Delay and its Consequences on Property Developers / Identifiering av kritiska förseningsfaktorer i utbyggnaden av Stockholms tunnelbana : En explorativ studie inom förseningar i projekt och dess negativa konsekvenser på fastighetsutvecklare

Staflund, Johan, Östblom, Rickard January 2021 (has links)
Stockholm is one of the fastest growing conurbations in Europe, to accommodate for the increased population and urban growth, the current subway system needs to be extended. Appropriately, a joint initiative regarding housing and infrastructure development was signed in January 2014 by the Swedish government, Stockholm County Council and the afflicted municipalities Stockholm, Solna, Nacka and Järfälla. The joint initiative, the 2013 Stockholm negotiation, presented an extension of the current subway system with a total length of 19,6 km and 11 new stations in Stockholm, Solna, Nacka and Järfälla. Large-scale infrastructure projects often suffer from cost and time overruns. The Stockholm subway construction is no exception and has since the project started collected a delay equivalent of five years for Järfälla and Nacka, and a cost overrun of SEK 9,3 billion. The aim of this thesis is to objectively identify the critical delay factors of the subway tunnel construction in Stockholm and unveil the delay implication on property developers with housing projects in the adjacent areas to the new stations. The thesis will be limited to mainly focus on the extension to Järfälla and Nacka. To investigate the research questions, a systematic integration of quantitative and qualitative data has been collected through literature reviews, 9 interviews with the client, designers, consultants and a survey with 13 property developers. This thesis has identified one critical delay factor, linked to the poor project performance regarding the time overruns. With support from the literature review, interviews and surveys, the observed delay can be described as a consequence of political-economic explanations. The cause for the delay is rooted in the inaccurate estimations and unrealistic expectations presented in the 2013 Stockholm negotiation. Thus, the project delay is to be categorized as non- acceptable, due to a five-year prolonged time plan. Additional delay factors have beenidentified but are not to be viewed as critical. This thesis has also identified a general frustrationamongst the developers in Järfälla and Nacka as they have perceived negative implications as a consequence of the delay of the subway extension. / Stockholm är en av de snabbast växande storstadsregionerna i Europa och för att tillgodose den ökade tillväxten behöver regionen utveckla sin infrastruktur och kollektivtrafik. I januari 2014 undertecknades en överenskommelse, avseende utveckling av bostäder och infrastruktur, mellan regeringen, Stockholm Läns Landsting, Stockholm- och Solna stad, Nacka samt Järfälla kommun. Avtalet benämns som 2013 års Stockholmsförhandling och omfattar en utbyggnad om 11 nya tunnelbanestationer i Stockholm, Solna, Nacka och Järfälla, med en total spårlängd om 19,6 km.  Stora infrastrukturprojekt har historiskt sett blivit försenade och haft budgetöverskridande projektkostnader. Tunnelbaneutbyggnaden mot Järfälla och Nacka har båda blivit försenade med fem år samt överskridit budgeten med totalt 9,3 miljarder kronor. Syftet med denna masteruppsats är att objektivt identifiera de kritiska faktorer som orsakat förseningen av projektet samt redogöra för de konsekvenser som förseningen har orsakat för de bostadsutvecklare med projekt i områdena där de nya stationerna är planerade. Uppsatsen har avgränsats till att enbart skildra utbyggnaden mot Järfälla och Nacka. För att besvara studiens frågeställningar har kvalitativ och kvantitativ data integrerats genom litteraturstudier, intervjuer med 9 nyckelpersoner inom projektet, samt via en enkätundersökning med 13 fastighetsbolag, verksamma i Järfälla och Nacka.  Uppsatsen har identifierat en faktor som ligger till grund för att projektet inte presterat enligt projektets tid- och kostnadsmål. Faktorn har sitt ursprung i de felaktiga och orealistiska beräkningar som presenterades i 2013 års Stockholmsförhandling. Ytterligare förseningsfaktorer har identifierats, men är inte att anses som kritiska eftersom de inte haft en betydande inverkan på projektet och dess färdigställande. Förseningen av projektet är att kategorisera som ej acceptabel med hänsyn till dess uppkomst och omfattning. Mot den bakgrundsdata som samlats in genom litteraturstudier, intervjuer och enkätundersökningar kan förseningen härledas som en konsekvens av politisk-ekonomiska orsakssamband. Uppsatsens resultat visar även på att förseningen orsakat flera negativa konsekvenser för de fastighetsbolag som är verksamma i Järfälla och Nacka, vilket har skapat ett generellt missnöje gentemot projektets beställarorganisation.
79

Explainable Reinforcement Learning for Gameplay

Costa Sánchez, Àlex January 2022 (has links)
State-of-the-art Machine Learning (ML) algorithms show impressive results for a myriad of applications. However, they operate as a sort of a black box: the decisions taken are not human-understandable. There is a need for transparency and interpretability of ML predictions to be wider accepted in society, especially in specific fields such as medicine or finance. Most of the efforts so far have focused on explaining supervised learning. This project aims to use some of these successful explainability algorithms and apply them to Reinforcement Learning (RL). To do so, we explain the actions of a RL agent playing Atari’s Breakout game, using two different explainability algorithms: Shapley Additive Explanations (SHAP) and Local Interpretable Model-agnostic Explanations (LIME). We successfully implement both algorithms, which yield credible and insightful explanations of the mechanics of the agent. However, we think the final presentation of the results is sub-optimal for the final user, as it is not intuitive at first sight. / De senaste algoritmerna för maskininlärning (ML) visar imponerande resultat för en mängd olika tillämpningar. De fungerar dock som ett slags ”svart låda”: de beslut som fattas är inte begripliga för människor. Det finns ett behov av öppenhet och tolkningsbarhet för ML-prognoser för att de ska bli mer accepterade i samhället, särskilt inom specifika områden som medicin och ekonomi. De flesta insatser hittills har fokuserat på att förklara övervakad inlärning. Syftet med detta projekt är att använda några av dessa framgångsrika algoritmer för att förklara och tillämpa dem på förstärkning lärande (Reinforcement Learning, RL). För att göra detta förklarar vi handlingarna hos en RL-agent som spelar Ataris Breakout-spel med hjälp av två olika förklaringsalgoritmer: Shapley Additive Explanations (SHAP) och Local Interpretable Model-agnostic Explanations (LIME). Vi genomför framgångsrikt båda algoritmerna, som ger trovärdiga och insiktsfulla förklaringar av agentens mekanik. Vi anser dock att den slutliga presentationen av resultaten inte är optimal för slutanvändaren, eftersom den inte är intuitiv vid första anblicken. / Els algoritmes d’aprenentatge automàtic (Machine Learning, ML) d’última generació mostren resultats impressionants per a moltes aplicacions. Tot i això, funcionen com una mena de caixa negra: les decisions preses no són comprensibles per a l’ésser humà. Per tal que les prediccion preses mitjançant ML siguin més acceptades a la societat, especialment en camps específics com la medicina o les finances, cal transparència i interpretabilitat. La majoria dels esforços que s’han fet fins ara s’han centrat a explicar l’aprenentatge supervisat (supervised learning). Aquest projecte pretén utilitzar alguns d’aquests existosos algoritmes d’explicabilitat i aplicar-los a l’aprenentatge per reforç (Reinforcement Learning, RL). Per fer-ho, expliquem les accions d’un agent de RL que juga al joc Breakout d’Atari utilitzant dos algoritmes diferents: explicacions additives de Shapley (SHAP) i explicacions model-agnòstiques localment interpretables (LIME). Hem implementat amb èxit tots dos algoritmes, que produeixen explicacions creïbles i interessants de la mecànica de l’agent. Tanmateix, creiem que la presentació final dels resultats no és òptima per a l’usuari final, ja que no és intuïtiva a primera vista.
80

當中國遇見市場:有關市場轉型、經濟成就、發展失衡的制度理論 / When China Marketized : The Institutional Theory of Market Transition, Economic Achievement and Disparities

曾偉峰 Unknown Date (has links)
有關中國轉型的研究,在九○年代與兩千年後,由於聚焦於不同的社會層面,產生了研究上的鴻溝。原有的各項轉型制度理論,無法對現實社會問題,提供研究的指導與洞察,因此造成近年社會分析的理論貧乏問題。本文乃嘗試以制度為主線,捻出「制度同化」與「制度相依」兩項觀點,有系統的整理、爬梳現有各項轉型理論文獻,試圖連綴「轉型歷程」、「經濟成就」與「社會失衡」間的相互關係。本文希望藉此文獻功夫,幫助銜接「既有的理論架構」與「演進中的社會實踐」,使得彼此滋潤、相互激發,不斷開展出中國社會研究的源頭活水。 / The study of China’s market transition falls into two distinct periods: in the earlier phase, China’s phenomenal economic success is the subject and many institutional accounts has been proposed while in following years , China’s rising economic disparities attracts all the attention and little effort has been devoted to the business of theory-building. As a result, today’s social analyses in China have hardly ever been theory-informed. Given this situation, this paper seeks to review existing theoretical literature with special reference to institutional changes and hopefully bridge the gap between institutional theory and Chinese practices.

Page generated in 0.1383 seconds