• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 2
  • Tagged with
  • 15
  • 15
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Tools and Methods for Companies to Build Transparent and Fair Machine Learning Systems / Verktyg och metoder för företag att utveckla transparenta och rättvisa maskininlärningssystem

Schildt, Alexandra, Luo, Jenny January 2020 (has links)
AI has quickly grown from being a vast concept to an emerging technology that many companies are looking to integrate into their businesses, generally considered an ongoing “revolution” transforming science and society altogether. Researchers and organizations agree that AI and the recent rapid developments in machine learning carry huge potential benefits. At the same time, there is an increasing worry that ethical challenges are not being addressed in the design and implementation of AI systems. As a result, AI has sparked a debate about what principles and values should guide its development and use. However, there is a lack of consensus about what values and principles should guide the development, as well as what practical tools should be used to translate such principles into practice. Although researchers, organizations and authorities have proposed tools and strategies for working with ethical AI within organizations, there is a lack of a holistic perspective, tying together the tools and strategies proposed in ethical, technical and organizational discourses. The thesis aims to contribute with knowledge to bridge this gap by addressing the following purpose: to explore and present the different tools and methods companies and organizations should have in order to build machine learning applications in a fair and transparent manner. The study is of qualitative nature and data collection was conducted through a literature review and interviews with subject matter experts. In our findings, we present a number of tools and methods to increase fairness and transparency. Our findings also show that companies should work with a combination of tools and methods, both outside and inside the development process, as well as in different stages of the machine learning development process. Tools used outside the development process, such as ethical guidelines, appointed roles, workshops and trainings, have positive effects on alignment, engagement and knowledge while providing valuable opportunities for improvement. Furthermore, the findings suggest that it is crucial to translate high-level values into low-level requirements that are measurable and can be evaluated against. We propose a number of pre-model, in-model and post-model techniques that companies can and should implement in each other to increase fairness and transparency in their machine learning systems. / AI har snabbt vuxit från att vara ett vagt koncept till en ny teknik som många företag vill eller är i färd med att implementera. Forskare och organisationer är överens om att AI och utvecklingen inom maskininlärning har enorma potentiella fördelar. Samtidigt finns det en ökande oro för att utformningen och implementeringen av AI-system inte tar de etiska riskerna i beaktning. Detta har triggat en debatt kring vilka principer och värderingar som bör vägleda AI i dess utveckling och användning. Det saknas enighet kring vilka värderingar och principer som bör vägleda AI-utvecklingen, men också kring vilka praktiska verktyg som skall användas för att implementera dessa principer i praktiken. Trots att forskare, organisationer och myndigheter har föreslagit verktyg och strategier för att arbeta med etiskt AI inom organisationer, saknas ett helhetsperspektiv som binder samman de verktyg och strategier som föreslås i etiska, tekniska och organisatoriska diskurser. Rapporten syftar till överbrygga detta gap med följande syfte: att utforska och presentera olika verktyg och metoder som företag och organisationer bör ha för att bygga maskininlärningsapplikationer på ett rättvist och transparent sätt. Studien är av kvalitativ karaktär och datainsamlingen genomfördes genom en litteraturstudie och intervjuer med ämnesexperter från forskning och näringsliv. I våra resultat presenteras ett antal verktyg och metoder för att öka rättvisa och transparens i maskininlärningssystem. Våra resultat visar också att företag bör arbeta med en kombination av verktyg och metoder, både utanför och inuti utvecklingsprocessen men också i olika stadier i utvecklingsprocessen. Verktyg utanför utvecklingsprocessen så som etiska riktlinjer, utsedda roller, workshops och utbildningar har positiva effekter på engagemang och kunskap samtidigt som de ger värdefulla möjligheter till förbättringar. Dessutom indikerar resultaten att det är kritiskt att principer på hög nivå översätts till mätbara kravspecifikationer. Vi föreslår ett antal verktyg i pre-model, in-model och post-model som företag och organisationer kan implementera för att öka rättvisa och transparens i sina maskininlärningssystem.
12

Learning Responsibly: Essays on Responsibility, Norm Psychology, and Personhood

Stephen A Setman (11199060) 28 July 2021 (has links)
<p>This dissertation argues for a number of theses related to responsibility, norm psychology, and personhood. Although most of the papers argue for “standalone” theses, in the sense that their truth does not depend the truth of the others, the five papers collectively illustrate a broader view of humans as (a) responsible agents who are (b) self-governing and (c) equipped with a capacity for norms, and whose agency (d) centers on dynamic responsiveness to corrective feedback. Drawing on this broader picture, the dissertation sheds light on ethical questions about our social practices and technologies, as well as descriptive questions about the nature of substance use disorder. </p> <p>Most centrally, the dissertation argues that forward-looking considerations are relevant for responsibility, not merely because the consequences of our responsibility practices are desirable, but primarily because of a connection which I argue exists between relationships, norms, and learning. On the view I defend, an agent is a responsible agent only if she can learn from being held responsible, so as to regulate herself according to norms of which she presently falls short. I argue that, if it were not for the capacity of humans to learn from <i>social corrective feedback</i>, such as normative responses like praise and blame, humans would be unable to participate in norm-governed relationships and communities. It is in virtue of their participation in these relationships and communities that humans are subject to interpersonal norms, such that they can fulfill or violate these norms and be praiseworthy or blameworthy for doing so. So, without the kind of learning that makes participation in these relationships a possibility, humans could never be praiseworthy or blameworthy for anything that they do. </p> <p>The dissertation also argues that human norm psychology has implications for how we should relate to “social robots”—artificial agents designed to participate in relationships with humans. I argue that, like humans, social robots should be equipped with a capacity to recognize and respond to normative feedback. Lastly, the dissertation resists a common narrative about addiction as being a form of akrasia in which agents act against their own better judgment. While this is certainly a central aspect of many cases of addiction, I argue that it fails to appreciate the ways in which addiction sometimes interacts with a person’s identity and goals, especially in cases where the agent believes that the things she values would not be feasible if she did not continue to engage in addictive behavior.</p>
13

AI framtidens beslutsfattare : En kvalitativ studie om hur AI och Big data kan underlätta beslutsfattande inom politiken

Wälsjö, William, Persson, Mattias January 2022 (has links)
Artificiell intelligens (AI) och Big data är innovativ teknik som har förändrat hur beslutsfattande kan grundas. Användningen av dessa verktyg har ökat och blivit mer populär inom olika branscher, men inom den politiska sektorn i Sverige har det inte använts. En pandemi har pågått under de två senaste åren vilket har medfört stora konsekvenser för samhället. Vilket har ställt krav på att politiker fattar snabba och effektiva beslut för att kunna hantera och bromsa smittspridningen. Syftet med studien var att undersöka och ta reda på ifall AI och Big data kan användas inom den politiska sektorn som beslutsstöd för att fatta snabbare, effektivare och etisk korrekta beslut samt hur politiker kan försäkra att AI och Big data används på ett etiskt sätt. Frågeställningen som har besvarats är: Hur kan Big data och AI effektivisera politikers beslutsfattande och samtidigt upprätthålla ett etiskt förhållningssätt?  Studien har tillämpat en kvalitativ ansats och med hjälp av relevant litteratur har olika användningsområden, problem, etiska utmaningar och risker identifierats. Semistrukturerade intervjuer har även genomförts med politiker och AI-specialister i syfte att ta reda på om det finns möjlighet att använda och implementera verktygen i den politiska sektorn. Efter att ha analyserat empiri och litteratur framkom det att AI kräver stora mängder data i realtid för att kunna vara ett verktyg för beslutsfattande. Mycket av den data som den politiska sektorn besitter har ännu inte digitaliserats vilket den måste göras innan AI kan användas som beslutsstöd. Som slutsats går det att använda AI och Big data för att effektivisera beslutsfattande i Sverige genom dokumentavläsning och analysering av handlingar. Problemet idag är att det inte går att säkerställa att beslut upprätthåller ett etiskt förhållningssätt, eftersom det inte finns något etiskt ramverk för hur AI och Big data ska användas. / Artificial intelligence (AI) and Big data are innovative technologies that have changed the ways of decision-making. The use of these tools has increased and become more popular in various industries, but not in the political sector of Sweden. The tools have hardly been put in any use. A pandemic has taken place in the last two years, which has had major consequences for society. It has led politicians to make quick and effective decisions to manage and slow down the spread of infection. The purpose of this study was to investigate and discover if AI and Big data can be used in the political sector as decision support to make faster and more effective decisions. The research question that has been answered is: How can Big data and AI streamline politicians decision-making and at the same time maintain an ethical approach?  The study has applied a qualitative approach, with the help of relevant literature various areas of use, problems, ethical challenges, and risks have been identified. Semi-structured interviews have also been conducted with politicians and AI specialists to see if it is possible to use and implement these tools in this field. After analysing empirical data and literature, it became clear that AI requires large amounts of data in real time to be able to contribute favourably. Much of the data that the political sector possesses has not yet been digitised, which is mandatory so that AI can be used as decision support. In conclusion, it is possible to use AI and Big data to streamline decision making in Sweden through document reading and analysis of documents. The problem is that it is not possible to ensure an ethical approach, as there is no ethical framework for the use of AI and Big data.
14

Advances in Vehicle Automation: Ethics and Technology

Sütfeld, Leon René 14 September 2021 (has links)
With the arrival of automated vehicles (AVs) on our streets virtually around the corner, this thesis explores advances in automated driving technology with a focus on ethical decision making in dilemmatic traf- fic situations. In a total of five publications, we take a multi-facetted approach to analyse and address the core challenges related to auto- mated ethical decision making in AVs. In publications one through three, we conduct a series of immersive virtual reality studies to analyze human behavior in traffic dilemmas, explore mathematical approaches to model the decision making process, investigate how the assessment methodology can affect moral judgment, and discuss the implications of these studies for algorithmic decision making in the real-world. In publication number four, we provide a comprehensive summary of the status quo of AV technology and legislation with regard to automated ethical decision making. Here, we discuss when and why ethical deci- sion making systems become necessary in AVs, review existing guide- lines for the behavior of AVs in dilemma situations, and compile a set of 10 demands and open questions that need to be addressed in the pursuit of a framework for ethical decision making in AVs. Finally, the basis for automated ethical decision making in AVs will be provided by accurate assessments of the immediate environment of the car. The pri- mary technology used to provide the required information processing of camera and LiDAR images in AVs is machine learning, and in particular deep learning. In publication five, we propose a form of adaptive acti- vation functions, addressing a central element of deep neural networks, which could, for instance, lead to increased detection rates of relevant objects, and thus help to provide a more accurate assessment of the AVs environment. Overall, this thesis provides a structured and compre- hensive overview of the state of the art in ethical decision making for AVs. It includes important implications for the design of decision mak- ing algorithms in practice, and concisely outlines the central remaining challenges on the road to a safe, fair and successful introduction of fully automated vehicles into the market.
15

Människors förtroende för AI: Könsrelaterad bias i AI-språkmodeller / People's Trust in AI: Gender Bias in Large Language Models

Forsman, Angela, Martinsson, Jonathan January 2024 (has links)
I en tid då AI-språkmodeller används alltmer i vår vardag, blir det relevant att undersöka hur det påverkar samhället. Denna studie undersöker, utifrån teorier om etik och jämställdhet, hur AI-språkmodeller i sina texter ger uttryck för mångfald, icke-diskriminering och rättvisa. Studien fokuserar på att identifiera och analysera förekomsten av könsbias i AI-språkmodellernas svar samt hur det påverkar människors förtroende för dessa system. En fallstudie genomfördes på tre AI-språkmodeller - ChatGPT 3.5, Gemini och Llama-2 70B, där data insamlades via intervjuer med dessa modeller. Därefter gjordes intervjuer med mänskliga informanter som reflekterade över AI-språkmodellernas svar. AI-språkmodellerna visade en obalans i hur de behandlar kvinnor och män vilket kan förstärka befintliga könsstereotyper. Detta kan påverka människors förtroende för AI-språkmodeller och informanterna lyfte problematiken om vad neutralitet och rättvisa innebär. För att skapa mer ansvarsfulla och rättvisa AI-system krävs medvetna insatser för att integrera etiska och jämställdhetsperspektiv i AI-utveckling och användning. / In a time when Large Language Models (LLMs) are increasingly used in our daily lives, it becomes important to investigate how this affects society. This study examines how LLMs express diversity, non-discrimination, and fairness in texts, based on theories of ethics and gender equality. The study focuses on identifying and analyzing the presence of gender bias in the responses of LLMs and how this impacts people's trust in these systems. A case study was conducted on three LLMs: ChatGPT 3.5, Gemini, and Llama-2 70B, where data was collected through interviews with them. Subsequently, interviews were conducted with human informants who reflected on the LLMs’ responses. The LLMs showed imbalance towards gender, potentially reinforcing existing gender stereotypes. This can affect people's trust in LLMs, and the informants highlighted the issue of what neutrality and fairness entail. To create more responsible and fair AI systems, conscious efforts are required to integrate ethical and equality perspectives into AI development and usage.

Page generated in 0.034 seconds