• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Moraliska bedömningar av autonoma systems beslut / Moral judgments of autonomous intelligent systems

Lindelöf, Gabriel Trim Olof January 2020 (has links)
Samhällsutvecklingen går i en riktning där människor arbetar i allt närmare samarbete med artificiella agenter. För att detta samarbete ska vara på användarens villkor är det viktigt att förstå hur människor uppfattar och förhåller sig till dessa system. Hur dessa agenter bedöms moraliskt är en komponent i denna förståelse. Malle m.fl. (2015) utförde en av de första studierna kring hur normer och skuld appliceras på människa respektive robot. I samma artikel efterfrågades mer forskning kring vilka faktorer hos agenter som påverkar de moraliska bedömningarna. Föreliggande studie tog avstamp i denna frågeställning och avsåg att undersöka hur moralisk godtagbarhet och skuldbeläggning skiljde sig beroende på om agenten var en person, en humanoid robot eller ett autonomt intelligent system utan kropp (AIS). Ett mellangrupps-experiment (N = 119) användes för att undersöka hur agenterna bedömdes för sina beslut i tre olika moraliska dilemman. Deltagares rättfärdigaden bakom bedömningar samt medveten hållning utforskades som förklaringsmodell av skillnader. Medveten hållning avser Dennetts (1971) teori kring huruvida en agent förstås utifrån mentala egenskaper. Resultaten visade att person och robot erhöll liknande godtagbarhet för sina beslut medan AIS fick signifikant lägre snitt. Graden skuld som tillskrevs skiljde sig inte signifikant mellan agenterna. Analysen av deltagares rättfärdiganden gav indikationer på att skuldbedömningarna av de artificiella agenterna inte grundade sig i sådan information som antagits ligga till grund för denna typ av bedömningar. Flera rättfärdiganden påpekade också att det var någon annan än de artificiella agenterna som bar skulden för besluten. Vidare analyser indikerade på att deltagare höll medveten hållning mot person i störst utsträckning följt av robot och sedan AIS. Studien väcker frågor kring huruvida skuld som fenomen går att applicera på artificiella agenter och i vilken utsträckning distribuerad skuld är en faktor när artificiella agenter bedöms.

Page generated in 0.1107 seconds