Return to search

Intelligenta beslutstöd och psykisk ohälsa : En kvalitativ studie om etiska utmaningar med Artificiell Intelligens som beslutstöd inom sjukvården för psykisk ohälsa

Sjukvården visar intresse för användning av Artificiell Intelligens (AI) och inom behandling för psykisk ohälsa finns behov för stöd. Intelligenta beslutsstöd kan bidra till minskad belastning för vårdpersonal och bättre behandling för patienter, men sjukvårdens känsliga natur och de konsekvenser som kan uppstå vid försummelse medför etiska utmaningar. Behandling av psykisk ohälsa är komplext och behöver utforskas för att identifiera de potentiella etiska utmaningar som kan uppstå. Genom en kvalitativ intervjustudie med åtta deltagare har området utforskats både bland AI-forskare och vårdpersonal, där insikter från båda kontexter har analyserats för att identifiera och utforska återkommande etiska utmaningar. Genom insamlad empiri och litteraturstudie har fem etiska utmaningar identifierats och utforskats: hantera felaktiga rekommendationer, hantera moraliska dilemman, uppnå patientautonomi, ansvarsdilemmat, och skapa förtroende. / Health care has taken interest in the use of AI (Artificial Intelligence) and mental health services are in need of support. Intelligent decision support systems can contribute to reduced workload for health care professionals and better treatment for patients, but the sensitive nature of health care and the possible consequences in the event of neglect or malpractice pose ethical challenges. Treatment of mental illness is complex and needs to be explored in order to identify the potential ethical challenges that can arise. Through an interview study consisting of eight participants, the problem area has been explored amongst both AI researchers and health care professionals, where insights from both contexts have been analysed in order to identify and explore recurring ethical challenges. Through empirical data and a literature study, five ethical challenges have been identified and explored: handle incorrect recommendations, handle moral dilemmas, achieve patient autonomy, the liability dilemma, and generate trust.

Identiferoai:union.ndltd.org:UPSALLA1/oai:DiVA.org:hh-46888
Date January 2022
CreatorsEriksson, Amanda, Blücher, Daniel
PublisherHögskolan i Halmstad, Akademin för informationsteknologi
Source SetsDiVA Archive at Upsalla University
LanguageSwedish
Detected LanguageSwedish
TypeStudent thesis, info:eu-repo/semantics/bachelorThesis, text
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0031 seconds