Spelling suggestions: "subject:"stordata"" "subject:"store_data""
1 |
Den omänskliga faktorn : Vårdpersonalens upplevelse av kontroll och ansvar när Artificiell Intelligens ingår i verksamheten / The inhuman factor : Healthcare professionals' experience of control and responsibility when Artificial Intelligence is included in healthcareMåsbäck, Mattias January 2023 (has links)
Bakgrund: Den omänskliga faktorn kan vara en riskfaktor för verksamhetsnyttan, goda arbetsmiljön, säkerheten och hållbarheten i hälso- och sjukvården. Några av anledningarna till att Artificiell Intelligens (AI) har börjat bli realistiskt inom hälso- och sjukvården är datorernas ökade prestanda och tillgång till stora mängder data. AI har potential att fungera som ett verktyg för att implementera digitaliseringen inom hälso- och sjukvården, samtidigt som den mänskliga närvaron kan bevaras. Syfte: Undersöka hur vårdpersonalen förhåller sig till användningen av AI-system och deras upplevelse av kontroll och ansvar. Metod: Kvalitativ design används och semistrukturerade intervjuer genomfördes. Inledningsvis användes allmänna frågor för att fånga informanternas tidigare och nuvarande erfarenhet av AI-system i hälso- och sjukvården. Därefter utformades fortsatta frågor enligt vinjettmetoden. Kvalitativ analysmetod användes för att tolka intervjuerna. Resultat: Analysen resulterade i sex kategorier som belyser olika aspekter av vårdpersonalens samarbete med AI-system inom hälso- och sjukvården. Dessa kategorier inkluderar kontrollbehov, samstämmighet, prestation, övervakning, kunskap och prioritering. Diskussion: Motsats till AI kan människor hållas ansvariga för sina beslut och för de beslut som fattas av AI-system. Inom sjukvården upplever vårdpersonalen ett gemensamt helhetsansvar för patientvården, oavsett lagar och regler. Vetskapen om att behöva möta patienter eller anhöriga och framföra dåliga nyheter, är det som verkligen sätter ansvaret i perspektiv. Vid felaktigheter påverkas hela vårdteamet, även om de inte själva orsakat felet. I framtiden kommer vårdpersonalens roll att gå från att vara bedömare till att vara övervakare. Denna förändring kan dock orsaka problem, eftersom vårdpersonalens kontrollbehov för AI-system minskar i akuta situationer. I dessa situationer fokuserar vårdpersonalen på att normalisera situationen och prioriterar bort allt annat. Beslut som fattas görs med medvetenheten om att de sannolikt behöver omprövas när situationen har stabiliserats. Detta problematiserar den nya rollen som övervakare, eftersom vårdpersonalen i dessa situationer egentligen borde ha större fokus på att se till att AI-systemet fungerar korrekt. Slutsats: Det är osannolikt att vårdpersonalen kommer att kunna hantera de snabba och komplexa beslut som AI-systemet gör. Det kommer kräva ökad kunskap från vårdpersonalen för att identifiera situationer där AI-systemet kan göra fel och i händelse av en akut situation kommer personalen att prioritera detta över andra åtaganden. För att etablera ett samarbete mellan människa och maskin inom vården krävs utbildning och förståelse för det skifte som sker för vårdpersonalens roll, att gå från bedömning till övervakning av AI-systemen. / Background: The inhumane factor can be a risk factor for operational benefit, good working environment, safety and sustainability in healthcare. Some of the reasons why Artificial Intelligence (AI) has started to become realistic in healthcare are the increased performance of computers and access to large amounts of data. AI has the potential to act as a tool to implement digitization in healthcare, while preserving the human presence. Purpose: Investigate how healthcare professionals relate to the use of AI systems and their experience of control and responsibility. Method: Qualitative design is used and semi-structured interviews were conducted. Initially, general questions were used to capture the informants' previous and current experience with AI-systems in healthcare. Further questions were then designed according to the vignette method. Qualitative analysis method was used to interpret the interviews. Results: The analysis resulted in six categories that highlight different aspects of healthcare professionals collaboration with AI-systems in healthcare. These categories include control needs, compliance, performance, monitoring, knowledge, and prioritization. Discussion: Unlike AI, humans can be held accountable for their decisions and for the decisions made by AI-systems. In healthcare, the healthcare professionals experience a shared overall responsibility for patient care, regardless of laws and regulations. The knowledge of having to meet patients or relatives and deliver bad news is what really puts the responsibility into perspective. In the event of errors, the entire healthcare team is affected, even if they did not cause the error themselves. In the future, the role of healthcare professionals will change from being an assessor to instead monitor the AI-system. However, this change can cause problems, as healthcare professionals control needs for AI-systems are reduced in emergency situations. In these situations, the healthcare professionals focus on normalizing the situation and deprioritises everything else. Decisions that are made are made with the awareness that they will likely need to be reconsidered once the situation has stabilized. This problematizes the new role of supervisor, because in these situations the healthcare professionals should really be more focused on making sure the AI-system is working correctly. Conclusion: It is unlikely that healthcare professionals will be able to handle the rapid and complex decisions made by the AI-system. It will require increased knowledge from the healthcare professional, to identify situations where the AI system can make mistakes and in the event of an emergency, the staff will prioritize this over other commitments. In order to establish a collaboration between humans and machines in healthcare, training and understanding of the shift that is taking place for the role of the healthcare professionals, to go from assessment to monitoring of the AI systems, is required.
|
Page generated in 0.0449 seconds