Return to search

Kan skadeståndsrätten hålla artificiell intelligens i schack? : Skadeståndsansvar för AI-programmerare

Produkter idag använder AI med automatiska inlärningssystem. På grund av den bristande in-synen i AI-system uppstår det utmaningar med att härleda orsaken till en inträffad skada. Den bristande insynen i AI-system kallas för black box och detta resulterar i problem med att kunna fastställa ett skadeståndsansvar. Näringsverksamheten för AI-programmerare kan åläggas ansvar för AI-tekniken, om AI-tekniken utgör en del i en produkt enligt PAL. Däremot uppkommer det bevissvårigheter för att kunna fastställa skadeorsaken till följd av AI-teknik. Det går icke desto mindre att föreskriva ett ansvar för AI-programmerares delprodukt, om delproduktens fel går att behäfta med en sä-kerhetsbrist. PAL utgör ett regelverk med strikt ansvar för produkter med säkerhetsbrister, men i lagen utryms samtidigt vissa undantag. Det strikta ansvaret kan undantas för en AI-program-merare när säkerhetsbristen uppstår efter att produkten har satts i omlopp. Vidare kan ett ska-deståndsansvar undantas, om tillverkaren till AI-tekniken kan visa att det var omöjligt att upp-täcka innan förekomsten av säkerhetsbristen på grund av det vetenskapliga och tekniska kun-skapsläget. Detta talar för ett undantag mot ett strikt produktansvar för en AI-programmerare som har programmerat en AI-baserad produkt. Undantagen i PAL tillämpas dock restriktivt och det åligger alltjämt näringsverksamheten att kunna presentera sådan bevisning. Utöver bestämmelserna i PAL finns det möjlighet till att tillämpa ett principalansvar på AI-programmerare genom en culpaprövning som finns uttryckt i SkL. Produkter med AI-system kan agera oberäkneligt och kan till följd av detta orsaka skador. AI-systems black box medför svårigheter när det gäller att fastställa den relevanta skadan genom kausalitet. På grund av black box är det AI-programmerare som har störst möjlighet till att förhindra skador orsakat av en AI-baserad produkt eftersom AI-programmerare har störst möjlighet att kunna härleda skade-orsaken. Det uppstår därmed en svårighet för konsumenter att kunna säkra bevisning vid en uppkommen AI-relaterad skada. AI-programmerare har störst möjlighet att säkra bevisningen vilket talar för en bevislättnad för den skadelidande. Efter att AI-programmerares skadestånds-ansvar har culpaprövats i arbetet kan bedömningen landa både i ett ansvar eller ett icke-ansvar för AI-programmerare. En utredning av AI-relaterade ansvarsfrågor framstår följaktligen som nödvändig. Det tillkommer olika problem med att tillämpa gällande rätt på AI-programmerares skade-ståndsansvar på AI-baserade produkter. I arbetet diskuteras därför olika lösningsförslag på de ansvarsproblem som uppstår med AI-baserade produkter. Ett transparent AI-system kan lösa problemet med att kunna identifiera skadeorsaken. Ett transparent AI-system skapar förtroende hos konsumenterna samtidigt som detta kan kontrasteras av tillverkarens affärsmässiga intresse. Det har utarbetats förslag med en definition om AI-system med hög risk där det tillkommer ett strikt ansvar för utgivaren av AI-system. Till följd av en ökad användning av AI-baserade pro-dukter och att dessa produkter orsakar nya typer av skador, finns det därför behov till att kom-plettera produkt- och skadebegreppet i PAL. Sammanfattningsvis finns det behov av att förtyd-liga skadeståndslagstiftningen och att anpassa denna till AI-relaterad skada – detta för att kunna säkerställa ersättnings- och säkerhetsnivån för konsumenter gällande ansvarsfrågor för AI-ba-serade produkter.

Identiferoai:union.ndltd.org:UPSALLA1/oai:DiVA.org:kau-99757
Date January 2024
CreatorsLundgren, Johan
PublisherKarlstads universitet
Source SetsDiVA Archive at Upsalla University
LanguageSwedish
Detected LanguageSwedish
TypeStudent thesis, info:eu-repo/semantics/bachelorThesis, text
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0049 seconds