Spelling suggestions: "subject:"produktionsanlagen"" "subject:"produktförslaget""
1 |
Kan skadeståndsrätten hålla artificiell intelligens i schack? : Skadeståndsansvar för AI-programmerareLundgren, Johan January 2024 (has links)
Produkter idag använder AI med automatiska inlärningssystem. På grund av den bristande in-synen i AI-system uppstår det utmaningar med att härleda orsaken till en inträffad skada. Den bristande insynen i AI-system kallas för black box och detta resulterar i problem med att kunna fastställa ett skadeståndsansvar. Näringsverksamheten för AI-programmerare kan åläggas ansvar för AI-tekniken, om AI-tekniken utgör en del i en produkt enligt PAL. Däremot uppkommer det bevissvårigheter för att kunna fastställa skadeorsaken till följd av AI-teknik. Det går icke desto mindre att föreskriva ett ansvar för AI-programmerares delprodukt, om delproduktens fel går att behäfta med en sä-kerhetsbrist. PAL utgör ett regelverk med strikt ansvar för produkter med säkerhetsbrister, men i lagen utryms samtidigt vissa undantag. Det strikta ansvaret kan undantas för en AI-program-merare när säkerhetsbristen uppstår efter att produkten har satts i omlopp. Vidare kan ett ska-deståndsansvar undantas, om tillverkaren till AI-tekniken kan visa att det var omöjligt att upp-täcka innan förekomsten av säkerhetsbristen på grund av det vetenskapliga och tekniska kun-skapsläget. Detta talar för ett undantag mot ett strikt produktansvar för en AI-programmerare som har programmerat en AI-baserad produkt. Undantagen i PAL tillämpas dock restriktivt och det åligger alltjämt näringsverksamheten att kunna presentera sådan bevisning. Utöver bestämmelserna i PAL finns det möjlighet till att tillämpa ett principalansvar på AI-programmerare genom en culpaprövning som finns uttryckt i SkL. Produkter med AI-system kan agera oberäkneligt och kan till följd av detta orsaka skador. AI-systems black box medför svårigheter när det gäller att fastställa den relevanta skadan genom kausalitet. På grund av black box är det AI-programmerare som har störst möjlighet till att förhindra skador orsakat av en AI-baserad produkt eftersom AI-programmerare har störst möjlighet att kunna härleda skade-orsaken. Det uppstår därmed en svårighet för konsumenter att kunna säkra bevisning vid en uppkommen AI-relaterad skada. AI-programmerare har störst möjlighet att säkra bevisningen vilket talar för en bevislättnad för den skadelidande. Efter att AI-programmerares skadestånds-ansvar har culpaprövats i arbetet kan bedömningen landa både i ett ansvar eller ett icke-ansvar för AI-programmerare. En utredning av AI-relaterade ansvarsfrågor framstår följaktligen som nödvändig. Det tillkommer olika problem med att tillämpa gällande rätt på AI-programmerares skade-ståndsansvar på AI-baserade produkter. I arbetet diskuteras därför olika lösningsförslag på de ansvarsproblem som uppstår med AI-baserade produkter. Ett transparent AI-system kan lösa problemet med att kunna identifiera skadeorsaken. Ett transparent AI-system skapar förtroende hos konsumenterna samtidigt som detta kan kontrasteras av tillverkarens affärsmässiga intresse. Det har utarbetats förslag med en definition om AI-system med hög risk där det tillkommer ett strikt ansvar för utgivaren av AI-system. Till följd av en ökad användning av AI-baserade pro-dukter och att dessa produkter orsakar nya typer av skador, finns det därför behov till att kom-plettera produkt- och skadebegreppet i PAL. Sammanfattningsvis finns det behov av att förtyd-liga skadeståndslagstiftningen och att anpassa denna till AI-relaterad skada – detta för att kunna säkerställa ersättnings- och säkerhetsnivån för konsumenter gällande ansvarsfrågor för AI-ba-serade produkter.
|
2 |
Ansvarsproblematiken avseende självkörande fordon : En komparativ studie utifrån svensk, engelsk och amerikansk rätt / Liability Problems Related to Self-driving Vehicles : A comparative study based on Swedish, English and American lawLindau, Johanna January 2017 (has links)
Den tekniska utvecklingen, närmare bestämt introduktionen av fenomenet självkörande fordon, har medfört att det i skrivande stund föreligger viss oklarhet beträffande ansvarsfrågan enligt gällande rätt. Denna oklarhet har varit föremål för diskussion i ett delbetänkande från regeringen. I SOU 2016:28 finns sammanfattade förslag på reglering, däremot endast avseende försöksverksamheten ”Drive Me” som biltillverkaren Volvo ligger bakom. För att bemöta denna oklarhet har rättsläget diskuterats och problematiserats i hopp om ökad insikt i frågan. Detta utifrån framförallt skadeståndslagen, trafikskadelagen och produktansvarslagen samt generella skadeståndsrättsliga principer och ansvarsformer. Sammantaget har det kunnat konstateras att det inte finns någon självklar lösning på problemet, även om det i ett flertal situationer går att få en uppfattning av vad som vore juridiskt rimligt. Uppsatsen bidrar således till en problematisering av rättsläget inför den kommande harmoniseringen av teknik och juridik; ett steg i utvecklingen. / The technological development, specifically the introduction of the phenomenon of driverless vehicles, has meant that the time of writing, some ambiguity regarding the issue of liability under the law exists. This uncertainty has been discussed in an interim report from the government. Proposals on regulation are summarized in current SOU, however, only for the pilot project “Drive Me” as the automaker Volvo is behind. In order to address this uncertainty, the legal position has discussed and problematized in the hope of increasing awareness on the issue. Mainly from tort liability, Traffic damage Act, product liability law and liability forms and general principles of tort law. Overall, it´s been established that there is no obvious solution to the problem, although it´s possible to get an idea of what would be legally reasonable in a number of situations. The essay contributes thus to a discussion of problems of the legal position for the upcoming harmonization of technology and law; a stage of development.
|
Page generated in 0.0489 seconds