Questo lavoro di ricerca indaga i problemi relativi alla responsabilità penale legata all’uso di sistemi di automazione e d'intelligenza artificiale nel settore dell’e-health.
Tale indagine è stata svolta inquadrando il sistema sanitario all’interno di una visione socio-tecnica, con particolare attenzione all’interazione tra uomo e macchina, al livello di automazione dei sistemi e al concetto di errore e gestione del rischio.
Sono state approfondite alcune specifiche aree di interesse quali: la responsabilità penale per danno da dispositivi medici difettosi; la responsabilità medica, connessa all’uso di sistemi a elevata automazione e legata a difetti del sistema; e, in particolare, la responsabilità penale legata all’uso di sistemi d’intelligenza artificiale e i modelli elaborati dalla dottrina per regolare tale fenomeno. Sono stati esaminati: il modello zoologico, il modello dell’agente mediato, il modello della conseguenza naturale e probabile e il modello della responsabilità diretta. Si esamina la possibilità che un agente autonomo intelligente sia in grado di soddisfare i requisiti dell’actus reus e della mens rea, quali condizioni necessarie all’attribuzione di responsabilità penale, qualora un AI ponga in essere una condotta astrattamente riconducibile a una fattispecie criminosa.
I profili di responsabilità sono analizzati sulla base di casi e scenari e infine si cerca di evidenziare possibili soluzioni e rimedi, anche alla luce della teoria degli agenti normativi. / This research thesis investigates all the issues related to the criminal liability that arise when highly automated and/or artificial intelligence systems are used in e-Health.
This investigation has been conducted looking at the health system with a socio-technical point of view, paying specific attention to the human-machine interaction, the specific level of automation involved, and finally to concepts of error and risk management.
Some topics over the others have been deeply examined, e.g. product liability for defective medical devices; medical liability in case of highly automated systems with defects; criminal liability in presence of artificial intelligence systems, along with the doctrine models developed to cope with these issues. The following models have been analysed: the zoological model, the perpetration through another model, the natural and probable consequences model, and finally the direct liability model. The existence of the criminal requirements, actus reus and mens rea, as mandatory elements to identify the criminal liability, has also been investigated.
All the liability profiles have been analysed using real world case and scenarios. Eventually, some solution and remedies have been proposed as a conclusion, using also the theory elements of normative agents.
Identifer | oai:union.ndltd.org:unibo.it/oai:amsdottorato.cib.unibo.it:7697 |
Date | January 1900 |
Creators | Lagioia, Francesca <1985> |
Contributors | Sartor, Giovanni |
Publisher | Alma Mater Studiorum - Università di Bologna |
Source Sets | Università di Bologna |
Language | Italian |
Detected Language | Italian |
Type | Doctoral Thesis, PeerReviewed |
Format | application/pdf |
Rights | info:eu-repo/semantics/embargoedAccess |
Page generated in 0.0034 seconds