Piera Tuccillo Assistente della cattedra di Diritto Civile Università degli Studi Suor Orsola Benincasa
1. Premessa: responsabilità da algoritmo e compatibilità del sistema di responsabilità civile
Un impianto metodologico preciso e puntuale attraverso il quale sviluppare un lavoro di ricerca complesso come quello legato alla valutazione circa la compatibilità della moderna responsabilità da algoritmo[1] con il tradizionale paradigma della responsabilità civile deve necessariamente muovere da un raffronto delle tesi emerse nel panorama dottrinale rispetto all’attuale quadro normativo. Non può, tuttavia, ritenersi pienamente soddisfacente una base di analisi delimitata entro i ristretti confini nazionali, dogmatici o normativi che siano i parametri di riferimento. Un metodo comparativo che consenta di allargare lo sguardo ad una prospettiva Unionale si ritiene, dunque, necessario per poter nitidamente delineare la issue da indagare: la c.d. responsabilità da algoritmo. È per questo che l’analisi non sarà limitata alle tesi enucleate in letteratura, ma si estenderà alla illustrazione dei principali atti dell’UE in particolare in materia di Intelligenza Artificiale che attualmente costituisce una tra le più complesse e problematiche sfide che la modernità pone al giurista. Il presente elaborato non vuole, infine, limitarsi ad una sterile e tradizionale attività destruens, bensì prendere atto dell’avanzare della tecnologia e procedere de jure condendo ad una rilettura evolutiva dei tradizionali paradigmi della responsabilità volti a disciplinare una realtà che muta inesorabilmente, onde soddisfare le istanze di tutela di tutti i soggetti coinvolti. Invero, le categorie classiche della responsabilità civile, elaborate sulla base di un ordito normativo plasmato avendo a riferimento l’essere umano, entrano in crisi allorquando declinate in relazione ad attività riferibili soggettivamente a macchine, specie allorché si tratti di dispositivi intelligenti. Segnatamente, due sono le principali questioni giuridiche che si pongono nel caso di danni arrecati al paziente a seguito di attività sanitaria realizzata con l’utilizzo di sistemi di A.I.: l’individuazione da un lato del soggetto civilmente responsabile e dall’altro di un paradigma di responsabilità civile adeguato alle caratteristiche di questa tipologia di attività. Peraltro, il quadro diviene ancora più intricato per due ordini di ragioni che impediscono di incasellare la responsabilità sanitaria da algoritmo in una sola categoria: per un verso, infatti, le cause del danno possono essere le più variegate, imputabili tanto ad una scelta dell’uomo quanto ad una della macchina, per altro verso, non tutti i sistemi di A.I. presentano le medesime caratteristiche essendo necessario distinguere a seconda della tipologia di sistema di A.I. di cui l’operatore sanitario si è avvalso. Le alternative che si pongono per il giurista sono dunque due. La prima, de iure condito, è quella di interpretare il diritto positivo, semmai anche facendo leva su criteri analogici, adattando categorie e concetti giuridici già esistenti a questi nuovi strumenti. La seconda, de iure condendo, è quella di predisporre delle fattispecie innovative. Invero, parte della dottrina[2] ritiene inadeguato l’attuale quadro normativo ed auspica un intervento del Legislatore con la predisposizione di un sistema di responsabilità civile basato sul criterio dell’accountability. In particolare, il profilo rispetto al quale l’applicazione dei principi propri delle ipotesi di responsabilità (per colpa) previste dal vigente sistema di responsabilità civile condurrebbe ad esiti irragionevoli e paradossali è quello dell'assolvimento dell'onere probatorio da parte del danneggiato. Ciò in quanto sul piano fenomenico, prima ancora che giuridico, l’attività medica realizzata attraverso l’A.I, reca ontologicamente con sé ipotesi in cui è quasi impossibile provare il nesso eziologico tra un comportamento umano - evidentemente relativo alla fase precedente a quella esecutiva, ossia quella assunto nella fase di progettazione o di fabbricazione - ed il danno prodotto dalla attività sanitaria. Il rischio è quello di addossare in capo al danneggiato una vera e propria probatio diabolica. Queste riflessioni sono alla base della tesi di chi ritiene che una responsabilità fondata sulla colpa, determinando un eccessivo squilibrio a favore del professionista, in danno del paziente, sia inidonea a regolare ipotesi di responsabilità civile generate dall’utilizzo in campo sanitario di sistemi di A.I. quantomeno nelle ipotesi in cui carattere autonomo del dispositivo impedisca di provare un collegamento diretto tra il danno e la condotta dell’operatore sanitario.
2. La nozione di A.I. e le diverse tipologie che possono essere impiegate nella attività sanitaria
Preliminarmente è necessario muovere dalla definizione di Intelligenza Artificiale (Artificial Intelligence). Sebbene non vi sia unità di vedute al riguardo[3], in estrema sintesi può affermarsi che rientrino in questo genus tutti quei software o programmi funzionali a svolgere, operazioni riconducibili a quelle dell’apprendimento e alla assunzione di decisioni, proprie degli esseri umani, allo scopo di conseguire specifici obiettivi predeterminati[4]. Con riferimento al settore sanitario, tuttavia, occorre operare una distinzione a seconda del grado di autonomia della macchina di cui si avvalga il medico. Questo carattere muta a seconda del grado di trasparenza ovvero di opacità dei relativi meccanismi di decisione. Il grado di autonomia del macchinario è invero determinante al fine della individuazione del modello di responsabilità civile da applicare. Si pongono infatti dei casi in cui il dispositivo intelligente opera attraverso dei processi decisionali che presentano un livello di trasparenza tale da poter qualificare la macchina quale mero strumento posto nelle mani del professionista. Sicché, l’essere umano che si avvale del dispositivo, per quanto intelligente, va in queste ipotesi senz’altro ritenuto responsabile di eventuali danni occorsi al paziente, essendo essi direttamente imputabili o ad una sua difettosa esecuzione o ad un mancato controllo. Diversamente, allorquando difetti questo livello di trasparenza, ovvero esso pur sussistente non consenta di antivedere tutte le possibili scelte effettuabili dalla macchina, non essendo il personale medico dotato di un effettivo potere di controllo, non possono valere i precedenti principi. Pertanto, allorché i danni siano determinati da una attività sanitaria posta in essere attraverso sistemi di A.I. dotati di un tale livello di autonomia, la questione appare maggiormente complessa.
2.1. La macchina non autonoma: nessuna deroga alle ordinarie regole della responsabilità sanitaria
Le ordinarie regole cristallizzatesi in materia di responsabilità medica possono trovare certamente applicazione allorquando il macchinario sia uno strumento utilizzato dal medico e non sia quindi dotato di autonomia. Ciò comporta dunque, sotto il profilo della allocazione soggettiva, che i soggetti potenzialmente responsabili dei danni occorsi nell’esercizio dell’attività sanitaria siano il medico e la struttura sanitaria. Per quel che concerne la responsabilità della struttura sanitaria, essa potrà essere sia a titolo contrattuale - ex art. 7, comma 1, L. 8 marzo 2017, n. 24, c.d. Legge Gelli-Bianco, laddove sono espressamente richiamati tanto l’art. 1218 quanto l’art. 1228 c.c. -, che extracontrattuale ex artt. 2043 ss. c.c., in specie come responsabilità per fatto altrui ex art. 2049 c.c., ovvero da cose in custodia ex art. 2050 c.c. e da attività pericolose ex art. 2052 c.c. Di converso, il predetto articolo 7 comma 3, L. 8 marzo 2017, n. 24, sancisce che la responsabilità del personale sanitario strutturato può essere soltanto extracontrattuale ex art. 2043 c.c., - salvo che abbia agito nell'adempimento di obbligazione contrattuale assunta con il paziente - escludendo dunque l’operatività delle ulteriori ipotesi di responsabilità extracontrattuale speciali. Nel caso di operatore sanitario che agisca in regime di libera professione - come disposto dall’art. 7 comma 2 L. 2017 n. 24 - vigono invece le regole della responsabilità contrattuale. Invero, esse trovano applicazione anche in questi casi di utilizzo di strumentazioni di A.I. sottoposte al controllo del medico, non essendoci rilevanti differenze tra una prestazione medica eseguita mediante l'utilizzo di strumenti tradizionali e quella attuata attraverso l’impiego di macchinari di A.I. non dotati di autonomia, non ponendosi dunque alcun ostacolo alla declinazione delle ordinarie regole della responsabilità medica. Pertanto, non si assiste a nessuna oggettivizzazione della responsabilità, ben potendo il medico, dimostrare di avere tenuto una condotta perita e che il danno sia stato il frutto di un impedimento oggettivo non superabile neanche con il massimo grado di diligenza.[5] Né, pare possibile sostenere che gli interventi compiuti attraverso l’utilizzo di siffatti dispositivi intelligenti, debbano automaticamente essere ricompresi tra quelli di facile esecuzione ovvero di complessa esecuzione (art. 2236 c.c.). La categoria dei c.d. “interventi di facile esecuzione” (o di routine), è stata elaborata dalla giurisprudenza e dalla dottrina attraverso la lettura a contrario dell’art. 2236 c.c., tuttavia, secondo la più recente giurisprudenza di legittimità, qualificare un intervento medico come di facile esecuzione, non consente la reviviscenza della superata teoria delle obbligazioni di risultato, non determinando dunque mutamenti dell’onere probatorio, bensì incidendo sul grado di diligenza richiesto.[6] Infatti, secondo la prevalente dottrina[7], una attività sanitaria effettuata con l’ausilio di sistemi di A.I., siano dotati o meno di quel carattere di autonomia precedentemente illustrato, avrebbe di per sé carattere neutrale, non discendendo ex se il connotato della facilità o della difficoltà di cui all’art. 2236 c.c. La giurisprudenza di legittimità interpreta in modo restrittivo tale disposizione, limitandone la portata applicativa al profilo della perizia[8] del medico e imponendo una verifica caso per caso, atteso che «la difficoltà dell'intervento e la diligenza del professionista vanno valutate in concreto, rapportandole al livello di specializzazione del professionista e alle strutture tecniche a sua disposizione»[9].
2.2. La macchina dotata di autonomia: il quadro dottrinale
Le ipotesi in cui i danni lamentati dal paziente siano stati procurati nell’esercizio di attività sanitaria effettuata mediante dispositivi intelligenti, capaci di compiere scelte e valutazioni autonome (C.d. Machine learning, Deep Learning) rispetto al medico che se ne avvale, sono quelle in ordine alle quali appare più problematico adattare i paradigmi di responsabilità civile esistenti. Esclusa la possibilità di applicare da un lato le disposizioni sulla responsabilità contrattuale, non potendosi muovere un addebito di colpa al medico per delle scelte compiute autonomamente dalla macchina, in dottrina si sono profilati eterogenei orientamenti, tutti volti ad applicare un regime di responsabilità oggettiva, al fine di offrire maggiore tutela al paziente danneggiato. Gli autori che sostengono la tesi della responsabilità oggettiva giungono a tale esito attraverso diversi percorsi ermeneutici. Una prima posizione è rappresentata da coloro[10] che ritengono applicabile la disciplina della responsabilità da cose in custodia. Tale tesi muove l’abbrivio dalla previa valorizzazione della natura oggettiva della macchina di A.I. Qualificata quest’ultima come res inanimata, ovvero come oggetto di una attività pericolosa, diviene così possibile sostenere l’applicabilità degli articoli 2050 o 2051 c.c., ritenendosi il medico rispettivamente quale “custode” della res ovvero “fruitore” dei beni. Del resto, secondo la giurisprudenza prevalente, tra le cose in custodia si possono annoverare anche gli strumenti di lavoro, essendo presupposto necessario per l’applicazione dell’art. 2051 c.c. un rapporto fattuale di custodia, a prescindere dal titolo giuridico[11]. A tali argomenti giuridici, si aggiungono poi altri di carattere economico. L'utilità che la struttura sanitaria e il medico possono realizzare utilizzando dispositivi intelligenti autonomi giustificherebbero la traslazione dei costi discendenti dal danno, pur prodotto da una autonoma azione della macchina, in capo a chi se ne è avvalso. Tuttavia, maggiormente complesso appare il caso in cui la macchina utilizzata dall’operatore sanitario gli sia stata affidata dalla struttura. Andrebbero distinte due ipotesi: da un lato quella del danno originato da una condotta imperita tenuta dal medico, che certo non è a priori esclusa per il solo fatto che questi utilizzi un dispositivo intelligente autonomo; dall’altro quello eziologicamente riconducibile ad una autonoma scelta della macchina. In questa seconda fattispecie, non vi sarebbe alcun logico argomento idoneo a sostenere la tesi della responsabilità del medico ausiliario. A fondare l'esclusione della responsabilità del medico dipendente che si serva del robot è la ratio che dottrina e giurisprudenza pacificamente rinvengono alla base delle fattispecie oggettive vale a dire il rischio ed il profitto, “cuius commoda eius et incommoda” Nondimeno, in dottrina[12], questa tesi è stata criticata, non tanto rispetto alla qualificazione della macchina quale res, quanto piuttosto, per l’alterazione del modello codicistico che sarebbe volto a disciplinare casi in cui il danno discende dalla custodia di una res statica, e non dall’utilizzo di una res nel corso di una attività. Allo stesso modo è stata censurata[13] la tesi che propugna l’applicabilità della responsabilità da attività pericolosa, giacché invertendo l’oggetto del focus - dall’oggetto all’effetto - si perderebbero di vista gli scopi per i quali l’A.I. è stata progettata, ossia quello di ridurre i rischi ordinariamente esistenti nella attività sanitaria allorquando svolta dal solo operatore umano. Una seconda ricostruzione esegetica elaborata in dottrina è quella che patrocina l’applicabilità nei casi di cui si discorre, dei paradigmi di responsabilità per fatto altrui. Segnatamente, i sostenitori di questa tesi muovono proprio da quel profilo di criticità che non consente, nei casi di macchine di A.I. dotate di autonomia, di applicare le disposizioni sulla responsabilità contrattuale. Valorizzando la capacità di questi dispositivi intelligenti di agire indipendentemente e di non essere suscettibili di un controllo da parte dell’essere umano si è sostenuto che, il dispositivo meccanico potrebbe essere ricomprese, nel genus delle “intelligenze c.d. minori” - in cui ordinariamente si fanno rientrare quelle dei bambini e dei soggetti incapaci - con conseguente applicabilità degli artt. 2047 e 2048[14] c.c. Pertanto, il medico, qualificato in questa prospettiva ermeneutica come il soggetto tenuto alla educazione e vigilanza - concetti evidentemente da intendersi in senso lato - della macchina potrebbe essere ritenuto responsabile dei danni realizzati dalla sua attività sanitaria compiuta con l’ausilio del dispositivo. Tra l’altro, attraverso una ermeneusi estensiva dei concetti di “padrone” (recte utilizzatore) o “committente” del robot, il medico potrebbe rispondere dei danni altresì ex art 2049 c.c. Sennonché, anche le teorie che muovono da una parziale “umanizzazione” del robot, si espongono a taluni rilievi critici[15] difficilmente superabili. È stato invero evidenziato che, applicare gli artt. 2047 s.s. c.c. a queste ipotesi, significherebbe fuoriuscire completamente dal perimetro applicativo pensato dai compilatori del codice che intendevano evidentemente normare le ipotesi di responsabilità per danni realizzati da esseri umani, e non da macchine, per quanto intelligenti. Il quadro dottrinale come anticipato è piuttosto frastagliato. Invero, altri autori[16] lungi dal tentare di adattare le categorie delle ipotesi di responsabilità extracontrattuale speciale, alle caratteristiche proprie della A.I., hanno invece considerato idoneo il paradigma della responsabilità da prodotto difettoso disciplinata nel Codice del consumo. Tuttavia, anche questa tesi non è esente da profili critici. Innanzitutto, i dispositivi intelligenti dotati di quel grado di autonomia di cui si è in precedenza detto, talvolta agiscono secondo schemi comportamentali impossibili da prevedere, a maggior ragione alla luce altresì della esigenza del produttore di tutelare il proprio know how rispetto agli altri operatori del medesimo mercato di riferimento. Considerato che l’art. 114 Cod. del consumo prevede che l’onere di provare il difetto del prodotto e il nesso di causalità tra difetto e danno debba essere provato dal soggetto danneggiato, il rischio è quello di imporre a quest’ultimo una vera e propria probatio diabolica. In un’ottica teleologicamente orientata poi, questa difficoltà di prova, ai limiti di impossibilità, gravando sul danneggiato, striderebbe con gli scopi perseguiti dal legislatore europeo ossia la previsione di ipotesi di responsabilità aggravata per meglio tutelare il consumatore, soggetto debole. Questo principio è stato in più occasioni ribadito anche dalla Corte di Giustizia dell’Unione Europea secondo cui l’applicazione della Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985 non deve condurre «ad arrecare pregiudizio all’effettività del regime di responsabilità istituito da tale direttiva»[17]. Di talché, il regime di responsabilità da prodotto difettoso non sarebbe adeguato, non per ragioni di carattere giuridico-dogmatico, ben potendosi ritenere la macchina un prodotto, quanto per gli esiti irragionevoli in termini di deficit di tutela del danneggiato cui condurrebbe. Simili criticità potrebbero essere superate soltanto predisponendo un regolamento che imponga al soggetto produttore del sistema di A.I. di offrire al danneggiato, dopo che si sia verificato il danno, una strumentazione idonea a individuare la causa del malfunzionamento del prodotto. Tra l’altro, una soluzione del genere è stata ipotizzata anche dalla Commissione europea sebbene solo con riferimento ai veicoli automatizzati e non ai robot chirurgici.
3. La prospettiva Unionale.
La necessità di un oramai improcrastinabile intervento normativo volto a disciplinare i profili giuridici, in particolare modo di responsabilità civile, dell’uso di A.I., è stata percepita anche dalle Istituzioni dell’UE. Negli ultimi anni si sono susseguiti molteplici ed eterogenei atti. Innanzitutto, il 16 febbraio 2017 il Parlamento europeo ha approvato una Risoluzione di raccomandazioni alla Commissione “concernenti norme di diritto civile sulla robotica”. Successivamente, nel maggio del 2019, è stato pubblicato un Report redatto da un gruppo di esperti sul punto, su cui si basano parte delle conclusioni cui è pervenuta la Commissione Europea nel 2020, con la sua relazione “sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità”, al fine di predisporre una proposta di direttiva volta a disciplinare la responsabilità civile nel caso di attività realizza mediante A.I. La richiesta è stata poi rinnovata dal Parlamento europeo con la Risoluzione del 20 ottobre 2020 recante “raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale”, con la quale il Parlamento ha ribadito la necessità di «un quadro giuridico orizzontale e armonizzato, basato su principi comuni, per garantire la certezza giuridica, fissare norme uniformi in tutta l’Unione e tutelare efficacemente i valori europei e i diritti dei cittadini attraverso l’adozione di un regolamento recante una idonea disciplina idonea a tutelare tanto l’utilizzatore del dispositivo di A.I. quanto il soggetto leso dai relativi effetti, ossia nel caso della responsabilità sanitaria il paziente». Lo scopo è quello di garantire da un lato la possibilità per gli operatori del settore sanitario di usufruire dei vantaggi derivanti dalle macchine intelligenti e dall’altro di offrire uno standard di protezione del danneggiato funzionale a tutelarlo dalle conseguenze negative che potrebbero scaturire da tale utilizzo. Al riguardo va segnalata la soluzione individuata nella proposta di Regolamento elaborata dalla Commissione Juri. Essa si sostanzia nella predisposizione di un regime di responsabilità civile binario: sotto un primo versante quello di una responsabilità oggettiva, il cui perimetro applicativo andrebbe circoscritto ai casi di sistemi di A.I. ad alto rischio[18], sotto altro versante un residuale regime di responsabilità per colpa presunta. Rilievo centrale, in ambedue le fattispecie, assume il c.d. “deployer” locuzione all’interno della quale si ricomprende chiunque utilizzi un sistema artificiale. Da ultimo, con specifico riferimento al settore sanitario, è stato emanato un apposito Regolamento[19] entrato in vigore a partire dal 26 maggio 2021, il quale disciplina[20] «le norme relative all'immissione sul mercato, la messa a disposizione sul mercato o la messa in servizio dei dispositivi medici[21] per uso umano e degli accessori per tali dispositivi nell'Unione». Nondimeno, tale testo normativo non disciplina il regime della responsabilità civile dell’operatore sanitario che procuri dei danni attraverso l’utilizzo di sistema di A.I. limitandosi a regolare il relativo mercato. Siffatto profilo è stato oggetto della predetta Risoluzione del Parlamento europeo del 20 ottobre 2020 la cui eventuale applicazione stravolgerebbe la responsabilità del medico così come è regolata attualmente dalla Legge Gelli Bianco comportando la sussistenza di due regimi alternativi: uno per colpa nel caso di attività medica condotta dall’uomo autonomamente; l’altra oggettiva nella ipotesi di attività sanitaria realizza mediante l’ausilio di sistemi intelligenti.
4. Conclusioni: la necessità di un intervento del Legislatore
Al di là della correttezza logico-giuridica degli indirizzi esegetici emersi in dottrina con riferimento al quadro normativo attualmente vigente, appare evidente come un intervento del Legislatore appaia oramai indefettibile[22]. Infatti, le caratteristiche dei dispositivi intelligenti dotati di autonomia, impongono la predisposizione di un sistema di responsabilità civile che prescinda tanto dall’accertamento dell’elemento subiettivo quanto dalla verifica di un errore esecutivo. Ecco perché appare auspicabile, come osservato da parte della dottrina, la previsione di un modello di responsabilità civile imperniato sul criterio della accountability, in forza del quale la parte che ottiene il maggiore vantaggio dall’utilizzo del dispositivo è tenuto attivarsi per elidere i rischi e le conseguenze negative che da esso possono discendere. Nonostante la ragionevolezza di una simile prospettiva, vieppiù necessaria in considerazione del gravoso onere delle prove che verrebbe a ricadere in capo al danneggiato, è stato da taluno osservato come ciò potrebbe determinare una vera e propria rivoluzione copernicana del paradigma di responsabilità civile fondata sulla colpa[23]. A ciò si aggiunga l’ulteriore possibilità prospettata da parte della dottrina, della imposizione di un sistema di assicurazione obbligatorie simile a quanto previsto in materia di r.c.a., «al fine di garantire il risarcimento indipendentemente dalla solvibilità del responsabile e di contribuire a ridurre i costi dei danni»[24]. Tale soluzione è stata seguita anche dalla Commissione europea nella Relazione del 2020, la quale ha sostanzialmente suggerito la predisposizione di un modello misto di responsabilità oggettiva con obbligo di assicurazione: «per il funzionamento delle applicazioni dell'intelligenza artificiale con un profilo di rischio specifico, la Commissione sollecita osservazioni e commenti sulla necessità di e sulla misura in cui possa essere necessaria la responsabilità oggettiva, quale prevista dalle legislazioni nazionali per rischi analoghi ai quali è esposto il pubblico (ad esempio per il funzionamento di veicoli a motore, aerei o centrali nucleari), per consentire il risarcimento efficace delle possibili vittime. La Commissione sollecita inoltre osservazioni e commenti sulla necessità di abbinare alla responsabilità oggettiva l'eventuale obbligo di sottoscrivere un'assicurazione disponibile, seguendo l'esempio della direttiva sull'assicurazione auto, al fine di garantire il risarcimento indipendentemente dalla solvibilità del responsabile e di contribuire a ridurre i costi dei danni». Pertanto, il raffronto delle principali posizioni dottrinali che hanno tentato di conciliare i paradigmi del sistema di responsabilità civile vigente con le peculiarità della attività sanitaria realizzata con l’ausilio di sistemi di A.I., e l’analisi della prospettiva Unionale, conducono nel senso di ritenere indefettibile un intervento del Legislatore. La predisposizione di un modello di responsabilità sganciato dalla colpa appare infatti la soluzione più ragionevole alla luce dei rilievi precedentemente esposti e delle conseguenze irragionevoli cui condurrebbe l’applicazione delle regole relative alla ripartizione dell’onere probatorio proprie della responsabilità civile fondata sulla colpa. [1] Come definita da L. Buonanno, La responsabilità civile nell’era delle nuove tecnologie: l’influenza della blockchain, in Resp. civ. prev., 2020, p. 1618. M.C. Gaeta (a cura di), Liability rules and self-driving cars: The evolution of tort law in the light of new technologies, Napoli, 2019. [2] M. COSTANZA, L’Intelligenza Artificiale e gli stilemi della responsabilità civile, in Dottrina e attualità giuridiche – Intelligenza Artificiale e diritto, in Giurisprudenza Italiana, 2019, p.1688; G. Comandé, Intelligenza artificiale e responsabilità tra liability e accountability, in Analisi giur. econ., 2019, pp. 169-188; [3] Si riporta la definizione elaborata dall' “High- Level Expert Group on Artificial intelligence (AI)” della Commissione europea secondo cui «AI refers to systems designed by humans that, given a complex goal, act in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal. AI systems can also be designed to learn to adapt their behaviour by analysing how the environment is affected by their previous actions. As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems).». [4] U. RUFFOLO, La Responsabilità Medica – L’intelligenza Artificiale In Sanità: Dispositivi Medici, Responsabilità e Potenziamento, in Giur. It., 2021, p. 456. [5] La giurisprudenza di legittimità, individua due cicli della causalità, l’uno costitutivo, la cui prova spetta al paziente danneggiato, l’altro estintivo, di cui di contro è gravato il medico: «in tema di responsabilità sanitaria, il paziente è tenuto a provare, anche attraverso presunzioni, il nesso di causalità materiale tra condotta del medico in violazione delle regole di diligenza ed evento dannoso, consistente nella lesione della salute (ovvero nell'aggravamento della situazione patologica o nell'insorgenza di una nuova malattia), non essendo sufficiente la semplice allegazione dell'inadempimento del professionista; è, invece, onere della controparte, ove il detto paziente abbia dimostrato tale nesso di causalità materiale, provare o di avere agito con la diligenza richiesta o che il suo inadempimento è dipeso da causa a lui non imputabile.». Così Cass. Civile, sez. I, ord. 12.05.2023, n. 13107, in Italgiure Web. [6] «All'art. 2236 c.c. non va conseguentemente assegnata rilevanza alcuna ai fini della ripartizione dell'onere probatorio, giacché incombe in ogni caso al medico dare la prova della particolare difficoltà della prestazione, laddove la norma in questione implica solamente una valutazione della colpa del professionista, in relazione alle circostanze del caso concreto.». Così Cass. Civ., sez. VI, ord. 26.11.2020 n. 26907, in Italgiure Web; Cass Civ., sez. III, sent. 28.5.2004, n. 10297, in Italgiure Web; Cass. Civ., sez. III, sent. 21.6.2004, n. 11488, in Italgiure Web; Cass. Civ., sez. III, sent. 13.04.2007, n. 8826, in Italgiure Web; Cass. Civ., sez. III, sent. 20.10.2014, n. 22222, in Italgiure Web. [7] N. Todeschini, Le operazioni di speciale difficoltà, le condotte inescusabili e l'art. 2236 c.c., ID. (a cura di), in La responsabilità medica, II ed., Torino, 2019, pp. 107 ss. [8] Cass. Civ., sez. III, sent. 19.4.2006, n. 9085, in Italgiure Web; Cass. Civ., sez. VI, sent. 09.07.2020, n.14448, in Italgiure Web; Cass. Civ., sez III, sent. 10.05.2000, n. 5945, in Italgiure Web. [9] Cass. Civ. sez. III, sent. 13.04.2007, n. 8826, in Italgiure Web. [10] Similmente alle ipotesi di veicoli driveless. R. Lobianco, Veicoli a guida autonoma e responsabilità civile: regime attuale e prospettive di riforma - I e II parte, in Resp. civ. e prev., 2020, pp. 724 ss. e pp. 1080 ss. [11]«Nella fattispecie di cui all'art. 2051 c.c. il criterio di individuazione del responsabile è fondato su una relazione meramente fattuale col bene, la quale prescinde dal riferimento alla custodia di natura contrattuale o all'esercizio di diritti reali, al possesso o alla detenzione e viene meno esclusivamente nell'ipotesi di cose oggettivamente insuscettibili di essere custodite.». Così Cass. Civ., sez III, sent. 27.04.2023, n. 11152, in Italgiure Web. [12] V. Di Gregorio, Intelligenza artificiale e responsabilità civile: quale paradigma per le nuove tecnologie, in Danno e resp., 2022, p. 56. [13] Cfr. M. Costanza, op. cit., p. 1691. [14] U. Ruffolo, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies, 2020, pp. 75-88. [15] E. Colletti, Intelligenza artificiale e attività sanitaria. Profili giuridici dell'utilizzo della robotica in medicina, in Rivista di diritto dell’economia, dei trasporti e dell’ambiente, vol. XIX – 2021, p. 204. [16] A. Fiorentini, Machine learning e dispositivi medici: riflessioni in materia di responsabilità civile, in Corr. giur., 2021, p.1258 ss. [17] Questi i principi espressi dalla Corte di Giustizia dell’Unione Europea nella sentenza 21.6.2017, causa C-621/15: «L’articolo 4 della direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, dev’essere interpretato nel senso che non osta a un regime probatorio nazionale, come quello di cui al procedimento principale, in base al quale il giudice di merito, chiamato a pronunciarsi su un’azione diretta ad accertare la responsabilità del produttore di un vaccino per danno derivante da un asserito difetto di quest’ultimo, può ritenere, nell’esercizio del libero apprezzamento conferitogli al riguardo, che, nonostante la constatazione che la ricerca medica non stabilisce né esclude l’esistenza di un nesso tra la somministrazione del vaccino e l’insorgenza della malattia da cui è affetto il danneggiato, taluni elementi in fatto invocati dal ricorrente costituiscano indizi gravi, precisi e concordanti i quali consentono di ravvisare la sussistenza di un difetto del vaccino e di un nesso di causalità tra detto difetto e tale malattia. I giudici nazionali devono tuttavia assicurarsi che l’applicazione concreta che essi danno a tale regime probatorio non conduca a violare l’onere della prova instaurato da detto articolo 4 né ad arrecare pregiudizio all’effettività del regime di responsabilità istituito da tale direttiva.». L’articolo 4 della direttiva 85/374 dev’essere interpretato nel senso che osta a un regime probatorio fondato su presunzioni secondo il quale, quando la ricerca medica non stabilisce né esclude l’esistenza di un nesso tra la somministrazione del vaccino e l’insorgenza della malattia da cui è affetto il danneggiato, la sussistenza di un nesso di causalità tra il difetto attribuito al vaccino e il danno subito dal danneggiato deve sempre essere considerata dimostrata in presenza di taluni indizi fattuali predeterminati di causalità.
[18] Con tale espressione ci si riferisce a sistemi dotati di un elevato livello di automazione, così come definiti dall’art. 3 di questa proposta di regolamento in grado di «causare danni o pregiudizi a una o più persone in modo casuale e impossibile da prevedere in anticipo». [19] Regolamento 2017/745 UE. [20] Art. 1, Par. 1, Reg. Cit. [21] La nozione di dispositivo medico è stata peraltro oggetto anche della giurisprudenza della Corte di Giustizia dell’Unione Europea che l’ha definita «ogni device al quale il produttore abbia attribuito uno scopo di natura ‘‘medico-sanitaria’’ intendendosi per tale la finalità di ristorare, correggere o modificare in modo apprezzabile funzioni fisiologiche degli esseri umani.». Hecht-Pharma, C-140/07; BIOS Natuproduckte, C-27/08; Brain Products, C- 219/11; Snitem – Syndicat national de l’industrie des technologies médicales, C-329/16. [22] Nella relazione del 2020 della Commissione Europea è sottolineata questa necessità affermando che «con l'emergere di nuove tecnologie, come l'intelligenza artificiale, l'Internet delle cose e la robotica, acquista particolare importanza un quadro chiaro in materia di sicurezza e di responsabilità, sia per tutelare i consumatori sia per garantire la certezza del diritto per le imprese.». [23] C. Castronovo (a cura di), in Responsabilità civile, IV ed., Giuffrè, Milano, 2018, p. 405. |