Rappresenta ormai un’ovvietà la considerazione per cui l’impatto delle nuove tecnologie ha raggiunto, in epoca contemporanea, una pervasività tale da condizionare qualsiasi spazio della dimensione umana. A questo coinvolgimento non è rimasto estraneo il settore della salute, sotto lo specifico profilo degli strumenti impiegati dagli operatori sanitari per l’erogazione della prestazione sanitaria nei confronti del malato. L’analisi riportata nel presente lavoro ha pertanto cercato di ricostruire lo sviluppo tecnologico degli “strumenti” impiegati a tale fine (i dispositivi medici), per valutarne le conseguenze in rapporto al paziente e, più in generale, alla relazione terapeutica. Sul punto, come è stato evidenziato nel primo capitolo, il Regolamento 2017/745 rappresenta esclusivamente il primo generale livello di regolamentazione, comune a tutti i dispositivi medici, categoria ampia e variegata che ricomprende, tra gli altri, anche device ad elevata complessità, dotati di una componente hardware e/o di una software. Questa considerazione ha costituito il punto di partenza per le distinzioni successive, come quella tra software semplici e software muniti di AI, o tra “robot automatici” e “robot autonomi”, perché intelligenti. Ogni definizione fornita non ha assolto ad un ruolo meramente espositivo, ma è stata funzionalmente impiegata per l’introduzione di distinzioni giuridicamente rilevanti, anche e soprattutto sotto il profilo della responsabilità civile. La distinzione tecnica tra corpo robotico e mente algoritmica si è rivelata fondamentale per la scomposizione funzionale della nozione di autonomia, con conseguente sua articolazione in capacità deliberativa, propria delle AI, ed esecuzione attuativa. La citata suddivisione ha trovato conferma anche a livello normativo, nella distinta regolamentazione dei fenomeni attraverso il Regolamento Macchine 2023/1230 e l’AI Act 2021/206. Con riguardo allo specifico profilo della responsabilità civile, si è proseguito lungo la linea sopra descritta della distinzione tra fenomeni tecnologici, attraverso una “tripartizione” per ambiti applicativi, rappresentati rispettivamente da: robotica638 , AI non embedded639e AI embedded640 . Nonostante la trepidante novità del fenomeno, di cui si è ampiamente detto, le conclusioni a cui si è addivenuti non contengono, sotto diversi aspetti, profili giuridici altrettanto originali: per i danni cagionati dai robot esecutivi, è sufficiente il richiamo alla Legge Gelli-Bianco e alla responsabilità del produttore secondo la direttiva oggi vigente; le AI “pure”, impiegate come sistemi di supporto alle decisioni, non smentiscono la paternità della decisione clinica in capo al sanitario. L’analisi della categoria delle AI embedded ha invece generato maggiori dubbi e tensioni interpretative, in forza dell’imprevedibilità e dell’incontrollabilità delle decisioni, assunte ed immediatamente attuate sul paziente. Tale dato empirico, lungi dal deresponsabilizzare l’operatore sanitario (struttura o medico libero professionista) integrando l’ipotesi di «causa esterna non imputabile» ha suggerito un’interpretazione estensiva ed evolutiva dell’art. 1228 c.c., attraverso l’assunzione del rischio inteso come criterio di imputazione della responsabilità anche contrattuale641 . Il percorso argomentativo sinteticamente riproposto dimostra l’adozione di un metodo di analisi diversificato e attento alle peculiarità delle tecnologie di volta in volta esaminate, attraverso il superamento di una concezione unitaria del fenomeno «robotica e intelligenza artificiale». Sebbene i più rilevanti interrogativi e le risposte più interessanti siano emerse dallo studio dei “robot intelligenti”, che rappresentano la sintesi delle tecnologie esaminate separatamente, si rileva che le conclusioni raggiunte sono state la conseguenza del descritto metodo di lavoro, improntato alla scomposizione analitica del sostrato tecnico, per poi procedere ad una sintesi, consapevole e organica, dei risultati progressivamente ottenuti. Inoltre, solo la scomposizione degli elementi tecnici che costituiscono la struttura del device, in uno con il corretto riparto dei ruoli tra gli operatori coinvolti, sia produttori che utilizzatori, consente un equo e ragionevole riparto interno della responsabilità tra i coobbligati, fase nella quale trova definitivo compimento l’istituto della responsabilità solidale, esaurito l’espletamento delle eventuali azioni di regresso. Anche in questo secondo momento il criterio del rischio assume una sua rilevanza, pur residuale ma tuttavia ineliminabile, che consente la definitiva permanenza di una porzione di responsabilità in capo al soggetto che tale rischio immette nel sistema, pur in assenza di diretti profili di rimproverabilità642 . Il concetto di rischio ha assunto pertanto, all’interno dell’elaborato, un ruolo strategico, come criterio sia d’imputazione sia di riparto della responsabilità. Questo concetto merita crescente attenzione all’interno dell’ordinamento, non solo in fase rimediale, ma anche in ottica preventiva, tramite la diffusione di modelli di accountability volti al controllo del rischio e alla massima riduzione possibile delle chances di concretizzazione nel corrispondente danno. In entrambi i sensi sopra descritti, il criterio del rischio si pone come base per lo sviluppo di nuove linee di ricerca giuridica, ben più convincenti rispetto alla suggestiva, ma poco applicabile proposta di soggettività dell’AI, anche se letta solo in chiave funzionale e contingente. Con la consapevolezza della necessaria provvisorietà di tali conclusioni, come già evidenziato643 in attesa dell’avvento della strong AI come “persona robotica”, scenario certamente improbabile ma non del tutto impossibile.
Robotica e Intelligenza Artificiale. Profili di responsabilità civile nel settore medico-sanitario.
FERRETTI, FRANCESCA
2024
Abstract
Rappresenta ormai un’ovvietà la considerazione per cui l’impatto delle nuove tecnologie ha raggiunto, in epoca contemporanea, una pervasività tale da condizionare qualsiasi spazio della dimensione umana. A questo coinvolgimento non è rimasto estraneo il settore della salute, sotto lo specifico profilo degli strumenti impiegati dagli operatori sanitari per l’erogazione della prestazione sanitaria nei confronti del malato. L’analisi riportata nel presente lavoro ha pertanto cercato di ricostruire lo sviluppo tecnologico degli “strumenti” impiegati a tale fine (i dispositivi medici), per valutarne le conseguenze in rapporto al paziente e, più in generale, alla relazione terapeutica. Sul punto, come è stato evidenziato nel primo capitolo, il Regolamento 2017/745 rappresenta esclusivamente il primo generale livello di regolamentazione, comune a tutti i dispositivi medici, categoria ampia e variegata che ricomprende, tra gli altri, anche device ad elevata complessità, dotati di una componente hardware e/o di una software. Questa considerazione ha costituito il punto di partenza per le distinzioni successive, come quella tra software semplici e software muniti di AI, o tra “robot automatici” e “robot autonomi”, perché intelligenti. Ogni definizione fornita non ha assolto ad un ruolo meramente espositivo, ma è stata funzionalmente impiegata per l’introduzione di distinzioni giuridicamente rilevanti, anche e soprattutto sotto il profilo della responsabilità civile. La distinzione tecnica tra corpo robotico e mente algoritmica si è rivelata fondamentale per la scomposizione funzionale della nozione di autonomia, con conseguente sua articolazione in capacità deliberativa, propria delle AI, ed esecuzione attuativa. La citata suddivisione ha trovato conferma anche a livello normativo, nella distinta regolamentazione dei fenomeni attraverso il Regolamento Macchine 2023/1230 e l’AI Act 2021/206. Con riguardo allo specifico profilo della responsabilità civile, si è proseguito lungo la linea sopra descritta della distinzione tra fenomeni tecnologici, attraverso una “tripartizione” per ambiti applicativi, rappresentati rispettivamente da: robotica638 , AI non embedded639e AI embedded640 . Nonostante la trepidante novità del fenomeno, di cui si è ampiamente detto, le conclusioni a cui si è addivenuti non contengono, sotto diversi aspetti, profili giuridici altrettanto originali: per i danni cagionati dai robot esecutivi, è sufficiente il richiamo alla Legge Gelli-Bianco e alla responsabilità del produttore secondo la direttiva oggi vigente; le AI “pure”, impiegate come sistemi di supporto alle decisioni, non smentiscono la paternità della decisione clinica in capo al sanitario. L’analisi della categoria delle AI embedded ha invece generato maggiori dubbi e tensioni interpretative, in forza dell’imprevedibilità e dell’incontrollabilità delle decisioni, assunte ed immediatamente attuate sul paziente. Tale dato empirico, lungi dal deresponsabilizzare l’operatore sanitario (struttura o medico libero professionista) integrando l’ipotesi di «causa esterna non imputabile» ha suggerito un’interpretazione estensiva ed evolutiva dell’art. 1228 c.c., attraverso l’assunzione del rischio inteso come criterio di imputazione della responsabilità anche contrattuale641 . Il percorso argomentativo sinteticamente riproposto dimostra l’adozione di un metodo di analisi diversificato e attento alle peculiarità delle tecnologie di volta in volta esaminate, attraverso il superamento di una concezione unitaria del fenomeno «robotica e intelligenza artificiale». Sebbene i più rilevanti interrogativi e le risposte più interessanti siano emerse dallo studio dei “robot intelligenti”, che rappresentano la sintesi delle tecnologie esaminate separatamente, si rileva che le conclusioni raggiunte sono state la conseguenza del descritto metodo di lavoro, improntato alla scomposizione analitica del sostrato tecnico, per poi procedere ad una sintesi, consapevole e organica, dei risultati progressivamente ottenuti. Inoltre, solo la scomposizione degli elementi tecnici che costituiscono la struttura del device, in uno con il corretto riparto dei ruoli tra gli operatori coinvolti, sia produttori che utilizzatori, consente un equo e ragionevole riparto interno della responsabilità tra i coobbligati, fase nella quale trova definitivo compimento l’istituto della responsabilità solidale, esaurito l’espletamento delle eventuali azioni di regresso. Anche in questo secondo momento il criterio del rischio assume una sua rilevanza, pur residuale ma tuttavia ineliminabile, che consente la definitiva permanenza di una porzione di responsabilità in capo al soggetto che tale rischio immette nel sistema, pur in assenza di diretti profili di rimproverabilità642 . Il concetto di rischio ha assunto pertanto, all’interno dell’elaborato, un ruolo strategico, come criterio sia d’imputazione sia di riparto della responsabilità. Questo concetto merita crescente attenzione all’interno dell’ordinamento, non solo in fase rimediale, ma anche in ottica preventiva, tramite la diffusione di modelli di accountability volti al controllo del rischio e alla massima riduzione possibile delle chances di concretizzazione nel corrispondente danno. In entrambi i sensi sopra descritti, il criterio del rischio si pone come base per lo sviluppo di nuove linee di ricerca giuridica, ben più convincenti rispetto alla suggestiva, ma poco applicabile proposta di soggettività dell’AI, anche se letta solo in chiave funzionale e contingente. Con la consapevolezza della necessaria provvisorietà di tali conclusioni, come già evidenziato643 in attesa dell’avvento della strong AI come “persona robotica”, scenario certamente improbabile ma non del tutto impossibile.File | Dimensione | Formato | |
---|---|---|---|
06_27_24 - Ferretti Francesca.pdf
embargo fino al 27/12/2025
Dimensione
5.23 MB
Formato
Adobe PDF
|
5.23 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14242/210545
URN:NBN:IT:UNICAM-210545