Negli ultimi anni, l'Explainable Artificial Intelligence (XAI) sta assumendo un ruolo sempre più rilevante per migliorare l'interpretabilità dei modelli di Deep Learning (DL) nelle applicazioni di imaging medicale. Questo interesse è alimentato dalle notevoli prestazioni ottenute dagli algoritmi di DL nell'esecuzione di una vasta gamma di compiti di analisi dell'imaging medico. Il DL può significativamente supportare l'analisi dei dati medici sotto vari punti di vista, i quali includono la riduzione del carico di lavoro dei clinici, l'automatizzazione di compiti dispendiosi e garantendo prestazioni più elevate, maggiore oggettività e riproducibilità nelle valutazioni. Il DL può inoltre servire come potenziale strumento di "knowledge-discovery'', in termini di estrazione di image-biomarkers ancora sconosciuti. Tuttavia, la mancanza di trasparenza nella comprensione e spiegazione dei processi decisionali e dei fattori chiave che influenzano questi modelli solleva preoccupazioni etiche, di sicurezza e di affidabilità. Questa limitazioni ne riducono l'accettabilità e creano scetticismo da parte degli utilizzatori, in particolare in settori ad alto rischio come la sanità. La necessità di algoritmi trasparenti e spiegabili sta attirando anche l'attenzione delle autorità di regolamentazione, evidenziando che la ricerca XAI potrebbe influenzare direttamente lo sviluppo industriale di dispositivi software medici basati su AI. Nonostante vi sia un crescente interesse in materia di XAI, non esiste un consenso ampio su come raggiungere una piena interpretabilità nei sistemi AI basati su DL. Questa sfida è ulteriormente complicata dalla difficoltà di valutare i metodi XAI. Attualmente, non ci sono framework universalmente riconosciuti per valutare la qualità degli output prodotti da modelli di XAI, e la valutazione delle spiegazioni rimane un'area di ricerca complessa ed in evoluzione. Questa tesi ha l'obiettivo di integrare la XAI nell'analisi dell'imaging medico per sviluppare sistemi di supporto decisionale che superino le limitazioni del paradigma del "black-box". In recent years, Explainable Artificial Intelligence (XAI) has become increasingly relevant to enhance the interpretability of Deep Learning (DL) models in medical imaging applications. This interest stems from the remarkable performance obtained by DL algorithms for the execution of a wide variety of relevant medical imaging analysis tasks. DL can significantly aid in medical data analysis by reducing clinician workload, automating time-intensive tasks, and ensuring higher performance, objectivity, and reproducibility in evaluations. Additionally, DL holds potential as a knowledge-discovery tool, in terms of extracting yet unknown image-based biomarkers. However, the lack of transparency in understanding and explaining the decision-making processes and key factors influencing these models raises ethical, safety, and trustworthiness concerns. This limitation reduces their acceptance, particularly in high-risk areas such as healthcare. The need for transparent and explainable algorithms is also drawing attention from regulatory bodies, highlighting that XAI research may directly influence the industrial development of AI-powered medical software devices. However, despite this growing interest, there is no broad agreement on how to achieve full interpretability in DL-based AI systems. This challenge is further compounded by the difficulty in evaluating XAI methods. Currently, there are no universally recognized standard frameworks to assess the quality of XAI outputs, and the evaluation of explanations remains a complex and evolving research area. This thesis aims to integrate XAI into medical imaging analysis to develop decision-support systems that overcome the limitations of the "black-box" paradigm.

Explainable Deep Learning for Medical Imaging: Bridging the Gap Between AI Algorithms and Clinical Decision-Making

DE SANTI, LISA ANITA
2025

Abstract

Negli ultimi anni, l'Explainable Artificial Intelligence (XAI) sta assumendo un ruolo sempre più rilevante per migliorare l'interpretabilità dei modelli di Deep Learning (DL) nelle applicazioni di imaging medicale. Questo interesse è alimentato dalle notevoli prestazioni ottenute dagli algoritmi di DL nell'esecuzione di una vasta gamma di compiti di analisi dell'imaging medico. Il DL può significativamente supportare l'analisi dei dati medici sotto vari punti di vista, i quali includono la riduzione del carico di lavoro dei clinici, l'automatizzazione di compiti dispendiosi e garantendo prestazioni più elevate, maggiore oggettività e riproducibilità nelle valutazioni. Il DL può inoltre servire come potenziale strumento di "knowledge-discovery'', in termini di estrazione di image-biomarkers ancora sconosciuti. Tuttavia, la mancanza di trasparenza nella comprensione e spiegazione dei processi decisionali e dei fattori chiave che influenzano questi modelli solleva preoccupazioni etiche, di sicurezza e di affidabilità. Questa limitazioni ne riducono l'accettabilità e creano scetticismo da parte degli utilizzatori, in particolare in settori ad alto rischio come la sanità. La necessità di algoritmi trasparenti e spiegabili sta attirando anche l'attenzione delle autorità di regolamentazione, evidenziando che la ricerca XAI potrebbe influenzare direttamente lo sviluppo industriale di dispositivi software medici basati su AI. Nonostante vi sia un crescente interesse in materia di XAI, non esiste un consenso ampio su come raggiungere una piena interpretabilità nei sistemi AI basati su DL. Questa sfida è ulteriormente complicata dalla difficoltà di valutare i metodi XAI. Attualmente, non ci sono framework universalmente riconosciuti per valutare la qualità degli output prodotti da modelli di XAI, e la valutazione delle spiegazioni rimane un'area di ricerca complessa ed in evoluzione. Questa tesi ha l'obiettivo di integrare la XAI nell'analisi dell'imaging medico per sviluppare sistemi di supporto decisionale che superino le limitazioni del paradigma del "black-box". In recent years, Explainable Artificial Intelligence (XAI) has become increasingly relevant to enhance the interpretability of Deep Learning (DL) models in medical imaging applications. This interest stems from the remarkable performance obtained by DL algorithms for the execution of a wide variety of relevant medical imaging analysis tasks. DL can significantly aid in medical data analysis by reducing clinician workload, automating time-intensive tasks, and ensuring higher performance, objectivity, and reproducibility in evaluations. Additionally, DL holds potential as a knowledge-discovery tool, in terms of extracting yet unknown image-based biomarkers. However, the lack of transparency in understanding and explaining the decision-making processes and key factors influencing these models raises ethical, safety, and trustworthiness concerns. This limitation reduces their acceptance, particularly in high-risk areas such as healthcare. The need for transparent and explainable algorithms is also drawing attention from regulatory bodies, highlighting that XAI research may directly influence the industrial development of AI-powered medical software devices. However, despite this growing interest, there is no broad agreement on how to achieve full interpretability in DL-based AI systems. This challenge is further compounded by the difficulty in evaluating XAI methods. Currently, there are no universally recognized standard frameworks to assess the quality of XAI outputs, and the evaluation of explanations remains a complex and evolving research area. This thesis aims to integrate XAI into medical imaging analysis to develop decision-support systems that overcome the limitations of the "black-box" paradigm.
12-apr-2025
Italiano
Decision Support Systems
Deel Learning
Explainable Artificial Intelligence
Medical Imaging
Vozzi, Giovanni
Positano, Vincenzo
File in questo prodotto:
File Dimensione Formato  
Extensive_report.pdf

non disponibili

Dimensione 255.7 kB
Formato Adobe PDF
255.7 kB Adobe PDF
Thesis.pdf

embargo fino al 14/04/2095

Dimensione 13.88 MB
Formato Adobe PDF
13.88 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/215845
Il codice NBN di questa tesi è URN:NBN:IT:UNIPI-215845