Negli ultimi anni, l'Explainable Artificial Intelligence (XAI) sta assumendo un ruolo sempre più rilevante per migliorare l'interpretabilità dei modelli di Deep Learning (DL) nelle applicazioni di imaging medicale. Questo interesse è alimentato dalle notevoli prestazioni ottenute dagli algoritmi di DL nell'esecuzione di una vasta gamma di compiti di analisi dell'imaging medico. Il DL può significativamente supportare l'analisi dei dati medici sotto vari punti di vista, i quali includono la riduzione del carico di lavoro dei clinici, l'automatizzazione di compiti dispendiosi e garantendo prestazioni più elevate, maggiore oggettività e riproducibilità nelle valutazioni. Il DL può inoltre servire come potenziale strumento di "knowledge-discovery'', in termini di estrazione di image-biomarkers ancora sconosciuti. Tuttavia, la mancanza di trasparenza nella comprensione e spiegazione dei processi decisionali e dei fattori chiave che influenzano questi modelli solleva preoccupazioni etiche, di sicurezza e di affidabilità. Questa limitazioni ne riducono l'accettabilità e creano scetticismo da parte degli utilizzatori, in particolare in settori ad alto rischio come la sanità. La necessità di algoritmi trasparenti e spiegabili sta attirando anche l'attenzione delle autorità di regolamentazione, evidenziando che la ricerca XAI potrebbe influenzare direttamente lo sviluppo industriale di dispositivi software medici basati su AI. Nonostante vi sia un crescente interesse in materia di XAI, non esiste un consenso ampio su come raggiungere una piena interpretabilità nei sistemi AI basati su DL. Questa sfida è ulteriormente complicata dalla difficoltà di valutare i metodi XAI. Attualmente, non ci sono framework universalmente riconosciuti per valutare la qualità degli output prodotti da modelli di XAI, e la valutazione delle spiegazioni rimane un'area di ricerca complessa ed in evoluzione. Questa tesi ha l'obiettivo di integrare la XAI nell'analisi dell'imaging medico per sviluppare sistemi di supporto decisionale che superino le limitazioni del paradigma del "black-box". In recent years, Explainable Artificial Intelligence (XAI) has become increasingly relevant to enhance the interpretability of Deep Learning (DL) models in medical imaging applications. This interest stems from the remarkable performance obtained by DL algorithms for the execution of a wide variety of relevant medical imaging analysis tasks. DL can significantly aid in medical data analysis by reducing clinician workload, automating time-intensive tasks, and ensuring higher performance, objectivity, and reproducibility in evaluations. Additionally, DL holds potential as a knowledge-discovery tool, in terms of extracting yet unknown image-based biomarkers. However, the lack of transparency in understanding and explaining the decision-making processes and key factors influencing these models raises ethical, safety, and trustworthiness concerns. This limitation reduces their acceptance, particularly in high-risk areas such as healthcare. The need for transparent and explainable algorithms is also drawing attention from regulatory bodies, highlighting that XAI research may directly influence the industrial development of AI-powered medical software devices. However, despite this growing interest, there is no broad agreement on how to achieve full interpretability in DL-based AI systems. This challenge is further compounded by the difficulty in evaluating XAI methods. Currently, there are no universally recognized standard frameworks to assess the quality of XAI outputs, and the evaluation of explanations remains a complex and evolving research area. This thesis aims to integrate XAI into medical imaging analysis to develop decision-support systems that overcome the limitations of the "black-box" paradigm.
Explainable Deep Learning for Medical Imaging: Bridging the Gap Between AI Algorithms and Clinical Decision-Making
DE SANTI, LISA ANITA
2025
Abstract
Negli ultimi anni, l'Explainable Artificial Intelligence (XAI) sta assumendo un ruolo sempre più rilevante per migliorare l'interpretabilità dei modelli di Deep Learning (DL) nelle applicazioni di imaging medicale. Questo interesse è alimentato dalle notevoli prestazioni ottenute dagli algoritmi di DL nell'esecuzione di una vasta gamma di compiti di analisi dell'imaging medico. Il DL può significativamente supportare l'analisi dei dati medici sotto vari punti di vista, i quali includono la riduzione del carico di lavoro dei clinici, l'automatizzazione di compiti dispendiosi e garantendo prestazioni più elevate, maggiore oggettività e riproducibilità nelle valutazioni. Il DL può inoltre servire come potenziale strumento di "knowledge-discovery'', in termini di estrazione di image-biomarkers ancora sconosciuti. Tuttavia, la mancanza di trasparenza nella comprensione e spiegazione dei processi decisionali e dei fattori chiave che influenzano questi modelli solleva preoccupazioni etiche, di sicurezza e di affidabilità. Questa limitazioni ne riducono l'accettabilità e creano scetticismo da parte degli utilizzatori, in particolare in settori ad alto rischio come la sanità. La necessità di algoritmi trasparenti e spiegabili sta attirando anche l'attenzione delle autorità di regolamentazione, evidenziando che la ricerca XAI potrebbe influenzare direttamente lo sviluppo industriale di dispositivi software medici basati su AI. Nonostante vi sia un crescente interesse in materia di XAI, non esiste un consenso ampio su come raggiungere una piena interpretabilità nei sistemi AI basati su DL. Questa sfida è ulteriormente complicata dalla difficoltà di valutare i metodi XAI. Attualmente, non ci sono framework universalmente riconosciuti per valutare la qualità degli output prodotti da modelli di XAI, e la valutazione delle spiegazioni rimane un'area di ricerca complessa ed in evoluzione. Questa tesi ha l'obiettivo di integrare la XAI nell'analisi dell'imaging medico per sviluppare sistemi di supporto decisionale che superino le limitazioni del paradigma del "black-box". In recent years, Explainable Artificial Intelligence (XAI) has become increasingly relevant to enhance the interpretability of Deep Learning (DL) models in medical imaging applications. This interest stems from the remarkable performance obtained by DL algorithms for the execution of a wide variety of relevant medical imaging analysis tasks. DL can significantly aid in medical data analysis by reducing clinician workload, automating time-intensive tasks, and ensuring higher performance, objectivity, and reproducibility in evaluations. Additionally, DL holds potential as a knowledge-discovery tool, in terms of extracting yet unknown image-based biomarkers. However, the lack of transparency in understanding and explaining the decision-making processes and key factors influencing these models raises ethical, safety, and trustworthiness concerns. This limitation reduces their acceptance, particularly in high-risk areas such as healthcare. The need for transparent and explainable algorithms is also drawing attention from regulatory bodies, highlighting that XAI research may directly influence the industrial development of AI-powered medical software devices. However, despite this growing interest, there is no broad agreement on how to achieve full interpretability in DL-based AI systems. This challenge is further compounded by the difficulty in evaluating XAI methods. Currently, there are no universally recognized standard frameworks to assess the quality of XAI outputs, and the evaluation of explanations remains a complex and evolving research area. This thesis aims to integrate XAI into medical imaging analysis to develop decision-support systems that overcome the limitations of the "black-box" paradigm.File | Dimensione | Formato | |
---|---|---|---|
Extensive_report.pdf
non disponibili
Dimensione
255.7 kB
Formato
Adobe PDF
|
255.7 kB | Adobe PDF | |
Thesis.pdf
embargo fino al 14/04/2095
Dimensione
13.88 MB
Formato
Adobe PDF
|
13.88 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14242/215845
URN:NBN:IT:UNIPI-215845