In recent years; Artificial Intelligence (AI) has contributed to profound transformations across various sectors, due to its ability to analyze large datasets, detect intricate patterns, and support complex decision-making processes. However, its integration into critical fields and applications brings significant technical and ethical challenges, notably regarding transparency, interpretability, and fairness. This thesis addresses these challenges through four complementary investigations, aiming to foster responsible and ethical AI applications. The first study explores the application of machine learning models enhanced with explainable AI (XAI) techniques to predict the efficacy of immunotherapy in non-small cell lung cancer (NSCLC) patients. By integrating clinical and imaging data, the proposed framework not only forecasts treatment outcomes but also provides interpretable insights to support clinical decision-making. The second investigation examines how demographic and socioeconomic factors are encoded in medical imaging data. Using vector embeddings -- numerical representations that capture complex and nuanced patterns within data -- derived from chest radiographs, this work quantifies biases that could undermine fairness in clinical applications and discusses strategies to mitigate these effects and promote more equitable AI models. The third area addresses the challenge of Continual Learning (CL), proposing methods that allow AI systems to assimilate new information (e.g., from evolving data) without forgetting previously acquired knowledge. This is particularly critical in rapidly evolving healthcare contexts, where sustaining both accuracy and fairness over time is essential. Eventually, the thesis explores neuro-symbolic approachs for combining the pattern-recognition capabilities of neural networks with the logical rigor of symbolic reasoning. Applied to compliance verification in manufacturing, specifically in electrical control panels, this hybrid framework is assessed over effectiveness and potential advancements.

Negli ultimi anni, l'Intelligenza Artificiale (IA) ha contribuito a trasformazioni profonde in vari settori, grazie alla sua capacità di analizzare grandi insiemi di dati, rilevare schemi complessi e supportare processi decisionali articolati. Tuttavia, la sua integrazione in ambiti e applicazioni critiche comporta significative sfide tecniche ed etiche, in particolare per quanto riguarda la trasparenza, l'interpretabilità ed l'equità. Questa tesi affronta tali sfide attraverso quattro indagini complementari, con l’obiettivo di promuovere applicazioni di IA responsabili ed etiche. Il primo studio esplora l'applicazione di modelli di machine learning potenziati con tecniche di Explainable AI (XAI) per prevedere l'efficacia dell'immunoterapia nei pazienti affetti da carcinoma polmonare non a piccole cellule (NSCLC). Integrando dati clinici e di imaging, il framework proposto non solo prevede gli esiti del trattamento, ma fornisce anche intuizioni interpretabili per supportare il processo decisionale clinico. La seconda indagine esamina come fattori demografici e socioeconomici siano codificati nei dati di imaging medico. Utilizzando i vector embedding — rappresentazioni numeriche che catturano schemi complessi e sfumati all'interno dei dati — derivati da radiografie del torace, questo lavoro quantifica i bias che potrebbero compromettere l'equità nelle applicazioni cliniche e discute strategie per mitigare tali effetti e promuovere modelli di IA più equi. Il terzo ambito affronta la sfida del Continual Learning (CL), proponendo metodi che permettano ai sistemi di IA di assimilare nuove informazioni (ad esempio, da dati in evoluzione) senza dimenticare le conoscenze precedentemente acquisite. Questo è particolarmente critico in contesti sanitari in rapida evoluzione, dove mantenere sia l’accuratezza che l’equità nel tempo è essenziale. Infine, la tesi esplora approcci neuro-simbolici per combinare le capacità di riconoscimento dei pattern delle reti neurali con il rigore logico del ragionamento simbolico. Applicato alla verifica della conformità nella produzione, specificamente nei quadri di controllo elettrici, questo framework ibrido viene valutato in termini di efficacia e potenziali sviluppi.

The long and winding path towards a trustworthy AI

QUARTA, ALESSANDRO
2025

Abstract

In recent years; Artificial Intelligence (AI) has contributed to profound transformations across various sectors, due to its ability to analyze large datasets, detect intricate patterns, and support complex decision-making processes. However, its integration into critical fields and applications brings significant technical and ethical challenges, notably regarding transparency, interpretability, and fairness. This thesis addresses these challenges through four complementary investigations, aiming to foster responsible and ethical AI applications. The first study explores the application of machine learning models enhanced with explainable AI (XAI) techniques to predict the efficacy of immunotherapy in non-small cell lung cancer (NSCLC) patients. By integrating clinical and imaging data, the proposed framework not only forecasts treatment outcomes but also provides interpretable insights to support clinical decision-making. The second investigation examines how demographic and socioeconomic factors are encoded in medical imaging data. Using vector embeddings -- numerical representations that capture complex and nuanced patterns within data -- derived from chest radiographs, this work quantifies biases that could undermine fairness in clinical applications and discusses strategies to mitigate these effects and promote more equitable AI models. The third area addresses the challenge of Continual Learning (CL), proposing methods that allow AI systems to assimilate new information (e.g., from evolving data) without forgetting previously acquired knowledge. This is particularly critical in rapidly evolving healthcare contexts, where sustaining both accuracy and fairness over time is essential. Eventually, the thesis explores neuro-symbolic approachs for combining the pattern-recognition capabilities of neural networks with the logical rigor of symbolic reasoning. Applied to compliance verification in manufacturing, specifically in electrical control panels, this hybrid framework is assessed over effectiveness and potential advancements.
30-mag-2025
Inglese
Negli ultimi anni, l'Intelligenza Artificiale (IA) ha contribuito a trasformazioni profonde in vari settori, grazie alla sua capacità di analizzare grandi insiemi di dati, rilevare schemi complessi e supportare processi decisionali articolati. Tuttavia, la sua integrazione in ambiti e applicazioni critiche comporta significative sfide tecniche ed etiche, in particolare per quanto riguarda la trasparenza, l'interpretabilità ed l'equità. Questa tesi affronta tali sfide attraverso quattro indagini complementari, con l’obiettivo di promuovere applicazioni di IA responsabili ed etiche. Il primo studio esplora l'applicazione di modelli di machine learning potenziati con tecniche di Explainable AI (XAI) per prevedere l'efficacia dell'immunoterapia nei pazienti affetti da carcinoma polmonare non a piccole cellule (NSCLC). Integrando dati clinici e di imaging, il framework proposto non solo prevede gli esiti del trattamento, ma fornisce anche intuizioni interpretabili per supportare il processo decisionale clinico. La seconda indagine esamina come fattori demografici e socioeconomici siano codificati nei dati di imaging medico. Utilizzando i vector embedding — rappresentazioni numeriche che catturano schemi complessi e sfumati all'interno dei dati — derivati da radiografie del torace, questo lavoro quantifica i bias che potrebbero compromettere l'equità nelle applicazioni cliniche e discute strategie per mitigare tali effetti e promuovere modelli di IA più equi. Il terzo ambito affronta la sfida del Continual Learning (CL), proponendo metodi che permettano ai sistemi di IA di assimilare nuove informazioni (ad esempio, da dati in evoluzione) senza dimenticare le conoscenze precedentemente acquisite. Questo è particolarmente critico in contesti sanitari in rapida evoluzione, dove mantenere sia l’accuratezza che l’equità nel tempo è essenziale. Infine, la tesi esplora approcci neuro-simbolici per combinare le capacità di riconoscimento dei pattern delle reti neurali con il rigore logico del ragionamento simbolico. Applicato alla verifica della conformità nella produzione, specificamente nei quadri di controllo elettrici, questo framework ibrido viene valutato in termini di efficacia e potenziali sviluppi.
GRISETTI, GIORGIO
GRISETTI, GIORGIO
Università degli Studi di Roma "La Sapienza"
File in questo prodotto:
File Dimensione Formato  
Tesi_dottorato_Quarta.pdf

accesso aperto

Dimensione 5.32 MB
Formato Adobe PDF
5.32 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/212172
Il codice NBN di questa tesi è URN:NBN:IT:UNIROMA1-212172