To keep up with the ever-changing nature of data, modern AI systems require frequent and costly retraining on all previously seen examples to avoid the phenomenon of catastrophic forgetting. This challenge has fueled the growing interest in Continual Learning (CL), where models learn incrementally from streams of data while retaining prior knowledge. Yet, despite the remarkable progress of CL methods, an often-overlooked source of uncertainty remains: the presence of noisy or unreliable labels. Deep Neural Networks owe much of their success to large, clean datasets, but in dynamic, real-world settings, such ideal conditions are rarely available. This raises a fundamental question — how can a system continue to learn effectively when its supervision is itself imperfect? To address this, we first revisit the problem of learning under noisy labels in an incremental scenario. We propose Alternate Experience Replay (AER), a strategy that alternates steps of buffer learning and buffer forgetting to encourage the separation of clean and noisy samples in the buffer, allowing the model to progressively refine its internal representations while limiting the propagation of label noise. In addition, we introduce Asymmetric Balanced Sampling (ABS), a complementary sampling mechanism that dynamically promotes the retain of clean and complex examples during the buffer update. By leveraging the interplay between sample selection and memory update, this approach improves robustness and stability across learning stages, showing that even simple replay-based mechanisms can mitigate the impact of imperfect supervision over time. However, robustness alone is not enough. A second challenge lies in the model’s ability to compose and reuse knowledge across tasks, a property known as compositionality. In this thesis, we explore how modular representations and second-order optimization perspectives can enhance this capability within continual learning frameworks. To this end, we introduce two opposed learning paradigms: Incremental Task Arithmetic (ITA), which focuses on optimizing each task model individually, and Incremental Ensemble Learning (IEL), which directly optimizes their composition. Together, these two approaches offer dual perspectives on continual compositionality, combining incrementally learned components into systems that not only resist forgetting but also generalize by construction, adapting flexibly to new and unseen combinations of tasks. These two perspectives, robustness to noisy supervision and compositional adaptation, outline a vision of continual learning that is both resilient and structured. Through extensive empirical analysis, we show how intrinsic mechanisms within neural networks can be harnessed to achieve more reliable and robust continual learners. With this thesis, we aim to contribute to research in Continual Learning, enhancing robustness both in the presence of noisy supervision and through modular knowledge composition. We provide a comprehensive overview of the state-of-the-art, detailed methodological insights, and thorough experimental studies on challenging incremental tasks, with the ultimate goal of fostering future work toward more adaptive and trustworthy learning systems.

Per stare al passo con la natura in continua evoluzione dei dati, i moderni sistemi di intelligenza artificiale richiedono frequenti e costosi riaddestramenti su tutti gli esempi già visti, per evitare il fenomeno del catastrophic forgetting. Questa esigenza ha stimolato un crescente interesse verso il Continual Learning (CL), in cui i modelli apprendono in modo incrementale dai flussi di dati conservando al contempo le conoscenze acquisite. Tuttavia, nonostante i notevoli progressi, permane una fonte di incertezza spesso trascurata: la presenza di etichette rumorose o non affidabili. Le reti neurali profonde devono gran parte del loro successo a grandi dataset puliti, ma in contesti reali e dinamici tali condizioni ideali sono rare. Questo pone una domanda cruciale: come può un sistema continuare ad apprendere efficacemente quando la supervisione stessa è imperfetta? Per affrontare il problema dell’apprendimento con etichette rumorose in scenari incrementali, proponiamo Alternate Experience Replay (AER), una strategia che alterna fasi di apprendimento e “dimenticanza” del buffer, favorendo la separazione tra campioni puliti e rumorosi. In questo modo, il modello affina progressivamente le proprie rappresentazioni interne limitando la propagazione del rumore. A complemento, introduciamo Asymmetric Balanced Sampling (ABS), un meccanismo di campionamento che bilancia dinamicamente la conservazione di esempi puliti e complessi durante l’aggiornamento del buffer. La combinazione di questi approcci migliora la robustezza e la stabilità del modello, dimostrando come anche semplici meccanismi di replay possano ridurre l’impatto della supervisione imperfetta. La robustezza da sola, tuttavia, non basta. Una seconda sfida riguarda la capacità del modello di comporre e riutilizzare le conoscenze tra compiti diversi, proprietà nota come composizionalità. In questa tesi, mostriamo come rappresentazioni modulari e prospettive di ottimizzazione di secondo ordine possano favorire questa capacità. Introduciamo due paradigmi complementari: Incremental Task Arithmetic (ITA), che ottimizza ciascun modello addestrato su un singolo task individualmente, e Incremental Ensemble Learning (IEL), che ottimizza direttamente la loro composizione. Insieme, questi approcci permettono di combinare componenti apprese progressivamente in sistemi che non solo resistono alla dimenticanza, ma generalizzano per costruzione, adattandosi a nuove e inattese combinazioni di task di apprendimento. Queste due prospettive, robustezza alla supervisione rumorosa e adattamento composizionale, delineano un modello di Continual Learning resiliente e strutturato. Attraverso analisi empiriche approfondite, mostriamo come i meccanismi intrinseci delle reti neurali possano essere sfruttati per sviluppare modelli incrementali più affidabili e robusti. La tesi contribuisce alla ricerca nel campo del Continual Learning, migliorando la robustezza sia in presenza di supervisione rumorosa sia attraverso la composizione modulare della conoscenza. Forniamo una panoramica dello stato dell’arte, approfondimenti metodologici e studi sperimentali accurati su task incrementali complessi, con l’obiettivo di favorire lo sviluppo futuro di sistemi di apprendimento più adattivi e affidabili.

Apprendimento Continuo in Condizioni Rumorose e con Composizionalità

MILLUNZI, MONICA
2026

Abstract

To keep up with the ever-changing nature of data, modern AI systems require frequent and costly retraining on all previously seen examples to avoid the phenomenon of catastrophic forgetting. This challenge has fueled the growing interest in Continual Learning (CL), where models learn incrementally from streams of data while retaining prior knowledge. Yet, despite the remarkable progress of CL methods, an often-overlooked source of uncertainty remains: the presence of noisy or unreliable labels. Deep Neural Networks owe much of their success to large, clean datasets, but in dynamic, real-world settings, such ideal conditions are rarely available. This raises a fundamental question — how can a system continue to learn effectively when its supervision is itself imperfect? To address this, we first revisit the problem of learning under noisy labels in an incremental scenario. We propose Alternate Experience Replay (AER), a strategy that alternates steps of buffer learning and buffer forgetting to encourage the separation of clean and noisy samples in the buffer, allowing the model to progressively refine its internal representations while limiting the propagation of label noise. In addition, we introduce Asymmetric Balanced Sampling (ABS), a complementary sampling mechanism that dynamically promotes the retain of clean and complex examples during the buffer update. By leveraging the interplay between sample selection and memory update, this approach improves robustness and stability across learning stages, showing that even simple replay-based mechanisms can mitigate the impact of imperfect supervision over time. However, robustness alone is not enough. A second challenge lies in the model’s ability to compose and reuse knowledge across tasks, a property known as compositionality. In this thesis, we explore how modular representations and second-order optimization perspectives can enhance this capability within continual learning frameworks. To this end, we introduce two opposed learning paradigms: Incremental Task Arithmetic (ITA), which focuses on optimizing each task model individually, and Incremental Ensemble Learning (IEL), which directly optimizes their composition. Together, these two approaches offer dual perspectives on continual compositionality, combining incrementally learned components into systems that not only resist forgetting but also generalize by construction, adapting flexibly to new and unseen combinations of tasks. These two perspectives, robustness to noisy supervision and compositional adaptation, outline a vision of continual learning that is both resilient and structured. Through extensive empirical analysis, we show how intrinsic mechanisms within neural networks can be harnessed to achieve more reliable and robust continual learners. With this thesis, we aim to contribute to research in Continual Learning, enhancing robustness both in the presence of noisy supervision and through modular knowledge composition. We provide a comprehensive overview of the state-of-the-art, detailed methodological insights, and thorough experimental studies on challenging incremental tasks, with the ultimate goal of fostering future work toward more adaptive and trustworthy learning systems.
24-apr-2026
Inglese
Per stare al passo con la natura in continua evoluzione dei dati, i moderni sistemi di intelligenza artificiale richiedono frequenti e costosi riaddestramenti su tutti gli esempi già visti, per evitare il fenomeno del catastrophic forgetting. Questa esigenza ha stimolato un crescente interesse verso il Continual Learning (CL), in cui i modelli apprendono in modo incrementale dai flussi di dati conservando al contempo le conoscenze acquisite. Tuttavia, nonostante i notevoli progressi, permane una fonte di incertezza spesso trascurata: la presenza di etichette rumorose o non affidabili. Le reti neurali profonde devono gran parte del loro successo a grandi dataset puliti, ma in contesti reali e dinamici tali condizioni ideali sono rare. Questo pone una domanda cruciale: come può un sistema continuare ad apprendere efficacemente quando la supervisione stessa è imperfetta? Per affrontare il problema dell’apprendimento con etichette rumorose in scenari incrementali, proponiamo Alternate Experience Replay (AER), una strategia che alterna fasi di apprendimento e “dimenticanza” del buffer, favorendo la separazione tra campioni puliti e rumorosi. In questo modo, il modello affina progressivamente le proprie rappresentazioni interne limitando la propagazione del rumore. A complemento, introduciamo Asymmetric Balanced Sampling (ABS), un meccanismo di campionamento che bilancia dinamicamente la conservazione di esempi puliti e complessi durante l’aggiornamento del buffer. La combinazione di questi approcci migliora la robustezza e la stabilità del modello, dimostrando come anche semplici meccanismi di replay possano ridurre l’impatto della supervisione imperfetta. La robustezza da sola, tuttavia, non basta. Una seconda sfida riguarda la capacità del modello di comporre e riutilizzare le conoscenze tra compiti diversi, proprietà nota come composizionalità. In questa tesi, mostriamo come rappresentazioni modulari e prospettive di ottimizzazione di secondo ordine possano favorire questa capacità. Introduciamo due paradigmi complementari: Incremental Task Arithmetic (ITA), che ottimizza ciascun modello addestrato su un singolo task individualmente, e Incremental Ensemble Learning (IEL), che ottimizza direttamente la loro composizione. Insieme, questi approcci permettono di combinare componenti apprese progressivamente in sistemi che non solo resistono alla dimenticanza, ma generalizzano per costruzione, adattandosi a nuove e inattese combinazioni di task di apprendimento. Queste due prospettive, robustezza alla supervisione rumorosa e adattamento composizionale, delineano un modello di Continual Learning resiliente e strutturato. Attraverso analisi empiriche approfondite, mostriamo come i meccanismi intrinseci delle reti neurali possano essere sfruttati per sviluppare modelli incrementali più affidabili e robusti. La tesi contribuisce alla ricerca nel campo del Continual Learning, migliorando la robustezza sia in presenza di supervisione rumorosa sia attraverso la composizione modulare della conoscenza. Forniamo una panoramica dello stato dell’arte, approfondimenti metodologici e studi sperimentali accurati su task incrementali complessi, con l’obiettivo di favorire lo sviluppo futuro di sistemi di apprendimento più adattivi e affidabili.
Continual Learning; Affidabilità; Etichette rumorose; Composizionalità; Machine Learning
CALDERARA, Simone
ROVATI, Luigi
Università degli studi di Modena e Reggio Emilia
File in questo prodotto:
File Dimensione Formato  
Millunzi.pdf

accesso aperto

Licenza: Tutti i diritti riservati
Dimensione 15.52 MB
Formato Adobe PDF
15.52 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/365012
Il codice NBN di questa tesi è URN:NBN:IT:UNIMORE-365012