Variational models are a classical tool to solve inverse problems in a multitude of contexts. In contrast to other modern methodologies, they lay their foundations on an established theoretical background. The advantage offered by their interpretability, combined with a less intense requirement in terms of computational resources makes the study and use of them still relevant to this day. To improve the performance of these models, we address one of their main weaknesses: parameters selection. These models are defined through an energy function which itself is characterized by one or more variables. The absence of broad rules to set these variables often leads to a tedious, and perhaps time consuming, empirical search for a good configuration. Borrowing ideas from the machine learning realm to automate this process, we effectively train the energy functional with the goal of finding a more than satisfying parameter setup. We study a general formulation of a bilevel optimization problem to carry out this task in a variety of imaging applications. In detail, we develop an iterative general purpose inexact forward-backward algorithm which is able to converge to a stationary point of the bilevel problem. The experiments show that the algorithm is able to find more than valid solutions in a small amount of time. Although these results are promising, there are still limitations to the approach. To circumvent some of these, we also relax the lower level minimization problem by replacing it with the unfolding of an iterative optimization algorithm. The number of iterations that the chosen scheme performs is fixed a priori, so that the whole lower level resembles a very basic neural network. The training of this algorithm unfolding then aims at finding the best parameters (including some of the optimization algorithm itself!) to make the most out of the given iterations. We tested these ideas on different imaging problems, with surprising results, especially when compared to deep learning methods.

I modelli variazionali rappresentano uno degli strumenti classici per risolvere problemi inversi lineari in vari contesti. In contrasto con altri metodologie più moderne, essi poggiano basi teoriche che sono state studiate per decenni. La maggior interpretabili che offrono, combinata con una minor richiesta in termini di risorse computazionali fa si che lo studi di questi metodi sia ancora rilevante al giorno d’oggi. In questo lavoro, per migliorare la performance di questi modelli, ci soffermiamo sui metodi di selezione dei loro parametri. È ben noto che i funzionali che costituiscono i modelli variazionali dipendono da uno o più parametri di cui però non si hanno regole precise su come sceglierli in modo efficace. Prendendo spunto da tecniche nell’ambito dell’apprendimento automatico, andiamo ad imparare i modelli variazioni con lo scopo di trovare in modo automatico una configurazione soddisfacente di parametri. In questo lavoro proponiamo un algoritmo di ottimizzazione di tipo forward-backward, di cui dimostriamo la convergenza ad un punto stazionario di un problema di ottimizzazione bilivello per l’apprendimento di un modello variazionale. Gli esperimenti numerici mostrano che l’algoritmo riesce a raggiungere una buona soluzione in poco tempo. Per aggirare alcuni limiti di questo approccio, modifichiamo il problema inferiore inserendo, invece che una minimizzazione completa, l’unfolding di un metodo di ottimizzazione iterativo. Il numero di iterazioni che compie tale metodo è fissato a priori. L’apprendimento di questo algoritmo "srotolato" mira a trovare la migliore configurazione di parametri (anche quelli dell’algoritmo stesso!) per sfruttare al meglio le iterazioni concesse. Abbiamo testato queste idee su diversi problemi di ricostruzione di immagini, con buoni risultati, soprattutto in confronto con altri metodi di tipo deep.

Learning Variational Models via Bilevel Optimization and Unfolded Algorithms

Danilo, Pezzi
2024

Abstract

Variational models are a classical tool to solve inverse problems in a multitude of contexts. In contrast to other modern methodologies, they lay their foundations on an established theoretical background. The advantage offered by their interpretability, combined with a less intense requirement in terms of computational resources makes the study and use of them still relevant to this day. To improve the performance of these models, we address one of their main weaknesses: parameters selection. These models are defined through an energy function which itself is characterized by one or more variables. The absence of broad rules to set these variables often leads to a tedious, and perhaps time consuming, empirical search for a good configuration. Borrowing ideas from the machine learning realm to automate this process, we effectively train the energy functional with the goal of finding a more than satisfying parameter setup. We study a general formulation of a bilevel optimization problem to carry out this task in a variety of imaging applications. In detail, we develop an iterative general purpose inexact forward-backward algorithm which is able to converge to a stationary point of the bilevel problem. The experiments show that the algorithm is able to find more than valid solutions in a small amount of time. Although these results are promising, there are still limitations to the approach. To circumvent some of these, we also relax the lower level minimization problem by replacing it with the unfolding of an iterative optimization algorithm. The number of iterations that the chosen scheme performs is fixed a priori, so that the whole lower level resembles a very basic neural network. The training of this algorithm unfolding then aims at finding the best parameters (including some of the optimization algorithm itself!) to make the most out of the given iterations. We tested these ideas on different imaging problems, with surprising results, especially when compared to deep learning methods.
Learning Variational Models via Bilevel Optimization and Unfolded Algorithms
29-mar-2024
ENG
I modelli variazionali rappresentano uno degli strumenti classici per risolvere problemi inversi lineari in vari contesti. In contrasto con altri metodologie più moderne, essi poggiano basi teoriche che sono state studiate per decenni. La maggior interpretabili che offrono, combinata con una minor richiesta in termini di risorse computazionali fa si che lo studi di questi metodi sia ancora rilevante al giorno d’oggi. In questo lavoro, per migliorare la performance di questi modelli, ci soffermiamo sui metodi di selezione dei loro parametri. È ben noto che i funzionali che costituiscono i modelli variazionali dipendono da uno o più parametri di cui però non si hanno regole precise su come sceglierli in modo efficace. Prendendo spunto da tecniche nell’ambito dell’apprendimento automatico, andiamo ad imparare i modelli variazioni con lo scopo di trovare in modo automatico una configurazione soddisfacente di parametri. In questo lavoro proponiamo un algoritmo di ottimizzazione di tipo forward-backward, di cui dimostriamo la convergenza ad un punto stazionario di un problema di ottimizzazione bilivello per l’apprendimento di un modello variazionale. Gli esperimenti numerici mostrano che l’algoritmo riesce a raggiungere una buona soluzione in poco tempo. Per aggirare alcuni limiti di questo approccio, modifichiamo il problema inferiore inserendo, invece che una minimizzazione completa, l’unfolding di un metodo di ottimizzazione iterativo. Il numero di iterazioni che compie tale metodo è fissato a priori. L’apprendimento di questo algoritmo "srotolato" mira a trovare la migliore configurazione di parametri (anche quelli dell’algoritmo stesso!) per sfruttare al meglio le iterazioni concesse. Abbiamo testato queste idee su diversi problemi di ricostruzione di immagini, con buoni risultati, soprattutto in confronto con altri metodi di tipo deep.
Algorithm Unfolding
Bilevel Optimization
Green AI
Linear Inverse Problems
MAT/08
Variational Models
Silvia, Bonettini
Università degli Studi di Parma. Dipartimento di Scienze Matematiche, fisiche e informatiche
File in questo prodotto:
File Dimensione Formato  
Tesi_Dottorato_Danilo_Pezzi.pdf

embargo fino al 01/04/2026

Dimensione 69.35 MB
Formato Adobe PDF
69.35 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/192942
Il codice NBN di questa tesi è URN:NBN:IT:UNIPR-192942