Nell'ambito della Scienza dell'Informazione, il problema dell'acquisizione dei segnali è intimamente connesso alla progettazione e implementazione di efficienti algoritmi e procedure capaci di estrapolare e codificare il contenuto informativo contenuto nel segnale. Per oltre cinquant'anni, il riferimento in quest'ambito è stato rappresentato dal teorema di campionamento di Shannon e la corrispondente definizione di informazione in termini di estensione spettrale del segnale. La società contemporanea si fonda su di un pressoché incessante ed istantaneo scambio di informazioni, che vengono veicolate per la maggior parte in formato digitale. In siffatto contesto, i moderni dispositivi di comunicazione sono chiamati a gestire notevoli moli di dati, seguendo un consueto protocollo operativo che prevede acquisizione, elaborazione e memorizzazione. Nonostante l'incessante sviluppo tecnologico, il protocollo di acquisizione convenzionale è sottoposto a sempre crescente pressione e richiede un carico computazionale non proporzionale al reale contenuto informativo del segnale. Recentemente, un nuovo paradigma di acquisizione, noto con il nome di Campionamento Compresso, va diffondendosi tra i diversi settori della Scienza dell'Informazione. Questa innovativa teoria di campionamento si fonda su due principi fondamentali: sparsità del segnale e incoerenza del campionamento, e li sfrutta per acquisire il segnale direttamente in una versione condensata, compressa appunto. La frequenza di campionamento è collegata al tasso di aggiornamento dell'informazione, piuttosto che all'effettiva estensione spettrale del segnale. Dato un segnale sparso, il suo contenuto informativo può essere ricostruito a partire da quello che potrebbe sembrare un insieme incompleto di misure, al costo di un maggiore carico computazionale della fase di ricostruzione. La mia tesi di dottorato si basa sulla teoria del Campionamento Compresso e illustra come i concetti di sparsità e incoerenza possano essere sfruttati per sviluppare efficienti protocolli di campionamento e per comprendere appieno le sorgenti di incertezza che gravano sulle misure. L'attività di ricerca ha riguardato aspetti sia teorici sia implementativi, traendo spunto da contesti applicativi di misura che spaziano dalle comunicazioni a radio frequenza alla stima dei sincrofasori e all'indagine dell'attività neurologica. La tesi è organizzata in quattro capitoli ove i contributi più significativi includono: • la definizione di un modello unificato per i sistemi di acquisizione di segnali sparsi, con particolare attenzione alle implicazioni dovute alle assunzioni di sparsità e incoerenza; • caratterizzazione delle principali famiglie algoritmiche per la ricostruzione di segnali sparsi, con particolare attenzione all'impatto del rumore additivo sull'accuratezza delle stime; • implementazione e validazione sperimentale di un algoritmo di campionamento compresso capace di fornire accurate informazioni preliminari e opportuni dati pre-elaborati per un contesto applicativo di analizzatore vettoriale o di radio cognitiva; • sviluppo e caratterizzazione fi un algoritmo di campionamento compresso per super-risoluzione nell'ambito dell'analisi spettrale nel dominio della trasformata discreta di Fourier (DFT); • definizione di un dizionario sovra-completo che renda conto esplicitamente dell'effetto di leakage spettrale; • indagine dei cosiddetti approcci di stima off-the-grid, mediante un'opportuna combinazione di super-risoluzione mediante campionamento compresso e interpolazione polare dei coefficienti DFT; • analisi del concetto di sparsità entro il contesto dei segnali quasi-stazionari, sottolineando l'importanza dei modelli di segnali a sparsità tempo-variante; • definizione di un modello del contenuto spettrale del segnale attraverso campionamento compresso da utilizzarsi in applicazioni di analisi spettrale in condizioni dinamiche mediante trasformata di Taylor-Fourier.

Compressive Sensing Applications in Measurement: Theoretical issues, algorithm characterization and implementation

FRIGO, GUGLIELMO
2015

Abstract

Nell'ambito della Scienza dell'Informazione, il problema dell'acquisizione dei segnali è intimamente connesso alla progettazione e implementazione di efficienti algoritmi e procedure capaci di estrapolare e codificare il contenuto informativo contenuto nel segnale. Per oltre cinquant'anni, il riferimento in quest'ambito è stato rappresentato dal teorema di campionamento di Shannon e la corrispondente definizione di informazione in termini di estensione spettrale del segnale. La società contemporanea si fonda su di un pressoché incessante ed istantaneo scambio di informazioni, che vengono veicolate per la maggior parte in formato digitale. In siffatto contesto, i moderni dispositivi di comunicazione sono chiamati a gestire notevoli moli di dati, seguendo un consueto protocollo operativo che prevede acquisizione, elaborazione e memorizzazione. Nonostante l'incessante sviluppo tecnologico, il protocollo di acquisizione convenzionale è sottoposto a sempre crescente pressione e richiede un carico computazionale non proporzionale al reale contenuto informativo del segnale. Recentemente, un nuovo paradigma di acquisizione, noto con il nome di Campionamento Compresso, va diffondendosi tra i diversi settori della Scienza dell'Informazione. Questa innovativa teoria di campionamento si fonda su due principi fondamentali: sparsità del segnale e incoerenza del campionamento, e li sfrutta per acquisire il segnale direttamente in una versione condensata, compressa appunto. La frequenza di campionamento è collegata al tasso di aggiornamento dell'informazione, piuttosto che all'effettiva estensione spettrale del segnale. Dato un segnale sparso, il suo contenuto informativo può essere ricostruito a partire da quello che potrebbe sembrare un insieme incompleto di misure, al costo di un maggiore carico computazionale della fase di ricostruzione. La mia tesi di dottorato si basa sulla teoria del Campionamento Compresso e illustra come i concetti di sparsità e incoerenza possano essere sfruttati per sviluppare efficienti protocolli di campionamento e per comprendere appieno le sorgenti di incertezza che gravano sulle misure. L'attività di ricerca ha riguardato aspetti sia teorici sia implementativi, traendo spunto da contesti applicativi di misura che spaziano dalle comunicazioni a radio frequenza alla stima dei sincrofasori e all'indagine dell'attività neurologica. La tesi è organizzata in quattro capitoli ove i contributi più significativi includono: • la definizione di un modello unificato per i sistemi di acquisizione di segnali sparsi, con particolare attenzione alle implicazioni dovute alle assunzioni di sparsità e incoerenza; • caratterizzazione delle principali famiglie algoritmiche per la ricostruzione di segnali sparsi, con particolare attenzione all'impatto del rumore additivo sull'accuratezza delle stime; • implementazione e validazione sperimentale di un algoritmo di campionamento compresso capace di fornire accurate informazioni preliminari e opportuni dati pre-elaborati per un contesto applicativo di analizzatore vettoriale o di radio cognitiva; • sviluppo e caratterizzazione fi un algoritmo di campionamento compresso per super-risoluzione nell'ambito dell'analisi spettrale nel dominio della trasformata discreta di Fourier (DFT); • definizione di un dizionario sovra-completo che renda conto esplicitamente dell'effetto di leakage spettrale; • indagine dei cosiddetti approcci di stima off-the-grid, mediante un'opportuna combinazione di super-risoluzione mediante campionamento compresso e interpolazione polare dei coefficienti DFT; • analisi del concetto di sparsità entro il contesto dei segnali quasi-stazionari, sottolineando l'importanza dei modelli di segnali a sparsità tempo-variante; • definizione di un modello del contenuto spettrale del segnale attraverso campionamento compresso da utilizzarsi in applicazioni di analisi spettrale in condizioni dinamiche mediante trasformata di Taylor-Fourier.
2-feb-2015
Inglese
compressive sensing; super-resolution; overcomplete dictionary; synchrophasor estimation; signal de-noising
NARDUZZI, CLAUDIO
BERTOCCO, MATTEO
Università degli studi di Padova
210
File in questo prodotto:
File Dimensione Formato  
frigo_guglielmo_tesi.pdf

accesso aperto

Dimensione 5.14 MB
Formato Adobe PDF
5.14 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/173685
Il codice NBN di questa tesi è URN:NBN:IT:UNIPD-173685