La stima e la modellazione della volatilità finanziaria è stata una delle aree di ricerca più attive degli ultimi 20 anni vista la sua cruciale importanza nell’asset pricing, nel risk management e nell’allocazione del portafoglio. Tuttavia, il problema principale è che la volatilità non è direttamente osservabile. Gli approcci più comuni per affrontare la latenza della volatilità sono i modelli parametrici (Generalized) Autoregressive Conditional Heteroskedasticity ((G)ARCH) introdotti da Engle (1982) e Bollerslev (1986) e i modelli di volatilità stochastica (SV) (vedere per esempio, Taylor (1986)). Con la crescente disponibilità di dati ad alta frequenza e utilizzando gli sviluppi teorici legati alla teoria della variazione quadratica, la stima della volatilità si è evoluta dai modelli latenti alle misure realizzate non parametriche. Andersen et al. (2001) e Barndorff-Nielsen e Shephard (2002) hanno introdotto la varianza realizzata che è definita come la somma dei rendimenti al quadrato all’interno di un intervallo di tempo. In teoria, la varianza realizzata è uno stimatore non distorto e altamente efficiente che converge alla varianza integrata quando la lunghezza dell’intervallo di campionamento intragiornaliero tende a zero. Inoltre, Christensen e Podolskij (2007) e Martens e van Dijk (2007) hanno proposto una diversa misura della varianza realizzata basata sul range. Lo stimatore è definito come la somma dei range al quadrato (dove il range è la differenza tra il massimo e prezzo minimo osservato nel corso di un determinato intervallo). Si tratta di uno stimatore consistente e altamente efficiente della volatilità integrata ed è circa cinque volte più efficiente della varianza realizzata. In seguito a quest’operazione, la volatilità diventa osservabile ed è possibile modellizzarla in modo da ottenere previsioni che sono necessarie in molte applicazioni finanziarie. L’implementazione degli stimatori realizzati utilizzando dati ad alta frequenza incontra tuttavia diverse difficoltà. Infatti, tali stimatori sono basati sulle ipotesi secondo le quali i prezzi seguono un processo continuo e sono inoltre sensibili agli effetti microstrutturali, elemento che possono provocare gravi problemi riguardo la consistenza dello stimatore. Questa tesi di dottorato di ricerca si propone di modellizzare e prevedere la volatilità, e contribuisce alla letteratura dell’econometria per la finanza in tre direzioni diverse. Il primo capitolo, un lavoro co-autorato con il professore Massimiliano Caporin, considera la modellizzazione e la previsioni della volatilità sulla base dello stimatore realizzato basato sul range ed esplora le performance di specificazioni alternative che tengano conto del comportamento specifico e dei fatti stilizzati delle serie storiche della volatilità finanziaria. Il secondo capitolo si concentra sulle determinanti economiche della volatilità e analizza la capacità predittiva delle variabili macroeconomiche e finanziarie. Infine, il terzo capitolo studia la valutazione di stimatori alternativi della volatilità e di un set di modelli di previsione della volatilità da un punto di vista economico. Più in dettaglio, il primo capitolo si focalizza nella stima della volatilità realizzata attraverso lo stimatore basato sul range in 16 azioni scambiate al New York Stock Exchange (NYSE), si considera l'effetto microstrutturale dei dati ad alta frequenza e si correggono le stime seguendo la procedura di Martens e van Dijk (2007). Inoltre, il modello per le serie di volatilità realizzata prende in considerazione l'effetto asimmetrico sulla volatilità causata dai rendimenti ritardati e la dipendenza di lungo termine, la volatility clustering della volatilità e la non Gaussianità delle innovazioni del modello. In particolare, si specficifa un modello Autoregressive Heterogenuos (HAR) introdotto da Corsi (2009), effetti leverage riguardo ai rendimenti e presenza di innovazioni caratterizzate da varianze GARCH o GJR-GARCH e con una distribuzione Normal Inverse Gaussian (NIG). L'analisi empirica dell’abilità predittiva nelle 16 azioni considerate suggerisce che l'introduzione degli effetti asimmetrici rispetto ai rendimenti e la volatilità nel modello HAR portano ad un significativo miglioramento della performance delle previsioni. Nel secondo capitolo, si esamina il ruolo che le variabili macroeconomiche e finanziarie hanno nella modellazione e nella previsione della volatilità giornaliera. Il punto di partenza sono le serie stimate nel primo capitolo e si estende il modello includendo variabili economiche e finanziarie che contengono informazioni relative allo stato presente e futuro dell'economia. E’stato eseguita un’analisi empirica dentro e fuori campione in 16 serie di volatilità di titoli azionari. I risultati suggeriscono che le variabili macroeconomiche e finanziarie, in particolare le proxy per le aspettative di rischi di mercato e rischi di credito, sono significativamente correlate con il primo componente principale delle serie di volatilità e hanno un potere altamente esplicativo. Successivamente, si considera un esercizio di previsione fuori campione per analizzare il miglioramento che deriva dall'introduzione delle variabili macroeconomiche che hanno avuto più potere esplicativo nel’analisi nel campione. Variabili come il VIX e credit default swap per il settore bancario statunitense producono miglioramenti significativi nella accuratezza delle previsioni. Infine, esplorando l'impatto durante la crisi finanziaria 2008-2009, si osserva una maggiore correlazione tra i credit default swap e la volatilità che riflette un aumento del rischio di credito percepito, mentre non si ottiene alcun miglioramento significativo nella previsioni fuori campione . Nell'ultimo capitolo, si esamina e confronta la prestazione di stimatori alternativi della volatilità realizzata e di diversi modelli di previsione di serie storiche dal punto di vista economico. Nello specifico, si considera un investitore che specula sul futuro livello della volatilità e investe in un strategia buy-and-hold su opzione che dipende dal livello atteso per la volatilità, e di conseguenza risente delle differenze tra i diversi stimatori e modelli di previsione utilizzati. La strategia di trading viene implementata settimanalmente su opzioni dove il sottostante è S&P 500 Index e la volatilità viene stimata da una serie ad alta frequenza relativa allo S&P 500 Futures. Gli stimatori considerati sono la volatilità realizzata e la volatilità realizzata basata sul range in entrambi i casi nelle versioni robuste all’effetto microstrutturale ed alla presenza di salti. Le previsioni si ottengono con modelli Autoregressive fractional integrated moving average (ARFIMA). Inoltre, per tenere conto della possibilità di confondere memoria lunga con processi con memoria corta e cambiamenti strutturali nei livelli, si considera il modello ARFIMA con break strutturali, recentemente introdotti da Varneskov e Perron (2011) e Grassi e Santucci de Magistris (2011). I principali risultati mostrano che le stime ottenute con il metodo basato sul range e corretti per la presenza di effetti microstrutturali e discontinuità nel processo del prezzo producono i rendimenti più elevati. Inoltre, la scelta dello stimatore realizzato per la volatilità sembra essere più importante rispetto ai modelli di previsione. Infine, si osserva come sia possibile ottenere profitti positivi annualizzati fino ad oltre il 60% nel periodo di trading considerato e che parte da Ottobre 2005 fino ad arrivare alla crisi finanziaria del 2008-2009.
Realized Volatility: Macroeconomic determinants, Forecasting and Option trading
VELO, GABRIEL GONZALO
2012
Abstract
La stima e la modellazione della volatilità finanziaria è stata una delle aree di ricerca più attive degli ultimi 20 anni vista la sua cruciale importanza nell’asset pricing, nel risk management e nell’allocazione del portafoglio. Tuttavia, il problema principale è che la volatilità non è direttamente osservabile. Gli approcci più comuni per affrontare la latenza della volatilità sono i modelli parametrici (Generalized) Autoregressive Conditional Heteroskedasticity ((G)ARCH) introdotti da Engle (1982) e Bollerslev (1986) e i modelli di volatilità stochastica (SV) (vedere per esempio, Taylor (1986)). Con la crescente disponibilità di dati ad alta frequenza e utilizzando gli sviluppi teorici legati alla teoria della variazione quadratica, la stima della volatilità si è evoluta dai modelli latenti alle misure realizzate non parametriche. Andersen et al. (2001) e Barndorff-Nielsen e Shephard (2002) hanno introdotto la varianza realizzata che è definita come la somma dei rendimenti al quadrato all’interno di un intervallo di tempo. In teoria, la varianza realizzata è uno stimatore non distorto e altamente efficiente che converge alla varianza integrata quando la lunghezza dell’intervallo di campionamento intragiornaliero tende a zero. Inoltre, Christensen e Podolskij (2007) e Martens e van Dijk (2007) hanno proposto una diversa misura della varianza realizzata basata sul range. Lo stimatore è definito come la somma dei range al quadrato (dove il range è la differenza tra il massimo e prezzo minimo osservato nel corso di un determinato intervallo). Si tratta di uno stimatore consistente e altamente efficiente della volatilità integrata ed è circa cinque volte più efficiente della varianza realizzata. In seguito a quest’operazione, la volatilità diventa osservabile ed è possibile modellizzarla in modo da ottenere previsioni che sono necessarie in molte applicazioni finanziarie. L’implementazione degli stimatori realizzati utilizzando dati ad alta frequenza incontra tuttavia diverse difficoltà. Infatti, tali stimatori sono basati sulle ipotesi secondo le quali i prezzi seguono un processo continuo e sono inoltre sensibili agli effetti microstrutturali, elemento che possono provocare gravi problemi riguardo la consistenza dello stimatore. Questa tesi di dottorato di ricerca si propone di modellizzare e prevedere la volatilità, e contribuisce alla letteratura dell’econometria per la finanza in tre direzioni diverse. Il primo capitolo, un lavoro co-autorato con il professore Massimiliano Caporin, considera la modellizzazione e la previsioni della volatilità sulla base dello stimatore realizzato basato sul range ed esplora le performance di specificazioni alternative che tengano conto del comportamento specifico e dei fatti stilizzati delle serie storiche della volatilità finanziaria. Il secondo capitolo si concentra sulle determinanti economiche della volatilità e analizza la capacità predittiva delle variabili macroeconomiche e finanziarie. Infine, il terzo capitolo studia la valutazione di stimatori alternativi della volatilità e di un set di modelli di previsione della volatilità da un punto di vista economico. Più in dettaglio, il primo capitolo si focalizza nella stima della volatilità realizzata attraverso lo stimatore basato sul range in 16 azioni scambiate al New York Stock Exchange (NYSE), si considera l'effetto microstrutturale dei dati ad alta frequenza e si correggono le stime seguendo la procedura di Martens e van Dijk (2007). Inoltre, il modello per le serie di volatilità realizzata prende in considerazione l'effetto asimmetrico sulla volatilità causata dai rendimenti ritardati e la dipendenza di lungo termine, la volatility clustering della volatilità e la non Gaussianità delle innovazioni del modello. In particolare, si specficifa un modello Autoregressive Heterogenuos (HAR) introdotto da Corsi (2009), effetti leverage riguardo ai rendimenti e presenza di innovazioni caratterizzate da varianze GARCH o GJR-GARCH e con una distribuzione Normal Inverse Gaussian (NIG). L'analisi empirica dell’abilità predittiva nelle 16 azioni considerate suggerisce che l'introduzione degli effetti asimmetrici rispetto ai rendimenti e la volatilità nel modello HAR portano ad un significativo miglioramento della performance delle previsioni. Nel secondo capitolo, si esamina il ruolo che le variabili macroeconomiche e finanziarie hanno nella modellazione e nella previsione della volatilità giornaliera. Il punto di partenza sono le serie stimate nel primo capitolo e si estende il modello includendo variabili economiche e finanziarie che contengono informazioni relative allo stato presente e futuro dell'economia. E’stato eseguita un’analisi empirica dentro e fuori campione in 16 serie di volatilità di titoli azionari. I risultati suggeriscono che le variabili macroeconomiche e finanziarie, in particolare le proxy per le aspettative di rischi di mercato e rischi di credito, sono significativamente correlate con il primo componente principale delle serie di volatilità e hanno un potere altamente esplicativo. Successivamente, si considera un esercizio di previsione fuori campione per analizzare il miglioramento che deriva dall'introduzione delle variabili macroeconomiche che hanno avuto più potere esplicativo nel’analisi nel campione. Variabili come il VIX e credit default swap per il settore bancario statunitense producono miglioramenti significativi nella accuratezza delle previsioni. Infine, esplorando l'impatto durante la crisi finanziaria 2008-2009, si osserva una maggiore correlazione tra i credit default swap e la volatilità che riflette un aumento del rischio di credito percepito, mentre non si ottiene alcun miglioramento significativo nella previsioni fuori campione . Nell'ultimo capitolo, si esamina e confronta la prestazione di stimatori alternativi della volatilità realizzata e di diversi modelli di previsione di serie storiche dal punto di vista economico. Nello specifico, si considera un investitore che specula sul futuro livello della volatilità e investe in un strategia buy-and-hold su opzione che dipende dal livello atteso per la volatilità, e di conseguenza risente delle differenze tra i diversi stimatori e modelli di previsione utilizzati. La strategia di trading viene implementata settimanalmente su opzioni dove il sottostante è S&P 500 Index e la volatilità viene stimata da una serie ad alta frequenza relativa allo S&P 500 Futures. Gli stimatori considerati sono la volatilità realizzata e la volatilità realizzata basata sul range in entrambi i casi nelle versioni robuste all’effetto microstrutturale ed alla presenza di salti. Le previsioni si ottengono con modelli Autoregressive fractional integrated moving average (ARFIMA). Inoltre, per tenere conto della possibilità di confondere memoria lunga con processi con memoria corta e cambiamenti strutturali nei livelli, si considera il modello ARFIMA con break strutturali, recentemente introdotti da Varneskov e Perron (2011) e Grassi e Santucci de Magistris (2011). I principali risultati mostrano che le stime ottenute con il metodo basato sul range e corretti per la presenza di effetti microstrutturali e discontinuità nel processo del prezzo producono i rendimenti più elevati. Inoltre, la scelta dello stimatore realizzato per la volatilità sembra essere più importante rispetto ai modelli di previsione. Infine, si osserva come sia possibile ottenere profitti positivi annualizzati fino ad oltre il 60% nel periodo di trading considerato e che parte da Ottobre 2005 fino ad arrivare alla crisi finanziaria del 2008-2009.File | Dimensione | Formato | |
---|---|---|---|
Thesis_Gabriel_VELO.pdf
accesso aperto
Dimensione
1.43 MB
Formato
Adobe PDF
|
1.43 MB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14242/174438
URN:NBN:IT:UNIPD-174438