Abstract:
In questa tesi estendo la letteratura corrente riguardo ai modelli GARCH a memoria lunga.
Dapprima considero il problema della stazionarietà, evidenziando il motivo per il quale le
definizioni correnti sono inadeguate, ricavando inoltre le condizioni di stazionarietà utilizzando un recente teorema di Zaffaroni (2000). Mi sono poi concentrato sul problema della stima rilevando
l'inapplicabilità della dimostrazione di Lee ed Hansen (1991) sulla consistenza dello stimatore di
quasi massima verosimiglianza, risultato contrario a quanto sostenuto da Baillie, Bollerslev e
Mikkelsen (1996). Suggerisco quindi una strada alternativa, utilizzando un recente lavoro di
Jeantheau (1998), evidenziandone tuttavia i limiti. Di conseguenza ho verificato la consistenza e la
correttezza delle stime di quasi massima verosimiglianza all'interno di un esperimento Montecarlo,
il cui scopo principale era invece quello dello studio dell'identificazione della memoria lunga nelle varianze condizionali. Questo studio Montecarlo dimostra che i criteri di informazione individuano correttamente la memoria lunga, mentre i test di correlazione ed effetti ARCH sui residui sono in sostanza inutili.
Ho poi considerato l'analisi della previsione delle varianze, assumendo un generatore a memoria
lunga per le varianze condizionali. Ho derivato l'equazione del previsore della varianza, estendendo
in questo senso un lavoro di Baillie e Bollerslev (1991). In seguito ho affrontato il problema del
calcolo del Value-at-Risk quando utilizziamo un modello mal specificato per la varianza. L'analisi è
stata condotta all'interno della classe dei modelli GARCH utilizzando un approccio Montecarlo. Ho
studiato quindi gli effetti di un'errata specificazione quando i dati sono generati da un modello
FIGARCH e per il VaR si utilizzano modelli a memoria breve. Ho confrontato i diversi modelli per
il VaR tramite un gruppo di test e con un approccio basato su funzioni di perdita. Posso così
dimostrare che il modello correttamente specificato permette una migliore stima del VaR, un
risultato atteso a priori. Ho esteso quindi l'analisi considerando anche gli effetti dell'aggregazione sul comportamento a memoria lunga delle varianze e sul calcolo del VaR. Tramite un esperimento Montecarlo verifico che la memoria lunga è robusta al processo di aggregazione, tuttavia tale comportamento è influenzato anche dall'ampiezza della memoria stessa. Per quanto riguarda il
confronto delle misure VaR ottenute da dati aggregati e non aggregati, verifico che o dati aggregati
permettono si ottenere stime migliori.
Ho infine considerato un problema diverso, l'individuazione della causalità del secondo ordine (tra
varianze). Dopo il riesame della letteratura sul tema estendo dapprima le definizioni ed i requisiti
teorici per ottenere la non causalità in un modello generale del tipo VARMA-GARCH-M.
Considero poi le diverse specificazioni GARCH multivariate utilizzate in letteratura per la stima
della causalità del secondo ordine, ne evidenzio i punti deboli e suggerisco quindi un nuovo
modello GARCH bivariato il cui scopo è quello di individuare non solo la presenza di causalità del
secondo ordine ma anche la sua direzione. Il modello viene poi testa in un'applicazione pratica.
Presento dapprima tutte le analisi preliminari alla costruzione delle serie dei volumi e dei
rendimenti del FIB30, utilizzando un database fornito dalla Borsa Italiana. Sulle serie filtrate ho
applicato diversi modelli per la causalità tra varianze, incluso quello suggerito nel presente lavoro.
Ho ottenuto il risultato atteso, vale a dire l'importanza della direzione di causalità tra varianze.
In this dissertation I extend the current literature on long memory GARCH processes. I considered
at first the stationarity problem, showing why current definitions are inadequate and deriving
stationarity conditions using a recent theorem of Zaffaroni (2000). I focused then on the estimation
problem, pointing out the inapplicability of the well known Lee and Hansen (1991) proof of consistency of quasi maximum likelihood estimators, the opposite of the claims of Baillie,
Bollerslev and Mikkelsen (1996). Therefore, I suggested the application of a recent study of
Jeantheau (1998), showing the limits of this approach. I showed then consistency and umbiasedness
of the Quasi Maximum Likelihood estimators within a Montecarlo experiment whose primary purpose was the study of the identification of long memory in conditional variances. This Montecarlo study shows that information criteria correctly detect long memory, while tests on residual correlations and residual ARCH effects are useless.
I turn then to the analysis of variance forecasts when we assume a long memory DGP for the
conditional variances. I derive the equation of the variance forecaster extending a previous work of
Baillie and Bollerslev (1991). I consider then the problem of Value-at-Risk computation when we
misspecify the model for the variance. This analysis was done within the GARCH class of models
and in a Montecarlo framework. I studied the effects of misspecifications when the data are
generated by a FIGARCH process and we compute VaR with short memory specifications. I compared the different VaR models with a group of tests and with a loss function approach. I show that the correctly specified model allow for a finer VaR computation, as expected. I extended then the previous result considering also the effects of aggregation on the long memory behaviour of the
variances and on the VaR computation. I show with a Montecarlo experiment that long memory in
variance is robust to the aggregation process; however this behaviour is influenced by the memory
strength. Considering the comparison of VaR measure computed with aggregated and nonaggregated
data, I show that aggregated data are in general preferred.
Finally I considered a different problem, the detection of second order causality, which is among
variances. After a review of the current literature on this topic I extend the definitions and
theoretical requirements for non-causality in a general VARMA-GARCH-M model. I considered
then the different multivariate GARCH specifications used in the literature to detect second order
causality, showing their drawbacks and suggesting a new bivariate GARCH model whose purpose
is the detection of the causality existence and direction among variances. The suggested model is
then tested within an applied framework. I present all the analysis referred to the construction of the returns and volume series of the FIB30 market, using a transaction database supplied by the Borsa Italiana. On the filtered 5-minute series I applied then different models for causality among
variances, included the one I suggested, obtaining an expected results, the sign of causality matter.