MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA
DIPARTIMENTO PER LA PROGRAMMAZIONE IL COORDINAMENTO E GLI AFFARI ECONOMICI - SAUS
PROGRAMMI DI RICERCA SCIENTIFICA DI RILEVANTE INTERESSE NAZIONALE
RICHIESTA DI COFINANZIAMENTO (DM n. 21 del 20 febbraio 2003)

PROGRAMMA DI RICERCA - MODELLO A
Anno 2003 - prot. 2003131041 PARTE I


1.1 Programma di Ricerca di tipo

Interuniversitario

Area scientifico disciplinare Scienze economiche e statistiche (100%) 



1.2 Titolo del Programma di Ricerca


Testo italiano

Metodi e modelli statistici per la previsione di serie temporali non
stazionarie e non lineari. Aspetti teorici e applicazioni.


Testo inglese

Statistical methods and models for non-stationary and non-linear time
series forecasting, theory and applications.


1.3 Abstract del Programma di Ricerca


Testo italiano

Nell'analisi delle serie temporali si e' recentemente verificato un continuo tentativo di rilassare alcune delle ipotesi che stanno alla base dei metodi comunemente usati. In questa ricerca il principale proposito e' di superare le assunzioni di linearita', stazionarieta' e differenziazione con esponente intero. Cercheremo di muoverci secondo diverse direzioni. Alcuni noti modelli non lineari e non stazionari saranno oggetto di ulteriore approfondimento. Verranno anche proposti, oltre a test statistici relativi a ipotesi di non linearita’ e non stazionarieta’, nuovi tipi di modelli, basati anche sulle reti neurali. Saranno quindi studiate le differenze frazionarie adoperando metodi sia parametrici sia non parametrici. Alcuni nuovi strumenti (la teoria delle wavelet, gli algoritmi genetici, i metodi Monte Carlo basati sulle catene di Markov, l'inferenza indiretta, il bootstrap per i test di ipotesi sui coefficienti di cointegrazione e la valutazione della variabilita’ campionaria) saranno esaminati per risolvere problemi di carattere specifico. Nell’ambito multivariato si affronteranno i modelli dinamici a fattori latenti, la modellizzazione di indici sintetici complessi e la loro previsione. Le applicazioni riguarderanno serie temporali economiche e finanziarie, dati ambientali e demografici. Infine, si affrontera' l'aspetto dell'affidabilita' e dell'efficienza dei metodi di simulazione e di inferenza indiretta..

Testo inglese

In time series analysis there has been recently a continuous effort to weaken some hypotheses that support most current methods. In the present research our main purpose is to overcome the linearity, stationarity and integer differencing assumptions. We are willing to move along several directions. Some well known non linear non stationary models will be investigated further. Furthermore, both statistical tests related to particular non linearity and non stationarity hypotheses will be proposed, and new models, based also on neural networks introduced. Then, fractional differencing will be studied by using both parametric and non parametric approaches. Some new tools (the wavelets theory, the genetic algorithms, the Markov chains Monte Carlo method, the indirect inference, the bootstrap for testing cointegration coefficients and sampling variability evaluation) will be examined in order to solve particular problems. In the multivariate framework we shall study latent factors dynamic models and models for synthetic complex indicators and their forecasting. Applications will be concerned with financial and economic time series, environmental and demographic data. Also, the computational efficiency and reliability of simulation and indirect inference methods will be addressed.


1.4 Durata del Programma di Ricerca    24 Mesi  


1.5 Settori scientifico-disciplinari interessati dal Programma di Ricerca

 

SECS-S/01 - Statistica  
SECS-S/03 - Statistica economica  



1.6 Parole chiave


Testo italiano

COINTEGRAZIONE ; COMPONENTI PRINCIPALI ; MARKOV CHAIN MONTE CARLO ; MEMORIA LUNGA ; METODI COMPUTAZIONALI INTENSIVI ; MODELLI FATTORIALI DINAMICI ; SIMULAZIONE ; STAGIONALITA' ; WAVELETS

Testo inglese

COINTEGRATION ; PRINCIPAL COMPONENTS ; MARKOV CHAIN MONTE CARLO ; LONG MEMORY ; COMPUTATIONAL INTENSIVE METHODS ; DYNAMIC FACTOR MODELS ; SIMULATION ; SEASONALITY ; WAVELETS


1.7 Coordinatore Scientifico del Programma di Ricerca

BATTAGLIA  FRANCESCO 
Professore Ordinario  22/06/1952  BTTFNC52H22G702X 
SECS-S/01 - Statistica 
Università degli Studi di ROMA "La Sapienza" 
Facoltà di SCIENZE STATISTICHE 
Dipartimento di STATISTICA,PROBABILITA' E STATISTICHE APPLICATE 
06/49910440
(Prefisso e telefono)
 
06/4959241
(Numero fax)
 
francesco.battaglia@uniroma1.it
(Email)
 



1.8 Curriculum scientifico


Testo italiano

Assistente e poi Professore associato presso la Fac. di Sc. Statistiche dell'Univ. di Roma (1978-86). Dal 1986 professore di I fascia nell'Univ. di Cagliari, poi nella Scuola Superiore di Pubblica Amministrazione, Roma e dal 1990 nell'Univ. La Sapienza di Roma. Attualmente titolare di Analisi Statistica Multivariata e di Analisi delle Serie Storiche presso la Fac. di Sc. Statistiche. Incaricato presso la Scuola di Perfezionamento in Ricerca Operativa e Strategie Decisionali dell'Univ. La Sapienza di Roma, in vari anni, di corsi di Teoria delle Decisioni, Inferenza Statistica, Modelli Stocastici, Serie Storiche.
Referee per varie riviste nazionali e internazionali, reviewer per Mathematical Reviews, membro dell'advisory board della collana di Statistica della Springer Verlag Italia. Associate Editor di Statistical Methods and Applications - Journal of the Italian Stattistical Society.
E' stato coordinatore di una unità locale in 5 ricerche di interesse nazionale finanziate da Mpi e Murst dal 1982 in poi e coordinatore nazionale nelle ricerche: "Modelli statistici per l'analisi delle serie temporali" cofinanziata dal Murst 1998; "Modelli stocastici e metodi di simulazione per l'analisi dei dati dipendenti", cofinanziata dal Murst 2000; Progetto coordinato "Modelli statistici di serie temporali per la previsione", cofinanziato dal CNR anno 2000.
Gli interessi scientifici principali sono nell'analisi delle serie storiche, nella teoria delle decisioni, nei modelli stocastici applicati all'idrologia e ai fenomeni economici e sociali.


Testo inglese

Formerly assistant and associate professor with the Fac. of Statistics of the Univ. of Rome (1978-86). Full professor since 1986 in the Univ. of Cagliari, later at Scuola Superiore di Pubblica Amministrazione, Rome and since 1990 at the Univ. La Sapienza of Rome. Now professor of Multivariate Statistical Analysis and Time Series Analysis in the Fac. of Statistics. Has taught, around several years, Decision Theory, Statistical Inference, Stochastic Models, Time Series at the Scuola di Perfezionamento in Operations Research and Decision Strategies in the Univ. of Rome.
Referee for several italian and international journals, reviewer for Mathematical Reviews, member of the advisory board of the Series in Statistics of Springer Verlag Italy. Associate Editor of Statistical Methods and Applications - Journal of the Italian Stattistical Society.
Served as local coordinator in 5 national research projects funded by Murst (formerly Mpi) from 1982 on and as national coordinator in the researchs: "Statistical models for time series analysis" co-funded by Murst 1998; "Stochastic models and simulation methods for the analysis of dependent data", co-funded by Murst 2000; "Statistical time series models for forecasting", co-funded by C.N.R. 2000.
Main scientific interests: times series analysis, decision theory, applied stochastic models in hydrology, economics and social sciences.


1.9 Pubblicazioni scientifiche più significative del Coordinatore del Programma di Ricerca

1. BATTAGLIA F.; L. FENGA (2003). Forecasting composite indicators with anticipated information: an application to the industrial production index APPLIED STATISTICS. (vol. 52 part 3)  
2. R. BARAGONA; BATTAGLIA F.; D. CUCINA (2002). A note on estimating autoregressive exponential models QUADERNI DI STATISTICA. (vol. 4)  
3. R. BARAGONA; BATTAGLIA F. (2002). Multivariate Mixture Models Estimation: a genetic algorithm approach 26 annual Conference of Gesellschaft fur Klassification. 22-24 July.  
4. BATTAGLIA F. (2001). Genetic algorithms, pseudo random numbers generators and Markov Chain Monte Carlo methods METRON. (vol. LIX n. 1-2 pp. 131-155) presentato al Convegno SCO99, Venezia 1999.  
5. BARAGONA R.; BATTAGLIA F.; CALZINI C. (2001). Genetic algorithms for the identification af additive and innovation outliers in time series COMPUTATIONAL STATISTICS & DATA ANALYSIS. (vol. 37 n.1 pp. 1-12)  



1.10 Elenco delle Unità di Ricerca

Responsabile Scientifico  Qualifica  Settore Disc.  Università  Dipartimento/Istituto  Mesi Uomo 
1. BATTAGLIA FRANCESCO   Professore Ordinario   SECS-S/01   ROMA "La Sapienza"   STATISTICA,PROBABILITA' E STATISTICHE APPL.   18  
2. CUBADDA GIANLUCA   Professore Ordinario   SECS-S/03   MOLISE   SCIENZE ECONOMICHE, GESTIONALI E SOCIALI   19  
3. FIORENTINI GABRIELE   Professore Ordinario   SECS-P/05   FIRENZE   STATISTICA   14  
4. MARAVALLE MAURIZIO   Professore Ordinario   SECS-S/01   L'AQUILA   SISTEMI E ISTITUZIONI PER L'ECONOMIA   14  
5. POLI IRENE   Professore Ordinario   SECS-S/01   VENEZIA   STATISTICA   17  



1.11 Mesi uomo complessivi dedicati al programma

  Numero  Mesi Uomo 
Personale universitario dell'Università sede dell'Unità di Ricerca  22  305 
Personale universitario di altre Università  7  83 
Titolari di assegni di ricerca  2  16 
Titolari di borse dottorato e post-dottorato  4  36 
Personale a contratto   4  23 
Personale extrauniversitario  4  40 
TOTALE 43  503 




PARTE II


2.1 Obiettivo del Programma di Ricerca


Testo italiano

Recentemente nuovi sviluppi analitici e algoritmici nell’analisi delle serie temporali hanno aperto notevoli prospettive per il trattamento di fenomeni complicati dipendenti dal tempo. Le tecniche computazionali intensive (ad esempio, le metodologie di tipo Monte Carlo basate sulle proprietà delle catene di Markov), d’altra parte, permettono di effettuare calcoli per i quali non esistono procedimenti analitici idonei. Si è potuto constatare che molti fenomeni che si possono osservare in diversi contesti, finanziario, ad esempio, ma anche ambientale, solo con molta difficoltà si possono rappresentare con i più comuni modelli lineari e spesso presentano caratteristiche lontane dal concetto classico di stazionarietà. Soprattutto sono le previsioni, effettuate, ad esempio, sulla base dei modelli autoregressivi integrati a somma mobile (ARIMA), a risultare spesso inadeguate.
Obiettivo del presente programma di ricerca è lo studio, teorico ed applicativo, delle metodologie per la identificazione, stima e previsione di serie temporali per le quali i modelli lineari più diffusi si rivelino carenti. Naturalmente, i modelli della classe ARIMA, cosi’ come l’analisi stazionaria, nel dominio dei tempi e delle frequenze, costituiscono l’indispensabile punto di partenza. Gli sviluppi nel campo dei modelli non lineari o dell’analisi spettrale evolutiva si basano sulla generalizzazione e superamento dei modelli lineari o dell’analisi spettrale in ipotesi di stazionarieta’.
Ci si propone lo studio di nuovi tipi di modelli, sia univariati sia multivariati. Nel caso multivariato l’attenzione sara’ rivolta sia allo studio della cointegrazione sia all’analisi degli indicatori che riassumono piu’ serie temporali osservate nell’ambito di un medesimo fenomeno, e delle variabili latenti. Nel primo caso si studieranno i test di cointegrazione, si proporranno procedure inferenziali efficienti per l’analisi di cointegrazione di serie stagionali e per la misura dei co-movimenti e degli eventuali cicli comuni, e valutazione della loro variabilita’. Nel secondo caso ci si propone un approfondimento degli sviluppi legati ai modelli dinamici a fattori latenti, sia dal punto di vista dei metodi inferenziali sia da quello del confronto tra le due principali impostazioni presenti in letteratura. Inoltre, quando si considerano indici compositi, è rilevante il tentativo di individuare le serie temporali componenti maggiormente idonee a caratterizzare il futuro andamento del fenomeno nel suo complesso. Sarà preso in considerazione il caso in cui l’informazione sia imperfetta: sia nel senso di incompleta (alcune serie temporali non sono disponibili per effettuare la previsione in tempo utile, oppure si registrano osservazioni mancanti) che nel senso di presenza di errori (studio di dati anomali oppure di cambiamenti strutturali).
Nel caso univariato, che riguarda nuove classi di modelli volte a superare le impostazioni più diffuse legate alla linearità e stazionarietà, la ricerca verte sull’analisi delle proprietà statistiche di alcune delle più interessanti e recenti proposte in letteratura, ovvero i modelli dipendenti dallo stato (SDM), in particolare gli autoregressivi esponenziali (EXPAR), gli autoregressivi a soglia (TAR) e i Markov switching, i bilineari (BL) e le loro generalizzazioni, nonché’ i modelli autoregressivi eteroschedastici (ARCH) e generalizzazioni, i modelli a differenze frazionarie (ARFIMA) e le altre proposte volte a rappresentare fenomeni di persistenza. Inoltre, verrà analizzata su questi modelli la presenza di dati anomali strutturali, di cambi di livello, ovvero la mancanza di osservazioni, per quel che riguarda la valutazione degli effetti sulla identificazione, sulle stime dei parametri e sulle previsioni, e per l’eventuale “ricostruzione” delle osservazioni.
Una ulteriore estensione concerne la applicazione della teoria delle wavelets. La wavelet analysis consente di scomporre un segnale in componenti elementari che informano sia sulla frequenza sia sulla localizzazione temporale delle oscillazioni. Ci si propone la costruzione di una classe di modelli di rete neurale artificiale, denominata wavelet network, in cui le funzioni di attivazione sono nella forma di wavelet. La decomposizione wavelet consente di analizzare anche molte altre caratteristiche in alcuni casi specifici: nelle serie a memoria lunga possono essere utilizzate per la stima del parametro di Hurst, e possono evidenziare singolarita’, o mutamenti di regime o della varianza.
Nel presente progetto, i metodi computazionali intensivi hanno una parte importante. Ad esempio, per risolvere problemi di ottimizzazione complessi si ricorre agli algoritmi genetici, per il calcolo delle densità di probabilità a posteriori nell’analisi bayesiana si adoperano i metodi MCMC. Inoltre, ricorrendo alla simulazione si possono, almeno concettualmente, prendere in considerazione modelli più complessi, superando molte delle limitazioni insite nei metodi tradizionali, quali ad esempio la linearità nella specificazione delle relazioni, o l'ipotesi di gaussianità della distribuzione dei termini di disturbo. E' chiaramente ancora aperto, e sarà oggetto di ricerca, il problema della "affidabilità" di questi metodi, sia in senso statistico (correttezza, consistenza, efficienza degli stimatori), sia in senso numerico (convergenza dei metodi iterativi).
Tutti gli sviluppi metodologici qui accennati verranno costantemente rapportati alla realtà mediante applicazione a serie reali relative a fenomeni nel campo finanziario, macroeconomico, in quello ambientale e demografico: questi ambiti sono tra quelli che solo parzialmente si prestano all’analisi con modelli lineari tradizionali, e sono all’origine delle motivazioni che hanno portato allo studio delle estensioni metodologiche qui proposte.
Ogni tema trattato avrà come riferimento una specifica unità locale, ma la maggior parte di essi verranno sviluppati in collaborazione tra membri di più unita’, attraverso costanti interazioni e scambi.


Testo inglese

New both analytical and algorithmical developments in time series analysis recently allowed new perspectives for handling complicated time dependent phenomena. Computational intensive techniques, such as the Markov chains Monte Carlo methods, allow computations to be performed that are analytically intractable. Linear models can hardly be found useful for many phenomena, that can be observed in several contexts, financial, for instance, or environmental. The representations of such time series with the usual linear models are often of limited usefulness, and the stationary requirement is not realistic. Forecasts based on autoregressive integrated moving average (ARIMA) models are likely to be inadequate as well. The aim of the present research project is the investigation, from both theoretical and practical point of view, of new methods for the identification, estimation and forecasting those time series for which the usual linear models may be considered in several respects inadequate. The models of the ARIMA class, of course, and the stationary analysis, both in time and frequency domain, yet constitute the necessary foundation for the present research project. The non linear models, or the evolutionary spectral analysis, were developed from the linear models, or the stationary spectral analysis, generalisation.
We are planning to study new models, both univariate and multivariate. In case of multivariate time series, we will study the cointegration and analyse the indicators which aggregate several time series that may be observed related to a given phenomenon, and latent variables. In the first case we shall take into account cointegration tests, and we shall introduce efficient inference procedures for the cointegration analysis of seasonal series and measures of co-movements and possible common cycles, evaluating also their sample variability. In the latter case, our aim is to analyse more deeply the latent factors dynamic models, addressing both the inferential methods and an empirical comparison between the two main different proposals in literature. Moreover, if composite indexes are taken into account, an attempt to detect the component time series which can best characterise the future behaviour of such phenomenon as a whole seems to be of great interest. We will consider, in particular, the case of incomplete information. Namely, it may happen that some time series latest observations will be available not early enough to be of any use for forecasting purpose, or some data may be missing. Also, the collected data may be affected by errors, or some outliers may be present.
For univariate time series, we will study new classes of models that can supersede the most popular linear and stationary types. The statistical properties of some recent interesting models proposed in the literature, the state dependent models (SDM), will be investigated. In particular, we are willing to study the autoregressive exponential (EXPAR), the threshold autoregressive (TAR) and Markov switching, the bilinear (BL) models and their many generalisations. Furthermore, we will study the autoregressive conditional heteroskedastic (ARCH) models and their generalisations, the fractional differencing ARIMA (ARFIMA) models and other structures aimed at representing long range dependence from their past and persistence. Outliers, level changes, structural permanent or transient changes, and the case in which some data are missing will be considered as well. It has to be investigated if the substitution of the missing or anomalous data with estimates will bias the analysis, and to what extent, if any.
Further extension is concerned with the wavelets theory applications. The wavelet analysis allows a signal to be decomposed into elementary components, each of which can provide us with information on both frequency and time location of the oscillations. A class of artificial neural networks models will be proposed (wavelet networks), where the activation functions are expressed in wavelet form. The wavelet decomposition is suitable also for the analysis of many other specific characteristics of a time series: wavelets may be employed in long-memory series for estimating the Hurst parameter, and they may enlighten singularities, regime or variance changes.
The computational intensive methods, in the present project, play an important role. We handle difficult optimisation problems, for instance, by using the genetic algorithms. Also, the posterior probability density computations are performed by using the Markov chains Monte Carlo (MCMC) methods. An open problem, of course, consists in evaluating if such new procedures are reliable. We will examine their statistical properties (unbiasedness, consistency and efficiency), and also the numerical reliability (iterative algorithms convergence).
All methodological developments we will pursue along the guidelines expounded so far will always be compared to reality by means of applications to real time series in economics, finance, environmental science and demography. In fact, time series that may be observed in these fields can hardly conform to the hypotheses required by most traditional techniques. In many cases, their study prompted most important extensions of the current well established methodologies.
Though each local unit will be concerned with a special topic of interest, most problems will be studied by joint research groups, and interactions and communication will be encouraged.


2.2 Base di partenza scientifica nazionale o internazionale


Testo italiano

Nella letteratura statistica recente si registra un crescente interesse per i metodi di analisi di serie temporali che tentano di superare i limiti degli strumenti tradizionali legati alle ipotesi di linearita' e di stazionarieta' del secondo ordine. Le direzioni di ricerca riguardano sia la costruzione di modelli sempre piu' complessi che tengano conto delle relazioni intercorrenti tra i dati, sia l'introduzione di nuove metodologie di analisi. L'iniziale formulazione dei modelli lineari autoregressivi integrati a media mobile (ARIMA), introdotta da Box e Jenkins (1970), nel corso del tempo e' stata modificata per adattarla alla realta' delle serie osservate. In particolare sono state introdotte classi di modelli non lineari molto generali, adatti per numerosi campi di indagine, quali i modelli dipendenti dallo stato (SDM), la cui base di partenza e' costituita principalmente dal lavoro fondamentale di Priestley (1988a). I modelli SDM includono, come casi particolari, tra gli altri, i modelli esponenziali autoregressivi, a soglia e bilineari. Specifiche proposte per la identificazione, la stima,e il controllo diagnostico di queste classi di modelli sono dovute a moltissimi autori, tra i quali possiamo citare, ben lungi dall'essere esaurienti, lo stesso Priestley (1988b), Haggan e Ozaki (1981), Granger e Andersen (1978), Tong (1983), Granger e Teräsvirta (1993), Yadavalli e Singh (2000). Un importante aspetto, in grado di influenzare e di invalidare i risultati delle classiche fasi, prima delineate, di costruzione di un modello per serie temporali, e' la presenza di dati anomali nelle varie accezioni (Fox, 1972), ovvero la necessita' di ricostruire dati mancanti. La complessita' incomparabilmente maggiore delle procedure di inferenza statistica puo' essere affrontata tramite il ricorso alle tecniche computazionali intensive e a nuove classi di algoritmi. Ad esempio, Brooks e Morgan (1995) hanno proposto l’uso degli algoritmi “simulated annealing”. Gli algoritmi genetici (Holland, 1975; Mitchell, 1996) sono anche particolarmente utilizzati per la loro versatilità e flessibilità, e per essersi rivelati efficaci nelle procedure di stima di parametri di modelli statistici (Chatterjee, Laudato e Lynch, 1996). Per l’analisi delle serie temporali, l’utilizzazione di algoritmi genetici è stata proposta sia per la specificazione e la stima del modello (Gaetan, 2000; Minerva e Poli, 2001) che per l’individuazione e la valutazione dei dati anomali (Baragona, Battaglia e Calzini, 2001). Un altro metodo di grande interesse e' la inferenza indiretta (Gourieroux and Monfort,1996 ; Calzolari, Di Iorio, Fiorentini 2001).
La teoria delle wavelet, sviluppatasi in particolare nell'ultimo decennio, sembra riscuotere un crescente successo nello studio delle serie storiche e nelle procedure di rimozione del disturbo dalle evoluzioni che si osservano (Ogden,1996; Kay,1993; Daubechies,1992). L'interesse di questa teoria per l'analisi della non stazionarietà risiede, in particolare, nella capacità delle wavelet di identificare frequenzialmente e temporalmente ogni mutamento nella dinamica del fenomeno. Recentemente sono anche stati proposti modelli a reti neurali stocastiche basati su funzioni base di tipo wavelet (Reyneri, 1999).
La cointegrazione e' un aspetto importante dei piu' recenti contributi alla modellistica per serie temporali multiple per l’analisi delle relazioni tra serie temporali non stazionarie, soprattutto di natura economica. Com’è noto, uno dei maggiori problemi in tale ambito riguarda lo stabilire se le serie in esame siano cointegrate e quale sia l’ordine di cointegrazione. Il problema della verifica dell’ipotesi di cointegrazione è stato affrontato da diversi punti di vista (Engle e Granger, 1987; Stock e Watson, 1988; Johansen, 1991). La distorsione delle procedure nel caso di piccoli campioni se' stata affrontata in due modi: da un lato, utilizzando statistiche corrette mediante l'applicazione di fattori di Bartlett, le cui distribuzioni siano quindi più vicine a quelle asintotiche (Johansen, 2000); dall'altro, tentando di stimare l'effettiva distribuzione mediante il bootstrap (tra gli altri, Fachin, 2000). Omtzigt e Fachin (2001) hanno riesaminato le modalità sia del calcolo del fattore di Bartlett che di costruzione di test bootstrap nei modelli vettoriali autoregressivi (VAR) cointegrati, e verificato mediante simulazioni Monte Carlo i risultati forniti dai due metodi. Altri sviluppi importanti del concetto di cointegrazione concernono la cointegrazione stagionale (Cubadda, 2001b) e la nozione di cicli comuni (Vahid and Engle, 1993; Cubadda, 1999, 2001a).
La letteratura su modelli e applicazioni empiriche sulla stima della volatilita' delle serie storiche finanziarie e' enorme.
Si pensi alle migliaia di articoli su GARCH e Stochastic Volatilty apparsi su riviste nazionali e internazionali. Tuttavia, piu' recentemente l'attenzione degli studiosi si e' incentrata su metodi per la stima della volatilita' di portafogli di grandi dimensioni. I metodi multivariati proposti inizialmente erano applicabili a solo due o tre serie storiche alla volta. Ci sono fondamentalmente tre tipi di approccio. Il primo e' basato su metodi di ortogonalizzazione piu' o meni arbitari (si vedano i lavori di Giannini e Rossi, Alexander, Klaassen), il secondo e' basato su strutture fattoriali in cui i fattori non osservabili seguono dei processi GARCH o di Stochastic Volatility (si vedano a questo proposito i lavori di Diebold e Nerlove, di King, di Chib, Nardari e Shephard e di Sentana e Fiorentini), e il terzo e' quello recentemente proposto da Engle che modella le correlazioni semplici fra rendimenti di diversi asset in maniera condizionatamente autoregressiva in modo da ricostruire a posteriori una matrice positiva definita delle varianze e covarianze.
I modelli con variabili latenti hanno assunto negli ultimi dieci anni un'importanza sempre maggiore nello studio e nella previsione dei fenomeni economici e finanziari. Per quanto riguarda i modelli fattoriali dinamici ed il loro utilizzo a fini previsivi i due filoni di ricerca principali sono quelli iniziati da Forni, Hallin, Lippi e Reichlin da una parte e da Stock e Watson dall'altra. I primi, in una serie di lavori pubblicati recentemente ed altri in via di pubblicazione, propongono di usare le componenti principali dinamiche (Brillinger) dimostrando la loro validita' anche per i casi piu' realistici di strutture fattoriali generalizzate. I secondi propongono invece di usare un modello statico "augmented" e, sempre attraverso l'uso delle componenti principali "statiche", individuano lo spazio generato dai fattori comuni e lo usano come insieme informativo su cui basare le previsioni delle serie di interesse. Entrambi gli approcci permettono di usare congiuntamente l'informazione contenuta in migliaia di serie. Se da una parte la teoria e' abbastanza sviluppata, lo stesso non si puo dire per le applicazioni empiriche, che sono scarse. Le applicazioni piu' note sono quelle di Marcellino, Stock e Watson e l'indicatore sintetico del ciclo economico sviluppato congiuntamente dalla Banca d'Italia e dal Centre for Economic Policy and Research (CEPR).
L'altro problema e' che questi metodi sono non parametrici e partono dalle ipotesi che le serie storiche siano debolmente stazionarie. Quest'ultima ipotesi non e' verificata in pratica e quindi le serie sono soggette a trasformazioni preliminari per rimuovere la tendenza e la stagionalita'. La conseguenza e' che l'utilizzo di metodi di trasformazione diversi puo' dar luogo a risultati molto diversi tra loro (Fiorentini e Planas).
La stima anticipata, basata su una informazione ridotta, di indicatori economici sintetici e' considerata in Maravalle et al. (1993) ed e' stata successivamente sviluppata ed applicata in Maravalle e Coccia (1995) e Ciammola e Coccia (2000). L'idea di base è sostanzialmente quella di utilizzare modelli di serie storiche sintetiche univariate, ottenute cioè mediante procedure di sintesi come l'analisi in componenti principali (ACP). Allo stesso tempo i risultati del gruppo di lavoro, che fa capo al CEPR (Center for Economic Policy Research) di Londra, hanno aperto una interessante area di sovrapposizione basata soprattutto sull'estensione dinamica dell'analisi fattoriale (Forni, Lippi et al., 2001, 2002). Un altro elemento di interesse è l'approccio di Battaglia e Fenga (2003) che si pone un problema analogo affrontandolo dal punto di vista della teoria della previsione per processi stocastici. Sono da considerare anche i problemi della scelta e della selezione delle variabili che, pur avendo avuto un'ampia trattazione soprattutto nell'ambito del modello di regressione multipla riguardano anche altri campi dell'analisi multivariata. Una interessante disamina del problema viene proposta nella tesi di dottorato di Ciammola (2003) che propone pure un interessante contributo alla soluzione euristica del problema a partire da alcuni risultati di Jolliffe (1986) e Krzanowski. (1987a e b).


Testo inglese

In the last few years there has been a growing interest about the time series analysis methods that supersede the traditional techniques where linearity and second order stationarity are assumed. The new perspectives are concerned with models that can represent complex relationships in the data. The autoregressive integrated moving average (ARIMA) models introduced by Box and Jenkins (1970) were extended and generalised along many directions. The state dependent models (SDM), for instance, assume that the linearity hypothesis may be no longer valid. They were proposed by Priestley (1988a), and include as special cases a wide class of non linear and/or non stationary models, such as the exponential autoregressive, the threshold and the bilinear ones. All those models have been studied by many authors. To mention but a few, see, for instance, Priestley (1988b), Haggan and Ozaki (1981), Tong (1983), Granger and Andersen (1978), Granger and Teräsvirta (1993), Yadavalli and Singh (2000). As for linear models, the non linear ones may be influenced by outliers (Fox, 1972), or some data may be missing. The new computational intensive techniques may help this difficult task be accomplished satisfactorily. For instance, the simulated annealing algorithm has been proposed for optimisation by Brooks and Morgan (1995). The class of the genetic algorithms (Holland, 1975; Mitchell, 1996) proved to be able to cope with estimation and statistical inference (Chatterjee, Laudato and Lynch, 1996). Some genetic algorithm applications for time series model building and outliers detection were presented by Gaetan (2000), Minerva and Poli (2001), Baragona, Battaglia and Calzini (2001), amongst others. Further, an interesting method with many potential applications is indirect inference (Gourieroux and Monfort,1996 ; Calzolari, Di Iorio, Fiorentini 2001).
Wavelet theory, developed over the past decade, is increasingly and successfully being applied to time series analysis, particularly in the presence of transients (Ogden, 1996; Kay, 1993; Daubechies, 1992). The advantage of this theory for analyzing non-stationarity stems from the capacity of wavelets to identify with respect to both frequency and time any changes in underlying system dynamics. Recently, neural net models with wavelet basic functions have been proposed (Reyneri, 1999).
Cointegration is an important feature of the recent developments in multivariate time series, mainly for the analysis of relationships among economic non stationary time series. We focus on the existence of some cointegration vector. This topic has received much attention because many sets of economic time series are likely to be cointegrated (see, for instance, Engle and Granger, 1987; Stock and Watson, 1988; Johansen, 1991). Yet, for small samples, testing for cointegration and order determination may still be considered an open problem. Some proposals were formulated which use Bartlett factors for correction (Johansen, 2000), or perform a bootstrap estimate (Fachin, 2000). Both alternatives have been investigated by Omtzigt and Fachin (2001) on vector autoregressive cointegrated models by using a Monte Carlo experiment. Further important developments of the concept of cointegration are concerned with seasonal cointegration (Cubadda, 2001b) and the notion of common cycles (Vahid and Engle, 1993; Cubadda, 1999, 2001a).
The literature on models and empirical evaluation of volatility of financial time series is impressive. Thousands of articles on GARCH and Stochastic Volatility have been published in national and international journals. Recently, much interest has been given to methods for estimating the volatility of large portfolios. The multivariate methods originarily proposed were applicable only to sets of two or three time series.
There are mainly three types of approaches. The first is based on orthogonalization methods (e.g. Giannini and Rossi, Alexander, Klaassen); the second is based on factor structures, where the unobservable factors follow a GARCH or a Stochastic Volatility process (e.g. Diebold and Nerlove,King, or Chib, Nardari and Sentana, or Sentana and Fiorentini); the third is the approach recently proposed by Engle, that models the simple correlations between different asset returns with a conditionally autoregressive technique, to build, at the end, a positive definite variance covariance matrix.
Latent variable models have assumed an increasing importance in the past ten years for the analysis of economic and financial phenomena. Dynamic Factor Models and their use for forecasting purposes have followed two parallel sets of contributions: the main ones are those started by Forni, Hallin, Lippi and Reichlin on the one hand and by Stock and Watson on the other. The former, in a series of papers published recently and others forthcoming, suggest to use dynamic principal components (Brillinger) showing their validity also for more realistic cases of generalized factor structures. The latter authors, instead, suggest to use an augmented static model and using the traditional static principal components, identify the space generated by common factors and use it as an information set on which forecasts of the series of interest can be based. Both approaches allow one to use the joint information contained in thousand of time series. If on the one hand the status of development of the theory is quite mature, the empirical applications are not so advanced. The most notable applications are the one by Marcellino, Stock e Watson and the synthetic business cycle indicator developed jointly by the Bank of Italy and by the Centre for Economic Policy and Research (CEPR).
As an additional problem, the above methods are nonparametric and assume weak stationarity of the time series. This last hypothesis is not satisfied in practice, therefore the series are preliminarily transformed to remove trend and seasonality. As a consequence, different transformation methods may lead to quite different results (Fiorentini and Planas).
The anticipated estimate, based on reduced information of synthetic economic indicators is addressed by Maravalle et al (1993), and has been afterwards developed and applied (Maravalle and Coccia ,1995; Ciammola and Coccia, 2000). The basic idea is essentially the utilization of univariate synthetic time series, obtained by synthesis procedure as principal component analysis (PCA). At the same time the results of the team, which refers to CEPR( Centre for Economic Policy Research) of London are developed to our aims, have opened an interesting overlapping area, based above all on the dynamic extension of factor analysis (Forni, Lippi et al. , 2001, 2002). Battaglia and Fenga (2003) deal with similar problem and propose an approach from a conditional expectation point of view. Problems also arise of choice and selection of variables, which are common in multiple regression analysis, but are also relevant in various multivariate analysis instances. An interesting approach is proposed in Ciammola's Ph.D Dissertation (2003), which gives also a stimulating contribution to heuristic solution to the problem based on Jolliffe (1986) and Krzanowski (1987a and 1987b) results.


2.2.a Riferimenti bibliografici

Alexander, C. (2000): " A primer on the Orthogonal GARCH Model", manuscript ISMA Centre, University of Reading, UK
Baragona, R., Battaglia, F. and Calzini, C. (2001) "Genetic algorithms for the identification of additive and innovation outliers in time series", Comput Statist & Data Anal, 37, 1-12
Battaglia, F., Fenga, L. (2003) Forecasting composite indicators with anticipated information: an application to the industrial production index, Applied Statistics, 52
Box, G. E. P. and Jenkins, G. M. (1970) Time Series Analysis: Forecasting and Control. Holden-Day, San Francisco
Brillinger, D.R (1981): Time Series Analysis: Data Analysis and Theory, Holt, Rinehart & Winston, New York
Brooks, S. P. and Morgan, B. J. T. (1995) “Optimization using simulated annealing” The Statistician, 44, 241-257
Calzolari, G., Di Iorio, F., Fiorentini G. (2001): "Indirect Inference and Variance Reduction using Control Variates", Metron, LIX, 39-53
Chatterjee, S., Laudato, M. and Lynch, L.A. (1996) Genetic algorithms and their Statist. applications: an introduction. Comput. Statist & Data Anal.22, 633-651
Chib, S., Nardari, F. and Shephard, N. (1998): "Analysis of High Dimensional Multivariate Stochastic Volatility Models", unpublished paper: John Olin School of Business, Washington University, St. Louis
Ciammola, A. (2003) Selezione di serie temporali a fini previsivi mediante tecniche fattoriali, Tesi di dottorato in Statistica Computazionale, Università Federico II di Napoli
Ciammola, A., Coccia, M. (2000) Proposta operativa per la stima anticipata dei dati del commercio estero dell'Italia con gli altri paesi della UE, Working Paper n.8, Ricerca Nazionale: Modelli Statistici per l'Analisi delle Serie Temporali.
Cubadda, G. (1999) “Common cycles in seasonal non-stationary time series” Journal of Applied Econometrics, 14, 273-291
Cubadda, G. (2001a) “Common features in time series with both deterministic and stochastic seasonality”, Econometric Reviews, 20, 201-216
Cubadda, G. (2001b) Complex reduced rank models for seasonality cointegrated time series, Oxford Bullettin of Economics and Statistics, 63, 497-511
Daubechies, I. (1990). The wavelet transform, time frequency localization and signal analysis, IEEE Trans. Info. Theory, 36
Diebold, F.X. and Nerlove, M. (1989): "The Dynamics of Exchange Rate Volatility: A Multivariate Latent Factor ARCH Model", Journal of Applied Econometrics 4, 1-21
Engle, R. F. and Granger, C. W. J. (1987) “Co-integration and Error Correction: Representation,Estimation, and Testing”, Econometrica, 55, 251-267
Engle, R.F. (2003) "Dynamic Conditional Correlation - A Simple Class of Multivariate GARCH Models," Forthcoming, Journal of Business and Economic Statistics
Engle, R.F. and G.M. Gallo (2003) A Multiple Indicators Model For Volatility Using Intra-Daily Data, mimeo, presentato a JSM - New York e ESEM - Venezia
Fachin, S. (2000) ``Bootstrap and asymptotic tests of long-run relationships in cointegrated systems'' Oxford Bull. Econ. and Statist., vol. 62, pp. 577-585
Fiorentini, G. and Planas, C. (2001): "Overcoming Non Admissibility in ARIMA-Model-Based Signal Extraction", Journal of Business and Economics Statistics, 19
Forni M. and Lippi M. (2001): "The Generalized Dynamic Factor Model: Representation Theory", Econometric Theory, 17, 1113-1141
Forni M., M. Hallin, Lippi M. and L. Reichlin (2002): "The Generalized Dynamic Factor Model: Consistency and Rates", Journal of Econometrics, forthcoming
Forni M., M. Hallin, Lippi M. and L. Reichlin (2001): "Coincident and Leading Indicators for the Euro area", The Economic Journal, 111, 62-85
Fox, A.J. (1972) "Outliers in time series". J. of the R. Statist. Society, Series B, 43, 350-363
Gaetan, C. (2000) "Subset ARMA model identification using genetic algorithms", J. of Time Series Analysis, 21, 559-570
Giannini, C., Rossi, E. (1999): " A principal components multivariate GARCH technique for medium size portfolio management", Collana Studi di Unicredito Italiano, n.6, 4/1999
Gourieroux, C. and A. Monfort (1996): Simulation-Based Econometric Methods, Oxford University Press
Granger, Clive W.J. and Andersen, A. (1978) Introduction to Bilinear Time Series Models, Vandenhoeck & Ruprect, Gottingen
Granger, CliveW.J. and Teräsvirta, T. (1993) Modelling Nonlinear Dynamic Relationships, Oxford University Press
Haggan V. and Ozaki T. (1981) “Modelling nonlinear random vibrations using an amplitude-dependent autoregressive time series model” Biometrika, 68, 189-196
Holland, J. M. (1975) Adaptation in Natural and Artificial Systems: an Introductory Analysis with Applications to Biology, Control and AI. The University of Michigan Press, Ann Arbor, MI
Johansen, S. (1991) “Estimation and Hypothesis Testing of Cointegration Vectors in Gaussian Vector Autoregressive Models”, Econometrica, 59, 1551-1580
Johansen, S. (2000) ``A Bartlett Correction Factor for Tests on the Cointegrating Relations'' Econometric Theory, vol. 16, pp. 740-778.
Jolliffe,I.T. (1986) Principal component analysis, Springer- Verlag, New York
Kay, S.M.(1993). Fundamentals of Statistical Signal Processing, Prentice-Hall
King, M.A., Sentana, E. and Wadhwani S.B. (1994): "Volatility and Links between National Stock Markets", Econometrica 62, 901-933
Klaassen, F. (1999): " Have exchange rates become more closely tied?: evidence froma new multivariate Garch Model", Discussion Paper 10, Tilburg University, Center for Economic Research
Krzanowski, W. J. (1987a) Selection of variables to preserve multivariate data structure, using principal components, Applied Statistics, 36, 22-33
Krzanowski, W. J. (1987b) Cross-validation in principal component analysis, Biometrics, 43, 575-584
Maravalle, M., Politi, M., Iafolla, P. (1993) Scelta di indicatori per la stima rapida di un indice della produzione industriale, Quaderni di Ricerca n. 6, metodologia e informatica, ISTAT
Maravalle, M., Coccia, M. (1999). Stima anticipata e previsione dell'indice provvisorio della produzione industriale. In "Modelli e Strumenti per l'Analisi Economica a Breve Termine ". Annali di Statistica- Anno 128- Serie X-vol.17-335-348. Istat - Roma
Marcellino, M., Stock J. and Watson M. (2002): "Macroeconomic Forecasting in the Euro Area: Country Specific versus Euro Wide Information", European Economic Review, forthcoming
Minerva, T. and Poli, I. (2001) Building ARMA models by genetic algorithms. Lecture Notes in Computer Science, 2037, 335-342
Mitchell, M. (1996) An Introduction to Genetic Algorithms, The MIT Press
Ogden, R.T. (1997). Essential Wavelets for Statistical Applications and Data Analysis, Birkhauser
Omtzigt, P. and Fachin, S. (2001) “Bootstrapping and Bartlett corrections in the cointegrated VAR model”.Presented at: "Casuality and Exogeneity in Econometrics", European Conference Series in Quantitative Economics and Econometrics – (EC)2, Louvain-la-Neuve
Priestley, M. B. (1988a) Non linear and non stationary time series, Academic Press, London
Priestley, M. B. (1988b) ``Current developments in time series modelling'' J. of Econometrics, 37 , 67-86
Reyneri, L.M., (1999). Unification of Neural and Wavelet Networks and Fuzzy Systems, IEEE
Sentana, E. and Fiorentini G. (2001): "Identification, Estimation and Testing of Conditionally Heteroskedastic Factor Models", Journal of Econometrics 102, 143-164
Stock, J. H. and Watson, M.W. (1988) “Testing for Common Trends”, J. of the Am. Statist. Association, 83, 1097-1107
Stock J.H. and M.W. Watson (2002): "Diffusion Indices", Journal of Business and Economic Statistics, 20, 2, 147-162
Tong, H. (1983) A threshold model in non linear time series analysis, Lecture Notes in Statistics, Springer
Vahid, F., and R. F. Engle (1993), “Common trends and common cycles”, Journal of Applied Econometrics, 8, 341-360
Yadavalli, V. S. Sarma and Singh, N. (2000) Markovian representation of a bilinear time series model and maximum likelihood estimation of the parameters, Stochastic Analysis and Applications,18(2), 309-321


2.3 Numero di fasi del Programma di Ricerca:    1


2.4 Descrizione del Programma di Ricerca

Fase 1



Durata e costo previsto

Durata   Mesi  24  Costo previsto   Euro  168.600 




Descrizione


Testo italiano

L’attivita’ di ricerca si sviluppera’ con continuita’ durante i due anni di durata del progetto, seguendo i filoni principali indicati qui di seguito, ai quali collaborano le varie unita’.
Saranno organizzati, come momenti di confronto, verifica e pubblicizzazione, due convegni: il primo intermedio, alla fine del primo anno di attivita’, e l’altro finale, dopo la conclusione della ricerca.
Si elencano i principali argomenti che saranno oggetto di attivita’ di ricerca, segnalando anche quali unita’ saranno piu’ direttamente impegnate
- Studio sulla presenza di cicli comuni per la costruzione di indicatori sintetici, coincidenti e anticipatori, del ciclo economico; elaborazione di procedure inferenziali efficienti, sia in senso statistico che computazionale, per l’analisi di cointegrazione di serie stagionali; costruzione di misure dei co-movimenti dei cicli economici internazionali e valutazione mediante bootstrap della loro variabilita’ campionaria. (Unita’ Molise, Roma ).
- Studio della cointegrazione relativamente al problema di stabilire se le serie in esame siano cointegrate e quale sia l’ordine di cointegrazione. Il problema della verifica dell’ipotesi di cointegrazione è stato affrontato da diversi punti di vista, tuttavia nessuna delle proposte esistenti è completamente soddisfacente. Le possibili alternative, nell’ambito dell’impostazione classica, sono due: (a) Utilizzare delle statistiche corrette mediante l'applicazione di fattori di Bartlett, le cui distribuzioni siano quindi più vicine a quelle asintotiche ; (b) Cercare di stimare l'effettiva distribuzione mediante il bootstrap. Omtzigt e Fachin (2001) hanno riesaminato le modalità sia del calcolo del fattore di Bartlett che di costruzione di test bootstrap nei VAR cointegrati, e verificato mediante simulazioni Monte Carlo i risultati forniti dai due metodi, concludendo che i test bootstrap hanno la minore distorsione e potenza solo leggermente minore dei test con correzione di Bartlett. Cio’ è di particolare importanza in quanto la correzione di Bartlett è stata finora calcolata solamente per i test di minore interesse empirico, ossia quelli la cui ipotesi nulla fissa interi vettori di cointegrazione. Non esiste quindi ancora nessuna indicazione su come verificare in piccoli campioni sia ipotesi su solamente una parte dello spazio di cointegrazione che ipotesi in forma di vincoli lineari. Una importante linea di ricerca è quindi data innanzitutto dall’estensione a questa classe di test delle procedure bootstrap sviluppate in Omtzigt e Fachin; sviluppi ulteriori dovranno poi affrontare il problema di test in presenza di cambiamenti strutturali nello spazio di cointegrazione (Unita’ di Roma e Molise).
- Stima della volatilita’ in ambito finanziario. Studio del raccordo tra dati disponibili ad altissima frequenza e a frequenza giornaliera per sfruttare l’informazione disponibile in maniera ottimale, definendo diversi indicatori di volatilita’ e studiandone proprieta’ e relazioni (Unita’ di Firenze).
- Proposta e verifica empirica di una metodologia per l’identificazione e la stima di modelli dipendenti dallo stato, in particolare i modelli a soglia, Markov switching, bilineari ed esponenziali, e di modelli autoregressivi condizionali eteroschedastici e loro generalizzazioni ( e in particolare l’asimmetria della varianza condizionata), e autoregressivi a somma mobile a differenze frazionarie. Studio del trattamento di dati anomali e osservazioni mancanti in serie temporali non lineari (unità di Firenze, Molise, Roma).
- Studio e applicazione di metodologie di analisi di serie temporali non stazionarie. La non stazionarietà di una dinamica temporale o spaziale viene intesa, in questa sede, nell’accezione di cambiamenti bruschi e improvvisi, di singolarità, o di irregolarità casuali e non. La non stazionarietà verrà accertata con la costruzione di test formulati per la verifica della non invarianza nella dinamica. Si costruiranno test basati su metodi di permutazione, test basati sull’approccio di combinazioni di previsori, e test robusti (unità di Venezia, Roma).
- studio della stima del parametro di Hurst che caratterizza la auto-similarità e equivalentemente la dipendenza long range (mediante semplice trasformazione del parametro). Lo studio teorico e pratico, basato sia su simulazione che sull’applicazione a dati reali, della versione semiparametrica degli stimatori di Whittle “aggregato” e di Whittle “locale” ha condotto finora a scegliere il primo come stima semiparametrica da utilizzare per definire stime delle prestazioni di sistemi a coda. Lo studio proseguirà con l’esame delle proprietà statistiche, computazionali e di robustezza della recente proposta di stima semiparametrica del parametro di Hurst basata sulle wavelets e con il confronto delle stesse con le corrispondenti proprietà degli stimatori precedentemente analizzati. La decomposizione wavelet di una serie sembra offrire, tra gli altri, il pregio di identificare trends polinomiali che potrebbero essere erroneamente confusi con la presenza simultanea di stazionarietà e “long range dependence” e di eliminarne l’influenza sulla stima del parametro di Hurst. Inoltre, la rappresentazione wavelet puo' essere efficacemente utilizzata anche a fini previsivi, per esempio in modelli di regressione non parametrica (unità di Molise).
- Costruzione di una classe di modelli di rete neurale artificiale di recente proposizione, denominata wavelet networks, e basata sulla teoria delle wavelets. Applicazione allo studio del sistema urbano dal 1600 ad oggi. Nel settore d’analisi concernente dinamiche con singolarità e cambiamenti irregolari di regime la teoria delle wavelet sembra infatti ricevere un crescente interesse sia negli aspetti teorici sia nelle applicazioni. Una ulteriore estensione concerne la decomposizione della varianza mediante trasformate wavelet packet, utili ai fini della localizzazione di punti di cambiamento della varianza (unità di Firenze, Molise, Venezia).
- Modelli dinamici a fattori latenti. Questi modelli permettono di sintetizzare le informazioni rilevanti in insiemi di dati di grandi dimensioni, per poterle utilizzare sia a fini previsivi sia allo scopo di analizzare il ciclo economico. Le metodologie proposte fino a oggi sono essenzialmente non parametriche, il gruppo intende sviluppare modelli parametrici a fattori latenti. In questo caso, la specificazione parametrica e’ sicuramente di piu’ facile interpretazione e apporta piu’ informazioni. Ovviamente ci sono molti problemi irrisolti legati alla specificazione e alla stima. Si intende anche confrontare empiricamente le impostazioni sviluppate da Forni, Lippi e Reichlin da una parte e da Stock e Watson dall’altra per i paesi dell’Unione Europea (Unita’ di Firenze e l’Aquila).
- Proposta e studio di procedure in grado di aumentare la capacità previsiva degli indicatori e/o delle serie sintetiche. Dopo aver consolidato in senso univariato /statico il modello nelle precedenti ricerche si tratta ora di renderlo dinamico attraverso le diverse opzioni dell’analisi fattoriale dinamica per la quale sono ancora in atto sia studi teorici che applicativi. Allo stesso tempo, si ritiene che, attraverso modelli con serie sintetiche bivariate (o, in prospettiva, multiple) come ad esempio quelle originate dagli score sulle prime due componenti principali, si potrebbe avere un miglioramento delle potenzialità del modello. Cio’ comporta anche la necessita’ di sviluppare criteri efficienti per la selezione delle variabili (unità di L’Aquila, Firenze, Roma ).
- Metodi di simulazione e di inferenza indiretta. Senza alcuna pretesa di dare risposte definitive ai quesiti aperti sulla loro affidabilita' , il gruppo di ricerca intende contribuire alla risoluzione di alcuni problemi, in particolare sui seguenti argomenti: 1) modelli discreti di volatilita' stocastica, affrontati con metodi di inferenza indiretta; 2) modelli fattoriali con eteroschedasticita' condizionata, affrontati con inferenza indiretta e restrizioni (vincoli); 3) metodi di simulazione per l'analisi di serie finanziarie con cambiamenti di regime (unità di Firenze).
- Applicazione del calcolo evolutivo a problemi di natura statistica. In particolare verranno costruiti algoritmi genetici per la identificazione di modelli non lineari, per la scelta della topologia delle reti neurali, per la selezione del modello wavelet, per la individuazione di dati anomali (Unita’ di Venezia e Roma ).


Testo inglese

The research activity will be carried on with continuity over the two years, following the main topics which we are going to enumerate. Different research units will generally collaborate to the same subject. Two meetings will be organised for discussing and verifying our research findings, the first one will be at the end of the first year, and the final meeting will take place at the end of the research activities.
A list of the main addressed research topics follows, together with an indication of the most involved research units.
- Analysis of common cycles for the derivation of synthetic, both leading and coincident, indicators of the economic cycles. Derivation of efficient inference techniques, both from a statistical and computational point of view, for the cointegration analysis of seasonal series; measures for co-movements of the international business cycles and evaluation, through bootstrap techniques, of their sample variability (units of Molise, Roma ).
- Cointegration, with reference to the problem of deciding whether the series are cointegrated and what is the cointegration rank. There are many different approaches concerning the problem of testing for cointegration, but none seems completely satisfactory. From a classical point of view, there are two main possible alternatives: (a) the use of Bartlett correction to obtain unbiased statistics whose distributions are nearer to the asymptotic one, or (b) application of bootstrap to estimate the real distribution of the test statistics. Omtzigt and Fachin (2001) analysed both the procedure to compute the Bartlett correction factor and the method for building bootstrap tests for cointegrated VAR models. The two approaches have been compared by Monte Carlo simulations, and results show that bootstrap tests are less biased and have only slightly less power than the Bartlett corrected tests. This is particularly relevant since in the literature Bartlett corrections have been applied only to tests which are not really interesting from an applied point of view, i.e. where the values of the elements of the cointegration vectors are fixed in the null hypothesis. There is still no solution to the problem of testing hypotheses on a subset of the cointegration space, or expressed as linear constraints, and we shall extend the bootstrap procedures to this class of tests. Then, we shall concentrate on the problem of testing structural changes in the cointegration space (units of Roma and Molise).
- Volatility studies in financial analysis and applications. Linking data available at very high frequency with data available at daily frequency, for an optimal use of available information, defining different volatility indicators and studying their properties and relationships.
- Derivation and empirical checking of a method for identification and parameter estimation of state dependent models, in particular threshold, Markov switching, bilinear and exponential autoregressive models; also, conditional heteroskedastic and their generalisations (in particular asymmetry of the conditional variance), and fractional differenced models will be addressed. Methods for detecting outliers and treating missing data in non linear models (units of Firenze, Molise, Roma ).
- Analysis of non stationary time series and its applications. Here we specifically take into account sudden changes, singularities, random and non random large irregularities. First of all the non invariance of the series dynamics will be verified; to this aim, robust tests, permutation tests and test based on the combination of forecasts will be derived and evaluated (units of Rome, Venezia).
- Estimation methods for the Hurst parameter, characterising self-similarity and equivalently long-range dependence (through a simple parameter transformation). Two different types, aggregate and local, of a semi-parametric version of the Whittle estimator have been theoretically studied and applied to simulated and real data, suggesting that the aggregated type is preferable for evaluating queuing systems. A further stage is concerned with a recently proposed semi-parametric estimator of the Hurst parameter, based on wavelets, and the analysis of its statistical and computational properties, and robustness. The wavelets decomposition seems suitable to enable identification of polynomial trends which might be confused with a simultaneous presence of stationarity and long range dependence, and to remove their influence on the estimation of the Hurst parameter. Also, the wavelet representation can be effectively used in forecasting, for example in non parametric regression models (unit of Molise).
- Study of a recently proposed class of neural networks, called wavelet networks, which are based on wavelets theory. Application to the European urban system from 1600 to the present. In fact, recently an increasing both theoretical and applications interest arose in the theory of the wavelets for the analysis of suddenly changing dynamics and/or with singularities. A further extension is concerned with the variance decomposition using wavelet packet transforms, which is useful for localizing the variance change points (units of Firenze, Molise, Venezia)
-Latent factors dynamic models. Dynamic factor models have been greatly developed in the last few years. They allow to synthesise relevant information inside large amounts of data. This information can be used for the business cycle analysis and for prediction. Methods proposed till now are mainly nonparametric; we shall develop parametric models with latent factors. In this case, the parametric specification can be more easily interpreted and is more informative. Obviously there are many unsolved problems of identification and estimation. The methods of Forni, Lippi and Reichlin and the methods of Stock and Watson will be empirically compared on data relating to the European Union countries (units of Firenze and l'Aquila).
- Procedures aimed at increasing the forecast ability of synthetic indicators. Previous research was concerned with a univariate and static model, that will now be extended to account for dynamics through the different options of dynamic factor analysis, which is itself the object of analytical and applications studies. Further, an improvement of the model performance can be pursued using bivariate (or even multivariate) synthetic series, such as those arising from the scores of the first and second principal components. This calls also for efficient selection of variables criteria (unit of Roma and L'Aquila).
- Simulation, and indirect inference methods. We will examine the statistical adequacy, that is if the estimators that such methods are able to provide have desirable properties such as unbiasedness, consistency and efficiency, and also the numerical reliability to ensure the iterative algorithms to converge. We shall take into account some open problems in particular concerning the following topics: 1) discrete volatility models, addressed by means of indirect inference; 2) factor models with conditional heteroskedasticity, addressed by means of constrained indirect inference; 3) continuous volatility models, also in a multivariate environment (unit of Firenze).
- Applications of the evolutionary computation to statistical problems. In particular we aim at building and proposing genetic algorithms for non linear models identification, for the choice of a neural net topology, for the selection of the wavelet model, for detecting outliers in time series (units of Venezia and Roma).



Risultati parziali attesi


Testo italiano

Il progetto non e' articolato in fasi, ma prevede un gran numero di attivita' di ricerca su temi diversi, a ciascuna delle quali partecipano piu' unita', e che si svolgeranno con tempi compatibili anche con le opportunita' di collaborazione tra i vari gruppi, che non possono essere facilmente previsti, ne' devono obbligatoriamente seguire un ordine temporale rigido.
Pertanto i risultati della prima fase coincidono con i risultati complessivi del progetto, che potranno essere misurati attraverso i lavori scientifici dei singoli membri dei gruppi, scaturenti sia da comunicazioni a convegni, sia publicazioni su riviste.


Testo inglese

We chose not to split our project in different stages, since it is composed of a large number of research acitvities devoted to different subjects, and that will be carried on by people from several local units. Their timing will be also determined by the meeting and collaboration opportunities between the different units, and may not be exactly predicted, nor have a natural order.
Therefore the results of the first phase coincide with those of the whole project, and they may be measured through the scientific papers written by each member, which will be presented at meetings and congresses, or published by scientific journals



Unità di Ricerca impegnate

Unità n. 1  
Unità n. 2  
Unità n. 3  
Unità n. 4  
Unità n. 5  





2.5 Criteri suggeriti per la valutazione globale e delle singole fasi


Testo italiano

I risultati della ricerca possono essere valutati attraverso il materiale prodotto: rapporti tecnici intermedi e finali,comunicazioni a Riunioni Scientifiche e Convegni, pubblicazioni su riviste scientifiche, organizzazione di incontri, seminari e convegni.

Testo inglese

Research results may be evaluated basing on produced material: intermediate and final reports, contributions to Meetings and Congresses, papers published in scientific journals, organization of seminars and meetings.


PARTE III


3.1 Spese delle Unità di Ricerca

Unità di Ricerca  Voce di spesa  TOTALE
Materiale inventariabile  Grandi Attrezzature  Materiale di consumo e funzionamento  Spese per calcolo ed elaborazione dati  Personale a contratto  Servizi esterni  Missioni  Partecipazione / Organizzazione convegni  Pubblicazioni  Altro  
Unità nº 1   3.500   0   1.500   500   14.000   2.000   7.000   2.500   1.000   0   32.000
Unità nº 2   9.000   0   1.500   0   0   0   17.000   6.000   0   1.500   35.000
Unità nº 3   7.000   0   5.000   2.000   0   0   20.000   6.000   0   0   40.000
Unità nº 4   3.100   0   500   0   0   0   9.000   15.000   0   1.000   28.600
Unità nº 5   10.000   0   1.000   1.000   6.000   0   12.000   3.000   0   0   33.000
   32.600  9.500  3.500  20.000  2.000  65.000  32.500  1.000  2.500  168.600




3.2 Partecipazione finanziaria

Il coordinatore certifica che il progetto ha carattere di originalità e non è finanziato o cofinanziato da altre amministrazioni pubbliche (art. 4 bando 2003) 
SI  



3.3 Costo complessivo del Programma di Ricerca e risorse disponibili

Unità di Ricerca  Voce di spesa 
RD  RA  RD+RA  Cofinanziamento di altre amministrazioni pubbliche  Cofinanziamento richiesto al MIUR  Costo totale del programma  Costo minimo 
Unità n. 1   9.600   0   9.600   0   22.400   32.000   25.000  
Unità n. 2   1.500   9.000   10.500   0   24.500   35.000   32.000  
Unità n. 3   6.600   5.400   12.000   0   28.000   40.000   30.000  
Unità n. 4   6.200   2.400   8.600   0   20.000   28.600   15.000  
Unità n. 5   0   9.900   9.900   0   23.100   33.000   26.000  
   23.900  26.700  50.600  118.000  168.600  128.000 




   Euro   
Costo complessivo del Programma   168.600 
   
Fondi disponibili (RD)   23.900 
   
Fondi acquisibili (RA)   26.700 
   
Cofinanziamento di altre amministrazioni
pubbliche (art. 4 bando 2003)
 
0 
   
Cofinanziamento richiesto al MIUR   118.000 



3.4 Costo minimo per garantire la possibilità di verifica dei risultati

Euro   128.000  (dal sistema, quale somma delle indicazioni dei Modelli B)  
Euro  128.000  (dal Coordinatore del Programma)  




(per la copia da depositare presso l'Ateneo e per l'assenso alla diffusione via Internet delle informazioni riguardanti i programmi finanziati; legge del 31.12.96 n° 675 sulla "Tutela dei dati personali")


Firma _____________________________________   Data 31/03/2003 ore 09:44