Un nuova strategia di trading system: "Bull flattener" (1 Viewer)

Cren

Forumer storico
Con un AR(1) per ciascun parametro, possiamo fare una previsione per il prossimo mese
Per quei pochi che si stessero chiedendo «Ma Diebold e Li dicono che il loro modello ha massima efficacia previsionale a 12 mesi di distanza, ad 1 mese fa schifo! Quindi?», mostro la previsione a 12 mesi.

Non è difficile capire da dove salta fuori: verosimilmente il modello estrae un comportamento mean reverting da beta_0 e quindi giudica in questo momento la curva italiana 'alta', ovvero ritiene che debba tornare a più miti valori con i BTP che salgono di prezzo.

Fategli capire che abbiamo avuto Berlusconi e qualche altro problemino come l'euro, la Germania e un grosso rischio default nel mezzo :D

Oppure il modello è più furbo di tutti e sa che Monti ci salverà? Ne dubito fortemente :rolleyes:

Concludo per chi se lo stesse chiedendo: sì, sono andato a verificare le previsioni del modello qualche mese prima dell'attacco speculativo che ci ha investiti nell'ultimo trimestre del 2011; la risposta è ovviamente scontata: lungi dal modello essere in grado di anticipare quel movimento devastante sulla curva dei BTP.

D'altronde per giustificare questo scivolone l'econometrista devoto scomoderebbe quasi sicuramente almeno un paio di simpatici break strutturali che invalidano le stime fatte.

Io, che econometrista non sono, molto più prosaicamente mi permetto di suggerire che quando un emittente subisce dei downgrade sarebbe il caso di considerare la sua curva da zero ed evitare raffronti col passato, perchè è verosimile che questo non abbia più alcuna valenza.

Questo non perchè io attribuisca proprietà divinatorie ai rating, ma semplicemente perchè la stragrande maggioranza dei modelli di gestione del rischio di portafogli obbligazionari sono parametrati alle migrazioni da una classe di rating all'altra, e quindi vi conviene adeguarvi ai flussi dei fondi obbligazionari e delle gestioni patrimoniali.

In soldoni: fate il giochino Diebold-Li usando campioni omogenei per classe di rating dell'emittente, non pensate nemmeno di stimare i parametri su un campione che ha anche solo una variazione di rating nel mezzo!
 

Allegati

  • img.png
    img.png
    8,5 KB · Visite: 461
Ultima modifica:

Cren

Forumer storico
In soldoni: fate il giochino Diebold-Li usando campioni omogenei per classe di rating dell'emittente, non pensate nemmeno di stimare i parametri su un campione che ha anche solo una variazione di rating nel mezzo!
Allego codice per R Commander (è una delle varie GUI per dare comandi a R più comodamente); sembra corto ma in realtà ci sono un sacco di istruzioni sulle stesse righe, quindi vi risparmiate di pigiare tasti per dare il via ad ogni istruzione ma farete un po' più fatica a capirlo:
Codice:
	#	Nelson-Siegel and Diebold-Li yield curve forecasting model
	#	By Cren
	
	#	-----------	

	##	Loading required packages

library(YieldCurve, pos=4) ; library(quantmod, pos=4) ; library(ggplot2, pos=4) ; library(FitAR, pos=4) ; library(forecast, pos=4)

	#	-----------

	##	Nelson-Siegel fitting

	###	Put R Var yield time series matrix as "X" (comprehensive of date rows and columns maturities); creating empty parameters' matrix

pnames <- c("beta_0", "beta_1", "beta_2", "lambda") ; param <- matrix(0, nrow = dim(X)[1], ncol = 4, dimnames = list(NULL, pnames)) ; param

	###	Fitting Nelson-Siegel model	

for(i in 1:dim(X)[1]) {beta <- Nelson.Siegel(rate = X[i,], maturity = c(seq(from = 1, to = 10, by = 1), 15, 20, 30) * 12, MidTau = c(3, 5, 7) * 12) ; param[i,] <- t(beta)}
plot(as.timeSeries(param), main = "BTPs' Nelson-Siegel parameters", xlab = "Monthly observations from 28/2/2003 to 30/3/2012") ; grid(nx = 20, ny = 20)

	#	-----------

	##	Diebold-Li forecasting

	###	Augmented-Dickey-Fuller unit root test for each parameter

for(i in 1:4) {print(summary(ur.df(param[,i], type = "drift", lags = 1)))}
	
	###	Fitting AR(1) model (you can use "stats" or "FitAR" package according to your taste)

ar.beta <- matrix(0, nrow = 1, ncol = 4)
for(i in 1:4) {k <- FitARp(param[,i], 1, lag.max = 1, MLEQ = FALSE) ; ar.beta[,i] <- predict(k, n.ahead = 1)$Forecasts[1]}
for(i in 1:4) {k <- ar(x = param[,i], aic = FALSE, order.max = 1, demean = TRUE) ; ar.beta[,i] <- predict(k, n.ahead = 1)$pred[1]}

	###	Yield curve forecasting via AR(1) model

y_1 <- NSrates(betaCoeff = param[dim(X)[1],1:3], lambdat = param[dim(X)[1],4], maturity = c(seq(from = 1, to = 10, by = 1), 15, 20, 30) * 12)	; y_1 ; y <- NSrates(betaCoeff = ar.beta[,1:3], lambdat = ar.beta[4], maturity = c(seq(from = 1, to = 10, by = 1), 15, 20, 30) * 12) ; y ; Maturity <- c(seq(from = 1, to = 10, by = 1), 15, 20, 30) * 1 ; Maturity
plot(lwd = 2, X[dim(X)[1],] ~ Maturity, main = "Diebold-Li BTPs' yield curve prediction", ylab = "Yield [%]", xlab = "Maturity [years]", type = "b") ; lines(lwd = 2, Maturity, y, col = 2) ; lines(lwd = 2, Maturity, y_1, col = 3) ; grid(nx = 20, ny = 20) ; legend(lwd = c(2, 2, 2), col = c(1, 2, 3), bty = "n", x = "bottomright", legend = c("Actual yield curve", "1 month forecasted yield curve", "Actual Nelson-Siegel fitting"))
E allego anche il foglio Excel con i dati che ho usato, se vi volete divertire un po' ;)

Una nota di colore per Imar, se mai dovesse capitare qui per caso: mentre si guarda questo benedetto modello che, a quanto pare, è usato anche dalla Banca d'Italia, un appassionato di opzioni non può fare a meno di fare dei parallelismi tra una qualsiasi yield curve e la IVTS 100% moneyness... il che apre degli interrogativi ma anche delle riflessioni stimolanti, ne convieni? :)
 

Allegati

  • Diebold-Li.xls
    271 KB · Visite: 253
Ultima modifica:

Piedi a Terra

Forumer storico
Leggo adesso questo tuo mini-tutorial sulla curva dei tassi di interesse italiani e sulle differenze tra NS (o SN) e Debolt Li e debbo porti innanzitutto i miei complimenti, uniti all'apprezzamento. Confesso anche un moto istintivo di invidia e di ammirazione per la facilita' con cui utilizzi "R" per trattare problemi cosi' complessi di analisi numerica.

Ci sono varie cose che vorrei approfondire, ma lo faremo nei prossimi giorni con maggior calma.

La mia prima impressione (ma forse sarebbe meglio parlare di ipotesi, visto che un paio di grafici non dovrebbero essere sufficienti per poter parlare nemmeno di una vaga impressione) e' che il Debold Li possa presentare una qualche forma di parallelismo con i modelli della famiglia Garch utili per prevedere l'evoluzione della volatilita'. Se esiste una qualche forma di stazionarieta' dei 3 Beta sul passato preso in esame Debold Li puo' prevedere con apprezzabile grado di approssimazione l'evoluzioni della curva dei tassi di interesse alla condizione strettamente necessaria (se e solo se) non accadano i classici shock o break strutturali ai quali tu accenni con la caduta del governo Berlusconi.

E' utile conoscere una stima dei tassi da 1 mese ad 1 anno con il migliore dei modelli previsivi che abbiamo a disposizione da parte della comunita' di studiosi sapendo che qualsiasi shock strutturale potrebbe determinare un cambio del regime di volatlita', della curvatura, etc. ?

Io non fermerei alla risposta "Si", una previsione e' meglio di una non previsione, ma cercherei di individuare delle regole come tu hai cercato di individuare in caso di evenienza di detti break strutturali, come riconsiderare la curva da zero.

Grazie di tutto

P.S. Conforta comunque osservare che il Debold Li by Cren "voterebbe" a favore del Bull flattener :)
 

Piedi a Terra

Forumer storico
Ripropongo il tuo primo grafico Excel 2003 sopra in un formato grafico piu' leggibile, cosi' da avere una rappresentazione di come si siano mossi nel tempo i tassi in Italia, base di dati che poi il DeBold Li utilizza per le sue previsioni.
 

Allegati

  • Image1.jpg
    Image1.jpg
    63,8 KB · Visite: 200

Cren

Forumer storico
Sono contento che tu abbia apprezzato :)

Adesso aspettiamo un eventuale intervento da parte di GiveMeLeverage che si era detto interessato a capire il funzionamento del Diebold-Li.
La mia prima impressione (ma forse sarebbe meglio parlare di ipotesi, visto che un paio di grafici non dovrebbero essere sufficienti per poter parlare nemmeno di una vaga impressione) e' che il Debold Li possa presentare una qualche forma di parallelismo con i modelli della famiglia Garch utili per prevedere l'evoluzione della volatilita'. Se esiste una qualche forma di stazionarieta' dei 3 Beta sul passato preso in esame Debold Li puo' prevedere con apprezzabile grado di approssimazione l'evoluzioni della curva dei tassi di interesse alla condizione strettamente necessaria (se e solo se) non accadano i classici shock o break strutturali ai quali tu accenni con la caduta del governo Berlusconi.

E' utile conoscere una stima dei tassi da 1 mese ad 1 anno con il migliore dei modelli previsivi che abbiamo a disposizione da parte della comunita' di studiosi sapendo che qualsiasi shock strutturale potrebbe determinare un cambio del regime di volatlita', della curvatura, etc. ?

Io non fermerei alla risposta "Si", una previsione e' meglio di una non previsione, ma cercherei di individuare delle regole come tu hai cercato di individuare in caso di evenienza di detti break strutturali, come riconsiderare la curva da zero.
Esattamente.

In merito al parallelismo con modelli GARCH in termini di strumenti atti a prevedere il comportamento di grandezze mean reverting, questo non deve stupire: i modelli autoregressivi per funzionare correttamente necessitano inevitabilmente di grandezze debolmente stazionarie che esibiscano un comportamento di ritorno verso la media; usando un AR(1) implicitamente fai un patto col diavolo di questo tipo: «Tu mi dai la preveggenza e io accetto implicitamente che sto trattando una grandezza stazionaria!» e se poi stazionaria non è te la sei giocata male :D

Per quanto riguarda invece i break strutturali, io ho elaborato quella "regola del pollice" perchè è coerente con il modello che uso di solito per gestire i rischi di portafogli obbligazionari (cioè il CreditMetrics di J.P. Morgan): dal momento che tutto il rischio è attribuito alla migrazione da una classe di rating a un'altra mi è parso naturale considerare il Diebold-Li come uno strumento da utilizzare fintanto che non si è fatto il "salto" in un'altra classe; a quel punto è verosimile assumere che beta_0 modifichi radicalmente il suo comportamento per adattarsi alla nuova condizione (ovvero «emittente più rischioso = curva complessivamente più alta»).

Infine la solita avvertenza... Usare il Diebold-Li alla cieca sparando previsioni e prendendo posizione sul decennale è poco furbo, semplicemente perchè suppongo vi basti guardare i tassi a lungo rispetto allo storico per capire quale sarà l'indicazione del modello: se siamo più alti che in passato, compra; se siamo più bassi che in passato, vendi.

Non è così che si fa!

A mio avviso questo ragionamento si può fare solo & soltanto con due condizioni:
  1. i parametri sono stimati su un campione privo di migrazioni di rating;
  2. il rating dell'agenzia che state seguendo (Standard & Poor's, Moody's o Fitch, di solito) è sempre ben aggiornato e riflette anche la predisposizione attuale dei mercati nei confronti di quell'emittente.
Se la prima condizione la potete controllare a piacimento (e semplifica anche il lavoro per il processore perchè ci sono meno dati da tritare), sulla seconda dovete fare attenzione; per esempio, supponiamo che ci proviate con le emissioni governative francesi: anche se il rating della Francia resta immutato, ci può essere un particolare periodo in cui nella mente degli investitori la Francia è già considerata meno solvibile e quindi si comporta come una classe di rating inferiore anche se S&P o Moody's ancora non hanno fatto downgrade.

In questo caso Diebold-Li vi dice «Compra, poi si risale perchè adesso beta_0 è basso e poi torna su!» ma in realtà i mercati scontano un livello atteso di beta_0 più basso perchè sono tutti in attesa del downgrade.

Su beta_1 il discorso è più complesso e merita considerazioni su cui devo riflettere bene.

Quindi occhio ;)
 
Ultima modifica:

Piedi a Terra

Forumer storico
La prima delle cose che volevo chiederti era se ravvedevi l'eventualita' di effettuare un test di sensibilita' del modello Cren-Diebold-Li-"R" (ho rispettato rigorosamente l'ordine alfabetico :D ). Lo presento impropriamente come un test di sensibilita' piu' che come un test di robustezza sul genere di quelli usuali che si conducono sulle serie storiche (test di significativita' statistica) per una ragione specifica.
Noi non possiamo sapere gia' adesso che siamo all'ABC della conoscenza se la previsione di curva CRLR (l'acronimo è spiegato sopra :D) sia stata effettuata secondo i corretti canoni prescrittivi della pregiatissima coppia Diebold Li. Potremmo incolpevolmente incorrere in errori di misura, errori di codice informatico, errori di interpolazione, anche semplicemente degli errori di misunderstanding, etc. per colpa dei quali un modello incorrettamente specificato puo' presentare dei risultati che appaiono positivi, ovvero output che ci piacciono oppure che sono ritenuti plausibili secondo il nostro senso comune, le nostre aspettative,etc.. Da qui il test di sensibilita', cioe' il tentativo di scoprire se con piccole variazioni degli input iniziali il test CRLR riesce a fornire approssimativamente lo stesso output.

Come ho ricordato ieri, i miei limitati esperimenti in passato con Vasicek, CIR e le polinomiali di terzo grado (anche se so che tu aborrisci quelle oltre il secondo grado senza mai avermelo ancora spiegato come mi avevi promesso:) ) ponevano alla base della costruzione dei modelli la necessita' di una normalizzazione della base dati, che nel CRLR non noto essere presente. La normalizzazione serve ad evidenziare le differenze prime tra la struttura dei tassi ed il tasso privo di rischio alla scadenza O, che convenzionalmente e' il tasso overnight. Questo pretrattamento per normalizzare i dati consiste semplicemente nel sottrarre da tutti i dati nel tuo foglio Excel il tasso overnight o un tasso equivalente, chiamato convenzionalmente tasso a "0" anni. La normalizzazione potra' sembrare una procedura insignificante ora che i tassi overnight sono vicini allo Zero, ma c'e' stato un periodo recente nel quale le banche erano terrorizzate l'un con l'altra e non si scambiavano depositi overnight se non tramite il ricorso alla BCE. Ricordo bene che i tassi overnight schizzarono alle stelle.

Aspetto un riscontro sulla opportunita' o meno di normalizzare i dati deducendo da essi il tasso privo di rischio anche nel modello CRLR, come ho visto fare spesso nella costruzione delle curve dei rendimenti effettuate con gli altri modelli sopra citati.

Ciao

P.S. La domanda sulla necessita' di normalizzazione o meno e' indirizzata ovviamente anche a Givemeleverage o ad altri contributori che mi piacerebbe veder intervenire sull'argomento.
 
Ultima modifica:

Cren

Forumer storico
La prima delle cose che volevo chiederti era se ravvedevi l'eventualita' di effettuare un test di sensibilita' del modello Cren-Diebold-Li-"R" (ho rispettato rigorosamente l'ordine alfabetico :D ). Lo presento impropriamente come un test di sensibilita' piu' che come un test di robustezza sul genere di quelli usuali che si conducono sulle serie storiche (test di significativita' statistica) per una ragione specifica.
Noi non possiamo sapere gia' adesso che siamo all'ABC della conoscenza se la previsione di curva CRLR (l'acronimo è spiegato sopra :D) sia stata effettuata secondo i corretti canoni prescrittivi della pregiatissima coppia Diebold Li. Potremmo incolpevolmente incorrere in errori di misura, errori di codice informatico, errori di interpolazione, anche semplicemente degli errori di misunderstanding, etc. per colpa dei quali un modello incorrettamente specificato puo' presentare dei risultati che appaiono positivi, ovvero output che ci piacciono oppure che sono ritenuti plausibili secondo il nostro senso comune, le nostre aspettative,etc.. Da qui il test di sensibilita', cioe' il tentativo di scoprire se con piccole variazioni degli input iniziali il test CRLR riesce a fornire approssimativamente lo stesso output.
L'ideale sarebbe che diversi utenti si studiassero il documento di Liebold e Li e controllassero se le mie considerazioni e il mio listato sono corretti; su quest'ultimo punto mi rendo conto di non poter pretendere più di tanto perchè ciascuno di noi è abituato a usare i propri linguaggi di programmazione e quindi non posso chiedere a qualcuno di studiarsi un linguaggio ex novo solo per correggere un mio listato.

Che genere di test di sensibilità hai in mente?
...le polinomiali di terzo grado (anche se so che tu aborrisci quelle oltre il secondo grado senza mai avermelo ancora spiegato come mi avevi promesso:)
Se hai visto la forma dell'interpolante Nelson-Siegel la risposta dovrebbe già essere scontata: per evitare di commettere overfitting è preferibile rifiutare modelli più complessi di quanto non sembri strettamente necessario.

In particolare un polinomio di secondo grado si comporta pressapoco come la Nelson-Siegel: il termine di grado nullo corrisponde all'intercetta che regola il livello dei tassi d'interesse a lunga scadenza; c'è poi un termine di primo grado che esprime la pendenza della curva; infine abbiamo un termine di secondo grado che ci suggerisce il livello di "accelerazione", cioè la curvatura.

Introdurre un termine di terzo grado avrebbe inevitabilmente l'effetto di aggiungere una concavità addizionale che sarebbe davvero molto difficile da spiegare: se l'intercetta è il rischio emittente nel lungo periodo, la pendenza una forma di premio di liquidità e la curvatura una misura delle aspettative sul medio termine rispetto al lungo termine... il termine di terzo grado sarebbe davvero difficile da spiegare e sarebbe solo un parametro in più a ricalcare una curva in particolare perendo in generalizzazione.

Overfitting, insomma.
La normalizzazione serve ad evidenziare le differenze prime tra la struttura dei tassi ed il tasso privo di rischio alla scadenza O, che convenzionalmente e' il tasso overnight. Questo pretrattamento per normalizzare i dati consiste semplicemente nel sottrarre da tutti i dati nel tuo foglio Excel il tasso overnight o un tasso equivalente, chiamato convenzionalmente tasso a "0" anni. La normalizzazione potra' sembrare una procedura insignificante ora che i tassi overnight sono vicini allo Zero, ma c'e' stato un periodo recente nel quale le banche erano terrorizzate l'un con l'altra e non si scambiavano depositi overnight se non tramite il ricorso alla BCE. Ricordo bene che i tassi overnight schizzarono alle stelle.

Aspetto un riscontro sulla opportunita' o meno di normalizzare i dati deducendo da essi il tasso privo di rischio anche nel modello CRLR, come ho visto fare spesso nella costruzione delle curve dei rendimenti effettuate con gli altri modelli sopra citati.
Non lo ritengo necessario più di quanto ritengo sia utile interpolare gli Z-spread anzichè i semplici YTM per fare delle previsioni e individuare titoli 'cheap'.

Piacerebbe anche a me qualche riscontro in più.
 

Piedi a Terra

Forumer storico
L'ideale sarebbe che diversi utenti si studiassero il documento di Liebold e Li e controllassero se le mie considerazioni e il mio listato sono corretti; su quest'ultimo punto mi rendo conto di non poter pretendere più di tanto perchè ciascuno di noi è abituato a usare i propri linguaggi di programmazione e quindi non posso chiedere a qualcuno di studiarsi un linguaggio ex novo solo per correggere un mio listato.

Mi sto sforzando, ma 9 volte su 10 nella finestra in basso mi compare il messaggio di Errore (come peraltro avevi gia' previsto)

Che genere di test di sensibilità hai in mente?

.

Aggiungere una colonna Overnight (Colonna B ed il relativo dato (colonna C) e dedurre dalle colonne E, G, fino all'ultima colonna tale dato nuovo di colonna C. Se ad esempio l'overnight al 28/2/2003 fosse 0,5, il dato ad 1 anno diventerebbe 2.273-0,5=1,773 e cosi' per tutte le colonne.

Poi rifare il test ed osservare se la previsione che avevi effettuato precedentemente sui tassi reali si discosta di molto o di poco rispetto a quella nuova, effettuata con i tassi differenziali.

Se si discostano di poco, il modello Debold Li potrebbe essere considerato poco sensibile a variazioni rispetto alle condizioni iniziale di riferimento e per questo motivo la procedura di normalizzazione dei rendimenti, che e' la prassi operativa in alcuni altri modelli di elaborazione di curve, diventa poco influente e potrebbe essere omessa in futuro.
 

Allegati

  • Cattura.JPG
    Cattura.JPG
    45,2 KB · Visite: 347
Ultima modifica:

Piedi a Terra

Forumer storico
L'ideale sarebbe che diversi utenti si studiassero il documento di Liebold e Li e controllassero se le mie considerazioni e il mio listato sono corretti; su quest'ultimo punto mi rendo conto di non poter pretendere più di tanto perchè ciascuno di noi è abituato a usare i propri linguaggi di programmazione e quindi non posso chiedere a qualcuno di studiarsi un linguaggio ex novo solo per correggere un mio listato.

Diciamocele le cose come stanno.

Noi stiamo studiando qualcosa di talmente innovativo che sul forum di Wilmott nessuno nemmeno conosce l'argomento. Su Wilmott non c'e' un solo 3D sull'argomento della previsione dell'evoluzione dei tassi di interesse di mercato che presenti aspetti cosi' innovativi rispetto a quanto c'e' scritto sui libri e sui manuali.

Non solo.

In tutto il mondo l'unico ad interessarsi verso questo modello cosi' innovativo e' un professore italiano, che insegnava econometria a Palermo ed ora e' a Padova, il quale ha preparato la libreria di "R" yieldcurve. Cosa davvero singolare e' che questo prof. dai 3 nomi - che pare degnissimo di credito per le sue numerose pubblicazioni internazionali - sembra non avere nemmeno un Website.

Quindi l'auspicio che qualcuno ti dia una mano a verificare il listato tendera' purtroppo a mostrarsi speranza vana, perche' tu sei adesso 5 anni avanti nella ricerca rispetto al resto del mondo e non puoi pretendere che questo gap si colmi proprio in un paese come l'Italia.

Dovresti imparare il cinese o l'indiano e forwardare il tuo intervento su qualche sito quant orientale dove scrive Li. :eek:
O, tra 5 anni, anche in inglese, sul sito di Wilmott. :D

Ciao
 

GiveMeLeverage

& I will remove the world
Diciamocele le cose come stanno.

Noi stiamo studiando qualcosa di talmente innovativo che sul forum di Wilmott nessuno nemmeno conosce l'argomento. Su Wilmott non c'e' un solo 3D sull'argomento della previsione dell'evoluzione dei tassi di interesse di mercato che presenti aspetti cosi' innovativi rispetto a quanto c'e' scritto sui libri e sui manuali.

Non solo.

In tutto il mondo l'unico ad interessarsi verso questo modello cosi' innovativo e' un professore italiano, che insegnava econometria a Palermo ed ora e' a Padova, il quale ha preparato la libreria di "R" yieldcurve. Cosa davvero singolare e' che questo prof. dai 3 nomi - che pare degnissimo di credito per le sue numerose pubblicazioni internazionali - sembra non avere nemmeno un Website.

Quindi l'auspicio che qualcuno ti dia una mano a verificare il listato tendera' purtroppo a mostrarsi speranza vana, perche' tu sei adesso 5 anni avanti nella ricerca rispetto al resto del mondo e non puoi pretendere che questo gap si colmi proprio in un paese come l'Italia.

Dovresti imparare il cinese o l'indiano e forwardare il tuo intervento su qualche sito quant orientale dove scrive Li. :eek:
O, tra 5 anni, anche in inglese, sul sito di Wilmott. :D

Ciao

Non sapevo che l'University of California fosse in oriente. ;)
Ho finito oggi di leggere gli interventi di questo thread: argomenti vari, ma davvero interessanti!

A me Diebold Li intressava di più per il fitting che per il forecasting.
Il forecasting penso sia ragionevole soltanto in un mercato "normale", privo di QE, twist, sovreign default evocati, revocati e poi realizzati sotto mentite spoglie (come già diceva Cren)...
Avevo inteso che il fitting dell'equazione di DL fosse migliorativo rispetto al Nelson Siegel Svensson (o forse era il Nelson Siegel "classico", senza il parametro aggiuntivo introdotto da Svensson?).
Inoltre dovrebbe essere più trattabile matematicamente, al momento p.e. NSS mi mette in crisi il solver di Excel (purtroppo non uso R, come Cren).
Il problema è trovare tramite metodi numerici il minimo globale di una funzione fortemente non lineare: il solver trova solo minimi locali.

Quindi le questioni che mi pongo al momento sono due:
1. è ragionevole usare il modello NSS per costruire la term structure dei TdS italiani oppure nel frattempo (NS è del 1987 e NSS è del 1994) sono stati sviluppati modelli migliori?
2. individuato il modello, quale algoritmo di ricerca del minimo globale conviene utilizzare? (la funzione da minimizzare è la sommatoria degli scarti tra dati reali e dati modellizzati)

:help:

PS:
ho visto l'articolo sul bull flattening citato all'inizio e che ha dato il titolo al thread.
Avevo espresso le mie perplessità su come concretamente veniva impostato il trade in altra sede quindi non starò a ripetermi, una cosa però mi ha colpito positivamente: la ricerca della decorrelazione, oggi più difficile che mai da trovare.
A questo proposito, se vi può interessare (siamo completamente OT rispetto ai bond) ritengo al momento interessante un long EURCHF, per il floor a 1,20 da parte della Banca Centrale Svizzera, da fare tramite forex spot o vendita put... non mi dilungo oltre essendo OT.
 
Ultima modifica:

Users who are viewing this thread

Alto