modello GARCH per vola implicita Mibo

  • Creatore Discussione Creatore Discussione f4f
  • Data di Inizio Data di Inizio

f4f

翠鸟科
come analisi parallela a quella dell'inserimento delle opzioni su Regolo, sarebbe interessante disporre di un modello di simulazione della volatilità implicita ATM + smiles per verificare un poco, o affinare, le strategie che andiamo verificando

infatti, fino ad ora abiamo visto strategie in bassa vola, sotto il 25%
e non ho fatto un test storico completo, ma ho utilizzato solo i dati 'medi' forniti da Kidkurry, che ringrazio


a questo punto, potremmo sviluppare un modello GARCH sulla vola implicita dele Mibo, la cui utilità naturalmente va ben oltre il discorso di Regolo
sul funzionamento effettivo dei modelli GARCH come stimatori, ....
http://jfec.oxfordjournals.org/cgi/content/abstract/1/3/365


io ad ora dispongo dei dati della volatilità storica mib30 e spmib
(meglio, ho l'algoritmo standard su excel, quindi la calcolo)
ed ho i dati della vola implicita ATM sullo spmib ma solo ottenuti come mia interpolazione dai grafici di IdemMagazine

Lamot vuole proporre uno schema di lavoro o un testo-base da utilizzare fra noi come guida?
grazie :)
 
f4f ha scritto:
come analisi parallela a quella dell'inserimento delle opzioni su Regolo, sarebbe interessante disporre di un modello di simulazione della volatilità implicita ATM + smiles per verificare un poco, o affinare, le strategie che andiamo verificando

infatti, fino ad ora abiamo visto strategie in bassa vola, sotto il 25%
e non ho fatto un test storico completo, ma ho utilizzato solo i dati 'medi' forniti da Kidkurry, che ringrazio


a questo punto, potremmo sviluppare un modello GARCH sulla vola implicita dele Mibo, la cui utilità naturalmente va ben oltre il discorso di Regolo

io ad ora dispongo dei dati della volatilità storica mib30 e spmib
(meglio, ho l'algoritmo standard su excel, quindi la calcolo)
ed ho i dati della vola implicita ATM sullo spmib ma solo ottenuti come mia interpolazione dai grafici di IdemMagazine

Lamot vuole proporre uno schema di lavoro o un testo-base da utilizzare fra noi come guida?
grazie :)

:eek:
Intendi sviluppare ex-novo un modello di stima della volatilità migliore dei tanti esistenti o implementarne uno di quelli noti?

Oppure non ti interessa la stima (previsione) ma vuoi un generatore di vola+smile :-?


ps per proporre schemi di lavoro mica serve il permesso
 
Pek ha scritto:
:eek:
Intendi sviluppare ex-novo un modello di stima della volatilità migliore dei tanti esistenti o implementarne uno di quelli noti?

Oppure non ti interessa la stima (previsione) ma vuoi un generatore di vola+smile :-?


ps per proporre schemi di lavoro mica serve il permesso

ciao Pek
vorrei implementare un modello Garch : Lamot pare pratico
e mi interessa usarlo sia come stimatore, che come generatore per gli smiles


se la simulazione che abbiamo fatto ha mostrato la corda, era proprio nella vola implicita da me utilizzata, con un forte movimento del sottostante si andava ITM , ma il mio ''minimodellino'' per adesso funziona solo con una vola
ne ho uno, rozzissimo, che stima lo smile
ma se lamot parte, son ben contento di dargli una mano :)


settimana prox riprendo analisi opzioni+regolo , conto sul tuo supporto
e su quello di rob.luc e degli altri vecchi amici :D
 
w3.uniroma1.it/passalac/buffer/GARCH.xls

grassie Gipa :)
per ricordare, il motto della bbbanda è ''sregolatezza e genio: per il primo abbiamo dato evidenti prove , per il secondo ci stiamo organizzando ''


sopra un link, Lamot usiamo quello come base ?
 
arrivo illustrissimi, mi sono accorto solo ora del 3d non ci vengo molte volte in codesta sezione :-o

Piano di lavoro by King La mò :-o

iniziamo con l'analisi della previsione delle varianze con un generatore a memoria lunga per le varianze sotto condizione , poi elaboriamo un equazione del previsore della varianza( pensiamo ai lavori di di Baillie , niente di quelle skifezze postate ma codestp :cool: ).

Poi risolviamo il lcalcolo del Value-at-Risk quando utilizziamo un modello non determinato sulla varianza ;) .
Questa analisi deve essere presupposto x il modello GARCH con approccio Montecarlo.

Poi passiamo a considerare gli effetti effetti di un'errata specificazione quando i dati sono generati da un modello FIGARCH e per il VaR quando si utilizza un modello a breve memoria

compariamo modelli per il VaR tramite un gruppo di test e con un approccio basato su funzioni di perdita.
fatto questo il modello dovrebbe avere una migliore stima del VAr , me lo auguro :help:

non di mentichiamoci le agregazioni comportamentali sul lungo periodo e conseguenti varianze di calcolo sul VAR, propenderei x un analisi tramite MOntecarlo model x aggregazioni a memoria lunga
-
Passiamo alla comparazione dei VaR ottenuti da dati aggregati e non aggregati

Dopo consideriamo il problema dell' individuazione della cuasalità di secondo ordine cioè la travarianza


dovremmo così ottenere la non causalità nelmodello GARCH-M.

dopo di che dovremmo considerare GARCH multivariate utilizzate per stimare causalità del secondo ordine,vediamo se funziona e eventualmente evidenziamo gli errori xchè possa essere strumentale all' elaborazine di un nuovo modello Garch bivariato che ha scopo nn solo di individuare la causalità si secondo ordine ma soprattutto e questo che ci interessa la DIREZIONE DEL TREND

che dite emeriti :-?
 
King La mò ha scritto:
arrivo illustrissimi, mi sono accorto solo ora del 3d non ci vengo molte volte in codesta sezione :-o

Piano di lavoro by King La mò :-o

iniziamo con l'analisi della previsione delle varianze con un generatore a memoria lunga per le varianze sotto condizione , poi elaboriamo un equazione del previsore della varianza( pensiamo ai lavori di di Baillie , niente di quelle skifezze postate ma codestp :cool: ).

Poi risolviamo il lcalcolo del Value-at-Risk quando utilizziamo un modello non determinato sulla varianza ;) .
Questa analisi deve essere presupposto x il modello GARCH con approccio Montecarlo.

Poi passiamo a considerare gli effetti effetti di un'errata specificazione quando i dati sono generati da un modello FIGARCH e per il VaR quando si utilizza un modello a breve memoria

compariamo modelli per il VaR tramite un gruppo di test e con un approccio basato su funzioni di perdita.
fatto questo il modello dovrebbe avere una migliore stima del VAr , me lo auguro :help:

non di mentichiamoci le agregazioni comportamentali sul lungo periodo e conseguenti varianze di calcolo sul VAR, propenderei x un analisi tramite MOntecarlo model x aggregazioni a memoria lunga
-
Passiamo alla comparazione dei VaR ottenuti da dati aggregati e non aggregati

Dopo consideriamo il problema dell' individuazione della cuasalità di secondo ordine cioè la travarianza


dovremmo così ottenere la non causalità nelmodello GARCH-M.

dopo di che dovremmo considerare GARCH multivariate utilizzate per stimare causalità del secondo ordine,vediamo se funziona e eventualmente evidenziamo gli errori xchè possa essere strumentale all' elaborazine di un nuovo modello Garch bivariato che ha scopo nn solo di individuare la causalità si secondo ordine ma soprattutto e questo che ci interessa la DIREZIONE DEL TREND

che dite emeriti :-?

Concordo in pieno sul piano,sempre che tal Caporin non s'abbia a male

Visto l'approssimarsi dell'opportuna finestra temporale inizierei a verificare
l'effettiva disponibilità di entità FIGARCH nei luoghi d'elezione

:D
 
Pek ha scritto:
Concordo in pieno sul piano,sempre che tal Caporin non s'abbia a male

Visto l'approssimarsi dell'opportuna finestra temporale inizierei a verificare
l'effettiva disponibilità di entità FIGARCH nei luoghi d'elezione

:D


Tramite un esperimento , qui a Montecarlo ho verificato che la memoria lunga è robusta al processo di aggregazione( intendendo qui l'aggregazione tra il sedicente Lamot e un lavoro sulle opzioni impostato dal sottoscritto) , tuttavia tale comportamento è influenzato anche dall'ampiezza della memoria stessa.
La mia memoria, in specie, è lunga.


To err is human
to forgive is not.




grazie Pek per l'aiuto ;)
il problema della vola implicita e dello smile resta :rolleyes:



tornando al pratico, qualcuno ha la serie delle vola implicite ATM di qualche anno?
altrimenti, da lunedì riprendo a ricavarle dai grafici IdemMagazine :help:
 
f4f ha scritto:
Tramite un esperimento , qui a Montecarlo ho verificato che la memoria lunga è robusta al processo di aggregazione( intendendo qui l'aggregazione tra il sedicente Lamot e un lavoro sulle opzioni impostato dal sottoscritto) , tuttavia tale comportamento è influenzato anche dall'ampiezza della memoria stessa.
La mia memoria, in specie, è lunga.


To err is human
to forgive is not.

Risulta difficile, data l'esiguità dell'informazione mutua media contenuta nel citato codice, una corretta decodifica
Tuttavia l'applicazione ricorsiva di filtri MAP semantici porterebbe a concludere
che esso contenga,seppur con forte distorsione entropica,una netta dissociazione
di fondo :(

Peccato,il test di verifica in serie di strutture FIGARCH ben modellate avrebbe portato
indubbi vantaggi anche in ambienti diversi da Montecarlo qualora ivi non vi fosse ravvisato sufficiente potere catalizzatore :cool:

f4f ha scritto:
grazie Pek per l'aiuto ;)
il problema della vola implicita e dello smile resta :rolleyes:

tornando al pratico, qualcuno ha la serie delle vola implicite ATM di qualche anno?
altrimenti, da lunedì riprendo a ricavarle dai grafici IdemMagazine :help:

Visto che comunque non disponiamo di prezzi eseguibili reali potrebbe in prima analisi bastare la Vstoxx,magari attenuata di un 10%
 
grazie Pek per la segnalazione del link con la vola Eurostokk
molto utile per disegnare gli smiles e farne una analisi

per la verifica di regolo però penso di riuscire pian piano a rilevare tutta la vola implicita ATM

ti allego copia del file ad oggi-- grafico excel :)

in blu vola implicita
in arancio, vola storica


dalla vola implicita si ricava il prezzo della opzione alla giornata scelta
direi approssimativo ma accettabile

quale arco temporale pensi sia sufficiente per un risultato statisticamente utile?
grazie



1150195165vola.jpg
 

Users who are viewing this thread

Back
Alto