Charles M. Cottle


GiuliaP
Riguardo la curtosi non sono così convinta di quello che dici. Questo per non parlare del survivorship bias anche nella stima del rischio, quando si fanno distinzioni
tra indici, titoli ed altro.

Se ti riferisci alla sovrastima del rischio, non dovrebbe essere il contrario? O forse non ho capito il tuo discorso?



Imar
Questa è una osservazione molto interessante (dal che capisco che non ti occupi di MIBO ....ma più probabilmente di STE50 o S&P500).. con interessanti ripercussioni
anche in termini di pricing



Cren
Per chiarezza, Thymon: ho capito male quando affermo di aver compreso quanto segue?

«Su determinati indici è presente un effetto di ritorno verso la media che rende la quantificazione del rischio mediante "square root rule" un processo tendente a
sovrastimare i rischi piuttosto che a sottostimarli».
Ma tu ti riferisci a livelli dell'indice, rendimenti dell'indice, livelli della IV, livelli della RV... o cosa?





Rileggendo la mia frase e i vostri commenti direi che la mia "estrema sintesi" era sicuramente troppo estrema. :-) sorry.
Provo ad elaborare meglio. La questione è se sia corretto utilizzare la relazione Vola-sqr(t) per traslare nel tempo la nostra stima di Vola (senza quindi introdurre
ulteriori errori alla stima). La matematica ci dice che tale relazione è valida se sono rispettate certe condizioni e alcuni studi empirici possono dirci se nei
mercati di nostro interesse quelle condizioni esistono o meno. Come accennato, lo studio a cui mi riferivo è stato fatto sul mercato equity US e su due indici
(Nasdaq100 e SP500). La mia interpretazione dei risultati è che tale relazione sia valida sia su single stock sia su index e che quindi possa essere utilizzata nel "modello"
di stima del rischio senza produrre distorsioni apprezzabili.
Nel caso di Index, l'utilizzo di tale relazione, sembra portare ad una sovrastima della vola (suppongo proporzionale al numero dei costituenti) ma per gli obiettivi della
discussione basta dire che la "relazione" è ancora valida.
Ad ogni modo, allego un estratto (stavolta sono tre pagine :-) ) che penso sia centrato sulla nostra discussione.

Non ho invece evidenza se anche la Vola della Vola rispetta tali condizioni e spero che l'introduzione di VVix stimoli la ricerca in tal senso.


GiuliaP
Una stima efficace per la CH, per noi è sempre e comunque un limite inferiore invalicabile. Ed a prescindere dal nostro calcolo del rischio, per quanto complesso,
dovremo comunque aggiungere un certo errore di tolleranza.



Sulla singola giornata, non c'è dubbio che stimare un rischio inferiore a quello che dice CH risulta completamente inutile. Essendo però lo SOA costante attraverso
la Moneyness ( VeryDOTM e OTM potrebbero avere lo stesso valore) mi pare una semplificazione eccessiva quando dovessimo traslare questo valore nel tempo.
Rimane da vedere se troviamo una alternativa migliore per quantificare gli eventi "abbastanza estremi".


Imar
Su questo mi permetto di non essere troppo d'accordo.
Riporto in allegato una tabella molto interessante; sono i put sull'S&P 500 10 gg prima del crollo del 1987 (per sentire il "peso" di quei numeri, moltiplicate per 500
ed avrete il valore di un singolo miserrimo lotto, riferito all'S&P "big").


Per quanto riguarda gli eventi estremi, non sono sicuro che un eventuale stima del rischio debba includerli, o meglio dipende molto da come utilizzeremo tale stima
del rischio di portafoglio, quali decisioni baseremo su tale stima e quindi quali effetti produrrebbe sul portafoglio stesso. (Discorso un po' lungo, ma a scanso di
equivoci, non sto dicendo che non siano eventi da tenere in qualche modo in considerazione).




Buona Pasqua a tutti e grazie a voi per l'interessante discussione che sta venendo fuori.

Thymon
 

Allegati


Cren
Per chiarezza, Thymon: ho capito male quando affermo di aver compreso quanto segue?

«Su determinati indici è presente un effetto di ritorno verso la media che rende la quantificazione del rischio mediante "square root rule" un processo tendente a
sovrastimare i rischi piuttosto che a sottostimarli».
Ma tu ti riferisci a livelli dell'indice, rendimenti dell'indice, livelli della IV, livelli della RV... o cosa?





Rileggendo la mia frase e i vostri commenti direi che la mia "estrema sintesi" era sicuramente troppo estrema. :-) sorry.
Provo ad elaborare meglio. La questione è se sia corretto utilizzare la relazione Vola-sqr(t) per traslare nel tempo la nostra stima di Vola (senza quindi introdurre
ulteriori errori alla stima). La matematica ci dice che tale relazione è valida se sono rispettate certe condizioni e alcuni studi empirici possono dirci se nei
mercati di nostro interesse quelle condizioni esistono o meno. Come accennato, lo studio a cui mi riferivo è stato fatto sul mercato equity US e su due indici
(Nasdaq100 e SP500). La mia interpretazione dei risultati è che tale relazione sia valida sia su single stock sia su index e che quindi possa essere utilizzata nel "modello"
di stima del rischio senza produrre distorsioni apprezzabili.
Nel caso di Index, l'utilizzo di tale relazione, sembra portare ad una sovrastima della vola (suppongo proporzionale al numero dei costituenti) ma per gli obiettivi della
discussione basta dire che la "relazione" è ancora valida.
Ad ogni modo, allego un estratto (stavolta sono tre pagine :-) ) che penso sia centrato sulla nostra discussione.
Ok, quindi dalla lettura dell'allegato e dalla tua risposta mi pare di capire quanto segue.

Sapendo che la regola della radice quadrata vale per rendimenti i.i.d., lo studio mette in luce che, in funzione del periodo di detenzione dell'ETF (QQQ e SPY) in portafoglio, la volatilità riscontrata sia di fatto minore di quella stimata mediante la semplice somma delle varianze di variabili aleatorie i.i.d.

La considerazione sul ritorno verso la media la attribuisco quindi ad un possibile e debole effetto di autocorrelazione negativa, tale per cui:
  1. la varianza globale risulti minore a causa del legame di dipendenza lineare negativa tra le variabili;
  2. sia giustificata la mean reversion.
Ergo questo ci fa supporre che, dovendo attuare un controllo del rischio basato su simulazioni della volatilità nel worst case scenario, la regola della radice quadrata sia una scelta complessivamente accettabile, quando non addirittura prudente.

Questa interpretazione è corretta?
 
Ultima modifica:
Cren ti volevo aggiornare su delle strategia a breve che sto simulando :up:
 

Allegati

  • long_gamma.PNG
    long_gamma.PNG
    45,8 KB · Visite: 316
  • strategia.PNG
    strategia.PNG
    78,8 KB · Visite: 523
  • long_vega2.PNG
    long_vega2.PNG
    44,7 KB · Visite: 265
  • long_vega3.PNG
    long_vega3.PNG
    83,3 KB · Visite: 486
Ultima modifica:
...Dal punto di vista micro, stante che l'eccessivo leverage del sistema produce e produrrà il rischio di rotture "fake", in stile 6 maggio 2010 (ma non sono affatto rare, pochi giorni fa' APPLE.... quindi non la Canistracci OIL.... è crollata del 9% in un ms), il conseguente rischio di chiusura forzata di posizioni a margine, senza reali ragioni economiche alla base del movimento di Borsa è aggravato (e non alleviato) dal controllo in tempo reale dei margini stile IB.

Opinioni....

Sono due facce della stessa medaglia. Una riduzione dei tempi di verifica dei margini porta ad un abbassamento degli stessi margini, e quindi ad un aumento del leveraging. Questo può sicuramente portare problemi di stabilità momentanea al mercato, ma credo che il suddetto effetto sia più da attribuire ad errori di calcolo che al leveraging in se.

Demonizzare il leveraging, che è alla base di ogni filosofia assicurativa, è come demonizzare il progresso tecnologico per le vittime che causa. Sicuramente il controllo deve migliorare, e la leva utilizzabile deve essere commisurata allo stato dell'arte di quello stesso controllo, ma l'effetto moltiplicatore non va assolutamente demonizzato (nel campo professionale, ovviamente).

Quindi, al nocciolo: il "controllo" migliora con l'abbassamento dei tempi di verifica più di quanto possa peggiorare per effetto dell'aumento relativo di leveraging.

Altre opinioni ;)
 
...La questione è se sia corretto utilizzare la relazione Vola-sqr(t) per traslare nel tempo la nostra stima di Vola (senza quindi introdurre
ulteriori errori alla stima)...La mia interpretazione dei risultati è che tale relazione sia valida sia su single stock sia su index e che quindi possa essere utilizzata nel "modello"
di stima del rischio senza produrre distorsioni apprezzabili...

Posso anche crederti sulla parola, tuttavia questo tuo risultato non spiega il motivo della riduzione degli intervalli di verifica dei margini. Ed anche orientativamente mi sembra diverso validare risultati statistici storici su intervalli molto brevi piuttosto che su intervalli più ampi (anche solo di due mesi).

Ma io per motivi religiosi non faccio studi statistici su semplici "serie storiche di prezzi battuti", quindi parlo superficialmente ed istintivamente.

...Nel caso di Index, l'utilizzo di tale relazione, sembra portare ad una sovrastima della vola (suppongo proporzionale al numero dei costituenti) ma per gli obiettivi della
discussione basta dire che la "relazione" è ancora valida.
Ad ogni modo, allego un estratto (stavolta sono tre pagine :-) ) che penso sia centrato sulla nostra discussione.

Non ho invece evidenza se anche la Vola della Vola rispetta tali condizioni e spero che l'introduzione di VVix stimoli la ricerca in tal senso.

Anche qui Imar è arrivato molto prima di me nell'interpretazione corretta del tuo pensiero. Veramente notevole, vista la sottigliezza dell'allusione. In effetti dovresti cancellare :D

Sulla singola giornata, non c'è dubbio che stimare un rischio inferiore a quello che dice CH risulta completamente inutile. Essendo però lo SOA costante attraverso
la Moneyness ( VeryDOTM e OTM potrebbero avere lo stesso valore) mi pare una semplificazione eccessiva quando dovessimo traslare questo valore nel tempo.
Rimane da vedere se troviamo una alternativa migliore per quantificare gli eventi "abbastanza estremi".

:bow:

...Per quanto riguarda gli eventi estremi, non sono sicuro che un eventuale stima del rischio debba includerli, o meglio dipende molto da come utilizzeremo tale stima
del rischio di portafoglio, quali decisioni baseremo su tale stima e quindi quali effetti produrrebbe sul portafoglio stesso. (Discorso un po' lungo, ma a scanso di
equivoci, non sto dicendo che non siano eventi da tenere in qualche modo in considerazione)...

Qui faccio fatica a seguirti (meno male per il "tra parentesi"), ma visto il livello dell'interlocutore mi riservo di leggere con calma, più volte, e con attenzione ;)
 
Ultima modifica:
Ora (ma ripeto, questo è un aspetto che interessa i regolatori più che il singolo trader), se questo è il dato, sembrerebbe razionale cercare di diminuire il leverage in partenza e non di aumentare la rapidità del feedback dal sistema dei margini.

Dal punto di vista micro, stante che l'eccessivo leverage del sistema produce e produrrà il rischio di rotture "fake", in stile 6 maggio 2010 (ma non sono affatto rare, pochi giorni fa' APPLE.... quindi non la Canistracci OIL.... è crollata del 9% in un ms), il conseguente rischio di chiusura forzata di posizioni a margine, senza reali ragioni economiche alla base del movimento di Borsa è aggravato (e non alleviato) dal controllo in tempo reale dei margini stile IB.

Opinioni....
Dico la mia fesseria.

La clearing house e' un fantoccio dei broker-dealer, che concentra il settlement risk.
I broker-dealer fanno piu' soldi se c'e' piu' leverage.
I regulators approvano i sistemi di calcolo del margine, ma in cambio implicitamente garantiscono il backstop nel caso di catastrofi.

Conclusione: lo scopo della clearing house non e' quello di avere la gestione dei margini che minimizza il rischio o quella che stabilizza il mercato, ma di avere la gestione dei margini piu' "lasca" possibile compatibilmente con la necessita' di convincere il regulator.
 
Quindi, al nocciolo: il "controllo" migliora con l'abbassamento dei tempi di verifica più di quanto possa peggiorare per effetto dell'aumento relativo di leveraging.

Altre opinioni ;)

Il controllo migliora con l'abbassamento dei tempi..... solo se il esiste un funzionamento SEMPRE efficiente del meccanismo di formazione del prezzo.

Altrimenti, rischia di diventare solo la versione automatizzata dei bucket shops descritti da Livermore, in cui il banco valutava le scommesse che aveva raccolto e faceva saltare ad arte i livelli più sensibili.

In termini più tecnici, è mia opinione che l’approccio in stile IB tenda – nei momenti limite (che però sono quelli che creano i problemi) a trasformare delle opzioni “plain vanilla” in qualcosa più simile ad opzioni a barriera….. con evidenti implicazioni per il cliente in termini di pricing ed operatività.

Tra l'altro, i brokers in stile IB sembrano coscienti del problema: secondo il rapporto governativo sul 6 maggio 2010, durante il flash crash non sono avvenuti scambi anomali sul mercato delle opzioni (salvo un paio di casi, mi pare di ricordare), che senz’altro si sarebbero verificati se qualcuno avesse utilizzato solo l’ultimo prezzo come guida per un processo graduale di liquidazione in tempo reale delle posizioni (ricordiamo che alcuni titoli ed ETF han perso fino al 90% in qualche secondo, ed una blue chip come HP ha perso il 33%).

Questo sotto un certo profilo è tranquillizzante, ma sotto un altro profilo è ancora più inquietante, dato che in ultima analisi il processo NON SOLO è interamente a discrezione del broker MA è anche OSCURO in alcuni aspetti operativi non secondari.

... opinioni su opionioni.... ;)
 
...In termini più tecnici, è mia opinione che l’approccio in stile IB tenda – nei momenti limite (che però sono quelli che creano i problemi) a trasformare delle opzioni “plain vanilla” in qualcosa più simile ad opzioni a barriera….. con evidenti implicazioni per il cliente in termini di pricing ed operatività...

Tieni comunque presente che la liquidazione forzata avviene gradualmente in funzione del fabisogno di margini, ed in forma guidata, come ha giustamente sottolineato Thymon. Non è che ti staccano la spina e liquidano tutto, anzi.

Tra l'altro, i brokers in stile IB sembrano coscienti del problema: secondo il rapporto governativo sul 6 maggio 2010, durante il flash crash non sono avvenuti scambi anomali sul mercato delle opzioni (salvo un paio di casi, mi pare di ricordare), che senz’altro si sarebbero verificati se qualcuno avesse utilizzato solo l’ultimo prezzo come guida per un processo graduale di liquidazione in tempo reale delle posizioni (ricordiamo che alcuni titoli ed ETF han perso fino al 90% in qualche secondo, ed una blue chip come HP ha perso il 33%).

Questo sotto un certo profilo è tranquillizzante, ma sotto un altro profilo è ancora più inquietante, dato che in ultima analisi il processo NON SOLO è interamente a discrezione del broker MA è anche OSCURO in alcuni aspetti operativi non secondari.

... opinioni su opionioni.... ;)

Si, sull'opacità del metodo non posso obiettare niente.

Mi piacerebbe sentire Thymon a riguardo :)
 
Brusadelli ripeteva spesso quello che pensava. «L'è minga interessant questa ròbba chi, questa chì la tocchi anca mi: l'è merda. L'è interessant la situazion che ghe sarà tra ses mes», el me diseva el Brusadelli. Tradotto in termini meno crudi significa: «Non m'interessa sapere cosa accade oggi. M'interessa sapere cosa accadrà domani».

Il suddetto libro è praticamente introvabile (Longanesi 1996) :specchio:

Avete un link a qualche store on-line?

Potrei avere qualche problema a capire il dialetto che vedo spesso riportato virgolettato :(
 
Il caso della Swiss National Bank (SNB) intenta a proteggere il EURCHF a 1.20 mi ha fatto tornare alla mente un dialogo riportato da Taleb.

Lo spunto mi è venuto da questa immagine:

eurchf1.png


Ho allegato il dialogo insieme alla IVTS del EURCHF.

Di primo acchito si può pensare che un mercato con un "pavimento probabilistico" così forte debba semplicemente prezzare le Put a breve scadenza con strike inferiore a 1.20... zero.

Ma questo è sbagliato, perchè sappiamo che ogni P&L di una singola opzione è sia replicabile localmente con il sottostante sia, a maggior ragione, con altre combinazioni di opzioni.

Quindi non è necessario operare sulle Put (K < 1.20) per "lavorare" questa anomalia, si possono fare numerose posizioni; poichè quindi il prezzo di esercizio non è differenziale, nel breve termine ti aspetti un mercato... morto.

Ovvero a volatilità quasi nulla proprio perchè quasi nessuno comprerebbe Put sotto 1.20 se non a prezzi irrisori, facendo collassare tutto lo smile verticale perchè qualunque opzione che consenta di ottenere P&L analogo a quello di una Put (K < 1.20) è trattata alla stessa maniera.

Il futuro è più incerto, e quindi è lecito aspettarsi un contango violento.
 

Allegati

  • img.png
    img.png
    140,7 KB · Visite: 180
  • img1.PNG
    img1.PNG
    96,2 KB · Visite: 446

Users who are viewing this thread

Back
Alto