Finanza&Complessità

tontolina

Forumer storico
Finanza&Complessità

http://www.saperinvestire.it/index.php?option=com_content&task=view&id=663&Itemid=229

Quante volte abbiamo letto o sentito frasi del tipo: “con questo metodo è impossibile sbagliare il timing”, oppure “attraverso l’analisi tecnica possiamo prevedere l’esatto prezzo che raggiungerà l’indice”; o ancora “l’analisi fondamentale è l’unico strumento in grado di svelare i misteri che si celano dietro i bilanci societari”.

Sui giornali, internet, televisione, ci vengono continuamente propinati “nuovi e scintillanti” strumenti di analisi che se utilizzati ci permettono di raggiungere la ricchezza e la felicità immediate.

Molti consigli sono gratuiti, molti sono purtroppo a pagamento ma inutili.

Dovremmo essere tutti ricchi!

Eppure le statistiche serie dimostrano che solo pochi investitori riescono costantemente a sovraperformare il Mercato. Ecco allora i ripensamenti. L’analisi tecnica non funziona più. I Bilanci sono “truccati” e quindi non è possibile studiarli in modo efficiente.

Io penso che l’investimento Borsistico non segua leggi esclusivamente deterministiche. Ma neanche esclusivamente stocastiche. Quindi è necessario studiare e applicare metodologie che abbiano un riscontro scientifico.

Con questo non voglio dire che esista la formula matematica per guadagnare in Borsa, ma sicuramente possiamo fare luce in un settore tanto volubile quanto importante, spronando tutti coloro che vi sono coinvolti a riconsiderare teorie e algoritmi per giungere a una migliore comprensione del funzionamento dei mercati finanziari.

Tutto questo è possibile se il nostro cervello non è “schiavo di certezze” ma è aperto a nuove metodologie di studio in campo scientifico.

Ebbene l’approccio che andremo a considerare è legato alla teoria del caos applicata ai mercati ma soprattutto alla finanza frattale.

In questa sezione del sito entreremo nel dettaglio della materia con un linguaggio semplice e comprensibile anche per i non addetti ai lavori. Infine vedremo come applicarlo al trading di tutti i giorni.

Buona lettura!


Roberto Domenichini
[email protected]
 
La memoria dei mercati finanziari

di Roberto Domenichini


http://www.saperinvestire.it/index.php?option=com_content&task=view&id=685&Itemid=230


Nel corso dei precedenti articoli abbiamo mosso la nostra critica all’idea ormai molto diffusa in ambito finanziario secondo la quale ogni incremento o diminuzione di prezzo è indipendente dai movimenti precedenti. In realtà l’economia mondiale è molto complessa in quanto sul suo andamento influiscono le variabili sociologiche e psicologiche delle aspettative di tutti gli investitori

Titoli, aziende, tassi di cambio, ecc sono collegati tra loro in maniera non sempre evidente. In un tale groviglio di relazioni di causa ed effetto è sensato pensare che gli eventi del passato possano influire su ciò che accade oggi. E’ ragionevole pensare che gli investitori che hanno partecipato al crollo del 1929 abbiano usato in seguito una prudenza maggiore; lo stesso si può immaginare nel caso della generazione di investitori che ha vissuto il crollo del 1987.

Tali traumi hanno costituito un freno alle forme speculative più selvagge per molti anni. Questo ci spinge ad affermare che nei mercati finanziari esiste una forma di dipendenza a lungo termine o più semplicemente una sorta di “memoria”. Ma allora che senso ha ragionare esclusivamente in base alle notizie che ci arrivano quotidianamente?

A tal fine utilizzeremo un metodo matematico che ci permette di studiare tale dipendenza e di determinare un coefficiente significativo: il coefficiente di Hurst.

Il coefficiente di Hurst

All’inizio del ventesimo secolo Harold Edwin Hurst, un famoso studioso di idrologia dell’impero Britannico, fu mandato in Egitto per studiare un sistema di dighe di controllo del flusso d’acqua del fiume Nilo, la cui portata varia estremamente da un anno all’altro. Egli studiò i dati storici riguardanti le precipitazioni annuali dell’Egitto, e attraverso una serie di procedimenti statistici riuscì a determinare correttamente la quantità d’acqua da immagazzinare in una diga in modo da garantirne il flusso anche durante i periodi di siccità. Durante i suoi studi Hurst si accorse che esisteva una dipendenza a lungo termine non solo nei dati riguardanti il Nilo, ma anche nel caso di molti altri fiumi; egli ricavò un coefficiente strettamente legato a tale dipendenza: il ben noto coefficiente di Hurst (H). E’ stato dimostrato che H può assumere un valore compreso tra zero ed uno.

Rescaled Range Analysis

Poiché non esiste un unico metodo riconosciuto unanimemente per determinare correttamente il coefficiente di Hurst, ci limiteremo a presentare il metodo più semplice, basato sulla seguente formula apparentemente complicata:










Una delle caratteristiche principali di questo metodo è che i suoi risultati non dipendono dalla organizzazione dei dati. La formula si limita a misurare se la differenza tra i valori massimi e minimi dei dati è superiore o inferiore a quella prevedibile quando ogni dato non dipende dai precedenti.

Per determinare il numeratore si calcola il rendimento ri dalla variazione di prezzo di un titolo o di un indice in intervalli diversi (uno, due, … n giorni) e si confronta con il rendimento medio r sull’intero periodo di n giorni. Si esegue il calcolo per un giorno, poi per due e così via fino a determinare il valore massimo e quello minimo di tutte le differenze. La differenza tra questi due valori stima l’intervallo di variazione della serie. Il denominatore è la comune formula della deviazione standard.

Il coefficiente di Hurst viene stimato dalla relazione seguente:






Utilizzando i logaritmi si può facilmente determinare il coefficiente.






In particolare si possono distinguere tre classificazioni che useremo a livello operativo, ovvero nel trading di tutti i giorni:

1) H = 1/2.

In questa ipotesi la serie in esame segue un processo di cammino casuale. Il passato non influenza il futuro e non vi è memoria alcuna che influenzi la direzione del processo. In questo caso particolare i dati vengono approssimati correttamente dal modello matematico del cammino casuale.

2) 0 ≤ H < 1/2

Valori compresi in questo intervallo segnalano la presenza di un effetto antipersistente. Ciò significa che la variabile tende a cambiare molto frequentemente la direzione. Semplificando, se il sistema assume una direzione positiva in un certo intervallo di tempo, è molto probabile che nell'intervallo successivo diventi negativa e viceversa. Le serie di questo tipo tenderanno ad essere molto volatili a causa delle frequenti variazioni.

3) 1/2 <H> H < ½.

Si noti come C sia indipendente dal tempo t ed esprime la correlazione tra le variazioni della variabile in un certo intervallo temporale con le variazioni della stessa variabile in intervalli temporali della stessa lunghezza che seguono o precedono il primo.

Sebbene molti autori si siano trovati in disaccordo sulla possibilità di studiare per mezzo di questo coefficiente una dipendenza a lungo termine piuttosto che a breve, oggi il coefficiente di Hurst viene accettato e utilizzato dalla maggior parte degli studiosi di modelli statistici.

Nei prossimi articoli vedremo come utilizzarlo per finalità previsive.
 
Le insidie dei modelli finanziari
di Roberto Domenichini

Ogni società finanziaria utilizza, per effettuare l’asset allocation, diversi programmi computerizzati al fine di decidere quale mercato è più promettente e meno rischioso. Il risultato non è sempre dei migliori. E questo perché a volte il metodo sottostante al software è privo di significato anche se a detta degli “esperti” viene ridotto il rapporto rischio/rendimento

La ragione è dovuta in buona sostanza alle credenze degli Economisti.

Secondo la teoria finanziaria moderna i rendimenti, ad esempio di un indice finanziario, tendono a distribuirsi Normalmente. Seguono in altre parole la curva a campana o Gaussiana (dal nome dell’inventore Gauss). Tale strumento anche se è utile per fenomeni indipendenti non può altrettanto dirsi per il mondo della finanza.

Il presupposto di base è che i prezzi salgono e scendono con pari probabilità e tale variazione è misurabile. Diciamo soltanto, senza entrare nei dettagli tecnici (oggetto di un successivo articolo) che per la curva Gaussiana il 68% delle variazioni sono scostamenti molto vicini alla media, o a una deviazione standard, la quale misura di quanto mediamente gli scostamenti sono distanti dalla media stessa.

Ad esempio se cento rendimenti giornalieri hanno media uguale a due e deviazione standard uguale a uno vuol dire che la sequenza del 68% dei rendimenti è compresa tra uno e tre.

Per aumentare la probabilità di trovare altri e più consistenti scostamenti è necessario quindi raddoppiare o triplicare la deviazione standard: più precisamente per due deviazioni standard troveremo il 95% dei rendimenti mentre per tre deviazioni standard troveremo il 98% dei casi.

Le variazioni cospicue non vengono prese neanche in considerazione in quanto, secondo tale teoria, sono fenomeni isolati che si ripetono a distanza di migliaia di anni.

E proprio qui risiede l’errore!

In borsa non è difficile assistere a dei +3% o -5%.

È vero, non capita tutti i giorni, ma neanche mai.

Il 4 agosto 1998 l’indice DOW-JONES perse il 3,5%. Nello stesso mese diminuì prima di un ulteriore 4% e successivamente di un 6,8%. In base alla teoria classica sopra esposta alcuni studiosi sostengono che tale evento concomitante ha una probabilità su venti milioni di presentarsi. Sempre secondo gli stessi studiosi, il crollo del 1987 dove il DOW-JONES diminuì del 29,2% in un solo giorno ha una probabilità su 10 alla 50esima. Senza contare la bolla speculativa del 1999-2000, il crack del 2002, il famigerato 11 settembre, la bomba Londra……

Si può notare che tutti eventi molto ravvicinati possono contribuire a creare una fortuna o distruggerla anche se la teoria moderna li considera marginali.

In parole semplici “i guru della finanza” tendono a sottovalutare il rischio.

Gli eventi in borsa sono “anormali”, anche se la curva si chiama Normale ma soprattutto non sono un’eccezione che si ripete ogni cento generazioni: addirittura in un quinquennio si ripetono di frequente.

Ma allora quale è il rimedio?

Semplice! Trovare una diversa distribuzione dei rendimenti più attinente alla realtà finanziaria senza sottovalutare il rischio. Tutto ciò lo spiegheremo nel prossimo articolo.

http://www.saperinvestire.it/index.php?option=com_content&task=view&id=753&Itemid=230
 
Stima del rischio: un approccio matematico alternativo

di Luca Mistrangelo

Nella rubrica “Finanza Frattale” abbiamo letto che la “finanza moderna” si basa sul concetto che i prezzi sono imprevedibili, ma le loro oscillazioni possono essere studiate con la matematica del caso

Il primo a teorizzare un modello matematico che descrivesse questa imprevedibilità fu Louis Bachelier all’inizio del XX secolo. Egli ipotizzò che i prezzi salgono e scendono con la stessa probabilità, così come una moneta che viene lanciata ha la stessa probabilità di mostrare testa o croce.

Il modello di Bachelier è ben noto in fisica con il nome di cammino casuale (o moto browniano) e implica alcune importanti conseguenze. La prima consiste nel fatto che per la legge dei grandi numeri, dopo un numero sufficientemente grande di lanci, la moneta mediamente mostri “testa” tante volte quante mostra “croce”. Estendendo tale concetto ai mercati finanziari dovremmo aspettarci che, dopo un tempo molto lungo, il guadagno medio sia nullo perché il prezzo in media salirà e scenderà con la stessa frequenza di accadimento.

Quindi, in mancanza di nuove informazioni che possano alterare l’equilibrio tra domanda e offerta, la miglior previsione del prezzo di domani sarebbe il prezzo odierno perché le oscillazioni mediamente si assesterebbero attorno al valore di partenza.

In secondo luogo il modello di Bachelier sostiene che le variazioni di prezzo di un titolo si dispongono secondo una distribuzione di probabilità “a campana” (la famosa distribuzione di Gauss) dove le piccole numerose oscillazioni si assestano al centro, mentre le rare variazioni più grandi rimangono agli estremi. Vediamo le proprietà principali di questa curva.

La distribuzione normale

In matematica e statistica, una distribuzione di probabilità, più propriamente definita densità di probabilità, assegna ad ogni intervallo dei numeri reali un valore compreso tra 0 e 1, in modo da soddisfare precisi assiomi.

Qualsiasi variabile casuale da origine a una distribuzione di probabilità che contiene le informazioni più rilevanti.

Se X è una variabile casuale, la densità di probabilità corrispondente assegna ad un intervallo [a, b] la probabilità che il valore assunto dalla variabile sia compreso in tale intervallo P[a ≤ X ≤ b].

La curva di Gauss è una distribuzione centrata nel valore medio e in corrispondenza di esso ha il suo massimo. Il secondo parametro caratteristico è la deviazione standard[1] ed è correlato alla larghezza della “campana” e, in particolare rappresenta la distanza tra l'asse di simmetria e i punti di flesso della distribuzione. Se la deviazione standard è piccola, la curva è stretta, viceversa, la curva è larga e più "dispersa" rispetto al valor medio. Tale distribuzione rende possibile la determinazione del rischio calcolando semplicemente la deviazione standard.



























La funzione di densità di probabilità della distribuzione normale con media μ and e varianza σ2 (o deviazione standard σ ) è








Se μ = 0 e σ = 1, la distribuzione è detta distribuzione normale standard e la sua funzione di densità di probabilità diventa:








Deviazione standard











Nel caso della distribuzione normale la zona blu [m-s; m+s] comprende circa il 68% dell’insieme dei valori possibili che possono essere assunti dalla variabile casuale X. La zona compresa nell’intervallo [m-2s; m+2s] comprende il 95% circa dei casi possibili, mentre l’intervallo [m-3s; m+3s] comprende il 99,7%.

Nella pratica si assume che i dati a disposizione appartengano ad una popolazione distribuita normalmente. Se tale ipotesi è giustificata allora si è certi del fatto che il 68% circa dei dati si trovano ad una s di distanza dal valore medio m, il 95% entro due s di distanza da m e il 99,7% entro tre s.

Secondo la teoria qui esposta, la deviazione standard è il miglior estimatore del rischio.

Può la curva di Gauss stimare in maniera precisa il rischio dei mercati? Dall’analisi dei dati di un qualsiasi titolo azionario si nota che le grandi variazioni sono più comuni di quanto previsto dal modello standard. Anche modificando la curtosi[2] della curva non si riesce ad ottenere una corretta correlazione tra valori attesi e dati reali.

Da un’analisi più approfondita si nota che la distribuzione normale ha gli estremi (code) troppo sottili per stimare in maniera corretta la probabilità di accadimento dei valori più distanti dalla media. Occorre quindi una distribuzione di probabilità dotata di “code spesse”; tale distribuzione esiste ed è ben nota ai fisici e ai matematici: si tratta della distribuzione di Cauchy.

La distribuzione di Cauchy

La distribuzione di Cauchy-Lorentz è una funzione di densità di probabilità continua la cui espressione è la seguente:








Dove x0[3] è il parametro che stabilisce la posizione del massimo e γ è un parametro di scala che specifica la forma della curva. Nel caso particolare in cui x0 = 0 e γ =1 si ottiene la distribuzione di Cauchy standard che ha come densità






La sua rappresentazione grafica ricorda la normale, ma risulta più stretta e dotata di code più spesse, come si vede in figura.



























Nel caso della distribuzione di Cauchy standard l’intervallo [x0-1; x0+1] comprende il 50% dell’insieme dei valori possibili che possono essere assunti dalla variabile casuale X. La zona compresa nell’intervallo [x0-2; x0+2] comprende il 70% circa dei casi possibili, mentre l’intervallo [x0-3; x0+3] comprende l’80%. Il restante 20% dei valori possibili rimane nelle code della campana, quando nel caso della normale vi era solamente lo 0,3%.

Volendo tradurre in ambito finanziario, questo significa che la distribuzione di Cauchy attribuisce alle variazioni di prezzo più elevate e più rare una probabilità maggiore, permettendo così una miglior stima del rischio..


Giunti a questo punto occorre fare un’importante precisazione. Non esiste alcuna dimostrazione matematica che garantisca la correttezza dell’utilizzo della distribuzione di Cauchy come modello per descrivere le variazioni di prezzo, ma lo stesso vale per la curva normale. Si tratta esclusivamente di ipotesi, ma visto che con la distribuzione di Cauchy la probabilità di sottostimare il rischio è minore, si consiglia l’uso di quest’ultima in luogo della Normale.

Luca Mistrangelo
[email protected]
http://www.saperinvestire.it/index.php?option=com_content&task=view&id=753&Itemid=230
 
Analisi tecnica e finanza frattale

di Roberto Domenichini

Colgo l’occasione con questo articolo di sfatare un luogo comune: l’intolleranza della finanza frattale nei confronti dell’analisi tecnica. Analizzando nel dettaglio le varie teorie degli analisti tecnici si scopre che l’Ingegnere Ralph Nelson Elliott agli inizi del novecento intuì l’andamento frattale dei mercati

Nel primo articolo "La basi geometriche della finanza frattale" veniva spiegata l’auto-similitudine delle figure geometriche irregolari sotto riportate:












La varietà dei frattali è immensa, tuttavia è possibile riconoscere alcune caratteristiche comuni: le parti più piccole sono simili al tutto secondo uno specifico rapporto preciso e misurabile. Nei frattali più semplici, questo rapporto è lo stesso in tutte le direzioni. Tali frattali vengono quindi chiamati auto-simili, e in generale si parla di auto-similitudine. Sono come “zoom” che dilatano o comprimono nella stessa misura tutto ciò che inquadrano.

Tutto questo non ci ricorda forse la teoria delle onde di Elliott?

Secondo tale teoria un ciclo borsistico primario è scomponibile in tanti sottocicli che mantengono le stesse proprietà del ciclo di partenza come sotto riportato:







































Come possiamo notare un impulso (1), (3), (5), è a sua volta “generato” da altri impulsi e correzioni più piccoli. In altre parole Elliott scoprì l’auto-similitudine dei mercati.

Ed è per questo che possiamo ritenere l’Ing. Ralph Elliott il primo studioso di finanza frattale, anche se come materia nascerà solo più tardi.

Elliott non fu il solo ad occuparsi “inconsciamente” di frattali e teoria del Caos.

Il più grande investitore di tutti i tempi, William Delbert Gann, concepiva il mercato come la struttura dell’atomo. I prezzi di un’attività finanziaria passano da un livello all’altro proprio come un elettrone salta da un orbitale all’altro con una probabilità calcolabile, come dimostra la fisica quantistica.

Tutto ciò dimostra che quanto stiamo da tempo scrivendo veniva già utilizzato, anche se inconsapevolmente, dai guru della finanza.

Attualmente la finanza frattale cerca soltanto di dare maggiore autorevolezza ma soprattutto scientificità al mondo borsistico. Ad esempio il coefficiente di Hurst si è imposto all’attenzione degli analisti tecnici come uno strumento più rigoroso per verificare la presenza di eventuali tendenze. Saranno i vari oscillatori, medie mobili, figure d’inversione, che stabiliranno il timing di entrata o uscita dal mercato per gli operatori ortodossi dell’analisi tecnica.

Come vedete l’analisi tecnica e la finanza frattale non sono affatto antitetiche (anche se lo stesso Mandelbrot disdegna l’analisi tecnica); al contrario possono essere un potente strumento di minimizzazione del rapporto rischio/rendimento.

Torneremo sull’argomento nei successivi articoli.


Roberto Domenichini
[email protected]


http://www.saperinvestire.it/index.php?option=com_content&task=view&id=756&Itemid=230
 

Users who are viewing this thread

Back
Alto