COSTRUZIONE INDICATORE PER ANALISI CICLICA CON VISUAL TRADER

.





1 ) Cos'è in PAROLE POVERE .. il rischio overfitting di un TS .. ?

2 ) E' evitabile ?

3 ) E' una caratteristica negativa comune a tutti i TS . . ?



.

Overfitting è tarare il sistema perfettamente come entrate e uscite per un certo periodo di solito non molto lungo. Quindi il ts, se si è fortunati, andrà per un po' di tempo poi comincerà a sbagliare le entrate. Più si usano serie storiche lunghe (3-5 anni e oltre) più sarà difficile tarare il ts in overfitting e più il sistema sarà stabile nel tempo
L'overfitting si evita provando il ts con delle serie storiche molto lunghe.
E' una caratteristica negativa che serve ai venditori di ts a fare spendere soldi per acquistare ts che nel tempo non reggeranno il mercato.
 
Overfitting

Da Wikipedia, l'enciclopedia libera.

Vai a: Navigazione, cerca

Overfitting. La curva blu mostra l'andamento dell'errore nel classificare i dati di training, mentre la curva rossa mostra l'errore nel classificare i dati di test o validazione. Se l'errore di validazione aumenta mentre l'errore aui dati di training diminuisce, ciò indica che siamo in presenza di un possibile caso di overfitting.


In statistica, si parla di overfitting (eccessivo adattamento) quando un modello statistico si adatta ai dati osservati (il campione) usando un numero eccessivo di parametri. Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili. Spesso si sostiene che l'overfitting è una violazione della legge del Rasoio di Occam.
Il concetto di overfitting è molto importante anche nell'apprendimento automatico e nel data mining. Di solito un algoritmo di apprendimento viene allenato usando un certo insieme di esempi (il training set appunto), ad esempio situazioni tipo di cui è già noto il risultato che interessa prevedere (output). Si assume che l'algoritmo di apprendimento (il learner) raggiungerà uno stato in cui sarà in grado di predire gli output per tutti gli altri esempi che ancora non ha visionato, cioè si assume che il modello di apprendimento sarà in grado di generalizzare. Tuttavia, soprattutto nei casi in cui l'apprendimento è stato effettuato troppo a lungo o dove c'era uno scarso numero di esempi di allenamento, il modello potrebbe adattarsi a caratteristiche che sono specifiche solo del training set, ma che non hanno riscontro nel resto dei casi; perciò, in presenza di overfitting, le prestazioni (cioè la capacità di adattarsi/prevedere) sui dati di allenamento aumenteranno, mentre le prestazioni sui dati non visionati saranno peggiori.
Sia nella statistica che nel machine learning, per evitare l'overfitting, è necessario attuare particolari tecniche, come la cross-validation e l' arresto anticipato, che indichino quando un ulteriore allenamento non porterebbe ad una migliore generalizzazione. Nel treatment learning si evita l'overfitting utilizzando il valore di supporto migliore e minimale.
 
:) Ho messo la drawline sulla candela dell'ipotetico minimo. Vediamo se lo prendo.
127048458418.30.jpg
 
Sì .ok... ma io vorrei ugualmente la risposta a quelle domande ...
su un ipotetico e qualsiasi TS...
lo chiedo qui ..
perchè spero che mi sappiate rispondere . .


.
La soluzione migliore per evitare l'overfitting è applicare la regola del Rasoio di Occam , che possiamo riassumere in due parole.
Usare sempre la strada piu' semplice e corta per giungere a destinazione.
Non complicare un listato con istruzioni inutili moltiplicando il numero di parametri quando non servono.
 

Users who are viewing this thread

Back
Alto