"Tuttavia, soprattutto nei casi in cui l'apprendimento è stato effettuato troppo a lungo o dove c'era uno scarso numero di esempi di allenamento, il modello potrebbe adattarsi a caratteristiche che sono specifiche solo del training set, ma che non hanno riscontro nel resto dei casi; perciò, in presenza di overfitting, le prestazioni (cioè la capacità di adattarsi/prevedere) sui dati di allenamento aumenteranno, mentre le prestazioni sui dati non visionati saranno peggiori";
Cioè, se faccio girare il TS sempre sugli stessi dati e lo ottimizzo su quelli, nel momento in cui ne immetto di nuovi (il futuro) potrebbe essere un disastro. Esempio : ottimizzare l'incrocio MM sulle quotazioni del 2008 potrebbe portare a risultati strepitosi, ma con i dati 2009 (o 2007, 2006 ecc...) potrebbe essere ben diverso. Ecco perchè i fissati di "back-testing" (banalmente il controllo su dati del passato) risalgono a serie storiche anche vecchissime (senza nessun riscontro concreto, peraltro. Provate a fare backtesting sul FIB dal 1994... a cosa serve ?). Lo stesso concetto per le reti neurali, che a forza di fare un testing ossessivamente ripetitivo sul passato danno risultati (per me) penosi. Giornate a far girare un Core 2 Duo al 100% delle 2 CPU per avere previsioni al giorno dopo che basterebbe un veloce calcolo dei pivot. Basta, ho finito di annoiare.... Ciao :zzz: