Degooglizzazione / Degoogling !

poi come si diceva non e' obbligatorio scrivere un ts
mettiamo che dobbiamo cercare dei pattern....ma questi sono ignoti...li lascio trovare a lui senza scrivere una riga di codice
il vantaggio e' che se questi cambieranno in futuro non mi dovro' preoccupare perche' vengono seguiti nella trasformazione
il tempo, al contrario ns, e' positivo per sto affare...+ dati + impara

per i curiosi c'e' una clusterizzazione con EM per velocizzare i tempi di calcolo che altrimenti sarebbero assurdi...i cluster vengono puliti col DTW....poi SVM per una regressione

questo e' uno dei 30 e rotti ts che uso sul dax
cross validation 20, non ha visto il futuro, non c'e' un ts

Non sapendo nulla di machine learning sono curioso.
Per pattern intendi sequenze di candele, figure di AT, altro?
L'apprendimento è stato fatto solo su dati out-of-sample, o mix out e in-sample (learning in progress), nel secondo caso non puoi escludere overfitting.
 
Non sapendo nulla di machine learning sono curioso.
Per pattern intendi sequenze di candele, figure di AT, altro?
L'apprendimento è stato fatto solo su dati out-of-sample, o mix out e in-sample (learning in progress), nel secondo caso non puoi escludere overfitting.

faccio delle sequenze di circa 10 gg
poi cerco nello storico sequenze simili...il matching
appena trovo una corrispondenza guardo cosa succede dopo
avro' tanti cluster(circa una 30ina....con + dati posso permettermi di averne di piu' e viceversa) con la probabilita' di cosa potra' succedere.

quando devo fare una previsione cerco il cluster voluto

per l'apprendimento uso la cross validation..non c'e' poss.ta' di vedere il futuro...non c'e' tanto overfitting ...che invece c'e' con le reti neurali
 
Ultima modifica:
faccio delle sequenze di circa 10 gg
poi cerco nello storico sequenze simili...il matching
appena trovo una corrispondenza guardo cosa succede dopo
avro' tanti cluster(circa una 30ina....con + dati posso permettermi di averne di piu' e viceversa) con la probabilita' di cosa potra' succedere.

quando devo fare una previsione cerco il cluster voluto

per l'apprendimento uso la cross validation..non c'e' poss.ta' di vedere il futuro...non c'e' tanto overfitting ...che invece c'e' con le reti neurali

Beh, se cross validation significa che non mescoli in-sample e out-of-sample, e non fai tuning secondo il feedback, dovrebbe andare.
 
l'avevo scritto ad armando


divido l'archivio in n parti.. esempio 5
mettiamo che ci si siano 500 dati
fa il training da 101 a 500 e prova ad indovinare 1 100
poi training 1:100....201 500..e prova ad indovinare 101 200
poi training 1:200 ....301 500..e prova ad indovinare 201 300

se vogliamo essere pignoli...c'e' una pseudo lettura del futuro sui bordi...dove vado a tagliare..perche' esempio il 299 sara' simile al 301 che conosce
pero' se prendo un archivio di 4 anni con 1000 giorni...e faccio 5 pezzi.....i bordi sono un'inezia
 
l'avevo scritto ad armando


divido l'archivio in n parti.. esempio 5
mettiamo che ci si siano 500 dati
fa il training da 101 a 500 e prova ad indovinare 1 100
poi training 1:100....201 500..e prova ad indovinare 101 200
poi training 1:200 ....301 500..e prova ad indovinare 201 300

se vogliamo essere pignoli...c'e' una pseudo lettura del futuro sui bordi...dove vado a tagliare..perche' esempio il 299 sara' simile al 301 che conosce
pero' se prendo un archivio di 4 anni con 1000 giorni...e faccio 5 pezzi.....i bordi sono un'inezia

Chiaro, grazie. E' un metodo di test che non ho mai usato per i TS, sto sul più semplice in-sample e out-of-sample in sequenza.
 

Users who are viewing this thread

Back
Alto