Perché conosco le tecniche di progettazione delle AI. Ci ho fatto un dottorato, e neanche in Italia.
Affascinanti, come quella splendida postata da Erny.
Ma lontane non moltissimo, ma infinitamente, dal poter essere pericolose al di là di un semplice bug come quelli possibili in un qualunque software di controllo.
Per poter avere un minimo di timore di queste cose dovrei vedere quantomeno mettere mano a genetica e wetware (ma neanche!)
Pensavo che avessimo bandito self-references come argomentazioni!
E scusami, per il tuo stesso punto, come fai a scrivere "conosco le tecniche di progettazione di AI"
Mi sono avvicinato al campo, e sto formulando un'ipotesi di ricerca per un dottorato. Concordo su quanto siamo lontani (ieri un tipo mi ha detto che crede di essere a meno di 10y di distanza da "AGI"…), ma ho trovato curiosa la tua affermazione - sembra che vedi delle condizioni necessarie, che non ho capito, per arrivarci?
Tralasciamo una definizione precisa del "dove" si dovrebbe arrivare.
Sulle situazione attuale – credo ci siano gia’ i presupposti perche’ la tecnologia possa essere
molto pericolosa, non per la possibilita’ di avere robots che controllano gli umani, ma molto oltre rischi di avere semplici bugs. Ma e’ un altro discorso.