Stai usando un browser molto obsoleto. Puoi incorrere in problemi di visualizzazione di questo e altri siti oltre che in problemi di sicurezza. . Dovresti aggiornarlo oppure usarne uno alternativo, moderno e sicuro.
First AlphaZero learned go, just by playing itself, becoming the world's best player in 40 days. Now it has taught itself to be the world's best chess player - crushing all others. And it did this in just 24 hours!
First AlphaZero learned go, just by playing itself, becoming the world's best player in 40 days. Now it has taught itself to be the world's best chess player - crushing all others. And it did this in just 24 hours!
Finché l'AI si baserà su algoritmi, ovvero su strutture logiche deterministiche, per quanto complesse, la paura che intendi tu resterà assolutamente irrazionale.
Finché l'AI si baserà su algoritmi, ovvero su strutture logiche deterministiche, per quanto complesse, la paura che intendi tu resterà assolutamente irrazionale.
Perché conosco le tecniche di progettazione delle AI. Ci ho fatto un dottorato, e neanche in Italia.
Affascinanti, come quella splendida postata da Erny.
Ma lontane non moltissimo, ma infinitamente, dal poter essere pericolose al di là di un semplice bug come quelli possibili in un qualunque software di controllo.
Per poter avere un minimo di timore di queste cose dovrei vedere quantomeno mettere mano a genetica e wetware (ma neanche!)
Perché conosco le tecniche di progettazione delle AI. Ci ho fatto un dottorato, e neanche in Italia.
Affascinanti, come quella splendida postata da Erny.
Ma lontane non moltissimo, ma infinitamente, dal poter essere pericolose al di là di un semplice bug come quelli possibili in un qualunque software di controllo.
Per poter avere un minimo di timore di queste cose dovrei vedere quantomeno mettere mano a genetica e wetware (ma neanche!)
Pensavo che avessimo bandito self-references come argomentazioni!
E scusami, per il tuo stesso punto, come fai a scrivere "conosco le tecniche di progettazione di AI"
Mi sono avvicinato al campo, e sto formulando un'ipotesi di ricerca per un dottorato. Concordo su quanto siamo lontani (ieri un tipo mi ha detto che crede di essere a meno di 10y di distanza da "AGI"…), ma ho trovato curiosa la tua affermazione - sembra che vedi delle condizioni necessarie, che non ho capito, per arrivarci?
Tralasciamo una definizione precisa del "dove" si dovrebbe arrivare.
Sulle situazione attuale – credo ci siano gia’ i presupposti perche’ la tecnologia possa essere molto pericolosa, non per la possibilita’ di avere robots che controllano gli umani, ma molto oltre rischi di avere semplici bugs. Ma e’ un altro discorso.
Hai ragione, mi sto facendo vecchia, ed in verità non saprei argomentare meglio con il poco tempo e la poca fantasia che mi ritrovo.
Se sei un programmatore dovresti intuire il mio punto di vista, altrimenti veramente non saprei come rendere l'idea.
Sarebbe un po' come pensare ad un algoritmo, creato da un uomo, capace di prendere il controllo dello stesso uomo.
Lo vedo impossibile.
Concordo su quanto siamo lontani (ieri un tipo mi ha detto che crede di essere a meno di 10y di distanza da "AGI"…), ma ho trovato curiosa la tua affermazione - sembra che vedi delle condizioni necessarie, che non ho capito, per arrivarci?
Tralasciamo una definizione precisa del "dove" si dovrebbe arrivare.
Credo sia impossibile per noi creare un AGI, sempre per il solito secondo teorema di incompletezza di Goedel.
Un passo avanti sostanziale lo si potrebbe fare utilizzando qualcosa di diverso dall'elettronica, ma veramente andiamo nella fantascienza.
Tipo "cervello positronico", per citare un mio mito che aveva capito tutto con decadi di anticipo. Anche "quantitativamente" parlando.
Sulle situazione attuale – credo ci siano gia’ i presupposti perche’ la tecnologia possa essere molto pericolosa, non per la possibilita’ di avere robots che controllano gli umani, ma molto oltre rischi di avere semplici bugs. Ma e’ un altro discorso.