da
Smascherate le tattiche ingannevoli dell'intelligenza artificiale: "L'intelligenza artificiale di Meta è un maestro dell'inganno"
I rischi posti dall’inganno dell’IA sono numerosi.
- Nel breve termine, l’intelligenza artificiale ingannevole potrebbe essere utilizzata come arma da attori malintenzionati per commettere frodi su una scala senza precedenti, per diffondere disinformazione
e influenzare le elezioni , o addirittura per radicalizzare e reclutare terroristi.
- Ma i rischi a lungo termine sono forse ancora più agghiaccianti. Man mano che integriamo sempre più i sistemi di intelligenza artificiale nella nostra vita quotidiana e nei processi decisionali, la loro capacità di ingannare potrebbe portare all’erosione della fiducia, all’amplificazione della polarizzazione e della disinformazione e, in ultima analisi, alla
perdita dell’azione e del controllo umani.
“Gli sviluppatori di intelligenza artificiale non hanno una comprensione sicura di ciò che causa comportamenti IA indesiderati come l’inganno”, afferma Park. “Ma in generale, riteniamo che l’inganno dell’IA nasca perché una strategia basata sull’inganno si è rivelata il modo migliore per svolgere bene il compito di addestramento dell’IA. L’inganno li aiuta a raggiungere i loro obiettivi”.
Allora, cosa si può fare per mitigare questi rischi? I ricercatori propongono un approccio su più fronti.
Innanzitutto, i politici devono sviluppare solidi quadri normativi per valutare e gestire i rischi posti da sistemi di intelligenza artificiale potenzialmente ingannevoli.
I sistemi di intelligenza artificiale capaci di ingannare dovrebbero essere trattati come ad alto rischio e soggetti a rigorosi requisiti di documentazione, test, supervisione e sicurezza. I politici dovrebbero anche
implementare leggi “bot-or-not” che richiedano una chiara informativa quando gli utenti interagiscono con un sistema di intelligenza artificiale anziché con un essere umano.
Sul fronte tecnico, sono necessarie ulteriori ricerche per
sviluppare metodi affidabili per rilevare gli inganni dell’IA. Ciò potrebbe comportare l’analisi della coerenza dei risultati di un’intelligenza artificiale, l’indagine delle sue rappresentazioni interne per verificare eventuali discrepanze con le sue comunicazioni esterne o
lo sviluppo di “rilevatori di bugie dell’intelligenza artificiale” in grado di segnalare comportamenti disonesti. Altrettanto importante è la ricerca sulle tecniche per rendere i sistemi di intelligenza artificiale meno ingannevoli in primo luogo, come un’attenta selezione dei compiti, l’addestramento alla veridicità e metodi di “controllo della rappresentazione” che allineano le convinzioni interne di un’intelligenza artificiale con i suoi risultati.
In definitiva, affrontare
la sfida dell’inganno dell’IA richiederà uno sforzo di collaborazione tra politici, ricercatori e il pubblico in generale. Dobbiamo affrontare lo sviluppo dei sistemi di intelligenza artificiale con una chiara comprensione del loro potenziale di inganno e con l’impegno a integrare misure di salvaguardia nella loro progettazione e implementazione. Solo affrontando in modo proattivo questo problema possiamo garantire che l’incredibile potenziale dell’intelligenza artificiale venga sfruttato a beneficio dell’umanità anziché diventare uno strumento di manipolazione e controllo.
“Noi come società abbiamo bisogno di tutto il tempo possibile per prepararci all’inganno più avanzato dei futuri prodotti di intelligenza artificiale e dei modelli open source”, afferma Park. “Man mano che le capacità ingannevoli dei sistemi di intelligenza artificiale diventano più avanzate, i
pericoli che rappresentano per la società diventeranno sempre più gravi. Se al momento attuale vietare l’inganno dell’IA è politicamente irrealizzabile, raccomandiamo che i sistemi di intelligenza artificiale ingannevoli siano classificati come ad alto rischio”.
Facendo luce sul lato oscuro dell’intelligenza artificiale e proponendo soluzioni concrete, questo studio stimolante offre una tabella di marcia per affrontare le sfide future. La domanda è: ascolteremo il suo avvertimento
prima che sia troppo tardi ?
Articolo rivisto dall’editore di StudyFinds Chris Melore.
Ad una amica lettrice è saltata in mente una correlazione:
Il motto del Mossad, “Attraverso l’inganno farai la guerra”. Complottista…
