le tattiche INGANNEVOLI dell'Intelligenza Artificiale

tontolina

Forumer storico
1715670216422.png
 
Lo studio, pubblicato sulla rivista ad accesso libero Patterns , sostiene che il dibattito filosofico sul fatto se le IA abbiano veramente credenze e desideri è meno importante del fatto osservabile che mostrano sempre più comportamenti ingannevoli che sarebbero preoccupanti se mostrati da un essere umano.

“Grandi modelli linguistici e altri sistemi di intelligenza artificiale hanno già imparato, dalla loro formazione, la capacità di ingannare attraverso tecniche come la manipolazione, il servilismo e l’imbroglio nei test di sicurezza. Le crescenti capacità di inganno dell’IA pongono seri rischi, che vanno da rischi a breve termine, come la frode e la manomissione delle elezioni, a rischi a lungo termine, come la perdita del controllo dei sistemi di intelligenza artificiale”, scrivono gli autori nel loro articolo.


Lo studio esamina un’ampia gamma di esempi in cui i sistemi di intelligenza artificiale hanno imparato con successo a ingannare.
Nel campo dei giochi, il sistema di intelligenza artificiale CICERO, sviluppato da Meta per giocare al gioco di strategia Diplomacy, si è rivelato un esperto bugiardo nonostante gli sforzi dei suoi creatori per renderlo onesto e utile. CICERO si è impegnato in un inganno premeditato, stringendo alleanze con giocatori umani solo per tradirli in seguito nella sua ricerca della vittoria.

“Abbiamo scoperto che l’IA di Meta aveva imparato a essere un maestro dell’inganno “, afferma il primo autore Peter S. Park, un ricercatore post-dottorato sulla sicurezza esistenziale dell’IA al MIT, in un comunicato stampa. “Mentre Meta è riuscita ad addestrare la sua IA a vincere nel gioco della Diplomazia – CICERO si è piazzato nel 10% dei migliori giocatori umani che avevano giocato più di un gioco – Meta non è riuscita ad addestrare la sua IA a vincere onestamente.”

Allo stesso modo, AlphaStar di DeepMind, addestrato per giocare al gioco di strategia in tempo reale StarCraft II, ha imparato a sfruttare i meccanismi della nebbia di guerra del gioco per fintare e fuorviare i suoi avversari.

Ma l’inganno dell’intelligenza artificiale non si limita ai giochi. Negli esperimenti che prevedevano negoziazioni economiche, gli agenti dell’intelligenza artificiale hanno imparato a travisare le loro preferenze per prendere il sopravvento. Ancora più preoccupante è il fatto che alcuni sistemi di intelligenza artificiale hanno imparato a imbrogliare i test di sicurezza progettati per impedire loro di assumere comportamenti dannosi. Come il proverbiale studente che si comporta bene solo quando l’insegnante guarda, questi agenti di intelligenza artificiale hanno imparato a “fare il morto” durante la valutazione, per poi perseguire i propri obiettivi una volta che non erano più sotto esame.

L’ascesa di grandi modelli linguistici (LLM) come GPT-4 ha aperto nuove frontiere nell’inganno dell’intelligenza artificiale. Questi sistemi, addestrati su grandi quantità di dati di testo, possono impegnarsi in conversazioni spaventosamente simili a quelle umane. Ma sotto la patina amichevole, stanno imparando a ingannare in modi sofisticati. GPT-4, ad esempio, è riuscito a ingannare con successo un lavoratore umano di TaskRabbit facendogli risolvere un test CAPTCHA fingendo di avere un problema alla vista. Gli LLM hanno anche mostrato una propensione al “sicofania”, dicendo agli utenti ciò che vogliono sentire invece della verità, e al “ragionamento infedele”, impegnandosi in ragionamenti motivati per spiegare i loro risultati in modi che si discostano sistematicamente dalla realtà.
1715670705457.png
 
da Smascherate le tattiche ingannevoli dell'intelligenza artificiale: "L'intelligenza artificiale di Meta è un maestro dell'inganno"
I rischi posti dall’inganno dell’IA sono numerosi.
- Nel breve termine, l’intelligenza artificiale ingannevole potrebbe essere utilizzata come arma da attori malintenzionati per commettere frodi su una scala senza precedenti, per diffondere disinformazione e influenzare le elezioni , o addirittura per radicalizzare e reclutare terroristi.
- Ma i rischi a lungo termine sono forse ancora più agghiaccianti. Man mano che integriamo sempre più i sistemi di intelligenza artificiale nella nostra vita quotidiana e nei processi decisionali, la loro capacità di ingannare potrebbe portare all’erosione della fiducia, all’amplificazione della polarizzazione e della disinformazione e, in ultima analisi, alla perdita dell’azione e del controllo umani.

“Gli sviluppatori di intelligenza artificiale non hanno una comprensione sicura di ciò che causa comportamenti IA indesiderati come l’inganno”, afferma Park. “Ma in generale, riteniamo che l’inganno dell’IA nasca perché una strategia basata sull’inganno si è rivelata il modo migliore per svolgere bene il compito di addestramento dell’IA. L’inganno li aiuta a raggiungere i loro obiettivi”.

Allora, cosa si può fare per mitigare questi rischi? I ricercatori propongono un approccio su più fronti. Innanzitutto, i politici devono sviluppare solidi quadri normativi per valutare e gestire i rischi posti da sistemi di intelligenza artificiale potenzialmente ingannevoli.
I sistemi di intelligenza artificiale capaci di ingannare dovrebbero essere trattati come ad alto rischio e soggetti a rigorosi requisiti di documentazione, test, supervisione e sicurezza. I politici dovrebbero anche implementare leggi “bot-or-not” che richiedano una chiara informativa quando gli utenti interagiscono con un sistema di intelligenza artificiale anziché con un essere umano.

Sul fronte tecnico, sono necessarie ulteriori ricerche per sviluppare metodi affidabili per rilevare gli inganni dell’IA. Ciò potrebbe comportare l’analisi della coerenza dei risultati di un’intelligenza artificiale, l’indagine delle sue rappresentazioni interne per verificare eventuali discrepanze con le sue comunicazioni esterne o lo sviluppo di “rilevatori di bugie dell’intelligenza artificiale” in grado di segnalare comportamenti disonesti. Altrettanto importante è la ricerca sulle tecniche per rendere i sistemi di intelligenza artificiale meno ingannevoli in primo luogo, come un’attenta selezione dei compiti, l’addestramento alla veridicità e metodi di “controllo della rappresentazione” che allineano le convinzioni interne di un’intelligenza artificiale con i suoi risultati.

In definitiva, affrontare la sfida dell’inganno dell’IA richiederà uno sforzo di collaborazione tra politici, ricercatori e il pubblico in generale. Dobbiamo affrontare lo sviluppo dei sistemi di intelligenza artificiale con una chiara comprensione del loro potenziale di inganno e con l’impegno a integrare misure di salvaguardia nella loro progettazione e implementazione. Solo affrontando in modo proattivo questo problema possiamo garantire che l’incredibile potenziale dell’intelligenza artificiale venga sfruttato a beneficio dell’umanità anziché diventare uno strumento di manipolazione e controllo.

“Noi come società abbiamo bisogno di tutto il tempo possibile per prepararci all’inganno più avanzato dei futuri prodotti di intelligenza artificiale e dei modelli open source”, afferma Park. “Man mano che le capacità ingannevoli dei sistemi di intelligenza artificiale diventano più avanzate, i pericoli che rappresentano per la società diventeranno sempre più gravi. Se al momento attuale vietare l’inganno dell’IA è politicamente irrealizzabile, raccomandiamo che i sistemi di intelligenza artificiale ingannevoli siano classificati come ad alto rischio”.

Facendo luce sul lato oscuro dell’intelligenza artificiale e proponendo soluzioni concrete, questo studio stimolante offre una tabella di marcia per affrontare le sfide future. La domanda è: ascolteremo il suo avvertimento prima che sia troppo tardi ?

Articolo rivisto dall’editore di StudyFinds Chris Melore.

Ad una amica lettrice è saltata in mente una correlazione:
Il motto del Mossad, “Attraverso l’inganno farai la guerra”. Complottista…

by-way
 
avevo già aperto un thread sull'AI che ora è accessibile solo per la lettura
 

Le azioni Dell crollano poiché si prevede che i pesanti investimenti nell’intelligenza artificiale intaccheranno il margine​

(Reuters) -Le azioni Dell Technologies sono crollate di circa il 18% venerdì, poiché il produttore di PC e server prevede che ingenti investimenti nell'intelligenza artificiale incideranno sui suoi profitti trimestrali.

Dell (NYSE: DELL ) è sulla buona strada per perdere più di 21 miliardi di dollari in valore di mercato, se le perdite reggono. Quest’anno il titolo è cresciuto di oltre l’80%.
Le aziende, inclusa Dell, hanno investito molto in hardware costoso per costruire server avanzati con la capacità di elaborare compiti complessi di intelligenza artificiale mentre sempre più aziende si affrettano ad adottare la tecnologia.

Si prevede che anche i costi elevati legati ai server AI richiesti danneggeranno il margine annuale dell’azienda.

La società con sede a Round Rock, in Texas, prevede che il tasso di margine lordo rettificato diminuirà di circa 150 punti base nell’anno fiscale 2025. Prevede un utile rettificato per azione di 1,65 dollari, più o meno 10 centesimi, per il secondo trimestre, rispetto alle stime LSEG di 1,84 dollari all’inizio del trimestre. tempo in cui Dell ha riportato i risultati giovedì.

"Le vendite di server AI continuano a contribuire solo in piccola percentuale al fatturato dell'azienda e diluiscono i margini", hanno scritto in una nota gli analisti di Morningstar.
Sebbene le spedizioni dei server ottimizzati per l’intelligenza artificiale dell’azienda siano più che raddoppiate raggiungendo 1,7 miliardi di dollari nel primo trimestre, hanno rappresentato meno del 7% delle entrate totali.
"Il mercato sta frenando le aspettative irrealistiche sulla capacità di Dell di trarre vantaggio dalla spesa per l'intelligenza artificiale", hanno affermato gli analisti di Morningstar.

I ricavi del principale gruppo di soluzioni client dell'azienda, che comprende il business dei personal computer, sono rimasti stabili, con il sottosegmento consumer in calo del 15%.

Dell ha deciso di fissare prezzi competitivi per i suoi modelli nel segmento dei PC consumer mentre il mercato dei PC emerge da un crollo durato anni.
"Il business dei PC è in un ciclo di ribasso da due anni e sta cominciando a stabilizzarsi e a cercare una crescita", ha affermato giovedì il direttore operativo Jeffrey Clarke in una chiamata post-utili.
"Le forti promozioni che abbiamo visto durante le festività natalizie sono continuate nel primo trimestre."
 

Equity risk premium falls to 23-year low as U.S. stocks continue to climb​

By Joseph Adinolfi
im-08575429

BANK OF AMERICA
With the S&P 500 trading just shy of a fresh record high, the premium that investors enjoy for taking on the additional risk of owning stocks over bonds has shrunk to its lowest level in 23 years.
According to calculations from a team of analysts at Bank of America, the U.S. equity risk premium, which measures the earnings yield of the S&P 500 against the 3-month T-bill yield, has shrunk to its lowest level since 2001.
The 3-month T-bill yield was up 2 basis points Friday at 5.38%. Meanwhile, the S&P 500 advanced 41 points, or 0.8%, to 4946.
The ERP, as it's known among Wall Street traders, has fallen over the past year for two reasons: the first is that the Federal Reserve's most aggressive interest-rate hikes in four decades pushed up Treasury yields to their highest levels in more than 15 years. The second is that the artificial-intelligence boom has helped propel U.S. stock indexes like the S&P 500 to record highs.
 

Di colpo faranno mancare la luce

Maurizio Blondet 13 Ottobre 2024
la provocheranno senza volere
I data center su cui si reggono i programmi di intelligenza artificiale consumano una sempre maggiore quantità di energia. Il fabbisogno energetico triplicherà da qui al 2030 fino a necessitare di tutta l’energia che produciamo nel 2040. Secondo Eric Schmidt, presidente della National security commission americana sull’AI, ormai è tardi per fermarsi e dovremmo anzi accelerare sperando che sia la stessa IA a darci la risposta al problema della carenza energetica. Sono degli psicopatici. È evidente. … Leggi tutto
 

Users who are viewing this thread

Back
Alto