Questo il "futuro" che aspetta le nuove generazioni.....poveretti.
Sembra la trama di un film comico,
ma è la cronaca di un disastro annunciato nel mondo dorato della consulenza.
Deloitte, uno dei colossi delle “Big Four”,
è stata
costretta a rimborsare parzialmente il governo australiano per un report pieno zeppo di errori.
La causa? L’utilizzo, forse un po’ troppo disinvolto,
dell’intelligenza artificiale generativa.
L’obiettivo era una “revisione indipendente” di un sistema di welfare che penalizzava automaticamente chi cercava lavoro.
Un compito delicato, che richiedeva precisione e affidabilità.
Peccato che il risultato finale sia stato tutt’altro che impeccabile.
Come riportato dall’Australian Financial Review,
il documento conteneva una serie di svarioni piuttosto grossolani, tra cui:
- Citazioni fantasma: Riferimenti a report accademici completamente inesistenti, uno dei difetti classici dei documenti redatti dalla AI.
- Attribuzioni errate: Note a piè di pagina che rimandavano a studi di fantomatici ricercatori delle università di Sydney e di Lund, in Svezia.
- Sintesi legali imprecise: Un riassunto di procedimenti legali che non corrispondeva alla realtà.
In pratica, l’IA utilizzata da Deloitte ha avuto delle “allucinazioni”,
un termine tecnico che descrive la tendenza di questi modelli a inventare di sana pianta informazioni,
presentandole però con la massima sicurezza.
Un po’ come uno studente impreparato che cerca di riempire il foglio durante un’interrogazione,
ma un problema che colpisce anche le AI più avanzate, che, per accontentare il cliente, si inventano le cose.