Per due giudici "pizzicati" in flagranza dal setaccio della Cassazione
e diversi avvocati in malafede, condannati da Torino a Latina
per lite temeraria ai sensi dell'articolo 96 del Codice di procedura penale dopo i loro ricorsi scritti da ChatGpt
"con citazioni astratte e inconferenti", chissà quanti nelle aule di tribunale finora l'hanno fatta franca.
Ecco perché l'ultimo plenum di lunedì scorso è stata decisa la stretta.
Sappiamo che nei tribunali italiani si sperimentano già sistemi che analizzano precedenti,
gestiscono gli arretrati o redigono bozze di atti,
nei finanziamenti Pnrr è prevista la riduzione dell'arretrato anche grazie ad alcuni algoritmi dell'intelligenza artificiale,
(le pendenze entro il 31 dicembre 2024 sono calate del 91,7% contro un obiettivo richiesto del 95%),
ma il rischio che una macchina possa "decidere" per un giudice atterrisce.
Nella proposta elaborata dalla settima Commissione, relatori Marco Bisogni e la presidente Maria Vittoria Marchianò,
per evitare distorsioni nell'esercizio dell'azione giudiziaria
software come ChatGpt o software generativi simili come Chatbot, Copilot, Gemini, Perplexity
sono "fuorilegge" per redigere sentenze o motivazioni, in chiave "predittiva"o per valutare le prove.
La responsabilità è di chi firma la sentenza e non sarà delegabile - tipo me l'ha suggerito ChatGpt -
secondo i principi di indipendenza, imparzialità e responsabilità personale sanciti dagli articoli 101 e 104 della Costituzione.
L'uso delle tecnologie non si può rinviare,
prima servono trasparenza, supervisione umana costante, piena tracciabilità e affidabilità dei dati,
"l'addestramento" della Ai deve avvenire senza bias cognitivi, pregiudizi né discriminazioni,
eventuali risultati inattendibili andranno reinterpretati o modificati dai giudici,
con algoritmi sottoposti a una valutazione d'impatto etico e costituzionale.
Il Csm chiederà un registro nazionale delle app di Ai certificate
e percorsi formativi obbligatori organizzati dalla Scuola superiore della magistratura,
chiesto dall'Osservatorio su Intelligenza artificiale e diritto, come ricorda l'avvocato Cesare Del Moro,
con una sperimentazione sotto l'egida del ministero della Giustizia.
Sarà data massima attenzione alle informazioni generate, saranno inaccessibili ai terzi non autorizzati,
ma serve anche la protezione dei dati - anonimizzati per evitare il rischio di reidentificazione attraverso l'incrocio di dataset -
in un sistema informatico purtroppo vulnerabile.
Non si può pensare di ridurre un processo già per molti "ingiusto" a una a una mera contabilità digitale.
"Per Piero Calamandrei un giudice giusto non è mai spietato.
All'intelligenza artificiale - che si affida a meri sillogismi - manca l'umanità",
sottolinea l'avvocato Ivano Iai.
La "neutralità algoritmica" resta un mito, un miraggio. Già nel 1990 Norberto Bobbio nel suo L'età dei diritti ammoniva sulle "minacce alla vita, alla libertà e alla sicurezza" che arrivano dal potere di chi "è in condizione di usare la scienza e le sue applicazioni".