Val
Torniamo alla LIRA
Questo è lo stato di demenza al quale (siamo) sono arrivati.
Si chiama Viogen,
è un algoritmo predittivo e da 15 anni aiuta la polizia spagnola a prendere decisioni
e a classificare il rischio di violenza di genere caso per caso.
Dovrebbe, quantomeno.
Perché secondo quanto riporta la BBC la signora Lisa, da tempo in cattivi rapporti con l’ex,
è stata uccisa dall’uomo nonostante l’algoritmo avesse classificato la situazione come “mediamente pericolosa”.
E allora? Allora Lisa è morta.
E con lei dovrebbero finire anche le illusioni da Silicon Valley,
le promesse salvifiche di un’intelligenza artificiale che tutto vede, tutto prevede, tutto corregge.
Perché finché ci sarà un uomo – o peggio, uno Stato –
che si affida ciecamente a un algoritmo opaco
per decidere se una donna vive o muore, non stiamo parlando di progresso.
Stiamo parlando di abdicazione.
Di resa.
Di deresponsabilizzazione mascherata da efficienza.
Il caso di Lisa – come già fu quello di Compass negli Stati Uniti –
dimostra che senza norme, senza trasparenza, senza controllo umano,
l’AI non è uno strumento: è una sentenza. Una sentenza cieca.
E non è una metafora:
le autorità spagnole hanno negato la misura restrittiva sulla base del punteggio attribuito da Viogen.
La macchina ha parlato.
Gli esseri umani si sono messi in silenzio.
Si chiama Viogen,
è un algoritmo predittivo e da 15 anni aiuta la polizia spagnola a prendere decisioni
e a classificare il rischio di violenza di genere caso per caso.
Dovrebbe, quantomeno.
Perché secondo quanto riporta la BBC la signora Lisa, da tempo in cattivi rapporti con l’ex,
è stata uccisa dall’uomo nonostante l’algoritmo avesse classificato la situazione come “mediamente pericolosa”.
E allora? Allora Lisa è morta.
E con lei dovrebbero finire anche le illusioni da Silicon Valley,
le promesse salvifiche di un’intelligenza artificiale che tutto vede, tutto prevede, tutto corregge.
Perché finché ci sarà un uomo – o peggio, uno Stato –
che si affida ciecamente a un algoritmo opaco
per decidere se una donna vive o muore, non stiamo parlando di progresso.
Stiamo parlando di abdicazione.
Di resa.
Di deresponsabilizzazione mascherata da efficienza.
Il caso di Lisa – come già fu quello di Compass negli Stati Uniti –
dimostra che senza norme, senza trasparenza, senza controllo umano,
l’AI non è uno strumento: è una sentenza. Una sentenza cieca.
E non è una metafora:
le autorità spagnole hanno negato la misura restrittiva sulla base del punteggio attribuito da Viogen.
La macchina ha parlato.
Gli esseri umani si sono messi in silenzio.