Questo è "il futuro", dove le menti deboli dei "fanatici da social" possono essere manovrate.
Ancora indecisi su chi votare?
Disorientati da inspiegabili alleanze dell’ultimo minuto?
La nuova Intelligenza Artificiale di Meta/Facebook ha la soluzione per voi: votate Pd
Il 5 agosto 2022
Facebook ha aperto al pubblico il suo nuovo sistema di Intelligenza Artificiale (IA) denominato
BlenderBot 3.
Tutti possono provarlo all’indirizzo
blenderbot.ai.
Per la prima volta un sistema di questo genere non solo risulta in grado di gestire
una conversazione credibile,
ma riesce ad evitare il principale problema dei suoi fratelli minori:
quello di essere machisti, misogini e perfino
“trumpiani”.
Ma forse lo fa in modo un po’ troppo esagerato, come vedremo.
Per comprendere la nostra meraviglia occorre fare un passo indietro, precisamente al dicembre 2020,
quando
Google licenzia inaspettatamente Timnit Gebru
, leader del gruppo che all’interno dell’azienda si stava occupando di
“etica” nell’Intelligenza Artificiale.
I sistemi di questo tipo sono basati su “reti neuronali”, una sorta di
replica in silicio del cervello umano e animale.
Si tratta di simulazioni di neuroni e sinapsi che non vanno “programmate” (come si fa con i computer tradizionali) ma piuttosto istruite.
Il processo è molto simile a quello che venne applicato a
HAL 9000 in
2001 Odissea nello Spazio.
Il grande cervello elettronico ideato da Arthur C. Clarke
non aveva un programmatore, ma un “istruttore”, il dr. Chandra.
Come vengono istruite dunque queste IA?
In estrema sintesi possiamo dire che viene dato loro
in pasto tutta la conoscenza umana possibile,
sotto forma di testi, immagini, pagine di
Wikipedia, siti web, discussioni online.
E nel caso di
BlenderBot 3 anche le conversazioni precedenti.
È dunque chiaro il motivo per cui questi sistemi si dimostrano poco progressisti:
non è una macchinazione delle perfide menti di
Google e compagnia,
ma piuttosto
il riflesso del modo di pensare e di comunicare della razza umana.
La soluzione: AI di sinistra
Gli “etici” dell’IA cercano dunque di correre ai ripari, a volte
censurando tout court determinate parole (quali “gorilla”)
a volte pesando o
selezionando quanto viene fatto apprendere ai sistemi.