A fine maggio 2023, il Center for AI Safety ha reso pubblico un pronunciamento lapidario (single-sentence statement) sui rischi connessi alle tecnologie di intelligenza artificiale (IA), che tradotto letteralmente suona così: “Mitigare il rischio di un’estinzione causata dall’IA dovrebbe essere una priorità globale, al pari di altri rischi che coinvolgono l’intera società, quali pandemie e guerra nucleare”. In questo caso, definire l’affermazione apocalittica non è iperbole o eufemismo, giacché di questo si tratta: si paventa che simili tecnologie possano causare la fine della nostra specie, e si invitano tutti a correre ai ripari.
L’appello ha suscitato notevole eco mediatica, per tre ragioni principali. Innanzitutto, il tono catastrofista: se fonti ragionevolmente attendibili annunciano che la fine del mondo è prossima, la cosa desta interesse. In secondo luogo, il carattere perentorio del messaggio, che si compiaceva di essere lungo un’unica frase: pazienza se questo impediva di spiegare alcunché sul modo in cui l’IA dovrebbe o potrebbe causare l’estinzione del genere umano. Gli estensori dell’appello si sono giustificati in nome di una presunta efficacia comunicativa, volta a superare le differenze di opinioni sui rischi specifici dell’IA, onde produrre un comune grido di allarme che mettesse tutti d’accordo: per un motivo o per l’altro, l’IA è una minaccia, attenzione! Sarà. Eppure ...
L'articolo di Fabio Paglieri continua a questo link:
Nessun commento:
Posta un commento