IA: Quattro urgenze, prima dell'apocalisse

Un certo disagio di fronte all'intelligenza artificiale è ragionevole: non tanto per il timore che simili tecnologie causino la fine della nostra specie, bensì per evitare di trattarla con eccessiva superficialità 


A fine maggio 2023, il Center for AI Safety ha reso pubblico un pronunciamento lapidario (single-sentence statement) sui rischi connessi alle tecnologie di intelligenza artificiale (IA), che tradotto letteralmente suona così: “Mitigare il rischio di un’estinzione causata dall’IA dovrebbe essere una priorità globale, al pari di altri rischi che coinvolgono l’intera società, quali pandemie e guerra nucleare”. In questo caso, definire l’affermazione apocalittica non è iperbole o eufemismo, giacché di questo si tratta: si paventa che simili tecnologie possano causare la fine della nostra specie, e si invitano tutti a correre ai ripari.

L’appello ha suscitato notevole eco mediatica, per tre ragioni principali. Innanzitutto, il tono catastrofista: se fonti ragionevolmente attendibili annunciano che la fine del mondo è prossima, la cosa desta interesse. In secondo luogo, il carattere perentorio del messaggio, che si compiaceva di essere lungo un’unica frase: pazienza se questo impediva di spiegare alcunché sul modo in cui l’IA dovrebbe o potrebbe causare l’estinzione del genere umano. Gli estensori dell’appello si sono giustificati in nome di una presunta efficacia comunicativa, volta a superare le differenze di opinioni sui rischi specifici dell’IA, onde produrre un comune grido di allarme che mettesse tutti d’accordo: per un motivo o per l’altro, l’IA è una minaccia, attenzione! Sarà. Eppure ...

L'articolo di Fabio Paglieri continua a questo link:

https://www.rivistailmulino.it/a/ia-quattro-urgenze-prima-dell-apocalisse?&utm_source=newsletter&utm_medium=email&utm_campaign=Strada+Maggiore+37+%7C+18+gennaio+%5B9425%5D



Nessun commento:

Posta un commento