Per accedere al QdS ed all'archivio utente password registrati e abbonatipassword dimenticata
facebook qdsIl Quotidiano di Sicilia � su Twitterrss qds

Quotidiano di Sicilia

Le applicazioni dell'intelligenza artificiale e le paure per una "rivoluzione militare"
di Redazione

Dall’allarme lanciato da cinquanta ricercatori contro il Kaist alla posizione del Centro di economia digitale de La Sapienza 



ROMA – L’Intelligenza artificiale come fattore di progresso e non di distruzione. Questa la posizione presa dal Centro economia digitale (Ced) dell’Università La Sapienza a proposito del recente appello lanciato dagli scienziati contro i robot-killer coreani.
Cinquanta ricercatori internazionali, esperti di trenta diversi Paesi, hanno infatti annunciato di voler boicottare il Kaist (Korea advanced institute of science and technology), una delle più prestigiose università della Sud Corea, in quanto questa avrebbe dato vita a uno spaventoso progetto che punta a sviluppare armi autonome che potrebbero diventare veri e propri “strumenti del terrore”. Partner industriale della terrificante impresa è tra l’altro Hanwa systems, tra i più grandi produttori di armi del Paese.
 
In una lettera aperta i cinquanta ricercatori hanno minacciato di non partecipare più ad alcuna attività accademica del Kaist e denunciato i rischi di quella che a loro avviso sarebbe la “terza rivoluzione” nella tecnologia militare. L’obiettivo è quello di impiegare l’intelligenza artificiale per la realizzazione di nuove attrezzature militari autonome. Ma il rischio, come evidenziato dagli studiosi, è di “aprire il vaso di Pandora”. Si temono, infatti, armi che “permetterebbero di combattere a una velocità e su una scala che non ha precedenti” e potrebbero essere utilizzate “da despoti e terroristi contro i civili, eliminando ogni barriera etica”. L’intelligenza artificiale dovrebbe così “migliorare la vita umana, invece di distruggerla”.
 
Tra le firme figurano nomi eccellenti nel campo dell’intelligenza artificiale, come il britannico Geoffrey Hinton, il canadese Yoshua Bengio o il tedesco Jurgen Schmidhuber. L’Università coreana ha risposto che il progetto “non comprende ricerche su armi autonome incontrollabili” che coinvolgano “violazioni di etica o di dignità umana”. E dal canto suo l’azienda ha fatto sapere che l’obiettivo “non è sviluppare nuove armi killer”, ma “controllare in remoto le tecnologie volte a ridurre le perdite”.
 
“La realtà dell’intelligenza artificiale – ha sottolineato il presidente del Ced, Rosario Cerra - è, per fortuna, più complessa di così. La preoccupazione del mondo accademico mondiale è legittima: i robot da guerra non possono essere una buona idea, basti immaginare come i regimi o terroristi potrebbero usarli: golpe, attentati, pulizia etnica, ma noi del Centro economia digitale pensiamo che tutta l’innovazione derivante dall’intelligenza artificiale debba essere antropocentrica”.
“Non è accettabile – ha aggiunto - che una tecnologia così potente non veda l’uomo al centro dei suoi benefici e che, contemporaneamente, non ne vengano governate le inevitabili contraddizioni”.
 
A tal proposito, Cerra ha ricordato anche come la scorsa estate 116 imprenditori del settore della robotica e dell’intelligenza artificiale di 24 stati abbiano chiesto alle Nazioni unite di mettere al bando i robot killer. Tra i firmatari anche Elon Musk, esperto di intelligenza artificiale, e Mustafa Suleyman di Google.
 
Il Centro economia digitale è nato nel 2017 e si avvale della direzione scientifica della Sapienza Università di Roma. Ha l’obiettivo di promuovere il tema dell’economia digitale e dell’innovazione tecnologica nel dibattito sociale, economico, istituzionale e accademico.

Articolo pubblicato il 07 aprile 2018 - © RIPRODUZIONE RISERVATA


comments powered by Disqus