image_pdfVersione PDFimage_printStampa

“Profonda preoccupazione” per la creazione del progetto lanciato da Kaist e Hanwha Systems, tra i più grandi produttori di armi nel Paese


Allarme mondiale contro i robot-killer. Un gruppo di ricercatori internazionali nel campo dell’Intelligenza Artificiale ha annunciato che boicotterà un’università sudcoreana, il Korea Advanced Institute of Science and Technology (KAIST) e il suo partner industriale, Hanwha Systems, per un progetto che punta a sviluppare armi autonome che potrebbero diventare “strumenti del terrore”. Robot-killer, appunto.
In una lettera aperta, 50 ricercatori di 30 diversi Paesi minacciano di non partecipare ad alcuna attività accademica di quella che è una delle più prestigiose università statali della Corea del Sud ed esprimono la loro “profonda preoccupazione” per la creazione del progetto “Centro di Convergenza della difesa nazionale e Intelligenza Artificiale”, lanciata dall’università con la società tra i più grandi produttori di armi nel Paese.
L’obiettivo è quello di sviluppare tecnologie di Intelligenza artificiale per attrezzature militari autonome: ma il rischio, scrivono gli scienziati, è “aprire il vaso di Pandora” e schiudere la “terza rivoluzione” nella tecnologia militare. Quelle che verrebbero sviluppate sono armi che “permetterebbero di combattere ad una velocità e su una scala che non ha precedenti” e potrebbero essere utilizzate “da despoti e terroristi contro i civili, eliminando ogni barriera etica”. Nella lettera aperta, si ricorda che l’intelligenza artificiale dovrebbe “migliorare la vita umana, invece di distruggerla”.
Tra le firme, alcune delle menti più brillanti nel campo della Intelligenza Artificiale: il britannico Geoffrey Hinton, il canadese Yoshua Bengio o il tedesco Jurgen Schmidhuber, che boicotteranno l’ateneo fino a quando non darà garanzia “che non svilupperà armi autonome senza significativi controlli umani”.
L’università ha risposto che il progetto “non comprende ricerche su armi autonome incontrollabili” che coinvolgano “violazioni di etica o di dignità umana”. Da parte sua, l’azienda – che tra l’altro produce bombe a grappolo vietate in 120 Paesi – ha dichiarato che l’obiettivo “non è sviluppare armi killer”, ma “controllare in remoto le tecnologie volte a ridurre le perdite”.

image_pdfVersione PDFimage_printStampa