Appello all'Onu, stop a robot killer: pericolo per umanità

21 ago 2017
Dettagli

“Fermate i robot killer” è l’appello indirizzato all’ONU, firmato proprio dai fondatori delle aziende di robotica, da chi, dunque, pensa e progetta le tecnologie dotate di intelligenza artificiale e si rende davvero conto di quanto potenzialmente distruttive possano essere le armi letali autonome, tecnologie militari che non prevedono la presenza umana sul campo di combattimento ma che vengono istruite e telecomandate a distanza come i droni, ad esempio. La minaccia è seria, l’appello urgente, tanto che – scrivono in una lettera aperta le Nazioni Unite – potrebbe concretizzarsi il rischio di una terza rivoluzione in campo militare. 116 i firmatari dell’accorato appello contro i soldati robot, pericolo per l’umanità. Un tema, secondo gli imprenditori della robotica, ancora non preso in considerazione dall’ONU con la dovuta serietà e urgenza. Tra loro spicca il nome di Elon Musk, visionario patron di Tesla e di SpaceX, da sempre sensibile all’argomento. Ci sono anche due italiani: Alessio Bonfietti e Angelo Sudano, fondatori e AD rispettivamente di MindIT e ICan robotics. L’imperativo è lasciare intatto il vaso di Pandora perché una volta aperto sarebbe difficile richiuderlo. Le armi autonome permetterebbero ai conflitti armati di essere combattuti su una scala spazio-temporale più grande e più veloce di quanto gli umani possano comprendere, così dicono gli esperti dell’intelligenza artificiale, potrebbero, dunque, diventare mezzi di distruzione letale nelle mani di hacker, dittatori e soprattutto terroristi.

Guarda Altri
Sky Tg24 Mondo, la grande Europa unita
00:36:56 min
14 video
Generazione AnZia
Guerra in Medioriente, faccia a faccia Netanyahu - Blinken
00:01:40 min
Usa, in Florida effettiva nuova legge per l'aborto
00:02:00 min
Usa, battaglia per l'aborto in Florida effettiva nuova legge
00:02:00 min
Primo maggio nel mondo, cortei e scontri in diversi paesi
00:01:09 min
Irlanda, sgomberato campo profughi nel centro di Dublino
00:01:00 min