"Penso che nella cybersecurity ci siano molte sfide, perché il criminale informatico utilizza le più avanzate tecnologie, ad esempio, usa chat GPT, generata dall'intelligenza artificiale per il rapido sviluppo di phishing email o phishing video, ed ottenere facile accesso ai dati degli utenti, e dunque, c'è una grande strategia da attuare in tal senso". La ricaduta pratica delle insidie dell'l'intelligenza artificiale nella cybersecurity lo sintetizza in poche parole Eva Chen, a capo di Trend Micro, società informatica che da oltre tre decenni combatte contro i virus del web. L'intelligenza artificiale, della quale la Chen non demonizza l'uso perché, spiega, viene utilizzata dai suoi stessi programmatori per colmare alcuni dei loro bug negli algoritmi. Ma su questo riflette comunque in termini etici. "Penso che sì, ci siano molti comportamenti da parte dei programmatori che debbano essere corretti". Eva Chen è a Roma, insieme alle più importanti aziende del settore della sicurezza informatica per partecipare alla Cybertech Europe, che ha riempito l'area congressi della nuvola di addetti al settore. Ad iniziare da Leonardo, dove il suo delegato Roberto Cingolani, per rispondere all'interrogativo su possibili rischi derivanti dall'intelligenza artificiale, parte dal progetto Enigma, decisivo nelle sorti della Seconda Guerra Mondiale. "Questa storia del contrasto umano-artificiale è un po', diciamo, falsa, ecco. Se guardate la storia di artificial intelligence, dalla Seconda Guerra Mondiale in poi, da Enigma in poi, l'evoluzione degli algoritmi che hanno generato l'intelligenza artificiale, è stata molto complessa. Erano algoritmi che non si potevano risolvere in maniera matematica, analitica, no? Quindi, i matematici, logici, arrivano a fare dei modelli complicatissimi, ma i computer non erano sufficientemente potenti da risolverli, e quindi c'erano dei periodi che si chiamavano inverni dell'intelligenza artificiale, periodi in cui le grandi agenzie internazionali non la finanziavano più, perché i modelli erano troppo complessi, a mano non si risolvevano, i computer non erano sufficienti". Che l'intelligenza artificiale comporti dei rischi lo hanno, però, affermato alcuni dei suoi padri fondatori, con un appello lanciato nel maggio scorso sulla necessità di dover addirittura mitigare il rischio di estinzione umana. "Francamente, il contrasto intelligenza artificiale-intelligenza umana mi sembra più da film di fantascienza". I Governi, spiega ancora Eva Chen, non dovrebbero controllare l'intelligenza artificiale, ma dovrebbero indicare i comportamenti etici da attuare. "Certamente, noi stiamo vivendo il cosiddetto momento Oppenheimer, anche con riguardo all'intelligenza artificiale, lo stiamo vivendo, cioè, ci stiamo interrogando soltanto se non siamo andati troppo avanti, e c'è un punto di non ritorno. Questo un po' lo sappiamo, ma il fatto di saperlo è già un vantaggio".