È davvero un passo in avanti nella direzione di trovare il giusto equilibrio, per sviluppare questa tecnologia che è davvero la tecnologia più trasformativa su cui il genere umano sta lavorando in questo momento, in un modo che sia da una parte coraggioso perché non possiamo perdere quest'opportunità e dall'altro responsabile perché è una tecnologia altamente trasformativa ma è in fase nascente e quindi ovviamente comporta dei rischi. Vuole creare, l'Ai Act, un un quadro sovranazionale di regole che ci proteggano, che proteggano i diritti fondamentali delle persone e questo è un bene perché a questo punto possiamo dedicarci a continuare a svilupparla veramente con coraggio. Da questo punto di vista, diciamo, Google non parte da zero, perché credo che siamo stati probabilmente la prima azienda nel 2018, già sei anni fa, a emanare i principi etici, sul renderli pubblici per quanto riguarda lo sviluppo dell'intelligenza artificiale e questi principi di fatto ci guidano ogni giorno nel definire sia quello che facciamo ma anche quello che non facciamo, per esempio in questi ultimi anni abbiamo deciso di non lanciare alcune tecnologie che magari avevamo sviluppato come per esempio il riconoscimento facciale o per esempio la lettura labiale che possono avere un'utilità magari, ma che hanno potenzialmente anche dei rischi maggiori dell'utilità stessa e quindi abbiamo deciso di non lanciarli.