Più progrediscono le possibilità e le capacità dei sistemi di intelligenza artificiale e più Stati e Istituzioni si trovano di fronte alla necessità di limitarne i possibili usi malevoli che possono mettere a rischio cittadini, Stati e processi politici. Tutte le grandi potenze tecnologiche stanno lavorando quindi a leggi destinate a regolare l'A.I. In prima fila c'è l'Europa che nei prossimi mesi varerà l'Artificial Intelligence Act, giudicato forse il testo più avanzato ed aggiornato sull'argomento. Intanto però la Commissione Europea ha deciso di muoversi rivolgendosi direttamente alle grandi aziende digitali affinché agiscano contro uno degli aspetti più pericolosi di questo sviluppo tecnologico: quello del deepfake, della creazione, cioè, di contenuti audio e video falsi che appaiono invece assolutamente realistici. Il Commissario Europeo al Mercato Interno, Breton, e quella ai Valori dell'Unione Europea, Jourova, hanno deciso quindi di riunire 40 aziende digitali, da Google a Meta, da TikTok a Twitch, per chiedere loro l'istituzione di un bollino di autenticità per i contenuti da loro diffusi o creati. Le aziende chiamate sono quelle che hanno aderito ad un codice etico UE che si sono detti disponibili ad agire contro la diffusione di contenuti malevoli o falsi. Tra queste non c'è Twitter, che è uscito dal gruppo contro la disinformazione: ha scelto lo scontro con la Commissione, ha detto Vera Jourova, ma dovrà agire in maniera costruttiva se vuole continuare ad operare e a far soldi anche in Europa.