AI4Trust è un'iniziativa europea che coinvolge 15 partner del consorzio e 2 partner associati da 11 Paesi. Il programma Horizon Europe dell'Unione Europea finanzia questo progetto da 6 milioni di euro, per utilizzare l'IA per combattere la disinformazione. Le informazioni false sono sempre esistite, oggi però si diffondono più velocemente e in modo più capillare rispetto a prima. Tutto ciò acuisce le crisi, esacerba le divisioni, incita alla violenza politica e fisica, danneggiando l'effettivo funzionamento delle società democratiche in Europa. Immagini e discorsi possono essere modificati per ingannare chi segue gli eventi di attualità. La 'generazione sintetica' della disinformazione basata su intelligenza artificiale velocizza la creazione e la diffusione di contenuti manipolati, rendendo più difficile mitigarne gli effetti. Entro il 2026 quasi il 90% dei contenuti online potrebbero essere generati artificialmente. Uno sforzo coordinato tra Paesi europei, istituzioni europee, piattaforme online, mezzi d'informazione e cittadini è essenziale per affrontare le significative sfide poste della campagne di disinformazione su larga scala in Europa. Tutti abbiamo un compito da poter svolgere per assicurarci che le informazioni siano affidabili, così da poterle diffondere nel modo più responsabile possibile. Monitorare e analizzare grandi quantità di dati online è al di là della capacità umana, ma possiamo usare l'intelligenza artificiale per proteggere l'integrità delle informazioni che condividiamo e limitare la diffusione della disinformazione online. Soluzioni tecnologiche possono completare altre misure, come l'implementazione del Codice di Condotta rafforzato sulla Disinformazione. Nell'arco dei prossimi tre anni, il consorzio AI4Trust svilupperà e metterà in campo soluzioni ibride, utilizzando l'intelligenza artificiale per migliorare le risposte basate sull'attività umana. Algoritmi innovativi forniranno ai ricercatori e professionisti dei media nuovi strumenti. AI4Trust svilupperà nuove soluzioni analitiche, utilizzando l'intelligenza artificiale per filtrare massicci flussi e identificare la disinformazione su argomenti soggetti a manipolazione su media-larga scala, quali la salute, i cambiamenti climatici e altre sfide sociali. L'intelligenza artificiale può gestire flussi complessi di dati attraverso confini e lingue differenti, per organizzare dati processati in diversi formati - come testi online o video - in più piccoli e semanticamente coerenti pacchetti di informazioni, cosicché i fact-checker possano lavorare in modo più efficiente. L'intelligenza artificiale può individuare incoerenze nelle informazioni manipolate, così come stimarne la diffusione sui social media. Questo permette agli esperti di rispondere più velocemente, con migliori argomentazioni e metodi per ricontestualizzare immagini e dati. Questo dovrebbe anche rendere più semplice aumentare la consapevolezza del pubblico e ridurre gli incentivi per le persone per creare e diffondere informazioni false. AI4trust creerà una piattaforma condivisa Open Observatory, per dare ai professionisti dell'informazione, decisori politici e ricercatori scientifici elementi chiave quasi in diretta per affrontare e contrastare la disinformazione. Sarà possibile condurre ricerche e analisi personalizzate in un ambiente affidabile. AI4Trust farà leva sulle più aggiornate soluzioni per sviluppare strumenti innovativi basati sulle fondamenta di valori etici. Questo permetterà di includere i valori europei nel modo in cui comunichiamo e condividiamo informazioni in Europa.