Bruxelles – Un rapporto di 39 pagine in cui la società leader dello sviluppo di intelligenza artificiale analizza in dettaglio l’utilizzo dei propri software per manipolare l’informazione online. Il resoconto di OpenAI rivela che negli ultimi tre mesi il laboratorio di ricerca americano – che ha dato vita a ChatGPT – ha riconosciuto e interrotto campagne di disinformazione provenienti da Russia, Cina, Israele e Iran.
Cinque operazioni di influenza occulta, in cui i modelli di intelligenza artificiale generativa del colosso americano sono stati utilizzati per generare brevi commenti e articoli più lunghi in diverse lingue, creare nomi e biografie per gli account dei social media e utilizzarli come cassa di risonanza, condurre ricerche open-source, tradurre e correggere testi. Strategie analoghe per diffondere fake news su un’ampia gamma di argomenti: l’invasione russa dell’Ucraina, il conflitto a Gaza, le elezioni in corso in India, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri.
Due delle cinque campagne smascherate da OpenAI provenivano dalla Russia. La prima – soprannominata Bad Grammar – operava principalmente su Telegram e aveva come obiettivo l’Ucraina, la Moldavia, gli Stati baltici e gli Stati Uniti. Bad Grammar ha utilizzato i modelli di OpenAI per eseguire il debug del codice per l’esecuzione di un bot di Telegram e per creare brevi commenti politici in russo e inglese, diffusi poi su diversi canali Telegram. Nella seconda, Doppelganger, l’intelligenza artificiale ha permesso di tradurre e modificare articoli in inglese e francese che sono stati pubblicati su siti web collegati a questa operazione, generare titoli e convertire articoli di notizie in post su Facebook, generare commenti in inglese, francese, tedesco, italiano e polacco al fine di crere un’interazione fittizia con le notizie.
Lo stesso schema è stato seguito da una rete cinese nota come Spamouflage e da un’organizzazione iraniana, l’International Union of Virtual Media. Le indagini di OpenAI hanno portato a galla anche l’attività illecita di una società commerciale israeliana, chiamata STOIC, che utilizzava i modelli di intelligenza artificiale per generare articoli e commenti che sono stati poi pubblicati su diverse piattaforme, in particolare Instagram, Facebook, X e siti web associati a questa operazione.
Il rapporto sottolinea come – in tutti questi casi – l’intelligenza artificiale venga incorporata nelle campagne di disinformazione per migliorare alcuni aspetti della generazione di contenuti, come la creazione di post in lingua straniera più convincenti, ma non è l’unico strumento di propaganda. “Tutte queste operazioni hanno utilizzato l’intelligenza artificiale in una certa misura, ma nessuna l’ha utilizzata esclusivamente”, afferma OpenAI. Il materiale generato dall’intelligenza artificiale andava a braccetto con “formati più tradizionali, come testi scritti manualmente o meme copiati da Internet”.
A una settimana dalle elezioni europee, l’indagine condotta da OpenAI è un altro campanello d’allarme per un’Unione europea profondamente preoccupata dalla propaganda di attori terzi sul processo elettorale. L’Osservatorio Ue sui Media Digitali (Edmo) ha rilevato, da gennaio in poi, un trend in continua crescita per quanto riguarda la disinformazione legata alle politiche dell’Ue o alle sue istituzioni. Nel mese di aprile, secondo l’Edmo, è stata pari all’11 per cento del totale della disinformazione rilevata, “il valore più alto per la disinformazione legata all’UE da quando è iniziato il nostro monitoraggio dedicato nel maggio 2023”.
OpenAI mette in chiaro che finora queste operazioni di disinformazione massiccia “non sembrano aver beneficiato di un aumento significativo del coinvolgimento o della portata del pubblico grazie ai nostri servizi”. Ma è evidente che l’intelligenza artificiale generativa è uno strumento capace di aumentare notevolmente la qualità della disinformazione online.