Disinformazione nell’era dell’IA
La disinformazione ha acquisito nuove valenze: si tratta di un fenomeno globale, spesso finanziato e coordinato, che ha il potenziale di influenzare le elezioni, polarizzare le società o mettere a dura prova le relazioni internazionali.
Corina Cristea, 19.12.2025, 20:12
Le informazioni circolano a velocità vertiginosa, chiunque può inviare un messaggio che raggiunge istantaneamente molte persone, i social network diffondono e ripetono idee a un ritmo fino a poco tempo fa difficile da immaginare, e con loro anche la disinformazione è aumentata. Disinformazione che ha acquisito nuove valenze: stiamo parlando di un fenomeno globale, spesso finanziato e coordinato, che ha il potenziale di influenzare le elezioni, polarizzare le società o mettere a dura prova le relazioni internazionali. Chi studia il fenomeno lo descrive come una guerra della mente e della percezione, una guerra invisibile.
Alina Bârgăoanu, docente universitaria e dottore di ricerca, membro del comitato consultivo dell’Osservatorio europeo per i media digitali ed esperta nella lotta alla disinformazione. “Quello che vorrei sottolineare fin dall’inizio è l’idea che gli strumenti utilizzati per condurre questa guerra dell’informazione siano sempre più diversificati: disinformazione, propaganda, campagne di influenza ostile, attacchi informatici, guerra algoritmica, raccolta dati per il microtargeting, persino per l’iperpersonalizzazione. Non stiamo parlando solo di disinformazione, ma di un arsenale molto più complesso. La seconda cosa: è stata definita così nelle conversazioni, la guerra invisibile, e questa descrizione è parzialmente corretta. Perché è una forma di confronto relativamente parziale, cioè ha anche questo carattere invisibile, ma, allo stesso tempo, è anche molto visibile. Ho persino iniziato a usare il termine, per le narrazioni ostili all’Occidente, che sono diventate quasi ambientali. Cioè, non sono da nessuna parte e sono ovunque. Non appena inizia una conversazione, è impossibile per qualcuno della cerchia di amici, colleghi, non mostrare di essere toccato da tali narrazioni. Allo stesso tempo, non si può puntare il dito contro di esse, ovvero: dove le ho viste? Dove le ho sentite? Quindi, è una guerra allo stesso tempo visibile e invisibile. Credo che l’obiettivo delle azioni di guerra politica e dell’informazione abbia iniziato a essere prevalentemente l’UE e la NATO, con un focus molto preciso, secondo le mie osservazioni, sull’UE e in particolare su alcuni suoi membri. Quindi, è una guerra allo stesso tempo invisibile e molto visibile, difficile da portare alla luce. Allo stesso tempo, quando si inizia a studiarla, si rimane colpiti dalla sofisticatezza delle tecniche, dall’efficacia degli algoritmi, dal livello di utilizzo dell’intelligenza artificiale”, ha spiegato Alina Bârgăoanu.
Se in passato la manipolazione di massa richiedeva enormi team, tempo e risorse, le dinamiche della guerra dell’informazione sono state profondamente modificate dall’intelligenza artificiale, grazie alla quale una singola persona può generare migliaia di messaggi persuasivi in poche ore. E con l’avvento dei Grandi Modelli Linguistici (LLM), il mondo è cambiato di nuovo. “Tutti i problemi strutturali possono essere amplificati, accelerati al massimo con queste nuove tecnologie di intelligenza artificiale. Innanzitutto, l’intelligenza artificiale consente di generare contenuti a una velocità molto più elevata, con molta più flessibilità e con una grande capacità di adattamento al pubblico locale. Storie e cospirazioni non devono più essere generate dalle persone, ma possono essere generate utilizzando questi metodi. E non mi riferisco solo alla scrittura, ma alla scrittura, all’audio, al video e soprattutto alla combinazione dei tre. Questo sarebbe un elemento. Il secondo elemento, che è molto più spettacolare, a mio parere, è ciò che ha iniziato a essere segnalato in alcuni articoli con il nome di “large language model pollution”. Il termine in inglese è “large language model grooming”. Cosa significa? Lo spazio online è inondato di idee fuorvianti, di cose che non sono accadute, di falsità, di opinioni molteplici, di opinioni molto, molto infiammatorie, ma non stanno inondando lo spazio online con l’idea di catturare l’attenzione dell’utente, bensì con l’idea di infettare i grandi modelli linguistici, di inquinarli, in modo da costringere, quando chiediamo a Chat GPT, ad esempio, quali sono le ragioni per cui l’Ucraina è stata invasa dalla Federazione Russa, il chatbot a fornire una risposta specifica che tenga conto di queste narrazioni iniettate. Quando facevamo una ricerca su Google, potevamo imbatterci in link che riproducevano la retorica ufficiale, ad esempio, del Cremlino, ma potevamo fare una scelta. Consultavamo un link, consultavamo il terzo link, ora la risposta che Chat GPT offre scorre e la possibilità di verifica è molto ridotta”, ha precisato Alina Bârgăoanu.
Uno studio dell’Istituto per il dialogo strategico, consistente in un esercizio di sollecitazione con domande riguardanti l’Ucraina condotto con i più grandi modelli linguistici – Chat GPT, Groq, Gemini e DeepSeek – ha dimostrato che, nel caso di tutti e quattro, il 18% delle risposte era allineato alla retorica ufficiale della Federazione Russa, risposte che erano state assimilate dai rispettivi modelli, come esemplifica l’esperta nella lotta alla disinformazione Alina Bârgăoanu.