Dezinformarea în era AI
Informația circulă cu viteze amețitoare, oricine poate transmite un mesaj care ajunge instantaneu la foarte multe persoane, rețelele sociale distribuie și repetă idei într-un ritm greu de imaginat până de curând, iar odată cu acestea a crescut și dezinformarea.
Corina Cristea, 05.12.2025, 15:15
Informația circulă cu viteze amețitoare, oricine poate transmite un mesaj care ajunge instantaneu la foarte multe persoane, rețelele sociale distribuie și repetă idei într-un ritm greu de imaginat până de curând, iar odată cu acestea a crescut și dezinformarea. Dezinformare care a căpătat valențe noi – vorbim acum despre un fenomen global, de cele mai multe ori finanțat și coordonat, care are potențialul de a influența alegeri, de a polariza societăți sau de a tensiona relații internaționale. Este descris de cei care studiază fenomenul drept un război al minții și al percepției, un război nevăzut. Profesor universitar doctor, Alina Bârgăoanu, membră a Consiliului Consultativ al Observatorului European pentru mass media digitală și expert în combaterea dezinformării:
”Ce aș puncta de la bun început este ideea că instrumentele care sunt folosite pentru a purta acest război informațional sunt din ce în ce mai diverse – dezinformarea, propaganda, campaniile ostile de influență, atacurile cibernetice, războiul algoritmic, colectarea datelor în vederea microtargetării chiar în vederea hiperpersonalizării. Nu vorbim doar despre dezinformare, ci despre un arsenal mult mai complex. Al doilea lucru: el a fost numit așa în conversații războiul invizibil și această descriere este parțial corectă. Pentru că este o formă de confruntare relativ parșivă, adică are și acest caracter invizibil, dar, în același timp, el este și foarte vizibil.
Eu chiar am început să folosesc termenul, despre narațiunile ostile Occidentului, că ele au devenit aproape ambientale. Adică, sunt și nicăieri și sunt și peste tot. Imediat cum începe o conversație este imposibil ca cineva din cercul de prieteni, de colegi, să nu arate că este atins de astfel de narațiuni.
În același timp, nu poți să pui degetul pe ele, adică unde le-am văzut? unde le-am auzit? Deci, este un război și vizibil și invizibil. Cred că obiectul acțiunilor de război politic și informațional au început să fie preponderent UE și NATO, cu această focalizare foarte preciză, potrivit observațiilor mele, pe UE și mai ales pe anumiți membri ai UE. Deci, este un război și invizibil și foarte vizibil, este greu de scos la suprafață. În același timp, când începi să-l studiezi ești impresionat de cât de sofisticate sunt tehnicile, cât de bine sunt antrenați algoritmii, cât de mult inteligența artificială începe să fie folosită.”
Dacă în trecut manipularea în masă necesita echipe uriașe, timp și resurse, dinamica războiului informațional a fost schimbată profund de inteligența artificială, grație căreia o singură persoană poate genera mii de mesaje persuasive în doar câteva ore. Iar odată cu apariția modelelor lingvistice mari (Large Language Models – LLM), lumea s-a schimbat din nou. Alina Bârgăoanu:
“Toate problemele structurale pot fi amplificate, turate la maximum odată cu aceste noi tehnologii de inteligență artificială. În primul rând, inteligența artificială permite generarea de conținut cu o viteză mult mai mare, cu mult mai multă flexibilitate și cu multă capacitate de adaptare la audiențele locale. Poveștile, conspirațiile nu mai trebuie generate de persoane, ci ele pot fi generate utilizând aceste metode. Și nu mă refer doar la scris, ci scris, audio, video și mai ales combinația dintre cele trei. Acesta ar fi un element. Al doilea element, care este mult mai spectaculos, după părerea mea, este ceea ce a început să fie semnalat în anumite articole cu denumirea de poluarea modelelor lingvistice mari.
Termenul în engleză este Large Language Models Grooming. Adică, ce înseamnă? Se inundă spațiul online cu idei înșelătoare, cu lucruri care nu s-au întâmplat, cu neadevăruri, cu multe opinii, cu păreri foarte foarte inflamate, dar acestea nu inundă spațiul online cu ideea de a capta atenția utilizatorului, ci cu ideea de a infecta modelele lingvistice mari, de a le polua, astfel să forțeze ca atunci când întrebăm Chat GPT, de exemplu, care sunt cauzele pentru care Ucraina a fost invadată de către Federația Rusă, chatbot-ul să dea un anumit răspuns care să țină cont de aceste narative care au fost injectate. Când dădeam o căutare pe Google era posibil să fi dat peste link-uri care să reproducă retorica oficială, de exemplu, de la Kremlin, dar puteam să facem o alegere. Consultam un link, consultam al treilea link, acum răspunsul pe care îl oferă Chat GPT curge și posibilitatea ta de a verifica este mult mai redusă.”
Un studiu al Institutului pentru Dialog Strategic, constând într-un execițiu de prompting cu întrebări privind Ucraina realizat cu cele mai mari modele lingvistice – Chat GPT, Groq, Gemini și DeepSeek – a arătat că, în cazul tuturor celor patru, 18% din răspunsuri erau aliniate retoricii oficiale a Federației Ruse, răspunsuri care fusese asimilate de modelele respective, exemplifică expertul în combaterea dezinformării Alina Bârgăoanu.