Puterea algoritmilor
Analizează date, identifică tipare şi oferă rezultate într-un timp imposibil pentru mintea umană.
Corina Cristea, 06.02.2026, 15:30
Analizează date, identifică tipare şi oferă rezultate într-un timp imposibil pentru mintea umană. În medicină, poate ajuta la depistarea timpurie a bolilor. În economie, poate anticipa riscuri. În educaţie, poate personaliza învăţarea. Vorbim despre inteligenţa artificială – un instrument extrem de influent, care modelează viaţa de zi cu zi. În multe domenii deciziile nu mai sunt, deja, luate doar de oameni – ce traseu urmăm în trafic sau dacă primim un credit, sunt doar două exemple în acest sens. Iar în spate sunt algoritmii, care, în esenţă, sunt seturi de reguli create de oameni pentru a rezolva probleme. Ca instrumente, sunt extrem de valoroși. Problema apare, însă, atunci când algoritmii nu mai sunt doar consultanţi sau asistenţi, ci ajung în postura de a lua decizii. Adrian-Victor Vevera, directorul Institutului Național de Cercetare-Dezvoltare în Informatică din Bucureşti:
“În Ucraina, au apărut dronele First Person View, care atacă prima persoană văzută şi unele din ele, deja, testează modul de inteligenţă artificială care să poată să selecteze ele ţintele. S-a pus problema dacă ăsta e viitorul. Până la urmă, să laşi o non-entitate umană să ia decizii asupra unei vieţi umane e o chestie care se vede că acum nu foarte mult timp nu ne-o puneam. Dacă extindem aria de discuţie de la ce ar însemna inteligenţa artificială în zona publică ca suport, ca asistent, ca instrument cu care să putem să devenim mai productivi, mai ieftini în operare, mai rapizi şi mergem acolo unde ajungi să laşi decizia asupra unei vieţi umane în “braţele” inteligenţei artificiale e un drum foarte lung. E vorba de a lăsa decizia finală în responsabilitatea unei non-entităţi umane.
Da, partea de medicină se vede că este una dintre cele mai reuşite şi în care se va impune cel mai repede. Este mult mai uşor pentru o aplicaţie care poate să scaneze şi să compare milioane de imagini, decât pentru un om care învaţă lucrul ăsta în ani de zile şi prinde acea fineţe în a da un diagnostic după mult, mult timp.”
Un algoritm care selectează candidaţi pentru un job poate discrimina fără intenţie. Un sistem automat de evaluare a riscului poate trata diferit persoane aflate în situaţii similare. Cât de mult control ar trebui să fie dat inteligenţei artificiale? Unde se opreşte utilitatea şi începe riscul? Inteligenţa artificială ar trebui să rămână un instrument de sprijin, controlabil – să poată analiza, recomanda sau avertiza, dar decizia finală, mai ales în domenii sensibile precum sănătatea sau securitatea, ar trebui să rămână la oameni, spun specialiștii. Din nou, Adrian-Victor Vevera:
“Nu ar trebui să tratăm inteligenţa artificială nici ca un dar absolut care va aduce numai bunăstare, nici ca un potenţial duşman şi să o înfierăm de la început. Cred că prima şi prima chestiune vizavi de utilizarea inteligenţei artificiale ar trebui să ne uităm fiecare în adâncul sufletului nostru şi să ne gândim care ar fi regulile care ar trebui impuse în clipa în care dezvolţi şi foloseşti inteligenţa artificială. Asta însemnând modul etic în care să foloseşti inteligenţa artificială, limitele pe care să i le dai, măsurile de protecţie.
Întotdeauna trebuie să existe un buton cu care să opreşti ceva ce poate să iasă de pe drumul pe care tu te-ai gândit că ar trebui să meargă. Gândiţi-vă că, fiind un instrument, inteligenţa artificială poate fi folosită de persoane care doresc să facă acte de terorism până la persoane care doresc să manipuleze starea de spirit a unei ţări. E un instrument. Şi cuţitul poţi să-l foloseşti în bucătărie să găteşti sau pe un câmp de luptă să omori pe cineva. De asta mă refeream la butonul de oprire, la mijloacele de protecţie, mijloacele de securitate a modului în care este folosită şi dezvoltată inteligenţa artificială și, bineînţeles, partea de etică, pe care clar că nu poţi s-o impui asupra tuturor celor care ar avea acces, posibilităţi şi cunoştinţe să dezvolte aplicaţii de inteligenţă artificială. Dar, în baza unui cod de etică, poţi să creezi un framework, poţi să creezi un cadru în care să urmăreşti mai uşor nivelul în care se dezvoltă şi, bineînţeles, rezultatele.”
Un alt aspect ţine de responsabilitate, mai exact, cine răspunde pentru o decizie luată de un algoritm care greşeşte? Programatorul? Compania? Utilizatorul? Sau nimeni? Spre deosebire de oameni, algoritmii nu pot fi traşi la răspundere morală. Ei nu au conştiinţă, intenţie sau empatie, doar execută ceea ce li se cere. Iar riscurile sporesc odată cu utilizarea la scară tot mai largă a inteligenţei artificiale. Potrivit unor studii realizate în 2024, 4% din populația lumii folosea inteligența artificială ChatGPT, la doi ani de la lansarea acesteia. În ceea ce priveşte România, aproape jumătate dintre români folosesc inteligența artificială în activitățile lor zilnice, potrivit unui studiu efectuat în 2025 de Reveal Marketing Research, companie de cercetare de piață full-service.