Il potere degli algoritmi
Analizza i dati, identifica schemi e fornisce risultati in un tempo impossibile per la mente umana.
Corina Cristea, 13.02.2026, 11:44
Analizza i dati, identifica schemi e fornisce risultati in un tempo impossibile per la mente umana. In medicina, può aiutare nella diagnosi precoce delle malattie. In economia, può anticipare i rischi. In ambito educativo, può personalizzare l’apprendimento. Stiamo parlando di intelligenza artificiale, uno strumento estremamente influente che plasma la vita quotidiana. In molti settori, le decisioni non sono più prese esclusivamente dagli esseri umani: quale strada prendere nel traffico o se prendere un prestito sono solo due esempi. E dietro di loro ci sono gli algoritmi, che, essenzialmente, sono insiemi di regole create dagli esseri umani per risolvere problemi. Come strumenti, sono estremamente preziosi. Il problema sorge, tuttavia, quando gli algoritmi non sono più solo consulenti o assistenti, ma finiscono per prendere decisioni. Adrian-Victor Vevera, direttore dell’Istituto Nazionale per la Ricerca e lo Sviluppo in Informatica di Bucarest (ICI). “In Ucraina sono comparsi droni con visuale in prima persona, che attaccano la prima persona avvistata e alcuni di essi stanno già testando la modalità di intelligenza artificiale in grado di selezionare i bersagli. Ci si chiede se questo sia il futuro. Dopotutto, lasciare che un’entità non umana prenda decisioni su una vita umana è una problema che non ci siamo posti fino a poco tempo fa. Se allarghiamo l’ambito di discussione da ciò che l’intelligenza artificiale significherebbe nella sfera pubblica come supporto, come assistente, come strumento con cui possiamo diventare più produttivi, più economici, più veloci, al punto in cui si finisce per lasciare la decisione su una vita umana all’intelligenza artificiale, la strada è molto lunga. Si tratta di lasciare la decisione finale nelle mani di un’entità non umana. Sì, l’utilizzo nel campo medico è chiaramente uno dei più riusciti e quello in cui si affermerà più rapidamente. È molto più facile per un’applicazione in grado di scansionare e confrontare milioni di immagini che per un essere umano che impara questo nel corso degli anni e acquisisce la finezza nel formulare una diagnosi dopo molto, molto tempo.”
Un algoritmo che seleziona i candidati per un lavoro può discriminare involontariamente. Un sistema automatizzato di valutazione del rischio può trattare persone in situazioni simili in modo diverso. Quanto controllo dovrebbe essere dato all’intelligenza artificiale? Dove finisce l’utilità e inizia il rischio? L’intelligenza artificiale dovrebbe rimanere uno strumento di supporto e controllabile: può analizzare, raccomandare o avvertire, ma la decisione finale, soprattutto in settori sensibili come la salute o la sicurezza, dovrebbe spettare agli esseri umani, affermano gli esperti. Adrian-Victor Vevera: “Non dovremmo trattare l’intelligenza artificiale come un dono assoluto che porterà solo benessere, né come un potenziale nemico ed evitarla fin dall’inizio. Credo che la questione principale riguardo all’uso dell’intelligenza artificiale sia che dovremmo tutti guardare in profondità nella nostra anima e riflettere su quali regole imporre nel momento in cui si sviluppa e si utilizza l’intelligenza artificiale. Questo significa il modo etico di usare l’intelligenza artificiale, i limiti che dovremmo darle, le misure di protezione. Dovrebbe esserci sempre un pulsante per fermare qualcosa che può deviare dal percorso che pensavamo dovesse seguire. Pensate al fatto che, in quanto strumento, l’intelligenza artificiale può essere utilizzata da persone che vogliono commettere atti di terrorismo, così come da persone che vogliono manipolare lo stato d’animo di un Paese. È uno strumento. E si può usare un coltello in cucina per cucinare o su un campo di battaglia per uccidere qualcuno. Ecco perché mi riferivo al pulsante di arresto, ai mezzi di protezione, ai mezzi di sicurezza del modo in cui l’intelligenza artificiale viene utilizzata e sviluppata e, naturalmente, alla parte etica, che chiaramente non si può imporre a chiunque abbia accesso, possibilità e conoscenze per sviluppare applicazioni di intelligenza artificiale. Ma, sulla base di un codice etico, si può creare un quadro, si può creare un contesto in cui è più facile monitorare il livello di sviluppo e, naturalmente, i risultati.”
Un altro aspetto è la responsabilità, più precisamente, chi è responsabile di una decisione presa da un algoritmo che commette un errore? Il programmatore? L’azienda? L’utente? O nessuno? A differenza degli esseri umani, gli algoritmi non possono essere ritenuti moralmente responsabili. Non hanno coscienza, intenzione o empatia, fanno solo ciò che viene loro chiesto di fare. E i rischi aumentano con l’uso sempre più diffuso dell’intelligenza artificiale. Secondo studi condotti nel 2024, il 4% della popolazione mondiale utilizzava l’intelligenza artificiale ChatGPT, due anni dopo il suo lancio. Per quanto riguarda la Romania, quasi la metà dei romeni utilizza l’intelligenza artificiale nelle proprie attività quotidiane, secondo uno studio condotto nel 2025 da Reveal Marketing Research, una società di ricerche di mercato a servizio completo.