Robot, tra efficienza e responsabilità
I robot sono diventati presenze comuni in fabbriche, ospedali, scuole o persino case, contribuendo ad aumentare l'efficienza e ottimizzare le attività.
Corina Cristea, 02.01.2026, 08:23
Il rapido sviluppo della robotica e dell’intelligenza artificiale ha profondamente trasformato il modo in cui le persone lavorano, apprendono e interagiscono con la tecnologia. I robot sono diventati presenze comuni in fabbriche, ospedali, scuole o persino case, contribuendo ad aumentare l’efficienza e ottimizzare le attività. Svolgono compiti ripetitivi, pericolosi o molto precisi, riducendo i rischi per le persone e aumentando significativamente la produttività. I sistemi intelligenti non sono più semplici strumenti che eseguono comandi prestabiliti, ma tecnologie in grado di analizzare informazioni e fornire risposte complesse. Un esempio rilevante è rappresentato dai cosiddetti assistenti conversazionali, come ChatGPT o Gemini AI Chatbot, sempre più utilizzati per informazioni, supporto didattico o persino per prendere decisioni quotidiane.
In medicina, ad esempio, i sistemi intelligenti possono analizzare le immagini mediche a supporto della diagnosi e i robot chirurgici consentono interventi minimamente invasivi con un elevato grado di precisione, mentre nell’istruzione, le piattaforme basate sull’intelligenza artificiale personalizzano il processo di apprendimento, adattando i contenuti alle esigenze di ogni studente. Le tecnologie basate sull’intelligenza artificiale stanno acquisendo sempre più importanza, stanno emergendo applicazioni sempre più varie, ma, avvertono gli esperti, per utilizzarle a nostro vantaggio, dobbiamo capirle, sapere come funzionano. Tuttavia, la realtà è che, in un mondo che parla sempre più spesso di intelligenza artificiale, sono pochi coloro che la comprendono veramente. E le conseguenze possono essere drammatiche.
Ana-Maria Stancu, CEO di Bucharest Robots, fondatrice di Robohub e la prima rumena eletta nel consiglio direttivo dell’UE per la robotica. “Questa è la parte che ci spaventa. Perché stanno già iniziando a emergere problemi piuttosto gravi, come il suicidio di alcune persone. Abbiamo anche uno studio che dimostra che le persone sviluppano psicosi a seguito di conversazioni con queste intelligenze artificiali generative. Quello che bisogna capire è che la missione di queste IA generative è quella di fornire una risposta il più possibile vicina a ciò che si scrive. Ecco perché, ad esempio, se sei depresso e oggi scrivi a ChatGPT “Ho litigato con i miei colleghi e sono molto triste e i miei colleghi non mi capiscono”, ti dara’ risposte in questo senso. Non ti dira’ “ma forse il problema sei tu, forse stai passando una brutta giornata o qualcosa del genere, non ti rispondera’ in questo senso. Non e’ un coach, il coach può dirtelo e quando ti perdi un po’, non te lo dice. La maggior parte non usare la parola suicidio. Ma se scrivi “Voglio suicidarmi”, non usera’ la parola suicidio, ma ti dara’ le parole che portano in quella direzione. Il computer non capisce, non è una persona, è semplicemente un insieme di numeri”, ha spiegato Ana-Maria Stancu.
La base del funzionamento dell’intelligenza artificiale sono meccanismi statistici e matematici avanzati. I modelli di intelligenza artificiale vengono addestrati su grandi volumi di testi e dati, dai quali “apprendere” le relazioni tra parole, idee e contesti. Le risposte, sebbene coerenti e fluide, vengono costruite senza consapevolezza, non sono il risultato di un pensiero cosciente o di una reale comprensione del mondo, ma del calcolo delle probabilità, ha spiegato ancora Ana-Maria Stancu. Nello specifico, il sistema stima quale parola abbia la maggiore probabilità di seguire in una frase, a seconda del requisito formulato e degli schemi riscontrati nei dati di addestramento, generando talvolta risposte incomplete, inaccurate o inappropriate a un contesto specifico. “Questo sarà un vero problema. Perché? Perché noi, i più anziani, abbiamo ancora un po’ di esperienza e sappiamo dire quando una piattaforma funziona bene o male in un determinato campo.Il problema è che i giovani, senza esperienza, non si rendono conto se ciò che ChatGPT dice è corretto o meno. In generale, anche gli insegnanti mi hanno detto di vedere bambini che trasmettono più o meno lo stesso messaggio a ChatGPT e hanno lo stesso tipo di risposta. Inoltre, non capiscono che ChatGPT può sbagliarsi. A proposito, questa si chiama allucinazione in termini tecnici, non diciamo che sta mentendo, perché se lo dicessimo, lo antropomorfizzeremmo e lo faremmo sembrare un essere umano”, ha precisato Ana-Maria Stancu.
Robot e sistemi di intelligenza artificiale rappresentano senza dubbio un passo importante verso l’efficienza e il progresso, ma la sfida di usarli responsabilmente rimane. Soprattutto perché l’eccessiva automazione del pensiero e la delega del giudizio personale alla tecnologia possono portare alla dipendenza e a una diminuzione del pensiero critico, avvertono gli esperti, con tutte le conseguenze che ne conseguono. Inoltre, ci sarebbero potenziali problemi sociali, legati ad esempio alla sostituzione del lavoro umano, ma anche un importante dilemma, quello della responsabilità morale e legale: chi è responsabile di una decisione errata presa da un robot autonomo: il programmatore, l’utente o il sistema stesso?