Les robots, entre efficacité et responsabilité
Dans l’éducation, les plateformes basées sur l’intelligence artificielle personnalisent le processus d’apprentissage en adaptant les contenus aux besoins de chaque élève. Aussi, les technologies fondées sur l’intelligence artificielle prennent une ampleur de plus en plus grande et les applications se multiplient. Mais, avertissent les spécialistes, pour pouvoir les utiliser à notre avantage, il est indispensable de les comprendre, de savoir comment elles fonctionnent.
Corina Cristea, 09.01.2026, 10:27
Le développement rapide de la robotique et de l’intelligence artificielle a profondément transformé la manière dont les humains travaillent, apprennent et interagissent avec la technologie. Les robots sont devenus des présences familières dans les usines, les hôpitaux, les écoles ou même dans les foyers, contribuant à accroître l’efficacité et à optimiser les activités. Ils prennent en charge des tâches répétitives, dangereuses ou nécessitant une très grande précision, réduisant ainsi les risques pour les personnes et augmentant de manière significative la productivité. Mais les systèmes intelligents ne sont plus de simples outils exécutant des commandes prédéfinies, mais des technologies capables d’analyser des informations et de fournir des réponses complexes. Un exemple pertinent est celui des assistants conversationnels, tels que ChatGPT ou Gemini AI Chatbot, de plus en plus utilisés pour s’informer, bénéficier d’un soutien éducatif ou même pour prendre certaines décisions dans notre vie de tous les jours. En médecine, par exemple, les systèmes intelligents peuvent analyser des images médicales afin d’aider au diagnostic, tandis que les robots chirurgicaux permettent des interventions mini-invasives avec un haut degré de précision. Dans l’éducation, les plateformes basées sur l’intelligence artificielle personnalisent le processus d’apprentissage en adaptant les contenus aux besoins de chaque élève. Aussi, les technologies fondées sur l’intelligence artificielle prennent une ampleur de plus en plus grande et les applications se multiplient. Mais, avertissent les spécialistes, pour pouvoir les utiliser à notre avantage, il est indispensable de les comprendre, de savoir comment elles fonctionnent. Or, la réalité est que, dans un monde où l’on parle de plus en plus d’intelligence artificielle, peu de personnes la comprennent réellement. Et les conséquences peuvent être dramatiques. Ana-Maria Stancu, PDG de Bucharest Robots, fondatrice de Robohub et première Roumaine élue au conseil d’administration de EU Robotics, explique :
« C’est précisément cette partie qui nous fait peur. Parce que l’on commence déjà à voir apparaître des problèmes graves, certaines personnes se sont suicidées après avoir échangées avec ces intelligences artificielles génératives. Il existe des études montrant que des utilisateurs développent des psychoses à la suite de telles conversations. Ce qu’il faut comprendre, c’est que la mission de ces IA génératives est de fournir une réponse la plus proche possible de ce que vous écrivez. Ainsi, si par exemple vous êtes dépressif et que vous écrivez à ChatGPT : aujourd’hui je me suis disputé avec mes collègues, je suis très triste et ils ne me comprennent pas, il va abonder dans cette direction. Il ne va pas vous dire : peut-être que le problème vient de vous, ou réfléchissez encore, peut-être que vous passez juste une mauvaise journée. Il ne répondra pas de cette manière. Ce n’est pas un coach. Un coach peut vous dire quand vous déraillez un peu, lui, il ne le fera pas. La plupart ont des restrictions qui les empêchent d’utiliser le mot suicide. Mais si vous écrivez « je veux me suicider », et même s’il n’utilisera pas ce mot, il va abonder dans votre direction. L’ordinateur ne comprend pas, ce n’est pas une personne, c’est simplement une agglomération de chiffres. »
« Science sans conscience n’est que ruine de l’âme »
À la base du fonctionnement de l’intelligence artificielle se trouvent des mécanismes statistiques et mathématiques avancés. Les modèles d’IA sont entraînés sur des volumes très importants de textes et de données, à partir desquels ils « apprennent » les relations entre les mots, les idées et les contextes. Les réponses, bien que cohérentes et fluides, sont produites sans conscience ; elles ne sont pas le résultat d’une pensée consciente ou d’une véritable compréhension du monde, mais du calcul de probabilités, explique Ana-Maria Stancu. Concrètement, le système estime quel mot a la plus grande probabilité de suivre dans une phrase, en fonction de la requête formulée et des schémas identifiés dans les données d’entraînement, ce qui peut parfois générer des réponses incomplètes, inexactes ou inadaptées à un contexte spécifique. Ana-Maria Stancu :
« C’est là que se pose le véritable problème. Pourquoi ? Parce que nous, les plus âgés, nous avons encore un peu d’expérience et nous nous rendons compte quand une plateforme raconte n’importe quoi dans un domaine donné. Le problème, c’est que les jeunes, n’ayant pas cette expérience, ne prennent pas de recul par rapport aux réponses fournies par ChatGPT. Et surtout, ils ne comprennent pas que ChatGPT est sujet a l’erreur. Il peut se tromper. D’ailleurs, en termes techniques, l’on appelle cela une « hallucination ». On ne dit pas qu’il ment, car dire qu’il ment reviendrait à l’anthropomorphiser, à le comparer à un être humain. Mais c’est comme si. »
Les robots et les systèmes d’intelligence artificielle représentent indéniablement un pas important vers l’efficacité et le progrès. Mais le défi de leur utilisation responsable demeure. D’autant plus que l’automatisation excessive de la pensée et la délégation du jugement personnel à la technologie peuvent conduire à une dépendance et à un affaiblissement de l’esprit critique, avertissent les spécialistes, avec toutes les conséquences que cela implique. S’y ajoutent à cela d’éventuels problèmes sociaux, liés par exemple au remplacement de la main-d’œuvre humaine, ainsi qu’un dilemme majeur : celui de la responsabilité morale et juridique. Qui est responsable d’une décision erronée prise par un robot autonome – le programmeur, l’utilisateur ou le système lui-même ? Affaire à suivre.
(Trad. Ionut Jugureanu)