La puissance des algorithmes
Dans de nombreux domaines, les décisions ne sont plus prises uniquement par des humains : l’itinéraire que nous suivons dans le trafic ou l’octroi d’un crédit en sont deux exemples concrets. En arrière-plan, il y a les algorithmes, qui ne suivent rien d’autres que des règles conçues par des humains pour résoudre des problèmes concrètes. En tant qu’outils, ils sont d’une valeur considérable. Mais la question se pose lorsqu’ils ne se contentent plus d’être des conseillers ou des assistants, et qu’ils en viennent à prendre des décisions.
Corina Cristea, 13.02.2026, 10:00
Ils analysent des données, identifient des schémas et livrent des résultats dans un délai impossible à atteindre pour l’esprit humain. En médecine, ils peuvent contribuer au dépistage précoce des maladies. En économie, ils anticipent les risques. Dans l’éducation, ils personnalisent l’apprentissage. Nous parlons bien évidemment de l’intelligence artificielle et de ses algorithmes : un instrument d’une puissance inégalée et qui façonne déjà notre quotidien. Et, en effet, dans de nombreux domaines, les décisions ne sont plus prises uniquement par des humains : l’itinéraire que nous suivons dans le trafic ou l’octroi d’un crédit en sont deux exemples concrets. En arrière-plan, il y a les algorithmes, qui ne suivent rien d’autres que des règles conçues par des humains pour résoudre des problèmes concrètes. En tant qu’outils, ils sont d’une valeur considérable. Mais la question se pose lorsqu’ils ne se contentent plus d’être des conseillers ou des assistants, et qu’ils en viennent à prendre des décisions. Adrian-Victor Vevera, directeur de l’Institut national de recherche-développement en informatique de Bucarest (ICI), explique :
« Prenez la guerre d’Ukraine, où l’on a vu apparaitre les drones First Person View, qui attaquent la première personne qu’ils identifient. Certaines technologies testent déjà des modules d’intelligence artificielle capables de sélectionner eux-mêmes leurs cibles. La question s’est posée : est-ce là l’avenir ? Confier à une entité non humaine une décision qui porte sur une vie humaine, c’est une problématique a laquelle, il n’y a pas si longtemps, nous n’étions pas confrontées. Et puis, si l’on élargit la discussion, si l’on passe de l’intelligence artificielle utilisée comme soutien, comme assistant, comme outil permettant d’être plus productifs, plus rapides, moins coûteux, vers le moment où l’on laisse la décision concernant une vie humaine entre les « mains » de l’intelligence artificielle, l’on passe un cap. Car il s’agit de laisser la décision finale à une entité non humaine. Voyez-vous, le domaine médical apparaît comme l’un des plus prometteurs et celui où l’IA s’imposera le plus rapidement. Il est manifestement beaucoup plus facile pour une application de scanner et de comparer des millions d’images que pour un médecin qui apprend pendant des années et n’acquiert cette capacite de poser un diagnostic qu’avec le temps. »
Un autre risque mal évalué est celui de biais qui peut apparaitre dans la sélection des candidats pour un emploi sur une base discriminatoire, fut-ce sans intention. Un système automatisé d’évaluation des risques peut traiter différemment des personnes placées dans des situations similaires. Dès lors, jusqu’où faut-il aller dans l’utilisation de l’IA ? Quelle part de contrôle confier à l’intelligence artificielle ? Où s’arrête l’utilité et où commence le risque ? Selon les spécialistes, l’intelligence artificielle devrait rester un outil d’appui, maîtrisable : elle peut analyser, recommander, alerter. Mais la décision finale, surtout dans des domaines sensibles comme la santé ou la sécurité, devrait demeurer entre les mains des humains. Adrian-Victor Vevera précise :
« Nous ne devrions considérer l’intelligence artificielle ni comme un bienfaiteur universel qui n’apportera que du bien-être, ni comme un ennemi potentiel à condamner d’emblée. La première chose à faire c’est de regarder au fond de nous-mêmes et de réfléchir aux règles qu’il faudrait imposer lors du développement et de l’usage de l’IA. Cela implique une utilisation éthique, des limites claires, des mesures de protection. Il doit toujours exister un bouton d’arrêt, pour stopper quelque chose qui pourrait dévier le résultat de la trajectoire envisagée. L’intelligence artificielle est un instrument. L’on doit savoir qu’elle peut être utilisée par des personnes ou des entités qui cherchent à commettre des actes terroristes, comme par celles qui souhaitent manipuler l’opinion publique d’un pays. Un couteau aussi est un instrument : on peut l’utiliser en cuisine pour préparer un repas, ou sur un champ de bataille pour tuer. C’est pour cela que je parle de bouton d’arrêt, de dispositifs de protection, de sécurité dans la manière dont l’IA est développée et utilisée, et bien sûr d’éthique. On ne peut pas l’imposer à tous ceux qui disposent des connaissances et des moyens de développer des applications d’IA. Mais sur la base d’un code éthique, on peut créer un cadre qui permette de mieux suivre le niveau de développement et, bien entendu, les résultats. »
Un autre enjeu est celui de la responsabilité : qui répond d’une décision erronée prise par un algorithme ? Le programmeur ? L’entreprise ? L’utilisateur ? Car contrairement aux êtres humains, les algorithmes ne peuvent être tenus pour moralement responsables. Ils n’ont ni conscience, ni intention, ni empathie. Ils exécutent ce pour quoi ils ont été conçus. Et les risques augmentent à mesure que l’intelligence artificielle est déployée à grande échelle. Selon des études réalisées en 2024, deux ans après son lancement, 4 % de la population mondiale utilisait déjà ChatGPT. En Roumanie, près de la moitié de la population fait appel à l’intelligence artificielle dans ses activités quotidiennes, d’après une étude menée en 2025 par Reveal Marketing Research, société d’études de marché full-service.
L’intelligence artificielle s’impose ainsi comme l’un des grands enjeux technologiques, économiques et éthiques de notre époque — un outil puissant, dont l’impact dépendra, en définitive, des règles que nous choisirons de lui fixer. (Trad Ionut Jugureanu)