El poder de los algoritmos
¿Cuánto control le damos a la inteligencia artificial y dónde debe permanecer la decisión humana? Una edición sobre ética, responsabilidad y futuro.
Corina Cristea, 06.02.2026, 14:00
Analizan datos, identifican patrones y ofrecen resultados en un tiempo imposible para la mente humana. En medicina, pueden ayudar a la detección temprana de enfermedades. En economía, anticipar riesgos. En educación, personalizar el aprendizaje. Hablamos de la inteligencia artificial, una herramienta de enorme influencia que ya está modelando la vida cotidiana. En muchos ámbitos, las decisiones ya no son tomadas exclusivamente por personas: qué ruta seguimos en el tráfico o si obtenemos un crédito son solo dos ejemplos. Detrás de estas decisiones se encuentran los algoritmos, que, en esencia, son conjuntos de reglas creadas por seres humanos para resolver problemas.
Como herramientas, los algoritmos son extremadamente valiosos. El problema surge cuando dejan de ser simples sistemas de apoyo o asistencia y pasan a ocupar el lugar de quienes toman decisiones. Adrian-Victor Vevera, director del Instituto Nacional de Investigación y Desarrollo en Informática de Bucarest (ICI), advierte sobre esta deriva:
«En Ucrania han aparecido drones de tipo First Person View, que atacan a la primera persona que detectan, y algunos de ellos ya están probando sistemas de inteligencia artificial capaces de seleccionar objetivos de forma autónoma. Se ha planteado la cuestión de si este es el futuro. Dejar que una entidad no humana tome decisiones sobre la vida de una persona es algo que, hasta hace no mucho, ni siquiera nos planteábamos. Si ampliamos la discusión desde el uso de la inteligencia artificial en el ámbito público como apoyo, como asistente, como herramienta para ser más productivos, más eficientes y más rápidos, hasta el punto en que se delega una decisión sobre una vida humana en manos de la inteligencia artificial, estamos hablando de un salto enorme. Se trata de transferir la responsabilidad final a una entidad no humana. Dicho esto, el ámbito de la medicina es, claramente, uno de los más prometedores y donde la inteligencia artificial se impondrá con mayor rapidez. Para una aplicación capaz de escanear y comparar millones de imágenes, este proceso es mucho más sencillo que para una persona, que necesita años de formación y experiencia para adquirir la precisión necesaria en un diagnóstico.»
Un algoritmo que selecciona candidatos para un puesto de trabajo puede discriminar sin intención. Un sistema automatizado de evaluación de riesgos puede tratar de manera diferente a personas en situaciones similares. ¿Cuánto control debería delegarse en la inteligencia artificial? ¿Dónde termina su utilidad y comienza el riesgo? Los especialistas coinciden en que la inteligencia artificial debería seguir siendo una herramienta de apoyo, sujeta a control humano: capaz de analizar, recomendar o alertar, pero dejando la decisión final, especialmente en ámbitos sensibles como la salud o la seguridad, en manos de las personas.
Vuelve con detalles, Adrian-Victor Vevera:
«No deberíamos tratar la inteligencia artificial ni como un regalo absoluto que traerá únicamente bienestar, ni como un enemigo potencial al que haya que condenar desde el principio. Creo que la primera cuestión que debemos plantearnos en relación con su uso es mirar hacia nuestro interior y preguntarnos cuáles deberían ser las reglas que rijan el desarrollo y la utilización de la inteligencia artificial. Esto implica el marco ético en el que se emplea, los límites que se le establecen y las medidas de protección. Siempre debe existir un mecanismo que permita detener un sistema cuando se desvía del propósito para el que fue concebido. Pensemos que, al ser una herramienta, la inteligencia artificial puede ser utilizada tanto por personas con fines terroristas como por quienes buscan manipular el estado de ánimo de una sociedad. Es un instrumento. Un cuchillo puede servir para cocinar en una cocina o para matar en un campo de batalla. Por eso hablo de mecanismos de control, de medidas de protección y de seguridad en la forma en que se desarrolla y se utiliza la inteligencia artificial y, por supuesto, de la dimensión ética, que no puede imponerse a todos quienes tienen acceso, capacidad y conocimientos para desarrollar aplicaciones de este tipo. Sin embargo, a partir de un código ético se puede crear un marco que permita supervisar mejor su desarrollo y, naturalmente, sus resultados.»
Otro aspecto clave es el de la responsabilidad: ¿quién responde por una decisión errónea tomada por un algoritmo? ¿El programador? ¿La empresa? ¿El usuario? ¿O nadie? A diferencia de las personas, los algoritmos no pueden ser responsables desde un punto de vista moral. No tienen conciencia, intención ni empatía: se limitan a ejecutar instrucciones. Y los riesgos aumentan a medida que la inteligencia artificial se utiliza a una escala cada vez mayor.
Según estudios realizados en 2024, un 4 % de la población mundial utilizaba la inteligencia artificial ChatGPT, apenas dos años después de su lanzamiento. En el caso de Rumanía, casi la mitad de la población emplea inteligencia artificial en sus actividades cotidianas, de acuerdo con un estudio realizado en 2025 por Reveal Marketing Research, una empresa de investigación de mercados de servicios integrales.
Versión en español: Valeriu Radulian