Robots, entre eficiencia y responsabilidad
El rápido desarrollo de la robótica ha transformado profundamente la forma en que las personas trabajan, aprenden e interactúan con la tecnología.
Corina Cristea, 02.01.2026, 11:42
El rápido desarrollo de la robótica y de la inteligencia artificial ha transformado de manera profunda la forma en que las personas trabajan, aprenden e interactúan con la tecnología. Los robots se han convertido en presencias habituales en fábricas, hospitales, escuelas o incluso en los hogares, contribuyendo a aumentar la eficiencia y a optimizar las actividades. Asumen tareas repetitivas, peligrosas o que requieren un grado muy elevado de precisión, reduciendo los riesgos para las personas y aumentando de forma significativa la productividad. Los sistemas inteligentes ya no son simples herramientas que ejecutan órdenes preestablecidas, sino tecnologías capaces de analizar información y ofrecer respuestas complejas.
Un ejemplo relevante lo constituyen los llamados asistentes conversacionales, como ChatGPT o Gemini AI Chatbot, cada vez más utilizados para informarse, recibir apoyo educativo o incluso para la toma de decisiones cotidianas. En medicina, por ejemplo, los sistemas inteligentes pueden analizar imágenes médicas para apoyar el diagnóstico, y los robots quirúrgicos permiten intervenciones mínimamente invasivas con un alto grado de precisión, mientras que, en educación, las plataformas basadas en inteligencia artificial personalizan el proceso de aprendizaje, adaptando los contenidos a las necesidades de cada alumno.
Las tecnologías basadas en inteligencia artificial adquieren una dimensión cada vez mayor y surgen aplicaciones cada vez más diversas, pero, advierten los especialistas, para poder utilizarlas en nuestro beneficio es necesario comprenderlas y saber cómo funcionan. Sin embargo, la realidad es que, en un mundo que habla cada vez más de inteligencia artificial, son pocos quienes la entienden de verdad. Y las consecuencias pueden ser dramáticas.
Ana-Maria Stancu, directora ejecutiva de Bucharest Robots, fundadora de Robohub y primera rumana elegida para el consejo directivo de EU Robotics:
“Esta es la parte que nos asusta. Porque ya empiezan a aparecer problemas bastante graves, en el sentido de que algunas personas se han suicidado. Además, contamos con un estudio que muestra que las personas desarrollan psicosis tras conversaciones con estas inteligencias artificiales generativas. Lo que hay que entender es que la misión de estas IA generativas es darte una respuesta lo más cercana posible a lo que tú escribes. Por eso, si, por ejemplo, estás deprimido y entras y le escribes a ChatGPT ‘hoy me he peleado con mis compañeros y estoy muy triste y mis compañeros no me entienden’, te va a dar respuestas en esa dirección. No te va a decir ‘quizá tú seas el problema’ o ‘piénsalo otra vez, quizá solo tienes un mal día’, no responderá en ese sentido. No es un coach; un coach puede decirte también cuando te desvías un poco, esto no te lo dice. La mayoría tienen condicionantes para no utilizar la palabra suicidio. Pero si tú le escribes ‘quiero suicidarme’, no va a usar la palabra suicidio, pero te va a dar palabras que conducen en esa dirección. El ordenador no entiende, no es una persona, es simplemente una acumulación de números”.
En la base del funcionamiento de la inteligencia artificial se encuentran mecanismos estadísticos y matemáticos avanzados. Los modelos de tipo IA se entrenan con volúmenes muy grandes de textos y datos, a partir de los cuales “aprenden” las relaciones entre palabras, ideas y contextos. Las respuestas, aunque coherentes y fluidas, se construyen sin conciencia; no son el resultado de un pensamiento consciente ni de una comprensión real del mundo, sino del cálculo de probabilidades, explica Ana-Maria Stancu. En concreto, el sistema estima qué palabra tiene más probabilidades de seguir en una frase, en función de la solicitud formulada y de los patrones identificados en los datos de entrenamiento, generando en ocasiones respuestas incompletas, inexactas o inadecuadas para un contexto específico.
De nuevo, Ana-Maria Stancu:
“Aquí va a haber un verdadero problema. ¿Por qué? Porque nosotros, los de más edad, todavía tenemos cierta experiencia y nos damos cuenta cuando una plataforma divaga o no domina un determinado ámbito. El problema es que los jóvenes, al no tener esa experiencia previa, no se dan cuenta de si lo que escribe ChatGPT está bien o no. En general, incluso los profesores me han dicho que observan esto: niños que introducen más o menos el mismo mensaje en ChatGPT y reciben el mismo tipo de respuesta. Además, no entienden que ChatGPT puede equivocarse. Por cierto, en términos técnicos esto se llama alucinación; no decimos que miente, porque decir que miente implicaría antropomorfizarlo y compararlo con una persona”.
Los robots y los sistemas de inteligencia artificial representan, sin duda, un paso importante hacia la eficiencia y el progreso, pero sigue existiendo el reto de su uso responsable. Más aún cuando la automatización excesiva del pensamiento y la delegación del juicio personal en la tecnología pueden conducir a la dependencia y a la disminución del espíritu crítico, advierten los especialistas, con todas las consecuencias que de ello se derivan. Además, se plantean posibles problemas sociales, relacionados, por ejemplo, con la sustitución de la mano de obra humana, así como una cuestión clave, la de la responsabilidad moral y legal: ¿quién responde por una decisión errónea tomada por un robot autónomo, el programador, el usuario o el propio sistema?
Versión en español: Valeriu Radulian