Roboter zwischen Effizienz und Verantwortung
Roboter sind in Fabriken, Krankenhäusern, Schulen oder sogar in privaten Haushalten längst zu einer alltäglichen Präsenz geworden und tragen zur Steigerung der Effizienz sowie zur Optimierung von Abläufen bei.
Corina Cristea, 09.01.2026, 20:44
Die schnelle Entwicklung der Robotik und der künstlichen Intelligenz hat die Art und Weise, wie Menschen arbeiten, lernen und mit Technologie interagieren, grundlegend verändert. Sie übernehmen repetitive, gefährliche oder besonders präzisionsbedürftige Aufgaben, reduzieren Risiken für Menschen und erhöhen die Produktivität erheblich. Intelligente Systeme sind längst nicht mehr lediglich Werkzeuge, die vorgegebene Befehle ausführen, sondern Technologien, die Informationen analysieren und komplexe Antworten liefern können.
Ein relevantes Beispiel sind die sogenannten konversationellen Assistenten, wie ChatGPT oder Gemini AI Chatbot, die zunehmend für Information, pädagogische Unterstützung oder sogar alltägliche Entscheidungen genutzt werden. In der Medizin können intelligente Systeme beispielsweise medizinische Bildaufnahmen analysieren, um Diagnoseprozesse zu unterstützen, während chirurgische Roboter minimalinvasive Eingriffe mit hoher Präzision ermöglichen. In der Bildung wiederum personalisieren KI-basierte Plattformen den Lernprozess, indem sie Inhalte an die Bedürfnisse jedes einzelnen Schülers anpassen.
KI-basierte Technologien gewinnen rasant an Bedeutung, es entstehen immer vielfältigere Anwendungen. Doch, warnen Fachleute, um sie zu unserem Vorteil nutzen zu können, müssen wir verstehen, wie sie funktionieren. Die Realität ist jedoch, dass in einer Welt, die zunehmend über künstliche Intelligenz spricht, nur wenige sie tatsächlich begreifen. Die Folgen können dramatisch sein. Ana-Maria Stancu, CEO von Bucharest Robots, Gründerin von Robohub und die erste Rumänin, die in den Vorstand von EU Robotics gewählt wurde:
„Das ist der Teil, der uns Angst macht. Denn es beginnen bereits ziemlich große Probleme zu entstehen, in dem Sinne, dass sich einige Menschen das Leben genommen haben. Außerdem haben wir eine Studie, die zeigt, dass Menschen nach Gesprächen mit solchen generativen künstlichen Intelligenzen Psychosen entwickeln. Was Sie verstehen müssen, ist, dass die Mission dieser generativen AIs darin besteht, Ihnen eine Antwort zu geben, die möglichst nah an dem ist, was Sie schreiben. Deshalb, wenn Sie zum Beispiel depressiv sind und ChatGPT schreiben: ‚Heute habe ich mich mit Kollegen gestritten und ich bin sehr traurig und sie verstehen mich nicht‘, dann wird es Ihnen Antworten in diese Richtung geben. Es wird Ihnen nicht sagen: ‚Vielleicht bist du das Problem‘ oder ‚Denk noch einmal nach, vielleicht hast du einfach einen schlechten Tag‘ oder Ähnliches – so in diesem Sinne wird es nicht antworten. Es ist kein Coach, ein Coach kann Ihnen sagen, wenn Sie ein bisschen entgleisen, er sagt Ihnen das aber nicht. Die meisten haben Vorgaben, das Wort Selbstmord nicht zu verwenden. Aber wenn Sie schreiben: ‚Ich will mich umbringen‘, dann wird es das Wort Selbstmord nicht verwenden, aber es wird Ihnen Formulierungen geben, die in diese Richtung gehen. Der Computer versteht nicht, er ist keine Person, er ist einfach nur eine Ansammlung von Zahlen.“
Die Funktionsweise künstlicher Intelligenz beruht auf fortgeschrittenen statistischen und mathematischen Mechanismen. KI-Modelle werden mit sehr großen Mengen an Texten und Daten trainiert, aus denen sie die Beziehungen zwischen Wörtern, Ideen und Kontexten „lernen“. Die Antworten sind zwar kohärent und flüssig, entstehen jedoch ohne Bewusstsein. Sie sind nicht das Ergebnis bewussten Denkens oder eines realen Verständnisses der Welt, sondern beruhen auf der Berechnung von Wahrscheinlichkeiten, erklärt Ana-Maria Stancu. Konkret schätzt das System, welches Wort mit der größten Wahrscheinlichkeit in einem Satz folgen könnte – abhängig von der formulierten Anfrage und den in den Trainingsdaten erkannten Mustern –, wobei es mitunter unvollständige, ungenaue oder für einen bestimmten Kontext ungeeignete Antworten generiert. Ana-Maria Stancu weiter dazu:
„Hier wird es ein echtes Problem geben. Warum? Weil wir Älteren noch eine gewisse Erfahrung haben und merken, wann eine Plattform in einem bestimmten Bereich Unsinn redet oder nicht. Das Problem ist, dass die Jungen, die keine Erfahrung im Hintergrund haben, nicht merken, ob das, was ChatGPT schreibt, richtig ist oder nicht. Generell, haben mir auch Lehrer erzählt, sehen sie Kinder, die ChatGPT ähnliche Fragen stellen und entsprechend die gleichen Arten von Antworten erhalten. Außerdem verstehen sie nicht, dass ChatGPT Fehler machen kann. Übrigens, technisch nennt man das Halluzination, wir sagen nicht, dass es lügt, denn wenn wir sagen würden, dass es lügt, würden wir es anthropomorphisieren und mit einem Menschen gleichsetzen.“
Roboter und KI-Systeme stellen zweifellos einen wichtigen Schritt in Richtung Effizienz und Fortschritt dar, doch bleibt die Herausforderung ihrer verantwortungsvollen Nutzung bestehen. Umso mehr, als eine übermäßige Automatisierung des Denkens und die Delegation persönlicher Urteilsfähigkeit an Technologie zu Abhängigkeit und zur Abschwächung des kritischen Denkens führen können – mit allen daraus entstehenden Konsequenzen, warnen Fachleute. Hinzu kommen mögliche soziale Probleme, etwa jene im Zusammenhang mit der Verdrängung menschlicher Arbeitskraft, sowie eine bedeutende ethische und rechtliche Frage: Wer trägt die Verantwortung für eine Fehlentscheidung eines autonomen Roboters – der Programmierer, der Nutzer oder das System selbst?