KI stellt Welt vor immer größere Herausforderungen
Mit der wachsenden Verbreitung Künstlicher Intelligenz entstehen immer neue Anwendungen. Fachleute warnen jedoch: Um diese Technologien zu unserem Vorteil zu nutzen, müssen wir sie verstehen und wissen, wie sie funktionieren. Tatsächlich ist das Wissen darüber in einer Welt, die immer häufiger über KI spricht, noch gering – mit potenziell dramatischen Folgen.
Corina Cristea, 02.01.2026, 10:29
Die rasante Entwicklung der Robotik und der Künstlichen Intelligenz hat die Art und Weise, wie Menschen arbeiten, lernen und mit Technik umgehen, grundlegend verändert. Roboter sind heute fester Bestandteil des Betriebs in Fabriken, Krankenhäusern sowie Schulen und wirken sogar in privaten Haushalten mit. Sie steigern die Effizienz und optimieren Abläufe, übernehmen repetitive, gefährliche oder hochpräzise Aufgaben, senken Risiken für Menschen und erhöhen die Produktivität deutlich.
Intelligente Systeme sind längst keine bloßen Werkzeuge mehr, die vorgegebene Befehle ausführen. Sie können Informationen auswerten und komplexe Antworten liefern. Ein bekanntes Beispiel sind sogenannte dialogfähige Assistenten wie ChatGPT oder Gemini AI Chatbot, die zunehmend zur Information, zur Unterstützung beim Lernen oder sogar für alltägliche Entscheidungen genutzt werden. In der Medizin analysieren intelligente Systeme etwa medizinische Bilder zur Unterstützung von Diagnosen, chirurgische Roboter ermöglichen minimalinvasive Eingriffe mit hoher Genauigkeit. In der Bildung passen KI-basierte Plattformen Lerninhalte an die Bedürfnisse einzelner Schüler an.
Mit der wachsenden Verbreitung Künstlicher Intelligenz entstehen immer neue Anwendungen. Fachleute warnen jedoch: Um diese Technologien zu unserem Vorteil zu nutzen, müssen wir sie verstehen und wissen, wie sie funktionieren. Tatsächlich ist das Wissen darüber in einer Welt, die immer häufiger über KI spricht, noch gering – mit potenziell dramatischen Folgen.
Ana-Maria Stancu, Geschäftsführerin von Bucharest Robots, Gründerin von Robohub und erste Rumänin im Vorstand von EU Robotics, ermahnt:
„Das ist der Teil, der uns Angst macht, weil sehr große Probleme aufzutauchen beginnen – Menschen haben sich bereits das Leben genommen. Außerdem gibt es eine Studie, die zeigt, dass Menschen nach Gesprächen mit diesen generativen Künstlichen Intelligenzen Psychosen entwickeln können. Wir müssen verstehen, dass der Auftrag dieser generativen KI darin besteht, dir eine Antwort zu geben, die möglichst nah an dem liegt, was du schreibst. Wenn du zum Beispiel depressiv bist und schreibst: „Ich habe Streit mit meinen Kollegen, ich bin sehr traurig und sie verstehen mich nicht, dann wird es Antworten in diese Richtung geben. Die Maschine wird dir nicht sagen: Vielleicht bist du selbst das Problem oder denk noch einmal darüber nach, vielleicht hast du einfach einen schlechten Tag. So antwortet sie nicht. Sie ist kein Coach. Ein Coach kann dir auch sagen, wenn du ein bisschen ausrastest – das tut die KI aber nicht. Die meisten haben die Vorgabe, das Wort Suizid nicht zu verwenden. Aber wenn du schreibst: Ich will mich umbringen, dann wird es das Wort Suizid nicht benutzen, dir aber Formulierungen liefern, die in diese Richtung führen. Der Computer versteht nicht, er ist keine Person, sondern schlicht eine Sammlung von Zahlen!“
Grundlage der Künstlichen Intelligenz sind komplexe statistische und mathematische Verfahren. KI-Modelle werden mit sehr großen Mengen an Texten und Daten trainiert, aus denen sie die Beziehungen zwischen Wörtern, Ideen und Kontexten „lernen“. Die Antworten wirken schlüssig und flüssig, entstehen jedoch ohne Bewusstsein. Sie sind nicht Ergebnis eines denkenden Verstandes oder eines echten Weltverständnisses, sondern beruhen auf Wahrscheinlichkeitsberechnungen, erklärt Ana-Maria Stancu.
Konkret schätzt das System, welches Wort mit der höchsten Wahrscheinlichkeit als Nächstes folgt – abhängig von der Anfrage und den Mustern in den Trainingsdaten. Dabei entstehen mitunter unvollständige, ungenaue oder für den jeweiligen Kontext ungeeignete Antworten, erläutert Ana-Maria Stancu:
„Hier wird es ein echtes Problem geben. Warum? Weil wir Älteren noch eine gewisse Erfahrung haben und merken, wenn eine Plattform Unsinn erzählt oder sich in einem Bereich nicht auskennt. Junge Menschen ohne diese Erfahrung im Hintergrund merken aber nicht, ob die Antwort der Chat-Maschine richtig ist oder nicht. Lehrer haben mir zudem gesagt, dass Schüler auf ähnliche Anfragen zudem identische Antworten bekommen. Außerdem verstehen sie nicht, dass ChatGPT Fehler machen kann. Das nennt man technisch gesehen Halluzination. Wir sagen nicht, dass die KI lügt. Damit würden wir sie mit einem Menschen gleichsetzen!“
Roboter und KI-Systeme sind unbestreitbar ein wichtiger Schritt hin zu mehr Effizienz und Fortschritt. Die große Herausforderung bleibt jedoch ihr verantwortungsvoller Einsatz. Fachleute warnen, dass eine übermäßige Automatisierung des Denkens und die Abgabe eigener Urteilsfähigkeit an Technik zu Abhängigkeit und einem Verlust an kritischem Denken führen können – mit weitreichenden Folgen.
Hinzu kommen mögliche soziale Probleme, etwa durch die Verdrängung menschlicher Arbeitskräfte, sowie eine zentrale offene Frage: Wer trägt die moralische und rechtliche Verantwortung für eine falsche Entscheidung eines autonomen Roboters – der Programmierer, der Nutzer oder das System selbst?