KI im Einsatz: die Macht der Algorithmen
Sie analysiert Daten, erkennt Muster und liefert Ergebnisse mit einer Schnelligkeit, die für den menschlichen Geist unerreichbar ist. In der Medizin kann sie bei der Früherkennung von Krankheiten helfen. In der Wirtschaft Risiken vorhersagen. In der Bildung Lernprozesse personalisieren. Die Rede ist von Künstlicher Intelligenz (KI) – einem äußerst einflussreichen Werkzeug, das den Alltag prägt. Eine wichtige Rolle spielen dabei die Algorithmen, Rechenvorgänge, die nach bestimmten, sich wiederholenden Schemata ablaufen.
Corina Cristea und Sorin Georgescu, 06.02.2026, 17:30
In vielen Bereichen werden Entscheidungen inzwischen nicht mehr ausschließlich von Menschen getroffen – welchen Weg wir im Straßenverkehr nehmen oder ob wir einen Kredit erhalten, sind nur zwei Beispiele. Dahinter stehen Algorithmen, die im Kern Regelwerke sind, von Menschen entwickelt, um Probleme zu lösen. Als Werkzeuge sind sie äußerst wertvoll. Problematisch wird es jedoch dort, wo Algorithmen nicht mehr nur beraten oder unterstützen, sondern selbst Entscheidungen treffen. Adrian-Victor Vevera, Leiter des Nationalen Instituts für Forschung und Entwicklung in der Informatik in Bukarest (ICI), befasst sich schon länger mit diesem Thema und weiß, was Algorithmen alles können:
„In der Ukraine sind inzwischen sogenannte First-Person-View-Drohnen im Einsatz, die die erste Person angreifen, die sie sehen, und einige Forscher testen bereits ein mit Künstlicher Intelligenz ausgerüstetes Modell, das es den Drohnen ermöglicht, ihre Ziele selbst auszuwählen. Es wurde die Frage gestellt, ob das die Zukunft ist. Letztlich ist es eine grundsätzliche Sache, die wir uns vor gar nicht allzu langer Zeit gar nicht vorgestellt hätten: eine nicht-menschliche Entität Entscheidungen über ein menschliches Leben treffen zu lassen. Wenn wir die Diskussion von der Frage ausweiten, was Künstliche Intelligenz im öffentlichen Raum als Unterstützung, als Assistent, als Werkzeug bedeuten kann – um produktiver, kostengünstiger, schneller zu werden – hin zu dem Punkt, an dem man die Entscheidung über ein menschliches Leben in die ‚Hände‘ der Künstlichen Intelligenz legt, dann ist das ein sehr langer Weg. Es geht darum, die endgültige Entscheidung in die Verantwortung einer nicht-menschlichen Entität zu legen. Ja, der medizinische Bereich ist einer der erfolgreichsten und die KI wird sich dort am schnellsten durchsetzen. Für eine KI-Anwendung, die Millionen von Bildern in Sekundenschnelle scannen und vergleichen kann, ist das deutlich einfacher als für einen Menschen, der das über Jahre hinweg erlernt und diese Feinheit der Diagnose-Erstellung erst nach sehr, sehr langer Zeit entwickelt.“
Ein Algorithmus, der beispielsweise Bewerber für eine Stelle auswählt, kann – beabsichtigt oder unbeabsichtigt – auch diskriminieren. Ein automatisiertes System zur Risikobewertung kann Menschen in vergleichbaren Situationen unterschiedlich behandeln. Wie viel Kontrolle sollte der Künstlichen Intelligenz übertragen werden? Wo endet der Nutzen, wo beginnt das Risiko? Künstliche Intelligenz sollte ein kontrollierbares Unterstützungsinstrument bleiben – sie kann analysieren, empfehlen oder warnen. Die endgültige Entscheidung jedoch, vor allem in sensiblen Bereichen wie Gesundheit oder Sicherheit, sollte beim Menschen liegen, sagen Fachleute. KI-Forscher Adrian-Victor Vevera kommt erneut zu Wort:
„Wir sollten Künstliche Intelligenz weder als absolutes Geschenk betrachten, das nur Wohlstand bringt, noch als potenziellen Feind, den man von Anfang an verteufelt. Ich glaube, die allererste Frage bei der Nutzung von Künstlicher Intelligenz sollte sein, dass jeder von uns in sich hineinschaut und darüber nachdenkt, welche Regeln gelten sollten, wenn man Künstliche Intelligenz entwickelt und einsetzt. Das bedeutet: der ethische Umgang damit, die Grenzen, die man ihr setzt, die Schutzmaßnahmen. Es muss immer einen Knopf geben, mit dem man etwas stoppen kann, das vom vorgesehenen Weg abkommt. Man darf nicht vergessen: Als Werkzeug kann Künstliche Intelligenz auch von Menschen genutzt werden, die Terrorakte begehen wollen, oder von solchen, die die Stimmung in einem Land manipulieren möchten. Es ist ein Werkzeug. Ein Messer kann man in der Küche zum Kochen benutzen oder auf dem Schlachtfeld, um jemanden zu töten. Deshalb spreche ich vom Not-Aus-Knopf, von Schutzmechanismen, von Sicherheitsmaßnahmen für die Art und Weise, wie Künstliche Intelligenz genutzt und entwickelt wird – und natürlich vom ethischen Aspekt, den man nicht allen aufzwingen kann, die Zugang, Möglichkeiten und das Wissen haben, um KI-Anwendungen zu entwickeln. Aber auf der Grundlage eines Ethikkodex kann man ein Framework schaffen, einen Rahmen, in dem sich die Entwicklung und selbstverständlich auch die Ergebnisse besser verfolgen lassen.“
Ein weiterer Aspekt ist die Verantwortung: Wer haftet für eine Entscheidung, die ein Algorithmus trifft und die sich als falsch erweist? Der Programmierer? Das Unternehmen? Der Nutzer? Im Zweifelsfall: niemand? Im Gegensatz zum Menschen können Algorithmen nicht moralisch zur Rechenschaft gezogen werden. Sie haben kein Bewusstsein, keine Absicht, keine Empathie – sie führen lediglich aus, was ihnen vorgegeben wird. Und die Risiken wachsen mit der immer breiteren Nutzung Künstlicher Intelligenz.
Studien aus dem Jahr 2024 zufolge nutzten zwei Jahre nach dem Start von ChatGPT vier Prozent der Weltbevölkerung diese Form Künstlicher Intelligenz. In Rumänien verwendet laut einer 2025 vom Unternehmen Reveal Marketing Research durchgeführten Studie fast die Hälfte der Bevölkerung Künstliche Intelligenz in ihren täglichen Aktivitäten.