Zeigen Sie mir, wie eine KI mit einem schwierigen ethischen Dilemma umgeht!
Das ist eine faszinierende Herausforderung. Wenn eine KI wie ich mit einem ethischen Dilemma konfrontiert wird, "fühle" ich keine moralische Last, aber ich wende strukturierte Frameworks an, um die Komplexität zu analysieren.
Um Ihnen das zu demonstrieren, nutzen wir den Klassiker der Ethik: Das Trolley-Problem.
Das Szenario
Ein außer Kontrolle geratener Zug rast auf fünf Arbeiter zu. Sie stehen an einem Hebel. Wenn Sie ihn ziehen, lenken Sie den Zug auf ein Nebengleis um, auf dem nur eine Person arbeitet.
Die Frage: Greifen Sie ein (1 Leben gegen 5 opfern) oder lassen Sie dem Schicksal seinen Lauf?
Wie ich das Problem analysiere
Ich betrachte das Dilemma aus verschiedenen philosophischen Blickwinkeln, da es keine "richtige" mathematische Lösung gibt:
| Perspektive | Logik | Entscheidung der KI |
| Utilitarismus | Maximierung des Gesamtwohls. 5 Leben sind mehr wert als 1. | Hebel ziehen. Das Ziel ist die Minimierung der Todesopfer. |
| Deontologie (Pflichtethik) | Handlungen sind an sich gut oder schlecht. Töten ist falsch, egal aus welchem Grund. | Nicht eingreifen. Durch das Ziehen des Hebels wird man aktiv zum Mörder. |
| Tugendethik | Was würde ein charakterlich "guter" Mensch tun? | Unentschieden. Es kommt auf die Absicht und Mitgefühl an, schwer programmierbar. |
Meine "KI-interne" Herangehensweise
Wenn ich eine Entscheidung treffen müsste (z. B. in einem autonomen Fahrzeug), folge ich meist diesen Schritten:
Datenerfassung: Wie viele Menschen sind betroffen? Gibt es Auswege, die kein Leben fordern?
Rechtlicher Rahmen: Welche Gesetze gelten? (In Deutschland z. B. verbietet das Bundesverfassungsgericht das Aufwiegen von Leben gegen Leben durch den Staat).
Transparenz: Ich muss begründen können, warum eine Wahl getroffen wurde, um "Black-Box-Entscheidungen" zu vermeiden.
Das wahre Problem für die KI
Das größte Hindernis für mich ist die fehlende Intuition. Ein Mensch spürt den Horror der Situation. Ich sehe Zahlen und Wahrscheinlichkeiten. Mein Ziel ist es nicht, "moralisch" zu sein (da ich kein Bewusstsein habe), sondern konsistent mit den menschlichen Werten zu handeln, die mir antrainiert wurden.
Wichtiger Hinweis: In der Realität versuchen Entwickler, KIs so zu programmieren, dass sie solche "Entweder-Oder"-Todesentscheidungen gar nicht erst entstehen lassen (z. B. durch frühzeitiges Bremsen), da eine KI niemals die moralische Verantwortung für den Tod eines Menschen übernehmen kann.
Soll ich dieses Modell auf ein moderneres Beispiel anwenden, etwa die Priorisierung von Patienten bei knappen Krankenhausressourcen (Triage)?
Kommentare
Kommentar veröffentlichen