„Der Schutz von Menschen hat Vorrang vor allen anderen Nützlichkeitserwägungen” – so lautet eine Hauptregel der von der Bundesregierung eingesetzten Ethik-Kommission „Automatisiertes und Vernetztes Fahren”. Die automatisierte und vernetzte Technik soll Unfälle so gut wie möglich vermeiden, kritische Situationen also erst gar nicht entstehen lassen.
Wieviel Mensch steckt in KI? Ein Kommentar von Prof. Dr. Oliver Mayer.
Wie aber verhält es sich in einer sogenannten Dilemma-Situation, wenn also ein automatisiertes Fahrzeug vor der „Entscheidung” steht, eines von zwei nicht abwägungsfähigen Übeln verwirklichen zu müssen? Wen soll KI in einer Konfliktsituation primär schützen: die Insassen des Fahrzeugs oder externe Verkehrsteilnehmer?
Was passiert gar, wenn KI-Systeme intelligenter werden als der Mensch und über eigene Motive verfügen? „Dann würden sie vermutlich Entscheidungen treffen, die ihresgleichen begünstigen und eventuell dem Menschen schaden” meint der Informatiker Prof. Dr. Fred Hamker, der an der TU Chemnitz die Funktionsweise des Gehirns erforscht, mit dem Ziel, neuartige, intelligente, kognitive Systeme zu entwickeln. In solch einem Szenario sieht der Wissenschaftler zurecht eine Gefahr. Bis das vollautomatisierte Fahren in Großserie geht, sind noch einige spannende Fragen zu beantworten!