Aber ist das im Einzelfall auch gerecht oder wenigstens angemessen? Genügt das Ergebnis einem Mindestmaß an Moral? Wenn nicht, was wäre die Alternative? Wie bisher der Mensch mit all seinem Unvermögen. Er reagiert instinktiv. Er bremst und lenkt – im Normalfall ohne jede Kalkulation. Aber ist ein solches Verhalten nur deshalb besser, weil es menschlicher ist? Muss man einen zufälligen Verkehrstoten anders bewerten als einen wie auch immer ausgewählten? Und fühlt sich der Fahrer am Ende besser, weil statt seiner ein Chip gerichtet hat?
Ein internationales Forscherteam hat analysiert, welche Kriterien für solch ein Urteil am ehesten akzeptiert würden. Die Wissenschaftler haben dafür eine internationale Umfrage mit mehr als 40 Millionen Teilnehmern ausgewertet, berichtet das Fachblatt "Nature".
Das Ergebnis ist trotz der hohen Beteiligung nicht repräsentativ, macht aber Tendenzen deutlich. So werden im Schnitt eher Frauen gerettet als Männer, eher Kinder als Alte und eher Gruppen als Einzelne. Doch schon wer bei Rot über die Ampel geht, muss mit weniger Mitleid rechnen, und den Tod von Obdachlosen oder Dieben nehmen Probanden deutlich häufiger in Kauf als den von Ärzten oder Feuerwehrleuten. Spätestens hier zeigt sich, dass auch menschliche Entscheidungen keineswegs über jeden Zweifel erhaben sind.
Die deutsche Ethik-Kommission "Automatisiertes und vernetztes Fahren" hat 2017 in ihrem Bericht festgehalten, dass bei unausweichlichen Unfallsituationen "jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt" ist. Was auch sonst. Schließlich würde eine Abwägung über den Wert von Menschenleben schon gegen das Grundgesetz verstoßen. Irgendetwas aber müssen die Programmierer dem autonomen Auto ja eingeben.
Zu diesem Dilemma dürfte sich Herr Scheuer durchaus äußern . . .