„Ein Fahrer wird im Zweifelsfall zumeist dem Schutz des eigenen Lebens die höchste Priorität einräumen.“

Es ist ein Klassiker der modernen Moralphilosophie: Ein Zug rast auf einen voll besetzten anderen Zug zu. Ein Bahnarbeiter könnte die Kollision vermeiden, indem er eine Weiche umstellt. In diesem Fall erfasst der Zug aber eine Gruppe Gleisarbeiter. Wie soll der Mann handeln? Solche moralischen Dilemmata werden häufig in der Diskussion über das autonome Fahren herangezogen. Wie soll ein Computer in einer solchen Entweder-Oder-Situation entscheiden? Und wer trägt dann die Verantwortung für die Entscheidung?

Zugegeben, das sind ziemlich hypothetische Fragen. Wie oft kommt es schon vor, dass ein Autofahrer vor der fatalen Entscheidung steht, entweder ein Kind auf der Straße oder einen Rentner auf dem Gehweg zu überfahren. Doch wenn es um die Entscheidung geht, ob Autofahrer künftig die Kontrolle über ihr Fahrzeug einem Computer übergeben, sind solche Erwägungen durchaus relevant. Ein Fahrer wird im Zweifelsfall zumeist dem Schutz des eigenen Lebens die höchste Priorität einräumen – unabhängig von allen anderen ethischen Erwägungen. Die gestern vorgestellten Leitlinien der Ethik-Kommission zum autonomen Fahren hingegen lehnen eine Bewertung der potenziellen Opfer eines Unfalls konsequent ab. Doch auf welche Akzeptanz wird ein Auto stoßen, das am Ende moralischer ist als seine Insassen, weil es unparteiischen Regeln folgt? Will ich ein unparteiisches Auto oder eines, das meinen Schutz an die erste Stelle setzt?

„Das automatisierte und vernetzte Fahren ist ethisch geboten, wenn die Systeme weniger Unfälle verursachen als menschliche Fahrer“, heißt es in der Pressemeldung des Bundesverkehrsministeriums zum Bericht der Kommission. Dieser Sicherheitsgewinn ist schon jetzt abzusehen. Es könnte womöglich bald ethisch geboten sein, autonomes Fahren nicht nur zu erlauben, sondern vorzuschreiben. Das nächste Dilemma ist programmiert.