Linksabbiegen, Leben, Tod
Worüber sollen Autos entscheiden dürfen?
Ein Auto fährt eine Straße entlang, es muss einem Hindernis ausweichen, links eine Frau mit Kinderwagen, rechts ein Rentner. Wie würden Sie entscheiden? Mit diesem Szenario konfrontieren Automanager ihr Gegenüber gern, wenn es darum geht, welche Entscheidungen autonom agierende Autos einmal treffen dürfen sollen.
Genau mit dieser Frage beschäftigt sich auch eine von Bundesverkehrsminister Alexander Dobrindt (CSU) eingesetzte Ethik-Kommission für computergesteuerte Autos, die an diesem Freitag ihre Arbeit aufnimmt. Das Expertengremium unter Vorsitz des früheren Bundesverfassungsrichters Udo Di Fabio soll Leitlinien für die Programmierung automatisierter Fahrsysteme entwickeln. Dabei soll nach Worten Dobrindts unter anderem gelten, dass ein Sachschaden einem Personenschaden immer vorzuziehen ist.
Die Bundesregierung feilt gerade an einem Rechtsrahmen für Roboterautos. Nach dem Plan von Verkehrsminister Dobrindt sollen sich Autofahrer abwenden können, um beispielsweise Zeitung zu lesen, E-Mails zu schreiben oder Filme anzusehen. Der Fahrer soll aber "wahrnehmungsbereit" sein und hat die Pflicht für ein "Mindestmaß an Aufmerksamkeit". Auch Haftungsfragen müssen geklärt werden, wenn das Auto die Kontrolle übernimmt.
Welche Entscheidungen das Auto treffen darf, ist dagegen noch weitgehend ungeklärt. Während ein Fahrer in Gefahrensituationen spontan reagiert, müssen die Grundlagen für solche Entscheidungen in einem autonomen Fahrzeug durch Programmierer gelegt werden. "Das Dilemma wird kommen", sagte Daimler-Entwicklungsvorstand Thomas Weber am Rande des Pariser Autosalons. "Deshalb ist es gut, sich möglichst früh mit diesen Fragen zu beschäftigen."
Rechtsexperten gehen davon aus, dass nach der bisherigen Auffassung Leben nicht gegen Leben aufgewogen werden kann. Sie verweisen auf ein Urteil des Bundesverfassungsgerichts: Es traf diese Entscheidung Anfang des Jahres, als es um den Abschuss von Flugzeugen ging, die von Terroristen für einen Anschlag gekapert werden. Ein Roboterauto dürfte demnach nicht so programmiert werden, dass es beispielsweise eine Frau mit einem Kinderwagen schont und stattdessen beim Ausweichen einen älteren Menschen trifft. Eine andere Frage dürfte sein, ob der Computer unmoralisch oder gar rechtswidrig handeln darf, um beispielsweise Hindernissen auszuweichen.
Die Hersteller selbst sind bei der Frage, wer über Leben und Tod entscheiden darf, noch gemischter Meinung. Einig ist man sich nur in der Frage, dass autonome Systeme Unfälle vermeiden können. Der Autobauer Daimler hat im vergangenen Jahr versucht, in einem Weißbuch Antworten auf diese Fragen zu finden - eindeutige Aussagen blieben aber aus. "Ich bin aber sicher, dass wir Lösungen finden können", sagte Entwicklungsvorstand Weber.
BMW-Vertriebschef Ian Robertson schiebt das Problem auf die lange Bank: "Wir glauben, dass die Verantwortung des Fahrers noch für eine ganze Zeit die Grundlage ist - wenn nicht gar für noch länger", sagte Robertson in Paris. "Wir glauben auch, dass die Technologie für die nächsten Schritte momentan noch etwas unreif ist."
Unstrittig ist in der Branche allerdings, wer die Verantwortung für die Technologie übernimmt: Aus Sicht der Hersteller sei klar, dass das nicht an Zulieferer delegiert werden könne, sagte PSA-Entwicklungschef Gilles Le Borgne. "Und ich lade Sie ein, mit Valeo, Bosch, Conti etc. zu sprechen: Sie werden die Verantwortung für die Funktion nicht übernehmen. Sie wollen es nicht."
Für das autonome Fahren der dritten oder vierten Ebene - also wenn der Fahrer nach und nach komplett aus der Verantwortung genommen wird - müsse man zunächst die gesetzlichen Voraussetzungen ändern, so Le Borgne. "Und danach gibt es echte Fragen der Verlässlichkeit und der Sicherheit, die man angehen muss. Aber wir arbeiten daran." (dpa/ad)