Fahrsysteme

Wo sind die Grenzen der selbst­fahrenden Autos?

Auch wenn Algorithmen Autos steuern, gibt es das Restrisiko eines Unfalls. Wie soll sich der Wagen dann verhalten? Eine Kommission präsentiert eine Ethik für die Maschine - und erkennt ihre Grenzen.
Von Rita Deutschbein mit Material von dpa

Zwischen Leben und Tod - Das Computer-Auto erhält Regeln Zwischen Leben und Tod - Das Computer-Auto erhält Regeln
Bild: dpa
Es schüttet nur so auf der A9 in Bayern, als der Professor ins Test-Auto steigt. Starkregen - sehr schwierige Fahrbedingungen. Als der Wagen ihm das Lenkrad entzieht und selbst steuert, ist Udo Di Fabio ein wenig dankbar. "Ich wollte das Lenkrad gar nicht zurück", beschreibt der Jurist seine erste Tour in einem automatisiert fahrenden Auto.

Zwischen Leben und Tod - Das Computer-Auto erhält Regeln Zwischen Leben und Tod - Das Computer-Auto erhält Regeln
Bild: dpa
Noch ist es ein Testwagen, doch in fünf Jahren stünden solche Autos beim Händler, ist Bundesverkehrsminister Alexander Dobrindt sicher. Der CSU-Politiker sieht den größten Mobilitätssprung der vergangenen 100 Jahre. Für den rechtlichen Rahmen soll seit dieser Woche ein neues Gesetz sorgen. Die ethischen Leitplanken hat Di Fabio mit einem guten Dutzend weiterer Experten formuliert. Ihr Bericht zeigt: Wenn Maschinen über Leben und Tod entscheiden sollen, sind ethische Fragen nur schwer zu beantworten.

Was heißt eigentlich automatisiertes Fahren?

Autonomes Fahren bedeutet, dass das Auto dem Fahrer einige, mehrere oder alle Aufgaben abnimmt. Es kann schon tote Winkel überwachen und helfen, die Spur zu halten oder die Parklücke zu treffen. Die Autobauer tüfteln an der nächsten Stufe, dem hochautomatisierten Fahren in bestimmten Situationen, etwa im Stau. Der Fahrer könnte zeitweise etwas anderes machen, beispielsweise Zeitung lesen etwa. Vor 2020 erwarten die Hersteller solche Autos aber nicht.

Andere Experten rechnen sogar damit, dass sich autonome Fahrzeuge sogar erst viel später durchsetzen werden. So heißt es in einer zum Wochenstart veröffentlichten Studie der Deutsche Bank Research [Link entfernt] , dass die von Computern gesteuerten Autos den kontinuierlich wachsenden Markt vermutlich nicht vor dem Jahr 2040 durchdrungen haben.

Nach den ersten, zum Teil noch eingeschränkten autonomen Fahrsystemen kämen die nächsten Stufen: Vollautomatisiertes Fahren in bestimmtem Umfeld, etwa im Stadtverkehr, und schließlich vollständig autonome Fahrzeuge - Autos, die keinen Fahrer brauchen. Sie könnten ihren Halter zur Arbeit bringen und dann zurück in die Garage fahren.

Was hält die Ethikkommission davon?

Anders als die Bürger, bei denen Meinungsforscher Skepsis ausmachen, steht die Ethikkommission dem Konzept der selbstfahrenden Autos grundsätzlich offen gegenüber. Aber: Nicht der wirtschaftliche Nutzen stehe im Vordergrund, sondern die Sicherheit, betont der frühere Verfassungsrichter Di Fabio als Vorsitzender. Automatisierte Systeme seien nur vertretbar, wenn sie die Sicherheit erhöhen - dann aber sei es sogar geboten, dass der Staat sie fördert.

"Ich bin überzeugt davon, dass wir in 20 Jahren keine 3000 Tote im Straßenverkehr mehr haben werden", sagt Di Fabio. Auch viele Versicherungen rechnen mit einem Rückgang der Unfälle durch autonome Fahrzeuge. Nur eine vollständige Vernetzung der Autos untereinander sei bedenklich, wenn totale Überwachung und Manipulation nicht ausgeschlossen seien.

Welche Grundsätze haben die Experten formuliert?

Fahrsysteme sind nicht in der Lage, Unfallfolgen wie wir Menschen einzuschätzen. Dennoch muss das richtige Verhalten eines selbstfahrenden Autos in einer Notsituation gewährleistet sein. Die Fahrsysteme müssen daher entsprechend der nun festgelegten ethische Leitlinien programmiert werden. Diese fassen unter anderem folgende Punkte ein:

  • Sach- und Tierschaden geht vor Personenschaden: Bei einem unvermeidlichen Unfall sollen Computerautos lieber eine Laterne oder ein Reh umfahren als einen Menschen.
  • Jeder Mensch ist gleichwertig: Lässt sich ein Zusammenstoß nicht vermeiden, dürfen mögliche Opfer nicht nach Alter, Geschlecht und anderen Merkmalen unterschieden werden. "Die alte Frau mit dem Rollator oder die Kindergruppe - wen muss man jetzt bevorzugt niederfahren? Ein solches Szenario ist ausgeschlossen", sagt Di Fabio.

Muss der Autobesitzer bei einem Unfall haften?

Wenn es nach der Kommission geht, muss der Fahrer bei einem Unfall nur haften, wenn er sein Fahrzeug selbst gesteuert hat. Sonst gelte: "Das Einziehen des Lenkrads ist das Signal: Jetzt übernimmt der Produzent und Betreiber die volle Haftung."

Mehrdeutig ist die Kommission aus Ingenieuren, Juristen, Autobauer- und Verbrauchervertretern sowie einem Weihbischof bei der Frage, ob das Auto bei einem drohenden Unfall mögliche Opfergruppen gegeneinander aufrechnen darf. Dies sei untersagt, schreiben die Verfasser - um anzuschließen: "Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein."

Entscheidungen Leben gegen Leben seien nicht programmierbar, heißt es an anderer Stelle. "Wir Menschen entscheiden sowas intuitiv", sagt Di Fabio. Herausforderungen sieht der Bericht auch beim Datenschutz.

Dobrindt sieht in den Leitlinien "Eckpfeiler für nationale und internationale Regelwerke" - doch faktisch sind die ethischen Regeln nur Empfehlungen. Zudem betreffen sie erst die übernächsten Stufen der Automatisierung, also vollautomatisierte und fahrerlose Autos. Sollte es sie eines Tages geben, können sich längst neue Fragen stellen.

"Noch hat die Technik Schwierigkeiten, auf der Autobahn eine Plastiktüte von einem Vogel zu unterscheiden", sagt Kommissionschef Di Fabio. Er sieht den Bericht als Diskussionsgrundlage. "Wir kommen nicht vom Berg Sinai mit fest stehenden normativen Geboten."

Noch sind selbstfahrende Autos ein Stück weit Zukunftsmusik. Viele Menschen sind der neuen Technologie gegenüber skeptisch. Dennoch haben autonome Fahrzeuge auch Vorteile, wie eine Studie gezeigt hat.

Mehr zum Thema Auto