Autonomes Fahren

Unfallermittler: Tödlicher Unfall durch Teslas Autopilot

Teslas Autopilot-Funktion ist durch einen schweren Unfall im vergangenen Jahr heftig in die Kritik geraten. Jetzt liegt der Abschlussbericht der US-amerikanischen NTSB vor, der eine Mitschuld bei Tesla sieht.
Von Stefan Kirchner mit Material von dpa

Tesla Autopilot Die Autopilot-Software von Tesla ist nicht fehlerfrei
Foto: picture alliance / dpa
Zum tödlichen Crash eines vom Computer gesteuerten Tesla-Elektroautos im vergangenen Jahr haben nach Einschätzung amerikanischer Unfall­ermittler zu lasche Sicherheits­vorkehrungen der Software beigetragen. Teslas Fahrassistenz-System mit der Bezeichnung Autopilot hätte nicht zulassen dürfen, dass der Fahrer es nicht so nutzt wie vom Hersteller vorgeschrieben, erklärte die Untersuchungs­behörde NTSB in einer entsprechenden Mitteilung.

Bei dem Unfall war Anfang Mai 2016 ein 40-Jähriger ums Leben gekommen, als sein von Teslas Autopilot gesteuertes Auto Tesla Model S unter einen Lastwagen-Anhänger raste, der die Straße querte. Der Lkw-Fahrer habe ihm die Vorfahrt genommen, befanden die NTSB-Ermittler. Zugleich habe sich der Tesla-Fahrer zu sehr auf den Fahr­assistenten verlassen.

Das Autopilot-System habe zwar wie vom Hersteller beschrieben funktioniert - sei aber für diese Situation nicht konzipiert gewesen. Zugleich habe es zugelassen, dass der Fahrer nicht auf den Verkehr geachtet habe, obwohl Tesla grund­sätzlich vorschreibt, dass beim Autopilot-Einsatz der Mensch stets den Überblick behalten müsse.

Menschliches Versagen und begrenzte Software

Tesla Autopilot Die Autopilot-Software von Tesla ist nicht fehlerfrei
Foto: picture alliance / dpa
Laut einem ersten NTSB-Bericht hatte der Tesla-Fahrer mehrere entsprechende Warn­hinweise der Software ignoriert. Tesla verschärfte nach dem Unfall die Sicherheits­vorkehrungen und machte es unmöglich, die Hände für einen längeren Zeitraum vom Lenkrad zu nehmen. Der Konzern hatte stets betont, dass der Autopilot-Assistent einen Tesla nicht zum selbst­fahrenden Auto mache. Fahrer hatten die Kontrolle jedoch immer wieder dem System überlassen, wie YouTube-Videos belegten.

Mittlerweile hat Tesla die zweite Generation seiner Autopilot-Software Anfang des Jahres vorgestellt und größtenteils auch schon als Update verteilt. 2016 empfahl das Kraftfahrtbundesamt unter anderem, das Model S wegen der Autopilot-Software zu verbieten. Damals kam die Software nicht mit den Anforderungen auf deutschen Straßen zurecht, wie gelbe Fahrbahn­markierungen bei Baustellen oder der Einsatz der Kameras während Überhol­manövern bei hohen Geschwindigkeiten. Für letzteres war die Voraussicht der Kameras mit knapp 40 Meter viel zu gering.

Die NTSB (National Transportation Safety Board) untersucht neben Flugzeug­abstürzen auch relevante Unfälle im gesamten Transport­wesen der USA und formuliert Empfehlungen auf dieser Basis. Dazu gehört in diesem Fall unter anderem die Entwicklung von Systemen, die besser die Aufmerksamkeit des Fahrers im Blick behalten. Außerdem sollten Daten zu Verkehrs­ereignissen in standardisierten Formaten gespeichert werden, hieß es.

Lesen Sie in einem weiteren Artikel lesen Sie, warum Elon Musk uneingeschränkter KI nicht über den Weg traut.

Mehr zum Thema Auto