Unfallermittler: Tödlicher Unfall durch Teslas Autopilot
Die Autopilot-Software von Tesla ist nicht fehlerfrei
Foto: picture alliance / dpa
Zum tödlichen Crash eines vom Computer gesteuerten Tesla-Elektroautos im vergangenen Jahr haben nach Einschätzung amerikanischer Unfallermittler zu lasche Sicherheitsvorkehrungen der Software beigetragen. Teslas Fahrassistenz-System mit der Bezeichnung Autopilot hätte nicht zulassen dürfen, dass der Fahrer es nicht so nutzt wie vom Hersteller vorgeschrieben, erklärte die Untersuchungsbehörde NTSB in einer entsprechenden Mitteilung.
Bei dem Unfall war Anfang Mai 2016 ein 40-Jähriger ums Leben gekommen, als sein von Teslas Autopilot gesteuertes Auto Tesla Model S unter einen Lastwagen-Anhänger raste, der die Straße querte. Der Lkw-Fahrer habe ihm die Vorfahrt genommen, befanden die NTSB-Ermittler. Zugleich habe sich der Tesla-Fahrer zu sehr auf den Fahrassistenten verlassen.
Das Autopilot-System habe zwar wie vom Hersteller beschrieben funktioniert - sei aber für diese Situation nicht konzipiert gewesen. Zugleich habe es zugelassen, dass der Fahrer nicht auf den Verkehr geachtet habe, obwohl Tesla grundsätzlich vorschreibt, dass beim Autopilot-Einsatz der Mensch stets den Überblick behalten müsse.
Menschliches Versagen und begrenzte Software
Die Autopilot-Software von Tesla ist nicht fehlerfrei
Foto: picture alliance / dpa
Laut einem ersten NTSB-Bericht hatte der Tesla-Fahrer mehrere entsprechende Warnhinweise der Software ignoriert. Tesla verschärfte nach dem Unfall die Sicherheitsvorkehrungen und machte es unmöglich, die Hände für einen längeren Zeitraum vom Lenkrad zu nehmen. Der Konzern hatte stets betont, dass der Autopilot-Assistent einen Tesla nicht zum selbstfahrenden Auto mache. Fahrer hatten die Kontrolle jedoch immer wieder dem System überlassen, wie YouTube-Videos belegten.
Mittlerweile hat Tesla die zweite Generation seiner Autopilot-Software Anfang des Jahres vorgestellt und größtenteils auch schon als Update verteilt. 2016 empfahl das Kraftfahrtbundesamt unter anderem, das Model S wegen der Autopilot-Software zu verbieten. Damals kam die Software nicht mit den Anforderungen auf deutschen Straßen zurecht, wie gelbe Fahrbahnmarkierungen bei Baustellen oder der Einsatz der Kameras während Überholmanövern bei hohen Geschwindigkeiten. Für letzteres war die Voraussicht der Kameras mit knapp 40 Meter viel zu gering.
Die NTSB (National Transportation Safety Board) untersucht neben Flugzeugabstürzen auch relevante Unfälle im gesamten Transportwesen der USA und formuliert Empfehlungen auf dieser Basis. Dazu gehört in diesem Fall unter anderem die Entwicklung von Systemen, die besser die Aufmerksamkeit des Fahrers im Blick behalten. Außerdem sollten Daten zu Verkehrsereignissen in standardisierten Formaten gespeichert werden, hieß es.
Lesen Sie in einem weiteren Artikel lesen Sie, warum Elon Musk uneingeschränkter KI nicht über den Weg traut.