Editorial: Blind durch die Nacht
Je mehr Details über den Unfall eines autonom fahrenden Uber-Autos am Sonntag Abend letzter Woche (Ortszeit) in Tempe, Arizona, ans Licht kommen, desto mehr fragt man sich, wie das passieren konnte. Denn eigentlich ist einer der Treiber hinter autonomen Autos, dass sie sicherer sein sollten als von Menschen gesteuerte Fahrzeuge. Denn Computer können schneller reagieren als Menschen, sie können zusätzliche Sensordaten auswerten und damit viel besser "sehen" als der Mensch, und sie sind anders als Menschen auch nicht einfach mal abgelenkt und unaufmerksam. Ebenso halten autonom fahrende Fahrzeuge die Verkehrsregeln strikt ein und erzeugen keine vermeidbaren Gefahren.
So weit die Theorie.
Der Unfall vom letzten Sonntag, bei dem ein Uber-Fahrzeug ungebremst eine die Straße querende Fußgängerin angefahren hat, die wenig später ihren Verletzungen erlag, zeigt, dass davon zumindest bei den von Uber derzeit getesteten Fahrzeugen nichts, aber wirklich nichts stimmt. Denn die veröffentlichte Kameraaufzeichnung beweist:
- Die meisten Berufskraftfahrer hätten schneller reagiert
- Das Kamerasystem ist offensichtlich nachtblind
- Das von Uber parallel zur Kamera installierte Lidar-System muss komplett versagt haben
- Die Software hat die Gefahr offensichtlich übersehen, und damit genauso verheerend reagiert (nämlich nicht), wie ein abgelenkter Mensch
- Das Auto fuhr mit deutlich überhöhter, den örtlichen Verhältnissen und eigenen Fähigkeiten unangepasster Geschwindigkeit
Schaden an einem selbstfahrenden Fahrzeug von Uber nach der Kollission mit einer Fußgängerin
National Transport Safety Board, USA
Zunächst aber doch zumindest eine Zahl zur Einordnung und zum
Vergleich:
Diversen Medienangaben zufolge hat Uber bisher um die
5 Millionen Kilometer (3 Millionen Meilen) im
autonomen Modus zurückgelegt, und dabei nun einen Menschen getötet.
Zum Vergleich: Die Gesamtfahrleistung der in Deutschland zugelassen
Kraftfahrzeuge betrug vorletztes Jahr 726 Milliarden Kilometer,
die Zahl der Verkehrstoten 3214. Das entspricht einem Toten
pro 225 Millionen Kilometer, also ca. 45 mal weniger
als die Unfallstatistik von Uber. Zwar ist in den USA das Risiko,
im Straßenverkehr umzukommen, erheblich
höher als in Deutschland, aber schlussendlich sollen die autonomen
Autos auch hierzulande zugelassen werden, und deswegen vergleiche ich
mit den Zahlen hier.
Meine Hoffnung ist nun, dass der Uber-Unfall zumindest eine positive Funktion hat, nämlich, die staatlichen Zulassungsbehörden wachzurütteln. Deregulierung - wie sie in Arizona gilt, wo für Tests mit autonomen Fahrzeugen so gut wie keine Regeln gelten - hat ganz offensichtlich zur Folge, dass untaugliche und ungetestete Systeme auf die Straße gelassen werden.
Beim Dieselskandal haben wir alle gesehen, wie die Politik vor der Kfz-Hersteller-Lobby einknickt. Das darf beim Thema "selbstfahrende Autos" nicht erneut passieren.
Ich habe übrigens immer noch die früher in Editorials geäußerte Hoffnung, dass autonome Fahrzeuge den Straßenverkehr sicherer machen werden, nicht gefährlicher. Aber damit dieses von einer überwältigenden Mehrheit gewünschte Szenario, dass autonome Autos sicherer sind als menschliche Fahrer, auch eintritt, braucht es klare staatliche Regeln und stringente Zulassungstests. Insbesondere müssen vom Gesetzgeber:
- Maximal-Reaktionszeiten für Standard-Gefahrensituationen wie "Fußgänger auf der Straße", "Anderes Fahrzeug fährt bei rot über die Ampel", "Tiere auf der Straße", "Radfahrer stürzt", "Vorausfahrendes Fahrzeug bremst", "Martinshorn von rechts" usw. usf. vorgegeben werden. Die Einhaltung dieser Vorgaben muss in praxisnahen Tests auch bei unterschiedlichen Witterungsbedingungen (Tag, Nacht, Dämmerung mit Sonnenlicht von vorne oder hinten, klares Wetter, Regen, Sturm, Schneefall, Hitze, Laub auf der Straße etc.) überprüft werden.
- Nachweise verlangt werden, wie von den Herstellern sichergestellt wird, dass das autonome System nicht plötzlich ausfällt oder aufgrund einer Nichtigkeit in eine Endlosschleife gerät, daraufhin aber keine "Aufmerksamkeit" mehr für die Hauptaufgaben hat. Viele Nutzer kennen es vom Smartphone, dass hundertmal beim Klick auf die Kamera-App diese sofort öffnet, und beim 101ten mal das System hängt und es zwei quälende Sekunden dauert, bis man endlich ein Foto schießen darf. Einem autonomen Fahrzeug darf es hingegen nicht passieren, dass es 100 Fußgänger rechtzeitig erkennt und den 101ten überfährt, weil es zwei Sekunden Bedenkzeit benötigt.
- Protokolle und Schnittstellen geschaffen werden, mit denen autonome Fahrzeuge Problembereiche melden können und auch müssen, in denen es zu gefährlichen Situationen kommt, zum Beispiel, weil die Spurführung nicht "verstanden" wird und/oder immer wieder aus unerwarteter Richtung Verkehrsteilnehmer erscheinen und/oder die lokalen Verarbeitungskapazitäten temporär überlastet werden.
- Und nicht zuletzt verbindliche Software-Updates für mindestens fünf Jahre nach dem Kauf, besser zehn Jahre, festgeschrieben werden. Autonome Systeme, die keine Updates mehr erhalten, müssen automatisch stillgelegt oder manuell weitergefahren werden. Der garantierte Update-Zeitraum muss vom Hersteller vor dem Kauf klar und unmissverständlich kommuniziert werden, der Käufer muss den Erhalt dieser Kommunikation bestätigen, andernfalls hat er ein lebenslanges Rücktrittsrecht vom Kaufvertrag.