Autonomes Fahren Der Entwicklungsaufwand bei selbstfahrenden Autos ist riesig

In Kalifornien fuhr jüngst ein Tesla auf ein stehendes Feuerwehrauto. Laut Fahrer war der Autopilot Schuld.

(Foto: Culver City Firefighters)

Ein erneuter Unfall mit Teslas Autopiloten zeigt: Automatisiertes Fahren funktioniert längst nicht so gut wie erhofft. Kann es überhaupt so sicher werden wie von den Herstellern versprochen?

Von Joachim Becker

Freihändig fahren, bis der Arzt kommt: Mit Autobahntempo kracht ein Tesla Model S in ein stehendes Feuerwehrfahrzeug auf dem Seitenstreifen. Der Fahrer gibt an, dass der Autopilot eingeschaltet war. Lakonischer Kommentar von Tesla: Der Fahrer sei verantwortlich, es handele sich lediglich um ein Assistenzsystem. In einem ähnlichen Fall wurde Tesla tatsächlich von den US-Behörden entlastet: 2016 war ein Model S per Autopilot unter einen querenden Lkw gefahren. Blindes Vertrauen hatte der Fahrer damals mit seinem Leben bezahlt.

Tesla argumentiert, autonomes Fahren sei doppelt so sicher wie der durchschnittliche menschliche Fahrer. Statt Mensch und Technik gegeneinander auszuspielen, kommt es jedoch auf das intelligente Miteinander von beiden an. Daran ändern auch die gewohnt vollmundigen Versprechen von Tesla nichts. Zusätzlich zum Autopiloten für 6000 Euro gibt es dort für 3600 Euro das "volle Potenzial des autonomen Fahrens". "Ihre Aufgabe beschränkt sich dann auf das Vorgeben eines Zieles", kündigt Tesla an und verweist auf technische Superlative: Mit 40-mal mehr Rechenleistung als beim Autopiloten 1.0 können die Daten von acht Kameras plus Radar- und Ultraschallsensoren verarbeitet werden. Fragt sich nur, bis zu welchem Tempo dieser Chauffeur-Service funktioniert: Was passiert bei einem Systemfehler mit 120 km/h auf der linken Spur einer gut frequentierten Autobahn?

Der Mensch ist noch zu kindisch für autonomes Fahren

Unzählige Videos auf Youtube zeigen: Tesla-Fahrer nutzen den Autopiloten, um damit jede Menge Unsinn anzustellen. Schuld ist auch das Unternehmen selbst. Kommentar von Felix Reek mehr ...

Audis Elektronik-Chef Thomas Müller kennt das Problem: "Bis zu 60 km/h kann unser Staupilot kontrolliert abbremsen und mit Warnblinklicht auf der Straße stehen bleiben. Bei höherer Geschwindigkeit auf der linken Autobahnspur würde das so einfach nicht mehr funktionieren." Im Audi A8 nutzen die Ingolstädter erstmalig ein Lidar in der Frontschürze. Der neue Sensortyp dient zur Absicherung bei widersprüchlichen Radar- und Kameradaten. Weil sich Tesla dieses hochgenaue optische Messsystem spart, kommt es immer wieder zu krassen Fehlinterpretationen des Autopiloten. Bei dem tödlichen Unfall 2016 hatten die Radarsensoren des Model S zwar ein Hindernis auf dem Highway erkannt. Doch die Frontkamera hielt den querenden weißen Lkw vor dem hellem Hintergrund für eine Brücke. Warum sich das "statische" Objekt von rechts nach links bewegte, konnte der überforderte Autopilot nicht verstehen.

Sind wir mit Karacho unterwegs in eine technische und rechtliche Grauzone? Müssen erst noch weitere Unfälle passieren und die Gerichte alle notwendigen technischen Voraussetzungen für (hoch) automatisiertes Fahren klären? Im vergangenen Jahr peitschte der damalige Bundesverkehrsminister Alexander Dobrindt (CSU) ein entsprechendes Gesetz durch den Bundestag. Für eine umfassende technische Diskussion fehlte den Abgeordneten die Zeit und das Wissen. Nun wirft der unscharfe Rechtsrahmen mehr Fragen auf, als er beantwortet. Deshalb ist das Gerede vom vollautonomen Fahren (Level 4) im Gesetzestext mit äußerster Vorsicht zu genießen.

Sichere Autopiloten werden viel teurer als prognostiziert

Klar ist nur: Bei einem Level-3-System muss der Fahrer als Rückfallebene weiter zur Verfügung stehen. Allerdings braucht er für gewöhnlich erst nach einer Vorwarnzeit von rund zehn Sekunden einzugreifen. Wie im Flugzeug werden alle Fahrzeugdaten von einer Blackbox kontinuierlich aufgezeichnet. Wahrscheinlich muss auch eine Innenraumkamera dokumentieren, ob der Fahrer übernahmebereit bleibt. Denn die genannten Unfälle zeigen, wie schwierig das Zusammenspiel von gelangweiltem Mensch und überforderter Maschine ist.

Den Behörden wird zunehmend klar, dass die Tücke im Detail liegt. Deshalb haben sie es nicht besonders eilig, Serienfahrzeuge mit dem nächsthöheren Automatisierungsgrad auf die Straße zu schicken. Die Level-Angaben sind viel zu ungenau, um alle Verkehrssituationen abzudecken. Unklar ist zudem, ob Sicherheitsanforderungen wie in der Luftfahrt gelten sollen. Im Gesetz werden die Autopiloten in Flugzeugen als Vorbild genannt. Demzufolge wären redundante Brems- und Lenksystemen ebenso notwendig wie ein doppeltes Bordnetz zur Spannungsversorgung und eine parallele Rechnerarchitektur für die Fahrstrategie. Sicherheit auf hohem Niveau macht Autopiloten viel teurer, als Tesla seinen Kunden weismachen will.

Nicht weniger sicherheitskritisch sind die Software-Standards. Bisher wurde der Programm-Code vom Kraftfahrtbundesamt nicht separat erfasst, geschweige denn getestet. Das hat sich seit dem Diesel-Abgas-Skandal geändert - und seit Teslas Autopiloten. Verärgerte Vertreter des Bundesverkehrsministeriums machen klar, dass sie sich nicht noch einmal von den Kaliforniern vorführen lassen. Tesla hatte das Model S einmalig zur Typprüfung in den Niederlanden vorgestellt - und den Funktionsumfang danach ohne Absprache mit den Behörden ausgedehnt. Jetzt wird europaweit über eine sukzessive Typprüfung über die gesamte Lebenszeit der Fahrzeuge nachgedacht. Parallel muss die Straßenverkehrsordnung angepasst werden. Bis Level-3-Systeme zulässig sind, dauert es also mindestens noch ein Jahr.