Zusammenstoß

Editorial: Wer hat schuld, wenn's autonom kracht?

Autos sollen künftig ihrem Namen - Automobil - gerecht werden und autonom fahren: Doch was, wenn sie autonom ohne Zutun des Fahrers verunfallen? Wer ist dann schuld?
AAA
Teilen (3)

Nein, ich rede hier nicht vom 1. Mai, wenn sich traditionell die Autonomen ihren Straßenkampf mit der Polizei liefern. Sondern von autonomen Fahrzeugen, die voraussichtlich schon in wenigen Jahren in größerer Zahl auch auf Deutschlands Straßen unterwegs sein werden. Die Protagonisten erhoffen sich von computergesteuerten Autos zahlreiche Vorteile: Bequemeres Fahren, geringerer Verbrauch, weniger Staus dank gleichmäßigerem Vorankommen. Das Transport-Gewerbe hofft auf die Einsparung von Personalkosten. Car-Sharing-Anbieter träumen vom Auto, dass sich vom Kunden per App rufen lässt und am Zielort ebenso einfach wieder entlassen werden kann.

Doch was passiert, wenn ein autonomes Fahrzeug einen Unfall verursacht, wenn es aufgrund eines Software-Fehlers oder eines Fehlers am Fahrzeug mit einem anderen selbstfahrenden Auto oder Lkw, einem von einem Menschen gesteuerten Fahrzeug oder einem Fußgänger oder Radfahrer zusammenstößt? Wer haftet dann?

Nun, formaljuristisch wird wahrscheinlich erstmal derjenige, der an dem Tag dem Auto den Fahrauftrag erteilt hat, verantwortlich sein. Dieses gilt umso mehr, wenn der "Fahrer" weiterhin hinter dem Steuer sitzt, er also ein Assistenzsystem aktiviert hat, aber auch noch selber eingreifen kann. Jedoch bezahlt bei den meisten Unfällen nicht der Fahrer den Schaden, sondern dessen Haftpflichtversicherung. Und das wird bei selbstfahrenden Autos nicht anders sein. Eine Haftpflichtversicherung wird für diese zwingend vorgeschrieben sein. Damit ist der zivilrechtliche Schaden (Behandlungskosten, Verdienstausfall und Schmerzensgeld für die Unfallopfer, sowie Ersatz von Sachschäden an deren Fahrzeugen) erstmal geregelt.

Nur akzeptabel, wenn sicherer

Wer haftet, wenn autonome Fahrzeuge Unfälle verursachen? Wichtige Rechtsfragen sind noch offen. Wer haftet, wenn autonome Fahrzeuge Unfälle verursachen? Wichtige Rechtsfragen sind noch offen. Von der Schadensentwicklung dieser Haftpflicht-Policen für selbstfahrende Autos wird dann deren Schicksal insgesamt abhängen. Denn sollte sich zeigen, dass sie überdurchschnittlich oft Unfälle verursachen, dürfte die Zulassung dieser Fahrzeuge ganz schnell wieder annulliert werden. Menschlichen Fahrern verzeiht man Fehler nämlich eher als einer Maschine, selbst dann, wenn die Maschine von Menschen programmiert wurde.

Nun gibt es gute Gründe für die Annahme, dass autonome Fahrzeuge sogar deutlich sicherer sein werden als von Menschen gesteuerte. Ein Mensch hat zwei Augen, um andere Verkehrsteilnehmer wahrzunehmen. Das reicht für das sichere Führen eines Autos nicht aus. Aus diesem Grund hat jedes Fahrzeug mindestens zwei Spiegel, doch auch mit diesen ist mitnichten ein 360°-Rundumblick um das Auto möglich. Im "toten Winkel" übersehene andere Verkehrsteilnehmer sind folglich eine häufige Unfallursache, beispielsweise beim Spurwechsel und beim Abbiegen.

Ein Roboter-Auto kann hingegen leicht mit so vielen Kameras ausgerüstet werden, dass es keinen toten Winkel mehr gibt. Ergänzend können Radar- und/oder Ultraschall-Sensoren eingesetzt werden, um auf einem zweiten, unabhängigen Weg zu prüfen, ob die Strecke wirklich frei ist. Zudem können die Kameras und weiteren Sensoren über die komplette Außenhaut des Autos verteilt werden, wo sie viel näher am Geschehen sitzen als der Fahrer im geschützten Innenraum. Kameras, die ganz vorne, direkt über den Scheinwerfern eingebaut sind, "sehen" ein Kind, das am Straßenrand zwischen zwei parkenden Autos hervor gelaufen kommt, viel früher als der Fahrer im geschützten Innenraum. Entsprechend schneller kann ein autonomes Fahrzeug bereits eine Vollbremsung und/oder ein Ausweichmanöver einleiten - und somit das Leben des Kindes retten.

Sicherheit gegen Komfort

Wenn ausreichend viele Sensoren und Prozessoren verbaut werden, und die Steuersoftware gut geschrieben ist, wird ein autonomes Fahrzeug daher erheblich sicherer sein als ein menschlich gesteuertes. Andererseits kann zu viel Sicherheit auch zur Last werden: Wenn ein autonomes Fahrzeug alle fünf Minuten wegen einer Maus, die im Gebüsch am Straßenrand raschelt, eine Vollbremsung ausführt, werden die Fahrgäste entnervt die Automatik abschalten. Selbst, wenn dadurch die Unfallgefahr drastisch steigt.

Das führt zu der paradoxen Situation, dass es der Verkehrssicherheit auf deutschen Straßen insgesamt sogar zugute kommen könnte, wenn zumindest anfangs die Sicherheit der selbstfahrenden Fahrzeuge nicht zu hoch ist. Denn je seltener die Sicherheitssysteme eine Panikbremsung auslösen und je besser sie im Verkehr mit schwimmen, also durchaus ein paar Kilometer pro Stunde schneller fahren als erlaubt, wenn alle anderen es auch tun, desto besser werden sie akzeptiert werden - und dadurch insgesamt die Sicherheit erhöhen.

Ein typisches Beispiel für die Kompromisse, die eingegangen werden müssen, lieferte der erste von einem Google-Auto verschuldete Unfall: Dieses musste vor einem Hindernis die Spur wechseln - und kollidierte dann mit einem von hinten kommenden Bus, den es geschnitten hatte. Hätte es sich bei dem hinteren Fahrzeug um einen zögerlich fahrenden Kleinwagen und nicht um einen Nahverkehrsbus gehandelt, hätte dieser das Google-Auto wahrscheinlich reingelassen und es wäre nichts passiert. Doch unterschied die Software nicht zwischen den beiden Fahrzeugtypen. Zudem: Dass das Google-Auto dieses Manöver überhaupt wagte, hing damit zusammen, dass das Fahrverhalten der Google-Autos vorher als "zu zögerlich" beschrieben worden war.

Umweltschutz gegen Betriebskosten

Nun kam durch den Abgasskandal jüngst ans Tageslicht, dass Automobilkonzerne die (Motor-)Steuerung ihrer Fahrzeuge mitnichten auf optimalen Gesundheitsschutz auslegen. Schließlich bewirken die von Volkswagen, Opel und wahrscheinlich noch weiteren Herstellern verbauten Abschalteinrichtungen für die Diesel-Abgasereinigung, dass mehr Schadstoffe ausgestoßen werden als nötig. Dadurch werden die Atemwege der Fahrer der hinterfahrenden Autos und aller weiteren Verkehrsteilnehmer (Fußgänger, Radfahrer) unnötig gereizt. Dafür sparen die Fahrer beim Unterhalt ihrer Diesel-Fahrzeuge, weil seltener AdBlue nachgefüllt werden muss.

Zu wünschen ist, dass vergleichbare Abschaltalgorithmen nicht auch Eingang in die Steuersoftware der autonomen Fahrzeuge finden. So nach dem Prinzip: Erkennt das Fahrzeug eine zulassungsrelevante Prüfsituation, schaltet es auf maximale Sicherheit und vollführt bei jeder Attrappe eines Fußgängers, der sich auf die Straße zubewegen könnte, sofort eine Vollbremsung. Im Regelbetrieb wird dann von der Software zugunsten eines höheren Fahrkomforts wieder auf ein niedrigeres - und damit zu laxes - Sicherheitsniveau zurückgeschaltet.

Um Schummelsoftware im Bereich der Fahrzeugsteuerung zu verhindern, sind daher zwei Maßnahmen erforderlich: Die Politik darf beim Sicherheits-Anforderungskatalog nicht übertreiben, sondern sollte für autonome Fahrzeuge in etwa dasselbe Sicherheitsniveau fordern, wie es sehr erfahrene Fahrer in herkömmlichen Fahrern erreichen. Zugleich sind sehr strenge Maßstäbe an die Überprüfung der autonomen Fahrzeuge im Rahmen der Zulassung zu stellen. Insbesondere muss die Software von mehreren geeigneten, unabhängigen Stellen einer umfangreichen Revision unterzogen werden. Fallen dabei Algorithmen auf, die mit dem Ziel des sicheren Fahrens unvereinbar sind, muss die Zulassung verweigert werden.

Wohin ausweichen?

Als Argument gegen autonome Fahrzeuge wird auch immer wieder angebracht, dass die Software im Falle eines unvermeidbaren Unfalls vor unlösbaren Entscheidungen stehen würde. Wenn im Fall des bereits genannten, plötzlich auf die Straße rennenden Kinds der Bremsweg nicht mehr reicht, was soll das autonome Fahrzeug dann tun? Geradeaus weiterfahren, mit möglicherweise tödlichen Folgen für das Kind? Oder nach links ausweichen, wo sich ein anderes Fahrzeug befindet, das möglicherweise ebenfalls nicht mehr rechtzeitig bremsen kann, wo dann aber aufgrund der aktuellen Geschwindigkeiten "nur" ein Blechschaden zu erwarten ist? Und was soll die Software machen, wenn sie erkennt, dass der Fahrer in dem Fahrzeug, das beim Ausweichen gerammt würde, nicht angeschnallt ist?

"Wenn Software über Leben und Tod entscheidet" titelt folglich Zeit online über die schwierigen Abwägungen bei der Unfallfrage. Nur: Die Steuersoftware der autonomen Fahrzeuge ist schon genug damit gefordert, das Auto überhaupt im Verkehr zu steuern. Zu komplexen Abwägungen bei plötzlich auftretenden Gefahren fehlt ihr - wie einem menschlichen Fahrer auch - schlicht und einfach die Zeit. Von daher wird sie im Zweifelsfall sehr ähnlich reagieren wie ein menschlicher Fahrer: Wenn es gefahrenfrei möglich ist, wird sie ausweichen. Sonst wird sie einfach mit dem Maximum dessen bremsen, was möglich ist.

Einen Unterschied gibt es dennoch: Beim Ausweichen wird die Automatik häufiger als menschliche Fahrer gegen die Richtung des Hindernisses ausweichen: Kommt an einer Kreuzung beispielsweise von rechts ein Auto angeschossen, wird die Software in vielen Fällen berechnen, dass sie durch ein Ausweichen nach rechts sicher hinter dem Fahrzeug vorbei fahren kann. Der menschliche Instinkt ist in dieser Situation hingegen, nach links auszuweichen - selbst dann, wenn dieses im Einzelfall sogar überhaupt erst zum Unfall führt. Auch hier wird die Software also helfen, künftig Unfälle zu vermeiden oder zumindest glimpflicher ablaufen zu lassen.

Teilen (3)

Weitere Editorials