Wirtschaft
Autonomes Fahren, mit dem F015 beispielsweise, ist heute noch reine Zukunftsmusik.
Autonomes Fahren, mit dem F015 beispielsweise, ist heute noch reine Zukunftsmusik.(Foto: picture alliance / dpa)

Technisch möglich, rechtlich unklar: Autonomes Fahren als finales Abenteuer?

Von Helmut Becker

Daimler-Chef Zetsche präsentiert den F015 und terminiert den Durchbruch für das autonome Fahren auf 2020. Auto- und Rechtsexperten schreien auf. Aus gutem Grund.

Nach Meinung einschlägiger Fachmedien arbeiten Autobauer und Zulieferer fieberhaft am autonomen Fahren. Das mag sein, aber Sinn ergibt das nicht. Zum einen scheint die Autoindustrie selbst zwischenzeitlich Angst vor der eigenen Courage zu bekommen. Zum anderen ist die technische Machbarkeit von sich selbst steuernden Automobilen im Alltagsverkehr nach einschlägigen Verkehrsschilder-Erkennungstests nicht nur höchst fraglich, sondern für den Fahrer sogar gefährlich. Führerscheinverluste wären dabei noch das geringste Übel. Fahren auf der Geisterbahn wäre einfacher, weil sicherer.

Vor Kurzem hat auf einer öffentlichen Veranstaltung in Berlin ein Vorstandsmitglied aus dem Hause Daimler, das sich bisher von allen Herstellern in Sachen autonomes Fahren mit der Zukunftsstudie F015 am weitesten aus dem Fenster gelehnt hat, plötzlich aus heiterem Himmel die in Stuttgart grassierende Euphorie erheblich gedämpft. So sieht Christine Hohmann-Dennhardt, frühere Richterin am Bundesverfassungsgericht und heute im Vorstand des Stuttgarter Autokonzerns für Recht und Integrität zuständig, beim Übergang vom heutigen selbstverantwortlichen hin zum autonomen oder automatisierten Fahren erhebliche rechtliche Bedenken.

Video

Aus gutem Grund. Denn selbst wenn autonomes Fahren technisch möglich ist - rechtlich ist so ziemlich alles unklar. So rechnet die Rechtsexpertin mit einem weiten Weg, um einen ethischen und gesetzlichen Rahmen für komplett automatisierte Autos zu schaffen: "Wir werden in drei bis fünf Jahren kein Regelwerk haben, das autonomes Fahren in Gänze erlaubt."

Ihr Chef, Dieter Zetsche, ist da völlig anderer Meinung. Er sieht den Durchbruch für bereits 2020. Nun ja, für Automanager, die ständig mit Dienstwagen und Fahrer quasi von Natur aus "autonom" unterwegs sind, ist das kein unrealistisches Szenario.

Abweichungen sind nicht erlaubt

Obwohl Daimler mit den neuen Technologien vor allem Unfälle durch menschliches Versagen verhindern will, muss die Software in einem Fahrzeug ständig Entscheidungen mit unvollkommenen Informationen treffen - im Extremfall womöglich sogar solche über Leben und Tod. Fakt ist, dass das ganze Spektrum an situativen Fahrentscheidungen, die der Autofahrer heute zu treffen hat, sich in keiner Fahrzeug-Software programmieren lässt. Während ein Fahrer in Gefahrensituationen aufgrund der langjährigen Erfahrungen seiner "Human-Software" im Hirn spontan entscheidet, müssen die Grundlagen für eine automatisierte Entscheidung durch die Auto-Software vorher durch die Programmierer anhand von standardisierten Regeln nach den geltenden gesetzlichen Vorschriften festgelegt werden.

Helmut Becker schreibt als anerkannter Autoexperte und Volkswirt für teleboerse.de und n-tv.de eine monatliche Kolumne rund um den Automarkt.
Helmut Becker schreibt als anerkannter Autoexperte und Volkswirt für teleboerse.de und n-tv.de eine monatliche Kolumne rund um den Automarkt.(Foto: Helmut Becker)

Kurz: Die programmierte Software des autonomen Autos macht Dienst streng nach gesetzlichen Vorschriften, Abweichungen sind nicht erlaubt und zulässig. In dieses Programmschema passen ethische Entscheidungsabwägungen oder emotionale Entscheidungspräferenzen ("Ich bremse auch für Tiere") nicht hinein. Die Programmierer der Software müssten Klarheit darüber haben, nach welchen Maßstäben die Software in einem theoretischen Fall vorgehen soll, so Hohmann-Dennhardt. Ein mögliches Konzept ist die "Schadensminderung" - also ein Vorgehen, nach dem sich die Fahrzeug-Software für den vermutlich geringsten insgesamt auftretenden Schaden entscheidet.

Entscheidungen treffen

Schon solche vermeintlich logischen Grundlagen werfen aber tiefgreifende ethische Fragen auf. Zum Beispiel, ob und wie die Auto-Software abwägen kann, welche Verkehrsteilnehmer stärker zu schützen sind. Welches Leben ist wichtiger oder wertvoller, wenn vor dem Auto plötzlich ein Kind oder eine Menschengruppe auftaucht und der Autopilot entscheiden muss: Hindernisschutz und Aufprall oder ein riskantes Ausweichmanöver zu Lasten des Insassenschutzes starten?

Oder: Ein Polizeiauto oder Rettungsdienstwagen mit Baulicht und Martinshorn überquert die Kreuzung gegen die Regeln. Kann das "Autonomobil" das rechtzeitig sehen oder hören?

Zudem: Auch ein Autopilot kann die Physik nicht überlisten, muss Bremswege mit einberechnen. Da gebe es Fälle, "an denen man lange diskutieren sollte", sagte die frühere Richterin am Bundesverfassungsgericht, Christine Hohmann-Dennhardt, dazu.

Der Fehler steckt im Detail

Aber rechtliche Fragen des autonomen Fahrens betreffen nicht nur ethische Abwägungen, sondern können viel profanere Ursachen haben. Autohersteller bieten heute schon eine Reihe von Assistenzsystemen zur automatischen Schildererkennung an: Kameras beobachten das Umfeld, erkannte Signale werden auf der Instrumententafel eingeblendet, so dass der Fahrer jederzeit sehen kann, welches Verkehrszeichen gerade gilt.

Allerdings funktionieren selbst diese Systeme noch nicht zuverlässig. Zu diesem Ergebnis kommt die "Auto-Zeitung". Die Autoren testeten neun entsprechend ausgestattete Pkw-Modelle verschiedener Hersteller und Fahrzeugklassen. Das Ergebnis: Bei Nässe oder Dunkelheit konnten die Kamerasysteme oft keine Verkehrsschilder erkennen, verloren die Orientierung oder zeigten völlig falsche Tempolimits an.

Ferner reagierten die Systeme beispielsweise unzureichend bei Gegenlicht. Außerdem wurden bodennahe Verkehrszeichen, die häufig als Warnung vor Tagesbaustellen zu finden sind, meist komplett ignoriert. Kurz: Bereits alltägliche Situationen machen erhebliche Probleme!

Was geschieht aber bei einem technischen Defekt oder einer Fehlinterpretation der Umfeldsignale? Wenn Verkehrsschilder verschmutzt sind und nicht oder nur unzureichend wahrgenommen werden? Wenn bei Überholmanövern von Lkw-Gespannen Ausfahrtschilder oder Schilder mit Geschwindigkeitsbegrenzungen übersehen oder gar nicht wahrgenommen werden? Noch schlimmer: Wenn Gefahrenhinweisschilder vom Autopiloten nicht oder nicht rechtzeitig erkannt werden und das Gefährt sich der Gefahrenstelle mit überhöhter Geschwindigkeit nähert und verunfallt? Wer ist dann schuld? Wer trägt die Schadenskosten?

Der Staat mit seinen unzureichenden Warnschildern, der Fahrzeughersteller, der  "Fahrer", welcher gerade mit seinem Smartphone beschäftigt war? Sich als Fahrer ausschließlich auf das Automobil zu verlassen, käme einem Selbstmord gleich!

Wenn das Taxi ruft

Der Test der "Auto-Zeitung" zeigt auch, dass viele alltägliche Situationen die Erkennungssysteme an ganz profane Grenzen bringen. Die Tester kommen deswegen zu dem Ergebnis, dass viele Systeme, für die die Hersteller Aufpreise verlangen, ihr Geld nicht wert seien. Verlassen sich Autofahrer darauf, könnten die Assistenzsysteme als zentraler Baustein für autonomes Fahren eine Gefahr für den Führerschein darstellten.

Womit die Hersteller von "Autonomobilen" den Käufer solcher Fahrzeuge letztlich doch zum autonomen Fahren gebracht hätten: per Taxi oder öffentlichem Verkehrsmittel.

Quelle: n-tv.de

Empfehlungen