Autonome Fahrzeuge sollen dazu beitragen, die Unfallzahlen deutlich zu verringern. Häufig tauchen dabei allerdings Fragen auf, die hauptsächlich ethischer Natur sind. Können autonome Autos überhaupt moralisch korrekte Entscheidungen treffen? Es ist ein wahres Dilemma, vor dem die Entwickler autonomer Fahrzeuge stehen.
Autonome Fahrzeuge und Unfälle mit Personenschäden
Bei selbstfahrenden Kraftfahrzeugen, häufig auch als autonome Autos bezeichnet, treten immer häufiger ethische Fragen auf, bei denen es um Unfälle mit Personenschäden geht. Ein wesentlicher Punkt ist hierbei das Verhalten solcher automatisierter Fahrzeuge in kritischen Unfallsituationen, bei denen es um das Entscheiden in speziellen Fällen geht. Menschen reagieren in solchen Situationen meist rein instinktiv, ohne sich überhaupt über die möglichen Faktoren Gedanken zu machen.
Auch ein moralisches Handeln ist natürlich ist für selbstfahrende Fahrzeuge kaum umsetzbar. Genau diese Dinge haben allerdings einen enormen Einfluss auf die Bewertung eines Unfalles, an dem ein autonomes Fahrzeug beteiligt war. So ist es sehr fraglich, ob eine Maschine eine Unfallsituation überhaupt richtig bewerten oder ob es beispielsweise zwischen einem Puppenwagen und einem echten Kinderwagen unterscheiden kann. Sind Maschinen überhaupt in kritischen Situationen in der Lage, Passanten auf der Straße immer sicher zu erkennen? Eine weitere Frage beschäftigt sich mit der Haftung bei einem Unfall. Haftet der Fahrzeughalter oder der Hersteller des Fahrzeuges, wenn Personen bei einem Unfall verletzt werden oder gar ums Leben kommen? Und da gibt es noch die immer wiederkehrende Frage, ob in gewissen Situationen der Tod einzelner Menschen in Kauf genommen werden soll, wenn dadurch beispielsweise wesentlich mehr Menschenleben gerettet werden können.
Natürlich dürfen Menschenleben nicht gegeneinander aufgerechnet werden, allerdings muss eine Maschine, nämlich das autonome Fahrzeug, nach irgendwelchen Kriterien Entscheidungen fällen. Schließlich hat eine Maschine keinen menschlichen Instinkt. Möglicherweise ist hier der Gesetzgeber gefordert und dazu angehalten, Grundsatzentscheidungen für solche Fälle zu treffen und die technische Entwicklung zu begleiten.
Ein Kommentar
Die Ethik-Kommission hat bereits 2017 entsprechende Maßnahmen dazu erstellt. Diese sollte umgesetzt werden, doch das erfolgte nicht. Die wichtigste Antwort war dabei, dass das autonome Auto nur eine Vorgabe beachten darf: Die Anzahl der Menschen. Es darf zugunsten mehrerer Menschen eine Person überfahren. Doch solche Dilemma-Situationen, das muss man beachten, sind so selten. Derweil sterben jedes Jahr rund 3.000 Menschen in Deutschland in Unfällen.