Kognitionswissenschaftler der Universität Osnabrück legen Studie zur normativen Ethik selbstfahrender Autos vor

Soll der Bordcomputer eines autonomen Fahrzeugs seine Insassen zur Not in den Tod lenken? Noch optimieren Ingenieure die Zuverlässigkeit der Sensoren der fahrerlosen Autos. Doch schon bald könnten vergleichbare Fahrzeuge in brenzligen Situationen moralische Entscheidungen treffen müssen. Wissenschaftler des Instituts für Kognitionswissenschaft der Universität Osnabrück legen nun, ausgehend von menschlichen Entscheidungen, eine Studie zur normativen Ethik selbstfahrender Fahrzeuge vor.

„Autonome selbstfahrende Autos werden die erste Generation von Robotern sein, die moralische Entscheidungen mitten in unserer Gesellschaft treffen. Es ist deshalb dringend notwendig, Regeln und mögliche Handlungsweisen für autonome Fahrzeuge zu entwickeln, die festlegen, wie sich solche Maschinen in unausweichlichen Unfallsituationen verhalten sollen“, so die Verfasser der Studie Prof. Dr. Peter König und Maximilian Wächter vom Institut für Kognitionswissenschaft.

Die autonome Technik wird die Zahl der jährlichen Verkehrsopfer nach Schätzungen um 90 Prozent senken. Dennoch wird es auch zu kritischen Situationen kommen, bei denen zwar ein Unfall nicht zu vermeiden ist, aber die Anzahl und Schwere der Verletzungen der möglichen Opfer vergleichbar geringer ist.

Es bleibt die Frage, wie sich selbstfahrende Autos in ausweglosen Situationen, bei denen ein Unfall nicht zu vermeiden ist, verhalten. Soll das Fahrzeug die Insassen unter allen Bedingungen schützen, oder soll ein Fahrzeug seinen Passagier für das Wohl der Allgemeinheit opfern?

Die Autoren nutzten für ihre Studie eine Virtual Reality-Technik, um das Verhalten von Versuchspersonen in Dilemma-Situationen zu beobachten. Die Teilnehmer der Studie fuhren dazu an einem nebeligen Tag durch Vorort- oder Berglandschaften. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Situationen, bei denen Menschen oder Gruppen von Menschen in Fahrspuren standen. „Den Menschen auf der eigenen Fahrspur auszuweichen hätte bedeutet, eine andere Anzahl an Menschen auf der nebenliegenden Fahrspur zu opfern. Für die Teilnehmer ist eine moralische Abwägung notwendig um in einer solchen Situation eine Entscheidung zu treffen“, erläutert der Osnabrücker Kognitionswissenschaftler Wächter den Versuchsablauf.

Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse ausgewertet. „Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten größtenteils zum Wohl der Gemeinschaft entschieden wird“, so Wächter. Darauf aufbauend war es den Autoren möglich, eine normative Ethik für selbstfahrende Fahrzeuge zu entwickeln, die dem Verhalten der Probanden gerecht wird und die Gemeinschaft vor das Individuum stellt.

Die Ergebnisse der Studie „Human Decisions in Moral Dilemmas are Largely Described by Utilitarianism: Virtual Car Driving Study Provides Guidelines for Autonomous Driving Vehicles“ sind erschienen in „Science and Engineering Etnics“ (https://link.springer.com/article/10.1007/s11948-018-0020-x).

 

Ähnliche Beiträge

Aus dem Förderprogramm „Wissenschaft für nachhaltige Entwicklung“ erhalten die TU Clausthal und die...

Sollen Jugendliche in Schulen mehr über Angebot und Nachfrage oder über variable und fixe Kosten...

Am Dienstag, 10. April 2018, hielt Prof. Dr. Nick Lin-Hi seine Antrittsvorlesung und wurde damit...

Hinterlassen Sie eine Antwort