Wen soll ein autonomes Fahrzeug im Falle eines Unfalls töten? Eine schwere ethische Frage, wenn es darum geht, dass ein autonomes Fahrzeug entscheiden soll, wessen Tod es bei einem unvermeidlichen Unfall in Kauf nehmen soll. Die eigenen Insassen? Passanten? Andere Verkehrsteilnehmer? Welche? Wenn ein Unfall unvermeidlich ist, soll das autonome Fahrzeug dann eher eine Krankenschwester oder ein Kleinkind töten? Einen Hund eher als eine Ärztin – oder umgekehrt? Am Massachusetts Institute of Technology (MIT) wurde mit dem Projekt „Moral Machine“ versucht, mithilfe von Feedback aus aller Welt festzustellen, welcher grundlegenden Ethik selbstfahrende Autos in Entscheidungsszenarien folgen sollten. Die Antworten zeigten international deutliche regionale Unterschiede in den Präferenzen. Eine eindeutige Antwort scheint also nicht leicht möglich und einem starken regionalen Bias unterworfen zu sein.
Seiten 124 - 129
Um Ihnen ein optimales Webseitenerlebnis zu bieten, verwenden wir Cookies. Mit dem Klick auf „Alle akzeptieren“ stimmen Sie der Verwendung von allen Cookies zu. Für detaillierte Informationen über die Nutzung und Verwaltung von Cookies klicken Sie bitte auf „Anpassen“. Mit dem Klick auf „Cookies ablehnen“ untersagen Sie die Verwendung von zustimmungspflichtigen Cookies. Sie haben die Möglichkeit, Ihre Einstellungen jederzeit individuell anzupassen. Weitere Informationen finden Sie in unserer Datenschutzerklärung.
