Montag, 22. Juni 2015

Autonome Autos werden töten - aber wen?

“Autonome Autos könnten programmiert sein, Sie zu töten“. So lautet der Titel eines Artikels, der kürzlich in der britischen Zeitung “The Independent“ erschienen ist. Was verrückt tönt, macht nach dem Durchlesen der Story durchaus Sinn: Computergesteuerte autonome  Autos werden sich im Strassenverkehr im Falle eines unvermeidbaren Unfalles für  eine ethische Option entscheiden müssen – im Gegensatz zum Menschen, geben ihnen die Sekundenbruchteile während des Unfallgeschehens genügend Zeit dazu. Wird der Wagen in eine Wand gesteuert – was wahrscheinlich den Tod des Insassen zur Folge hätte, oder werden die Fahrradfahrer auf der Fahrradspur gerammt? Maschinenethiker suchen Antworten auf derartige Fragen, damit die zukünftigen Autos entsprechend programmiert werden können.

Auch Mercedes-Benz arbeitet an autonomen Autos: Er sieht gut aus, der Mercedes-
Benz F015. Wie die Programmierer des Lenk-Computers das Ethik-Dilemma lösen
werden, wissen wir nicht.                                                        Bild mercedes-benz.com
Es ist nicht ein Thema, welches das Vertrauen in autonom fahrende Autos verstärkt. Immerhin weiss man von vielen Testfahrten in Kalifornien, dass auch Autos, die diesen Namen verdienen und sich autonom von A nach B bewegen, in Unfälle verwickelt werden. Diese Unfälle, sind bis jetzt völlig harmlos verlaufen – kleine Blechschäden waren die Folge –  sie legen aber die Grundlage für das ethische Dilemma, dass die Konstrukteure solcher Fahrzeuge lösen müssen. Denn eines ist klar: Die “Intelligenz“ dieser Autos wird Situationen nicht vermeiden können, die eine “moralisch richtige“ Entscheidung notwendig machen. Doch, fragt die Welt in einem aktuellen Artikel zum Thema, wie programmiert man ein Fahrzeug ethisch, und wer bestimmt was ethisch richtig ist?
“Trifft das Auto in einer aussichtslosen Situation den Fußgänger oder den Baum? Stirbt der Fußgänger oder der Fahrer? Bislang entschied das oft der Instinkt oder der Zufall. Wer religiös ist, würde sagen: Gott hatte die Hand im Spiel. Werden die Menschen akzeptieren, dass der Computer "Gott spielt"? Das autonome Fahren wird schon in seinem Vorfeld einen enormen ethischen Handlungsdruck erzeugen. Wir werden gezwungen sein, Dinge zu entscheiden, auf die wir schlecht vorbereitet und für die wir vielleicht noch gar nicht reif sind. Das autonome Fahren könnte sich gar zum Treiber einer vollkommen anders organisierten Gesellschaft entwickeln. Wofür brauchen wir noch Verkehrsrichter? Und kann man diese Technologie nicht auch auf andere Fälle des Lebens ausweiten? Der Gedanke lässt sich ja ad Infinitum weiterspinnen: Wenn Computer die besseren Autofahrer sind, sind sie dann nicht auch die besseren Wähler?“
Die Diskussion zu diesem Thema hat eben erst begonnen, und Antworten werden nicht leicht zu finden sein. Der Philosoph und Wirtschaftsinformatiker Oliver Bendel hat kürzlich auf ictk.ch neun Thesen zum Thema autonome Autos publiziert. Er sieht das Ethik-Problem eher von der praktischen Seite:
“Autonome Autos sollten nicht zu komplexen moralischen Maschinen werden, nicht Urteile darüber fällen, ob ein junger Mensch mehr wert ist als ein alter, ein gesunder mehr als ein kranker. Sie sollten nur in einfachen Situationen über Alternativen befinden, etwa Vollbremsungen bei Menschen und grösseren Tieren einleiten, wenn kein Hintermann vorhanden ist, oder kleineren Tieren eine Chance lassen…“
Überhaupt geht Bendel davon aus, dass die Menschen es nicht akzeptieren werden, dass ein Computer im Auto direkt über Leben und Tod entscheiden wird:
“Ich denke, dass vielen Menschen sehr unwohl dabei sein wird, wenn ihr Partner oder Kind durch eine Maschine – und zwar absichtsvoll – getötet wird. Die Menschen werden auf die Barrikaden gehen.“
Es ist zu hoffen, dass der Professor Recht behält.

Keine Kommentare:

Kommentar veröffentlichen