Autonome Autos und die Ethik

Die Frage, ob autonome Fahrzeuge in Zukunft die Entscheidung über das Leben und Sterben von Menschen treffen werden, hat teilweise hysterische Züge. Zeit mal ein klares Wort zu sprechen.

20150511_183512

Neulich, Sonntagabend, beste Sendezeit in der Talkshow „Anne Will“. Da wird ein Szenario erklärt, in dem ein Auto entscheiden soll, ob es ein Kind überfährt oder lieber gegen ein Hindernis fahren soll. Der Aufprall tötet dann die Insassen des Fahrzeugs. Grosse Aufregung allenthalben, unterschwellige Empörung darüber, dass Autos derartige Entscheidungen in Zukunft treffen sollen. Das Problem an der Sache ist nur: das werden sie gar nicht. Hinter der in der Öffentlichkeit emotional diskutierten Frage, was autonome Fahrzeuge dürfen und was nicht, steckt leider ein großer Denkfehler.

Denn das autonome Auto ist keine Art Mini-Golem, das immer jeden Unfall vermeiden kann oder immer das richtige tut. Nein, auch mit autonomen Autos wird es leider tödliche Unfälle geben. Eine andere Frage ist, wie ein Auto mit der bei Anne Will beschrieben Situation umgehen wird. Die Entrüstung darüber, dass da ein Algorithmus entscheidet, wer lebt und wer stirbt, löst bei vielen technikfeindlichen Menschen sofortige Hyperventilation aus. Dabei ist die Vorstellung schon Quatsch, dass der Rechner in einem Auto in Zukunft so was machen wird.

Ein Unfall ist immer der momentane totale Verlust von Kontrolle. Daran werden auch Maschinen nichts verändern. Die werden bestimmte Situationen vielleicht besser antizipieren können, aber sie sind keine Hellseher. Das Trolley-Problem, das dem Problem von Anne Will zugrunde liegt, wird auch eine Maschine nicht lösen können. Schlicht und ergreifend, weil es dafür keine befriedigende Lösung gibt, sondern nur eine philosophische Antwort, die dann auch noch davon abhängt, ob man eine utilitaristischen Position vertritt, oder halt doch zu Kant neigt.

Tatsächlich gibt es schon ein paar Philosophen, die sich mit dem Problem beschäftigen, dass ein Auto in eine solche Situation kommt. Der nicht unbekannte deutsche Philosoph Nida-Rümelin versteigerte sich in die Idee, Autos einen „Zufallsgenerator“ zu geben. Mal fährt es halt das Kind um, mal bringt es die Insassen rum. Damit wäre dann einem gerechten Schicksal genüge getan. Das ist natürlich Quatsch. Wenn man sich schon mit deterministischen Begriffen wie dem Schicksal beschäftigt, dann kann man das kaum mit einem digitalen Zufallsgenerator befriedigen.

Und was soll ein Auto jetzt machen, vor einem plötzlich auftauchenden Hindernis steht? Es sollte das machen, was es am besten kann: seine Energie möglichst schnell und weitestgehend abbauen. Mit anderen Worten: bremsen. Das können autonome Fahrzeuge schon jetzt besser, als 99% aller normalen Autofahrer.

Jede andere Reaktion würde das Chaos, das durch den Kontrollverlust eines Unfalls entsteht, noch weiter vertiefen. Ein Beispiel: Das Auto weicht aus, verfehlt das Kind, touchiert aber ganz leicht den Reifen eines parkenden Fahrzeugs. Ein Kontrolle ergibt, dass der Reifen scheinbar in Ordnung ist. Doch durch den Aufprall hat sich ein nicht sichtbarer
Haarriss ergeben. Der Besitzer fährt zwei Monate problemlos durch die Stadt, dann fährt auf die Autobahn. Er hat es eilig und fährt schnell. In den letzten zwei Monaten hat sich der Riss vergrössert, bei 200 km/h platzt der Reifen. Der Wagen schleudert, ein Schulbus weicht aus und überschlägt sich. Viele Kinder sterben. Und das alles, weil ein anderes Auto ausgewichen ist.

Das hanebüchenes Beispiel soll zeigen, was ich mit Kontrollverlust meine. Er lässt sich nicht vermeiden, noch wird man ihn durch irgendeine Technik kontrollieren können. Weder jetzt noch in Zukunft. Das autonome Auto wird daran nichts ändern können. Generell gilt aber auch: ohne eine Ethik für Algorithmen wird es in Zukunft auch nicht gehen. Das bezieht sich aber mehr auf Algorithmen die Bewertungen vornehmen oder unser Leben infantilisieren.

2 Gedanken zu “Autonome Autos und die Ethik

  1. „The morbid focus on the trolley problem creates, to some irony, a meta-trolley problem. If people (especially lawyers advising companies or lawmakers) start expressing the view that ‚we can’t deploy this technology until we have a satisfactory answer to this quandry‘ then they face the reality that if the technology is indeed life-saving, then people will die through their advised inaction who could have been saved, in order to be sure to save the right people in very rare, complex situations.“ (von http://ideas.4brad.com/enough-trolley-problem-already )

Comments are closed.