Es gibt keine Lösung
Stellen Sie sich einen Computer vor, der Chirurgen unterstützen soll. Dieser Computer hat Sensoren, Arme und Hände, mit denen er chirurgisches Besteck bedienen kann, um Organe zu transplantieren. Nun hat er fünf Patienten, die unterschiedliche Organe benötigen – einer ein Herz, zwei je eine Niere, auch eine Bauchspeicheldrüse und ein Leberlappen werden benötigt. Darf der Medizinroboter einen anderen Patienten, dessen Organe transplantierbar sind, umbringen und ausschlachten, um fünf Menschen zu retten?
Ich vermute, kein Leser wird hier Moral ökonomisch aufrechnen – 5:1 ist zwar eine klare Ansage, aber wir schrecken davor zurück, Menschenleben gegeneinander aufzurechnen. Versicherungen haben zwar Tabellen mit Preisen für Schäden am menschlichen Körper, die, rechnet man alles zusammen, einen verdächtig niedrigen Gesamtwert für einen Menschen ergeben. Doch am Ende geben wir dem Leben einen Wert von Unendlich. Es fällt uns schwer, Menschenleben als Variablen in mathematischen Gleichungen zu sehen.
Machen wir uns die Aufgabe etwas einfacher: Statt eines chirurgischen Computers nehmen wir ein Auto, ein autonomes1 Es fährt eine Strasse entlang, als plötzlich ein Mensch vor ihm auftaucht. Würde es ausweichen, führe es in eine Gruppe von fünf Menschen, die getötet würden. Gerade drauf halten würde zum Tod eines Menschen führen. Bremsen ist aus unerfindlichen Gründen nicht möglich. Und nun?
Das ist im Moment das Totschlagargument gegen selbstfahrende Autos2. Je nach Diskussionsfortschritt, lässt sich das hypothetische Beispiel so weit einschränken, dass der Fortschritt immer verliert. Oder man benutzt das Gedankenexperiment dafür, sich eine Meinung zu absoluter vs. situativer Ethik zu bilden. Denn dafür ist es gedacht. Nicht als Beispiel aus der realen Welt. Es ist unter Philosophen als ‚Trolley-Problem’ bekannt.3
Das Trolley-Problem ist älter als autonom fahrende Autos, richtet sich somit nicht an Computer, sondern an Menschen. Ersetzen wir also nun noch den Computer des Autos durch einen menschlichen Fahrer. Gewinnen wir irgendetwas? Was soll der Mensch machen, draufhalten oder ausweichen? Einen Menschen umbringen oder fünf? Wie sieht es aus, wenn die Gruppe aus fünf Rentnern besteht, der einzelne Fussgänger ein 5-jähriges Kind ist? Wen töten Sie?
Es gibt keine Lösung. Egal, was Sie als Fahrer machen, es endet in einer Tragödie.
Eine Reihe von Vorteilen ergeben sich allerdings schon für den Autocomputer. So wird ein autonomes Auto sich immer an die Geschwindigkeitsbeschränkung halten, immer aufmerksam sein, sich immer den Umweltverhältnissen anpassen. Es wird eher langsamer werden, um wirklich bremsbereit zu sein. Eine weitere Sicherheitsmassnahme: Wenn Systeme ausfallen, lässt sich das Auto nicht starten oder bleibt – verkehrsgerecht! – stehen. Keine Bremsen sind dann kein Phänomen, das dem Trolley-Problem überhaupt eine Chance gäbe. Es ist genauso hypothetisch, wie es immer war, nur eindeutiger.