Autonomes Fahren – Eine Frage der Ethik? Oder: Kant fährt Dein Auto gegen die Wand

Nachdem die Diskussion um die ethische Herangehensweise an Fragen rund ums autonome Fahren unter anderem bei den Scilogs jüngst hohe Wellen geschlagen hat, hier ein paar ergänzende Worte:

Nach der Einführung der Ethik-Kommission zum automatisierten Fahren im Herbst 2016, in der übrigens mehr Juristen als Philosophen/ Ethiker sind, ist die Diskussion ums automatisierte Fahren [1] in öffentlichen Medien ebenso wie in der Philosophie ins Rollen gekommen. Ein erstes Problem: Es gibt nicht nur eine Frage/ Diskussion, sondern mehrere und davon zwei besonders relevante, die oft vermischt werden.

1. Wie sollen Autos sich in Konfliktfällen verhalten [2]? (Das impliziert die Frage: Wie sollen sie informationstechnisch konstruiert werden?)

2. Wer haftet bei einem Unfall für den Schaden?

Ähnlich absurd wie die derzeit häufige Vermischung nach der Verantwortlichkeit und möglichen Strafen für das Autokartell mit Fragen nach der Umweltfreundlichkeit von Autos und entsprechenden (bspw. innerstädtischen) Maßnahmen [3], ist auch die Vermischung jener beiden Fragen. Daher zunächst zur ersten:

Deontologisch versus utilitaristisch programmierte Autos

Die Beschäftigung mit der ersten Frage führt in ethischen Diskussionen oft zu zwei Optionen (die aber beide keine wirklichen Optionen sind, da sie keine Lösung für das Problem liefern, um das vorweg zu nehmen): Erstens die utilitaristische/ konsequentialistische Variante und zweitens die deontologische Variante.

Bei der ersten Variante werden verschiedene (vermeintlicherweise hierarchisierbare) Lebenswerte gegeneinander aufgewogen. Das Auto soll also, wie @fischblog treffend schreibt, im Konfliktfall zwischen „Opa oder Enkel“ (siehe [1]) entscheiden und zwar nach bestimmten, vorher festgelegten Kategorien. In einem Gedankenexperiment sind beispielsweise die persönlichen Daten von Krankenkassen so öffentlich gespeichert, dass Autosysteme darauf zugreifen und die Daten nach bestimmten Mustern, zum Beispiel statistischer Lebenserwartung, auswerten könnten. Auf dieser Basis könnte dann das Auto entscheiden (siehe [2]), hier oder dorthin zu fahren.

Bei der zweiten Variante geht es eigentlich um Pflichten (gr. déon). Die Software in einem Auto, so hier die Annahme, sollte so programmiert sein, dass ein bestimmter, vorher festgelegter Regelsatz umgesetzt wird.

Welche Regeln für Konfliktfälle, die moralische Abwägungen erfordern, in die Entscheidungsmodule automatisierter Fahrzeuge einprogrammiert werden, sollte dabei nicht diktatorisch, sondern so weit wie möglich durch eine gesellschaftliche Konsensbildung nach ausführlicher öffentlicher Diskussion festgelegt werden. (Birnbacher und Birnbacher 2016: 12) [3]

Die Frage ist, ob so ein Konsens jemals gefunden werden könnte. Müsste es dann je nach Kultur unterschiedlich moralisch geprägte Systeme geben? Und wie könnte das aussehen? Überhaupt ist fraglich ist, ob sich Pflichten finden lassen würden, die man im engeren Sinn als ethische Pflichten bezeichnen könnte, denn Unfälle sind beim automatisierten Fahren nicht auszuschließen.

CC0. Quelle: https://www.pexels.com/photo/vintage-fusca-carro-velho-azul-64687/

Beiden Varianten liegt die Annahme zugrunde, dass die Entwicklung automatisierter Autos so funktioniert, dass man eine Hardware hat, ein Auto, und dort hinein eine Software installiert, und zwar ein fertig installiertes Programm. So kommen Birnbacher und Birnbacher (2016: 8) zu der Aussage:

Wie sich die Maschine in Konfliktfällen ‚entscheidet‘, entscheiden diejenigen, die das Verhalten der Maschine in hypothetischen Situationen programmieren, letztlich die Instanzen, die über ihre Zulassung für die konkrete Anwendung entscheiden.

Diese Vorstellung trifft ebenso wenig auf die Entwicklung von Autos zu wie das Modell des Nürnberger Trichters aufs Lernen bei Kindern. Freilich entscheiden Entwickler, was Autos können sollen und was nicht, aber die technische Vorgehensweise ist eine andere. Stand der Dinge heute sind lernende Systeme. Das heißt, dass einer Software eine möglichst große Menge Daten eingespielt wird, beispielsweise Bilder von Verkehrshindernissen. Dann wird das Auto darauf trainiert, bei einem Hindernis anzuhalten. Je größer die Menge an Daten und je besser die Sensorik, desto höher die Wahrscheinlichkeit, dass das Auto auch außerhalb einer Teststrecke ein Hindernis als solches erkennen würde.

Dies ist ja aber nur winziger Baustein bei der komplexen Fahrtauglichkeit von Autos. Was, wenn das Hindernis ein alter Mensch ist, der das Auto vorbei winkt, weil er danach in Ruhe über die Straße gehen will? Überholen, plötzliche Hindernisse, schwierige Licht- oder Wetterverhältnisse sind weitere Knackpunkte, mit denen Entwickler konfrontiert sind. Manche plädieren daher dafür, dass voll automatisierte Autos (zumindest zunächst) nur auf Autobahnen sinnvoll sind, wo die Verkehrssituation einigermaßen überschaubar ist.

„Moralische Programmierungen“ (Birnbacher und Birnbacher 2016: 9) gibt es also in oben beschriebener Form nicht, da sie nicht der Realität technischer Entwicklungen entsprechen.[5] Dementsprechend trägt auch die Auseinandersetzung mit Dilemma-Beispielen wie dem Trolley-Problem [6] nichts zur praktischen Problemlösungssuche beim automatisierten Fahren bei, denn Dilemmata sind per definitionem unlösbare Problemfälle.

Die zweite Frage, die nach der Schuld bei möglichen Unfällen, ist eine juristische und keine ethische. Klar ist: Automatisierte Autos werden zwar voraussichtlich weniger Unfälle verursachen, dennoch nicht völlig unfallfrei fahren können. Für Fälle, die nicht eindeutig auf Mängeln am Auto zurückgehen (wofür wohl der Hersteller haften muss), wird man eine Lösung finden müssen.

[1] In philosophischen Diskussionen steht zunächst häufig die Korrektur im Raum, dass es sich ja nicht um (wie so oft genannt) autonomes Fahren im eigentlichen Sinn handle, sondern vielmehr um (teil-) automatisiertes Fahren bzw. solche Fahrzeuge.

[2] Die Angemessenheit von Anthropomorphismen ist auch ein großes Streitthema in philosophischen Diskussionen.

[3] „Das Urteil zum Diesel-Fahrverbot in Stuttgart ist ein Erfolg für die Deutsche Umwelthilfe – die Klägerin hofft nun, dass die entsprechenden Fahrverbote auch tatsächlich verhängt werden.“

[4] Birnbacher, Dieter und Birnbacher, Wolfgang (2016): Automatisiertes Fahren. Dieter und Wolfgang Birnbacher über ethische Fragen an der Schnittstelle von Technik und Gesellschaft. In: „Information Philosophie“. 44. Jahrgang, Heft 4/2016, Lörrach: Moser.

[5] Daher auch der etwas flapsige Untertitel dieses Artikels, der ebenso auf John Stuart Mill zutreffen könnte, nur leider reimt sich Mill nicht auf Wand.

[6] Dieses Problem gibt es in verschiedenen Varianten, auch Fetter-Mann-Problem etc. genannt. Ebenso wurden schon diverse Versuche angestellt, das Problem zu lösen.

Bachelor-Studium "Philosophie, Neurowissenschaften und Kognition" in Magdeburg. Master-Studium "Philosophie" und "Ethik der Textkulturen" in Erlangen. Freie Kultur- und Wissenschaftsjournalistin: Hörfunk, Print, Online. Wissenschaftliche Mitarbeiterin, Abteilung Philosophie, Fachbereich Medienethik an der Pädagogischen Hochschule Ludwigsburg.

38 Kommentare Schreibe einen Kommentar

  1. Eine Autofahrerin, die beim SMS-Schreiben ihre Nachbarin umfährt hat dabei keine moralische Konfliktsituation erlebt. Die Probleme kommen für sie erst nach der “Tat”. Und das ist der Normalfall. Schon heutige Spurassistenten, die nichts anderes tun als die Spur zu halten und bei (teilweise automatischem) Spurwechsel auf eine freie Ausweichspur zu achten, reduzieren die Spurwechselunfälle um 80%. Die Realität ist einfach, dass der Mensch ein höchst unzuverlässiges, schnell ablenkbares System ist. Eigentlich dürfte man Menschen gar nie autofahren lassen. Philosophen hätten schon vor der aktuellen Diskussion zum Schluss kommen können, dass trotz all der Vorteile, die ein Auto bringt, es dennoch unverantwortlich ist, autozufahren – mindestens solange wie noch Menschen am Lenker sind.

    • > Eigentlich dürfte man Menschen gar nie autofahren lassen.

      Für einige gilt das zweifellos:

      Der Mann war am Abend des 20. Februars mit seinem BMW X5 und seiner Familie im Auto auf der Hochkönig-Bundesstraße (B164) im Leoganger Ortsteil Hirnreit unterwegs. Bei einem Fahrbahnteiler stieß der Lenker auf der Gegenfahrbahn frontal gegen den Wagen eines Einheimischen. Der Fahrer des anderen Pkw, ein 24-jähriger Pinzgauer, starb noch an der Unfallstelle. Laut dem Gutachten eines Verkehrssachverständigen war der Norweger statt der erlaubten 80 km/h mit 140 bis 150 km/h unterwegs.

      http://diepresse.com/home/panorama/oesterreich/5185168/Norweger-bleibt-nach-toedlichem-Autounfall-in-Salzburg-in-UHaft

      Ob überhaupt wegzusperren oder doch zurechnungsfähig war anfangs noch strittig:

      http://salzburg.orf.at/news/stories/2856299/

      Vielleicht erlebe ich es noch, dass jemand mit dem Verweis auf Unzurechnungsfähigkeit seines autonomen Fahrzeugs durchkommt.

      • @Karl Mistelberger: > Eigentlich dürfte man Menschen gar nie autofahren lassen.
        Für einige gilt das zweifellos wie der Wikipedia-Eintrag Stephen King, car accident and aftereffects zeigt:

        Am 19. Juni 1999, um ca. 4:30 Uhr, spazierte Stephen King (der Schriftsteller) auf der (Notfall-)Seitenspur der Maine State Route 5, in Lovell, Maine. Fahrer Bryan Edwin Smith, abgelenkt von einem unkontrollierten Hund, der sich im Hinterteil seines Minivans bewegte, streckte King nieder, so dass dieser in einer Bodenvertiefung etwa 14 Fuß (4 Meter) vom Asphalt der Route 5 entfernt, landete. Gemäss Oxford County Sheriff Stellvertreter Matt Baker, wurde Stephen King von hinten getroffen und einige Zeugen sagten, der Fahrer sei weder schnell, noch rücksichtslos oder betrunken unterwegs gewesen. In seinem Buch On Writing beschrieb Stephen King, er sei Richtung Norden gegangen, dem Verkehr entgegen. Kurz bevor der Unfall stattfand, fuhr eine Frau im Auto ebenfalls Richtung Norden und passierte als ersten Stephen King und dann den hellblauen Dodge Van. Der Wagen leierte von einer Seite der Straße zur anderen und die Frau sagte zu ihrem Passagier, sie hoffe, “dieser Kerl im Van habe King nicht erwischt”.

        King war noch bei genügend Bewusstsein, um dem Deputy die Telefonnummern seiner Familie zu geben, litt aber unter beträchtlichen Schmerzen. Der Autor wurde zuerst zum Northern Cumberland Hospital in Bridgton transportiert und dann mit dem Hubschrauber zum Central Maine Medical Center (CMMC) in Lewiston geflogen. Seine Verletzungen – eine kollabierte rechte Lunge, mehrere Brüche seines rechten Beines, eine Kopfhautschürfung und eine gebrochene Hüfte – hielten ihn bis zum 9. Juli bei CMMC. Seine Beinknochen waren so zerschmettert, dass die Ärzte zunächst eine Beinamputation in Betracht zogen, aber schliesslcih stabilisierten sie die Beinknochen mit einem externen Fixateur. Nach fünf Operationen in zehn Tagen und Physiotherapie setzte King im Juli die Arbeit an On Writing fort, obwohl seine Hüfte noch zerschmettert war und er nur etwa vierzig Minuten sitzen konnte, bevor der Schmerz unerträglich wurde.

  2. Im FGS Unfallbericht 2004 liest man überhaupt nichts über nicht vermeidbare Unfälle, in denen sich der Fahrer entscheiden musste, wen er umbringen musste. Statt dessen liest man:
    Die häufigste Unfallursache ist überhöhte Geschwindigkeit. 26% aller Unfälle sind darauf zurückzuführen. Bei den Unfälle außerorts liegt der Anteil sogar bei 40%, sowohl bei den Unfällen insgesamt wie auch bei den Unfällen mit Getöteten oder Schwerverletzten. 113 der 278 Getöteten[ 59 ] (41%) starben aufgrund zu hoher Geschwindigkeit des Unfallverursachers.
    .. Innerhalb von Ortschaften war die Missachtung Vorfahrt regelnder Verkehrszeichen die häufigste Unfallursache. Für 23% der Unfälle und 20% aller Getöteten und Schwerverletzten innerorts waren Verletzungen der Vorfahrtregeln die Ursache. Außerorts lag der Anteil naturgemäß (aufgrund der wesentlich geringeren Zahl von Kreuzungen und Einmündungen) niedriger, aber immerhin noch bei 10% der Unfälle und →schweren Personenschäden.
    ..
    Eng verwandt mit Vorfahrtfehlern sind Unfälle infolge fehlerhaften Abbiegens, auch sie sind innerorts stärker vertreten als außerorts. 19% aller innerörtlichen Unfälle geschahen durch Fehler beim Abbiegen. Außerorts waren dies 5%.

    16% aller Unfälle außerorts geschahen durch falsches Überholen, außerorts hatte dies 18% aller Verletzten und 21% (43 Personen) aller Todesfälle zur Folge. Innerorts spielen Überholunfälle eine geringere Rolle (8%).

  3. Die Moraldiskussion geht am eigentlichen Problem totaaaaal vorbei!
    Denn wenn ich Beispiele sehe, wo das Auto bei versagenden Bremsen auf einen Zebrastreifen zufährt und entscheiden soll, ob es statt die Fußgänger zu gefährden lieber die Insassen tötet indem es gegen einen Block fährt … dann frag ich mich, warum selbstfahrende Autos in der Stadt so rumrasen sollten, dass dies überhaupt in Frage käme! …
    Für mich fehlen die Basic Rules in diesen Beispielen:
    a) Geschwindigkeit muss immer so gewählt werden, dass tödlicher Schaden 1. für Insassen, 2. für Fußgänger, 3. für andere Lebewesen minimiert wird
    b) Im Falle einer Gefahr, müssten 3 voneinander unabhängige Bremssysteme versagen (1. Motorbremse, 2. Fahrzeugbremse, 3. Feststellbremse), um die Beispiele annähernd realistisch zu gestalten.
    c) Weiters ist von Signalgebern auszugehen. Autonome Autos sollten deutliche Warnsignale an die Umwelt abgeben können, wenn Sicherheitssysteme versagen a) an den Fahrer und vor allem b) an die Umwelt (Hupen, Lichtsignale, Warnblinksysteme etc.)
    Daher sind diese streng moralischen Sonderbeispiele Unsinn und führen nur zu Endlosdiskussionen über dem Kaiser seinen Bart.

  4. In Mobilität: Autonome Fahrzeuge brauchen keine Ethik-Software schreibt Helga Ritz (eine Frau mit Durchblick) unter dem Untertitel: Die Diskussionen um ethische Dilemmata bringen die Einführung autonomer Fahrzeuge nicht voran. Im Gegenteil. Die künstlichen Szenarien vermitteln ein gefährlich falsches Bild davon, wie autonomes Fahren funktioniert. sehr viel Richtiges zur “falschen” Ethikdiskussion, unter anderem (Zitat):

    Drittens bewegt sich die Diskussion um autonome Fahrzeuge in Dilemma-Situationen in einer gefährlichen gedanklichen Schieflage: Einerseits unterstellt sie eine bis in utopische Sphären fortgeschrittene maschinelle Intelligenz, die offenbar problemlos Fussgänger nicht nur als solche erkennt, sondern diese auch noch nach diversen Merkmalen unterscheiden und ausserdem die konkreten Folgen der Kollision für alle Beteiligten abschätzen kann. Diese Welt der vollständigen Information (von der wir noch sehr weit entfernt sind) paart sich im Gedankenexperiment mit einer verblüffenden Ignoranz gegenüber den Veränderungen, die autonome Fahrzeuge für den Strassenverkehr in seiner Gesamtheit mit sich bringen werden.

    Die entscheidende Überlegung mit dem Fahren überhaupt muss nämlich diese sein (Zitat)

    :Schon deshalb sollten wir uns nicht fragen, wessen Leben wir zu opfern bereit wären, sondern wie viele Leben noch durch Menschen am Steuer frühzeitig beendet werden sollen. Dabei hilft ein Blick in die Unfallstatistik: Verkehrsunfälle passieren, wenn der Mensch am Steuer abgelenkt, übermüdet oder gestresst ist. Wenn er Geschwindigkeitsbegrenzungen ignoriert, Alkohol oder Drogen konsumiert hat. Laut den Schätzungen verschiedener Experten gehen 80 bis 94 Prozent aller Verkehrsunfälle auf menschliches Versagen zurück.

    Die Diskussion um ethische Entscheidungen der Art “Wenn jemand sterben muss, weil es sich nicht vermeiden lässt, wer genau (aus welcher ethnischen, reproduktiven, etc. Gruppe) soll es dann sein?” passt in ihrer Falschheit gut zum Satz von Adorno:
    Es gibt kein richtiges Leben in einem Falschen.
    Angepasst an die Situation müsste dieser Satz so formuliert werden:
    Es gibt keine richtige Argumentation in einem falschen Rahmen.

    Um es an einem ganz anderen Beispiel noch deutlicher zu machen: Man hätte sich vorstellen können, dass im 3. Reich eine offener Diskurs unter Gebildeten und auch Philosophen entstanden wäre, in dem es darum gegangen wäre, wie man Juden am humansten umbringt. Daran hätten vielleicht sogar Philosophen teilgenommen, die von der Idee, Juden seien umzubringen, gar nichts gehalten hätten. Trotzdem hätten sie vielleicht an der Diskussion teilgenommen. Wie gesagt: Es gibt keine richtige Argumentation in einem falschen Rahmen.

    • damit Dilemmata auftauchen können, braucht das Auto nur zwischen Insassen und Menschenleben außerhalb des Autos unterscheiden und damit kalkulieren zu können. Differenziertere Erkenntnis ist dazu gar nicht notwendig. Und diese Erkenntis muß das Auto haben können, sonst wäre es vollkommen verkehrsuntüchtig.

    • wenn das Auto sicherer fahren kann als ein menschlicher Lenker, dann kann es Verkehrssituationen besser kalkulieren. Wenn das Auto Verkehrssituationen besser kalkulieren kann, können in der Kalkulation leichter Dilemmata auftreten. Es kann ja auch ein anderer Verkehrsteilnehmer den Anlaß geben.

      • @zabki: Ein autonomes Auto ist genauso wenig perfekt wie ein Mensch perfekt ist. Es wird andere Fehler als ein Mensch machen, weil es andere Schwächen hat. Die Schwäche heutiger Systeme mit künstlicher Intelligenz liegt in ihrer fehlenden Schlussfolgerungsfähigkeit und ihrem fehlenden Verständnis für komplexe Situationen, die Schwäche von Menschen liegt in ihrer Ablenkbarkeit, in ihrer Flüchtigkeit und der Möglichkeit plötzlich essentielle Dinge zu übersehen, zu “vergessen” (wie etwa das Vorfahrtsrecht oder die in Kurven notwendige Geschwindigkeitsanpassung).
        Beispiel: Ein autonomes Auto, welches Kinder am Strassenrand erkennt, wird vielleicht Schwierigkeiten haben, abzuschätzen, was diese Kinder als nächstes tun, während ein Mensch eventuell sofort erkennt, dass die Kinder sich nun als nächstes von der Strasse wegbewegen. Konsequenz: Das autonome Auto wird einen defensiven Fahrstil einprogrammiert haben und vor den Kindern verlangsamen, denn es betrachtet die Situation fälschlicherweise als unsicher. Der Mensch dagegen wird zufahren. Dieses Beispiel zeigt, dass auch ein System mit Erkenntnisschwächen sicher fahren kann – allein deswegen, weil es defensiv fährt. Ein autonomes Fahrzeug, welches defensiv fährt wird automatisch viel weniger Konfliktsituationen erleben, in denen es darum geht zwischem dem Tod von etwa Kindern gegen den Tod von etwa Arbeitslosen abzuwägen. Die Fahrstrategie (z.B. defensiv) ist nämlich auch eine Konfliktlösungsstrategie.
        Generell kann man sagen: Wer als Autofahrer in eine Konfliktsituation kommt, in der er zwischem der Verletzung von Verkehrteilnehmern abwägen muss, ist in den meisten Fällen ein riskant Fahrernder – oft ohne das selbst zu wissen. In den Entwurf eines autonomen Fahrzeugs und seines Fahrstils gehen dagegen statistische Überlegungen und Fahrphilosophien hinein, die tendenziell dazu führen, dass es weniger Unfälle und weniger schwerwiegende Konfliktsituationen gibt.

    • Adorno

      Es gibt kein richtiges Leben im falschen. [Quelle]

      Dieses Zitat wurde oft Deutschen, auch nationalsozialistischen Deutschen gesagt, wenn sie meinten im Dritten Reich anständig geblieben zu sein.
      Es erfreut sich international keiner besonderen Beliebtheit, auch deshalb nicht, weil es ethisch falsch ist.
      Es gibt stattdessen ein richtiges, anständiges Leben in „falscher Umgebung“ (gerade auch dann, wenn persönlich nicht abgereist werden kann).
      Dies wissen eigentlich alle, die in sozialistischen Gesellschaftssystemen gelebt haben.


      Im übertragenden Sinne muss im Kontext „Selbstfahrende Automobile“ und Fragen der Ethik meinend selbstverständlich an die sogenannte Menschenwürde (der international auch kein besonderer Wert, vs. Menschenrechte, zugesprochen wird – die Verankerung im Deutschen Grundgesetz ist eine (gut gemeinte) Folge des Nationalsozialismus, mehr nicht) ran und im Rahmen einer „ethischen Programmierung“ muss es zu Güterabwägungen kommen, die vom Konzept einer absoluten Menschenwürde nicht geleistet werden können.


      Vermutlich müssen perspektiv „Selbstfahrende Automobile“ alsbald juristisch dem öffentlichen Verkehrsbetrieb zugeschlagen werden, auch wenn die Inhaber dieser Automobile (vielleicht, also nicht notwendigerweise) Privatpersonen bleiben.

  5. Ethik – In dieser Welt- und “Werteordnung”???

    Autonomes Fahren und “Individualverkehr” – Absurder gehts nicht???

    Der Rahmen stimmt wirklich-wahrhaftig nicht – Konfusion in Überproduktion von systemrationalen KOMMUNIKATIONSMÜLL!!!

  6. Helga Rietz schreibt:

    Die künstlichen Szenarien vermitteln ein gefährlich falsches Bild davon, wie autonomes Fahren funktioniert.

    Zudem: Sie vermitteln auch ein falsches Bild vom Autofahren überhaupt, letztlich vermitteln sie ein völlig falsches Menschenbild.
    Das ist mir aber schon im Gymnasium an dem ich Philosophieunterricht hatte, aufgefallen. Der Philosophielehrer dort vermittelte das Bild eines durchwegs rationalen Menschen, vor allem in Bezug auf philosophische Argumentationen. Dabei war mir dazumal schon klar, dass nicht alles was Menschen sagen für bare Münze genommen werden darf, dass scheinbar Rationales oft gar nicht rational, sondern nur Rationalisierung ist.
    In Bezug auf das Autofahren gilt letztlich: Egal wer fährt, ob es ein Mensch oder eine Maschine ist, es müssen prinzipiell die gleichen Regeln gelten – ausser man einige sich darauf, dass mit dem autonomen Fahren ein völlig neues Zeitalter mit völlig neuen Regeln für Fahrer anbreche. Nimmt man aber an, dass für jeden Fahrer, ob nun Mensch oder Computer, die gleichen Regeln gelten, dann bedeutet dies doch, dass die Ethikregeln, über die jetzt diskutiert wird, ebenso für Menschen gelten müssten. Denkt man das konkret weiter und vergleicht es mit der heutigen Realität, dann erkennt sogar ein Philosoph, dass beim Autofahren Ereignisse zu schnell ablaufen, als dass man als Autofarhrer eine Abwägung treffen könnte. In der Realität macht man das beste, was einem noch möglich ist. Die Erfahrung zeigt zudem, dass nur speziell Trainierte überhaupt in der Lage sind innert Bruchteilen von Sekunden noch adäquat zu reagieren. Das ist genauso wie im Sport: Ein Judo- oder Karatekämpfer muss monatelang trainieren um sich schliesslich innert Bruchteilen von Sekunden richtig verhalten zu können. Ein Autofahrer müsste einem genauso strengen Trainingsregime folgen, um zu mehrheitlich “richtigem” Verhalten in schwierigen Situationen in der Lage zu sein. Trotzdem fährt jeder, der die Prüfung noch so knapp bestanden hat, munter drauflos. Das heisst doch ins Praktische gedreht: Die Verkehrsregeln, die Beschilderung und die Strassenauslegung muss bereits bekannte Schwächen von Autofahrern berücksichtigen. Es zählt der durchschnittliche Autofahrer, nicht der perfekte. Statistischen Überlegungen folgt auch die Einteilung in verschiedene Risikogruppen. Neulenker und sehr alte Autofahrer haben häufiger Unfälle. Auch autonome Fahrzeuge kann man in eine Risikogruppe einteilen. Wenn sich zeigt, dass autonome Fahrzeuge im Durchschnitt für weniger Unfälle verantwortlich sind, dann ist das der entscheidende Fakt – und nicht etwa die Tatsache, dass sie sich in bestimmten Situationen anders verhalten als Menschen und insbesondere Philosophen erwarten.

  7. Egal wer fährt, ob es ein Mensch oder eine Maschine ist, es müssen prinzipiell die gleichen Regeln gelten – ausser man einige sich darauf, dass mit dem autonomen Fahren ein völlig neues Zeitalter mit völlig neuen Regeln für Fahrer anbreche. Nimmt man aber an, dass für jeden Fahrer, ob nun Mensch oder Computer, die gleichen Regeln gelten, dann bedeutet dies doch, dass die Ethikregeln, über die jetzt diskutiert wird, ebenso für Menschen gelten müssten. Denkt man das konkret weiter und vergleicht es mit der heutigen Realität, dann erkennt sogar ein Philosoph, dass beim Autofahren Ereignisse zu schnell ablaufen, als dass man als Autofarhrer eine Abwägung treffen könnte.

    eben. Für den Autofahrer läuft im Falle eines Falles alles meist sehr schnell ab. Er handelt dann spontan. Aber der Programmierer handelt nicht spontan. Er hat Zeit, und er muß wissen, was er dem Auto sagt. Es ist dabei unerheblich, ob das durch direkte Programmierung oder duer “Lernen” geschieht. Auch wenn man Situationen simuliert und Bewertungen dem Auto vorgiebt, muß man sich entscheiden, welche Bewertungen das sein sollen. Daran führt überhaupt kein Weg dran vorbei. Mag sein, daß konsequenteres programmiertes defensives Fahren zu einer Verminderung von Unfällen führt – verhindern kann es sie nicht. Beispiel: Landstraße. Programmiertes Auto A fährt vorgeschriebene 70. Von hinten nähert sich Auto B (vielleicht gerade wegen des vorschriftsmäßigen Tempos) relativ nah an A. Vor Auto A setzt ein entgegenkommendes Auto C zu einem gewagten Überhohlmanöver an (vielleicht gerade, weil A relativ langsam fährt). Auto A “erkennt”, daß die Situation sehr kritisch wird. Was sollte Auto A tun? Was sollte es “lernen”? Der Mensch rekurriert auf seine Spontaneität, der Programmierer darf das nicht.

  8. @zabki: für Ihr Beispiel mit der drohenden Kollission mit Fahrzeug auf derselben Spur gilt das Gleiche wie für alle unvorhergesehenen Situationen, die man mit einem Programm abfangen muss: man wählt eine möglichst universell anwendbare Standardlösung. Beispielsweise könnte das Auto verlangsamen, weil bei langsamerer Fährt Kollissionen im allgemeinen weniger schlimme Folgen haben. Zuviel Intelligenz in einen Ausnahmefall zu stecken ist dagegen falsch, denn Spezialbehandlungen eröffnen selbst Fehlerquellen. Und wie gesagt, es kommt nicht drauf an, ob es eine bessere Lösung gibt, sondern darum, dass das autonome Auto im Durchschnitt nicht schlechter fährt als ein Mensch.

    • @hto: Cyberangriffe können ein Problem sein, vor allem, wenn Software jederzeit ins autonome Auto heruntergeladen werden kann. Eine Lösung wäre das gar nicht zu erlauben, die Software des autonomen Autos zu isolieren und ein Update nur unter erhöhten Sicherheitsmassnahmen zu zuzulassen.

  9. Der Begriff autonomes Fahren ist irreführend.
    In der Praxis werden die Fahrzeuge untereinander kommunizieren. Das wird den großen vorteil ausmachen, nicht dass der Fahrer die Hand vom Lenkrad nehmen kann.

    • @R. (zitat):

      In der Praxis werden die Fahrzeuge untereinander kommunizieren.

      Antwort: heute gibt es mehr teilautonome als miteinander kommunizierende Fahrzeuge und wenn später von Auto zu Auto kommuniziert wird, aber nur von wenigen Fahrzeugen, hat das kaum Einfluss auf den Gesamtverkehr. Viel wahrscheinlicher ist für mich, dass Gemeinden und Städte “autonome Verkehrszonen” ausscheiden, beispielsweise den autonomen Verkehr auf einen Teil ihres Strassennetzes beschränken. Städte werden überhaupt in den nächsten 20 Jahren die wichtigste Rolle bei der Entwicklung des autonomen Verkehrs spielen, denn in dieser Frühphase ist ein vollautonomer Verkehr nur in speziellen Zonen möglich, während in allen anderen Zonen höchstens Assistenzsysteme (die es aber heute schon in den meisten neuen Autos gibt) in Frage kommen. Beispiel: Shanghai (die Land Transport Authority (LTA)) will die Strassenfläche in Shanghai reduzieren indem es den Verkehr von autononomen Busen und Taxis fördert. Zitat: Wir konzentrieren uns auf Selbstfahrtechnologie in grossem Umfang, weil sie das Potenzial hat, den öffentlichen Verkehr drastisch zu verbessern. Zum Beispiel könnten wir eine Flotte von geteilten selbstfahrenden Shuttles/Taxis haben, die uns von unserer Haustür zur MRT-Station (Metrohaltestelle) bringen können. Selbstfahrende Busse wiederum könnten den Fahrermangel beheben “, sagte der Vizetransportminister Ng Chee Meng.

  10. Selbstfahrende Autos

    Schuldfragen

    Kommt es zu Unfällen (mit oder ohne Personenschaden), kann im Regelfall, wenn keine Fehlbedienung durch den Nutzer vorliegt und keine Fehlprogrammierung durch den Hersteller, weder dem Nutzer noch dem Hersteller juristische Schuld angetragen werden.
    Denn Unfälle (mit oder ohne Personenschaden) passieren, auch mit selbstfahrenden Automobilen.

    Vermutung:
    Diese Frage wird über Pflicht-Versicherungen bearbeitet bis beantwortet werden.

    Ethikfragen

    Vermutung:
    Diese werden in einem nie enden währenden gesellschaftlichen, politischen Prozess bearbeitet werden, es wird hier noch vie-iel Ärger geben.
    Beispiele können sich gedacht werden.
    Vermutlich müssen die ethischen Fragen, spezielle „ethische Programmierung“ meinend, den Herstellern weggenommen werden, indem ihnen von politischer Seite der Zugriff auf diese Programmierung weggenommen wird, dieser verstaatlicht wird.
    Anders geht’s wohl nicht.


    MFG
    Dr. Webbaer (der hier ein ganz spannendes Thema festzustellen hat und für den WebLog-Eintrag dankt)

  11. Ethische Programmierung von (autonomen) Fahrzeugen kann nur ein Witz sein – das wissen eigentlich alle. Dennoch könnte es die Öffentlichkeit, Ethikausschüsse und ganze Philosophengenerationen prägen und beschäftigen – ähnlich etwa wie genderneutrale Toiletten und ähnliches. Denn es geht um ein emotional hochbesetztes Feld. Welcher schwarze Autofahrer beispielsweise wird es zulassen, dass sein autonomes Fahrzeug seinen schwarzen Freund niederfährt, wenn das Auto auch die Möglichkeit gehabt hätte, stattdessen die danebenstehende weisse Singlefrau in den unvermeidlichen Tod zu schicken? Dass so etwas wahrscheinlich innerhalb des Lebens des Autobesitzers, der sich damit beschäftigt, gar nie vorkommt, spielt da gar nicht so eine grosse Rolle, denn es ist ein emotioanales, ein symbolisches Thema.
    Immerhin kann man sagen: Besser Philosophen und ethisch/identitär orientierte Politiker beschäftigen mit solchen Problemen als etwa mit der Rechtfertigung von Kriegen und Genoziden wie sie das früher gemacht haben.

    • Na! (kuz gesprochen), lieber Herr Holzherr :

      Ethische Programmierung von (autonomen) Fahrzeugen kann nur ein Witz sein – das wissen eigentlich alle. Dennoch könnte es die Öffentlichkeit, Ethikausschüsse und ganze Philosophengenerationen prägen und beschäftigen – ähnlich etwa wie genderneutrale Toiletten und ähnliches.

      “Ethische Programmierung” von automatisiertem Gerät, hier : von Fahrgerät, ist ein wichtiger Punkt und wird zunehmend wichtiger.
      Der werten hiesigen Inhaltegeberin bleibt zu danken ihn aufbereitet zu haben.
      “Gender” dagegen ist etwas für die anderen, korrekt.

      MFG + schöne Woche noch,
      Dr. Webbaer

  12. Autos, die Kollisionen (durch Bremsen) oder gefährliche Spurwechsel (durch Gegenlenken) verhindern, gibt es jetzt schon. Und diese stehen jetzt schon vor ethischen und legalen Problemen, wenn ihr Eingriff selbst mit einem moralischen Dilemma verbunden ist. Beispiel: Ein menschlicher Fahrer könnte gewollt oder ungewollt gegen eine Personengruppe fahren und der Fahrassistent sieht für die Kollisionsverhinderung nur noch die Möglichkeit zur Seite auszuweichen, wobei aber auf jeder der Ausweichseiten auch eine Einzelperson steht. Gemäss Here’s How Tesla Solves A Self-Driving Crash Dilemma hat die Autofirma Tesla ihr Auto so programmiert, dass ein Abbrems- oder Ausweichmanöver keine weiteren Personen schädigt, selbst wenn dadurch ein grösserer Unfall verhindert werden könnte (Zitat):

    Den Fahrer weiter gegen die Personengruppe fahren lassen, bedeutet, dass der Autohersteller (hier Tesla) diesen großen Unfall nicht verhindert, aber es trägt zumindest keine Verantwortung für die Schaffung eines anderen Unfalls, den es gäbe, wenn das Auto zur Seite ausweicht und in die dort stehende Person fährt. Es rettet die fünf Leute in Fahrrichtung nicht, aber – wie viele Ethiker und Rechtsanwälte übereinstimmend meinen – es gibt eine größere Pflicht als Todesfälle verhindern, die Pflicht nämlich, nicht zu töten.

  13. @Holzherr:

    Egal wer fährt, ob es ein Mensch oder eine Maschine ist, es müssen prinzipiell die gleichen Regeln gelten

    und was geschieht beim Regelbruch? Das Auto selbst kann nicht vor Gericht gestellt werden.

    Ethische Programmierung von (autonomen) Fahrzeugen kann nur ein Witz sein – das wissen eigentlich alle
    und
    Gemäss Here’s How Tesla Solves A Self-Driving Crash Dilemma hat die Autofirma Tesla ihr Auto so programmiert, dass ein Abbrems- oder Ausweichmanöver keine weiteren Personen schädigt, selbst wenn dadurch ein grösserer Unfall verhindert werden könnte

    das ist doch eine ethisch fundierte Regel einprogrammiert, wenn auch eine einleuchtende.

    Gutes Beispiel dennoch für die Problematik:
    Was, wenn das Auto Pfosten am Straßenrand als Menschen identifiziert und daher geradeaus in die wirklichen Menschen hineinfährt? Wird nicht vor Gericht in jedem Fall überprüft werden müssen, ob die Programmierung/Messeinrichtung fahrlässigerweiser nicht optimal war? Das Problem tritt natürlich jetzt bei technischen Mängeln ebenfalls schon auf. Fragt sich, ob sich das Risiko nicht für einen Programmierer in nicht tragbarer Weise vervielfältigt.

    • @zabki (Zitat):

      Fragt sich, ob sich das Risiko nicht für einen Programmierer in nicht tragbarer Weise vervielfältigt.

      Nie ist ein einzelner Programmierer allein für ein Fehlverhalten eines programmierten Systems verantwortlich, genauso wenig wie ein einzelner Ingenieur verantwortlich gemacht wird, wenn eine Brücke einstürzt. Neu sind solche Verantwortlichkeitsprobleme überhaupt nicht, auch nicht im Bereich Softwareengineering, denn beispielsweise Autopiloten in Flugzeugen gibt es schon mehrere Jahrzehnte und es gibt eine ganze Reihe von seltsamen Vorkommnissen mit Autopiloten (in Flugzeugen). Dennoch wird auf Autopiloten in Flugzeugen nicht mehr verzichtet, einfach deshalb weil Autopiloten trotz gelegentlichen Mätzchen immer noch um vieles zuverlässiger sind als Menschen. Zudem begehen Autopiloten in Flugzeugen oder auch Autos fast immer systematische Fehler, Fehler also, die ausgemerzt werden können. Jeder Mensch aber, der Autozufahren beginnt oder zu fliegen beginnt ist ein neues Risiko und verhält sich typischerweise nicht berechenbar und kaum korrigierbar.

  14. es ist vielleicht nicht überflüssig pedantisch darauf hinzuweisen, daß ethische Regeln nicht für Autos, nur für Menschen gelten. Also für Fahrer oder für Programmierer, die Fahrverhaalten programmieren.

    ein wohl ständig geltende und f passiert, wenn das Auto so fährt, daß bei einem menschlichen Fahrer Verstoßast triviale ethischeV Regel lautet “befolge die Straßenverkehrsordnung”- Die StVO enthält auch den § 1. Wie programmiert man so etwas? Was passiert, wenn das Auto so fährt, daß bei einem menschlichen Fahrer Verstoß gegen § 1 festgestellt würde?

  15. besser:

    ein wohl ständig geltende und fast triviale ethischeV Regel lautet “befolge die Straßenverkehrsordnung”- Die StVO enthält auch den § 1. Wie programmiert man so etwas? Was passiert, wenn das Auto so fährt, daß bei einem menschlichen Fahrer Verstoß gegen § 1 festgestellt würde?

  16. Deutschland definiert Regeln für fahrerlose Autos auf vermeldete Reuters am 23. August 2017. Und in diesen Regeln kommt bereits ein ethisches Dilemma vor: Das autonome Auto sollte Menschen Vorrang vor Tieren geben, also im Notfall eher einen Hund überfahren als einen Menschen. Zitat (Google translate ohne Verbesserung meinerseits):

    Unter neuen ethischen Richtlinien, die von einem von der Regierung ernannten Ausschuss mit Fachleuten in Ethik, Recht und Technik erstellt wurden, muss die Software, die solche Autos kontrolliert, programmiert werden, um Verletzungen oder Tod von Menschen um jeden Preis zu vermeiden.

    Das heißt, wenn ein Unfall unvermeidbar ist, muss die Software wählen, welche Aktion die Menschen am wenigsten verletzen wird, auch wenn das bedeutet, Eigentum zu zerstören oder Tiere auf der Straße zu schlagen, zeigte ein Transportministerium.

    Die Software kann sich nicht über ihre Vorgehensweise auf der Grundlage des Alters, des Geschlechts oder der körperlichen Verfassung der beteiligten Personen entscheiden.

  17. Der Tagesspiegel-Artikel Ethik-Kommission schlägt 20 Regeln vor geht noch detaillierter auf die Arbeit der Ethikkommission ein, welche für autonomes Fahren in Deutschland Regeln aufgestellt hat. Zitat:

    In Gefahrensituationen habe der Schutz menschlichen Lebens immer Vorrang, etwa gegenüber möglichen Sach- oder Tierschäden. Bei unausweichlichen Unfallsituationen dürfe es zudem keine Qualifizierung von Menschen nach persönlichen Merkmalen wie Alter, Geschlecht, körperlicher oder geistiger Konstitution geben. „Jedes Menschenleben ist gleich“, sagte Di Fabio.

    Die Kommission fordert auch eine Blackbox welche alle Fahraktionen aufzeichnet inklusive ob sie vom Computer oder vom Fahrer ausgegangen sind. Damit soll nachvollziehbar werden, ob der Computer oder der Fahrer für einen Unfall verantwortlich ist. Für den Computer als Fahrer gelten letztlich die gleichen Regeln wie für einen menschlichen Fahrer hält die Kommission noch fest.

    • @ Herr Holzherr :

      Für den Computer als Fahrer gelten letztlich die gleichen Regeln wie für einen menschlichen Fahrer hält die Kommission noch fest.

      Blöderweise gelten diese Regeln nicht gleich, auch wenn sie gleich beschaffen sind, weil die Robotik so nicht rechtlich belangt werden kann, wie der menschliche Fahrer (wenn es zu körperverletzenden Verkehrs-Ereignissen kommt).
      Auch die Bereitsteller dieser Robotik können nicht sinnhafter dbzgl. und mit ethischer Sicherheit belangt werden.

      Sogenannte ‘Ethik-Kommissionen’ dümpeln insofern ethisch herum und wissen nicht, wie “ethisches autonomes Fahren’ sinnhafter- und eben ethischerweise bearbeitet werden könnte.
      Dr. W hat hier viele Vorteile, weil er sich im IT-Bereich ein wenig auskennt und zudem viel SciFi gelesen hat, bspw. auch die sogenannten Robotergesetze, und womöglich auch ein wenig philosophisch begabt ist.

      Auch dies hier bleibt Murks :

      Bei unausweichlichen Unfallsituationen dürfe es zudem keine Qualifizierung von Menschen nach persönlichen Merkmalen wie Alter, Geschlecht, körperlicher oder geistiger Konstitution geben. „Jedes Menschenleben ist gleich“, sagte Di Fabio.

      …denn es könnte ja schon auf die Idee gekommen werden, dass im Straßenverkehr minderleistende Robotik in der Verantwortung ihres Nutzers steht, anders bearbeitet werden darf als funktionierende.
      Bei Mengenangaben wird dies direkt klar, sollen ein oder mehrere Verkehrsteilnehmer, idR Menschen, zwangsweise überfahren werden? Wie soll der Fahrer selbst in Gefahrensituationen ethisch berechtigt / berücksichtigt werden? Besser oder gar schlechter als andere Fahrer (mit ihrer jeweiligen Verantwortlichkeit für die hier gemeinte Robotik)?

      Oder gibt es überhaupt eine Verantwortlichkeit der KfZ-Inhaber für die für ihnen genutzte Robotik?

      Insofern, auch ein wenig vom Thema abweichend, dennoch ergibt sich hier ein Sinnzusammenhang, guckt Dr. Webbaer nur ein wenig blass auch auf Aussagen aus dem Hause Gerhart Baum, in anderem, aber vergleichbaren Zusammenhang :
      -> https://www.derwesten.de/kultur/fernsehen/ex-minister-baum-kritisiert-ard-film-terror-ihr-urteil-id12283916.html (K-Probe : ‘Ein todgeweihtes Leben ist genauso viel wert wie ein Leben mit Zukunft, fünf Leben sind genauso wertvoll wie 50 oder 5.000. Das ist unsere Verfassung, so, wie sie von Anfang an interpretiert worden ist.’ – Güterabwägungen scheint einigen, auch liberalen, Sportsfreunden gänzlich fern zu stehen)

      MFG
      Dr. Webbaer

  18. Lkw-Fahrer greift zu Trinkflasche und verursacht Gefahrgutunfall ist ein Beispiel für einen typisch menschlichen Fahrfehler: Eine kurze Unaufmerksamkeit als ein häufiger Grund für einen Unfall. Autonom fahrende Fahrzeuge dagegen sollten praktisch keine solchen Unfälle verursachen. Bei autonomen Fahrzeugen ist vielmehr Schwächen der Sensorik und Verarbeitung als Unfallursache zu rechnen. Wie beim Fliegen werden solche Unfälle untersucht, Korrekturen in alle betroffenen Automodelle eingebaut und die Flotte der autonom fahrenden Fahrzeuge somit immer sicherer werden.

  19. Ethische Folge-Probleme des autonomen Fahren: Zuwenig (tödliche) Unfälle
    (Mindestens) 90% aller heutigen Verkehrsunfälle gehen auf Fehler des Fahrers zurück. Autonome Fahrzeuge werden nach einer Einführungsphase fast alle dieser Fehler vermeiden mit folgenden unangenehmen Folgen:
    – Autoversicherungen verlieren bei viel weniger Unfällen einen Grossteil ihrer Versicherungsgelder. Sie reduzieren Personal, es werden Angestellte auf die Strasse gestellt (wo sie aber nicht überfahren werden!)
    – Es gibt viel weniger Unfalltote und damit auch deutlich weniger Transplantationsorgane. Folge: Noch mehr Herz- und Nierenkranke werden vergebens auf ein Organ warten, weil bei viel weniger Verkehrstoten auch weniger Organe , gerade auch weniger Organe von jungen, gesunden Menschen zur Verfügung stehen werden. Das erinnert mich an das sehr lebendig geschriebene Buch Die Lebenden reparieren, wo über das Heil berichtet wird, welches ein gespendetes Herz eines jungen Verkehrstoten, spenden kann.

    Zusammenfassung: Autonome Fahrzeuge erzeugen gerade über ihren Erfolg neue ehtische Probleme: Mit weniger Verkehrstoten verschärft sich der Organmangel und Leute aus der Versicherungsbranche verlieren ihre Stelle, weil es viel weniger Unfälle gibt. Die Titelfrage

    Autonomes Fahren – Eine Frage der Ethik?

    stellt sich damit neu und in ganz anderer Form als wohl ursprünglich vorgesehen.

Schreibe einen Kommentar




Bitte ausrechnen und die Zahl (Ziffern) eingeben