Wie die Ethik selbstfahrender Autos nicht funktioniert
Ich muss mal etwas loswerden, weil es mich wahnsinnig anstrengt. Es geht um Ethik, oder was Leute dafür halten. Nehmen wir die aktuelle Kolumne von Adrian Lobe über die ethischen Probleme, die sich beim autonomen Fahren[1] stellen. Da heißt es:
“Stellen Sie sich vor, ein autonomes Fahrzeug fährt im Stadtverkehr auf eine Kreuzung zu. Plötzlich rennt unvermittelt ein Kind auf die Straße. Die Abstandsmesser stellen fest, dass ein Bremsvorgang bei dieser Geschwindigkeit zu spät kommt und nur noch ein Ausweichmanöver möglich ist. Was soll der Fahrcomputer in dieser Situation tun? Nach links ausweichen und den Motorradfahrer rammen? Oder nach rechts ziehen und die Fußgängergruppe ziehen? Dieses zunächst etwas konstruiert wirkende Gedankenexperiment ist keine graue Theorie aus dem Elfenbeinturm, sondern bekommt mit der Entwicklung selbstfahrender Autos eine höchst praktische Relevanz.”
OK, ich möchte bitte lösen:
Wir setzen einfach die Höchstgeschwindigkeit auf den Straßen so an, dass der Computer dank seiner überlegenen Rechen- und Manövrierfähigkeit mit hinreichender Wahrscheinlichkeit eine Möglichkeit findet, einen tödlichen Unfall zu vermeiden.
Was, nicht gut? Offensichtlich sind wir bereit, tödliche Unfälle im Straßenverkehr grundsätzlich zu akzeptieren.
Außerdem ist das Szenario oben Unfug. Es ist eine Variante des Trolley-Experiments, also ein gezielt konstruiertes Dilemma. Es gibt dabei per Definition keine Lösung. Solche Gedankenexperimente sind deswegen unter Umständen hilfreich, unterschwellige psychologische Präferenzen offenzulegen – wobei einige Fachleute inzwischen auch das bezweifeln[2] – aber für die Bewertung realer Entscheidungssituationen komplett unbrauchbar. Das Szenario setzt perfekt vollständige Informationen über die Ausgänge aller möglicher Entscheidungen voraus. Die hat man nicht, auch kein Computer.
Deswegen sind solche Trolley-basierten Diskussionen, siehe Fußnote zwei, völlig albern. Was stellen sich die Leute vor, wie so ein Fahrzeug programmiert wird? “Wenn es keine Alternative gibt, fahr lieber den Rentner tot”? Natürlich muss die Steuerung des Fahrzeuges darauf ausgerichtet sein, in jeder Situation bis zum bitteren Ende Menschenleben maximal zu schützen. Das wird in der Praxis nicht immer funktionieren, aber diese ethische Entscheidung – sind wir bereit, für eine möglichst umfassende individuelle Mobilität tausende Menschenleben zu opfern? – haben wir ja längst getroffen. Siehe oben.
Die eigentliche, viel interessantere ethische Frage ist, wie wir damit umgehen, dass wir das Handeln des Fahrzeugs nie komplett kontrollieren können. Man kann zwar Vorgaben ab Werk machen, aber wie sich die in komplexen realen Situationen auf das Verhalten des Fahrzeugs auswirken, wissen wir im Zweifel nicht mit letzter Gewissheit.
Damit kommen wir auch auf das viel profanere, aber für das automatisierte Fahren entscheidende Problem, das Lobe dann ja auch benennt: Wer hat Schuld, wer muss zahlen, wenn mit so einem autonomen Fahrzeug tatsächlich was passiert? Nach welchen Prinzipien muss die Steuerung eines solchen Fahrzeugs funktionieren, damit nicht jedes mal die Coderknechte hingehängt werden? Sollen die Autos vielleicht sogar kollektiv aus Unfällen lernen und mithin ihre Steuerungsprinzipien eigenständig ändern?
Das ist ein sehr wichtiges und kompliziertes Thema, das natürlich auch ethische Fragestellungen berührt. Aber eben nicht die, ob das selbstfahrende Auto lieber Opa oder Enkel totfährt. Auch bei vermeintlich “ethischen” Diskussionen darf man zwischendurch mal das Gehirn einschalten.[3] Es nervt.
[Ich habe den Text anlässlich des Videos an zwei Stellen noch mal überarbeitet, d.h. einige Kommentare können sich auf Aspekte der älteren Version beziehen]
.
.
.
[1] Bitte sagt mir, dass ihr bei dem Begriff auch immer so nen klapprigen gelben Fiat Panda vor Augen habt, in dem ein schwarz Vermummter bei voller Fahrt Mollis aus dem Fenster wirft.
[2] Mit der nachvollziehbaren Begründung, das Szenario sei so albern, dass zwei Drittel der Versuchspersonen erstmal lachen müssen und das die Bewertung der Situation verändert.
[3] Es ist einfach grundsätzlich eine ganz, ganz dumme Idee, Autos darauf zu programmieren, nach bestimmten Kriterien gezielt Menschen zu töten.
Wenn das Auto – wie die Ethikkommission ansagt – darauf programmiert ist, “den Verlust an Menschenleben zu minimieren”, dann würde es vermutlich das Kind überfahren, da der Motorradfahrer auch nur EIN Mensch ist, genau wie das Kind. Die Gruppe käme nicht in Betracht.
Dabei gehe ich von einer Programmierung aus, die bei gleichen Rechtsgütern das Nichts-Tun (=nicht ausweichen) gegenüber dem Tun (anderes Opfer wählen) vorzieht.
Das Trolley-Problem geht in der bekannteren Fassung ganz ähnlich, jedoch schlichter:
“Eine Straßenbahn ist außer Kontrolle geraten und droht, fünf Personen zu überrollen. Durch Umstellen einer Weiche kann die Straßenbahn auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Darf (durch Umlegen der Weiche) der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?”
Es handelt sich durchaus um ein ethisches Dilamma, wie man gut belegt auf Wikipedia nachlesen kann.
Unethisch wird die Fragestellung, wenn den in Betracht stehenden Opfern konkrete Eigenschaften zugeordnet werden (erwachsener Motorradfahrer, Kind..), die ein Urteilen über unterschiedliche “Nützlichkeiten” verschiedener Leben erzwingen. Das ist hier der Fall, insoweit ist die Kritik berechtigt.
Die ethische Bewertung auf Wikipedia ist komplex, zeigt jedoch deutlich, dass es sich wirklich um ethische Probleme handelt – ja was denn sonst?
Ich finde es nicht falsch, sich als Gesellschaft darüber Gedanken zu machen, wenn das autonome Autor fast schon vor der Tür steht.
Dass die Wikipedia das Trolley-Experiment als ethisches Problem einsortiert ist ja schön und gut, aber ich sehe das im engeren Sinne nicht so. Es ist ein Gedankenexperiment, um Herangehensweisen an ethische Probleme zu verdeutlichen – aber das ist meiner Ansicht nach etwas anderes.
Außerdem geht es ja hier nicht um das Trolley-Experiment generell, sondern um die konkrete Übertragung auf ein praktisches Problem. Und das ist einfach ein Kategorienfehler, weil das Trolley-Experiment eben ein Gedankenexperiment mit perfekt bekannten Ausgängen ist.
Bemerkenswert an der Diskussion ist aus meiner Sicht als Jurist, dass nach dem geltenden Recht der Weg des Autos nicht geändert werden darf. Im Eingangs genannten Beispiel muss daher das Kind überfahren werden.
Dies begründet sich daraus, dass das Strafrecht grds. Handeln bestraft und nicht Unterlassen (einer Handlung). Nichtstun führt im Beispiel daher zur Straffreiheit. Den Motorradfahrer oder die Gruppe aktiv anzusteuern setzt eine gezielte Handlung voraus und der Fahrer wird u.a. wegen schwerer Körperverletzung bestraft.
An dem Ergebnis änderte sich nichts, wenn statt des Kindes eine Kindergruppe auf die Straße stürmte. Denn eine Abwägung von Leben ist dem Strafrecht in der derzeitigen Fassung fremd – bisher unbeteiligte mit dem Auto zu “attackieren” wäre nicht zu rechtfertigen.
Das vorstehende Ergebnis wird im Studium auch mit der Menschenwürde der unfreiwilligen “Ersatzunfallopfer” begründet. Es sei daher die einzig rechtlich und ethisch vertretbare Lösung. Wieso dies bei einem autonomen Auto nicht mehr gelten soll, erschließt sich mir nicht.
Auch “Autofahren” ist eine Handlung, die Argumentation funktioniert nur bei dem bekannten Trolleyproblem mit der umzustellenden Weiche. Im Endeffekt würde aber auch beim Trolleyproblem niemand bestraft, egal ob wen man dabei umfährt, weil es im Zweifel wohl ein Fall von § 35 StGB wäre (es sei denn, der Fahrer hätte den Wunsch, eine bestimmte Person zu töten und nicht nur den Tod einer anderen zu vermeiden). Darüber Aussagen zu treffen ist aber auch hypothetisch genauso wie jede “Lösung” des Trolleyproblems.
Grundsätzlich gesehen gab es bisher genau 0 dieser Fälle, soweit mir bekannt, und das wird sich mit dem autonomen Fahren wohl auch nicht ändern. Insofern ist die Diskussion und erst recht die Aufregung über die Frage übertrieben.
Es gibt nicht immer Alternativen. Das Szenario ist absolut plausibel. Eine Reduzierung der Höchstgeschwindigkeit im realistischen Rahmen löst das Problem auch nicht. Würde man die Geschwindigkeit extrem beschränken, wären die Autos von vornherein sinnlos. Die Steuerung versucht, Menschenleben maximal zu schützen – ja, das ist das Grundprinzip, aber beantwortet nicht das Dilemma. Ist es akzeptabel, dass ein Auto “bewusst” eine Person umfährt, um einer größeren Zahl von Personen auszuweichen? Wie ist das z.B., wenn mehrere Personen sich regelwidrig auf der Fahrbahn aufhalten, und eine läuft korrekt auf dem Gehweg? Soll die dann im Zweifelsfall geopfert werden für die anderen? Die Frage, wer zahlen muss, ist dagegen unproblematisch. Da sollte der Fahrzeughalter haften, so wie Eltern für ihre Kinder haften. Eine strafrechtliche Schuld bestünde bei normaler Benutzung eines zugelassenen autonomen Fahrzeugs nicht. Jeder Unfall wäre entweder Schuld eines anderen Verkehrsteilnehmers oder als technisches Versagen einzustufen.
Auch jetzt schon gibt es eine einfache Regel im Straßenverkehr:
Situations angepasste Fahrweise.
Wenn die Straßensituation so unübersichtlich ist, dass jemand so schnell auf die Fahrbahn gelangen kann, dass das autonome Fahrzeug nicht mehr bremsen könnte, muss es langsamer fahren um solche Situationen zu vermeiden. Damit ist kein Stillstand gemeint.
Hinzu kommt, dass ein autonomes Fahrzeug sehr viel schneller reagieren könnte als ein Mensch. Ein Teil des Bremsweges entfällt also. Es muss also nicht langsamer fahren als ein Mensch in der gleichen Situation.
Ein Mensch der sich als Fahrer in einer Verkehrssituation wie oben beschrieben wiederfindet, hat bereits etwas falsch gemacht. Er ist viel zu schnell gefahren. Warum sollte eine Regel, der man auch vor Gericht begegnet und dazu führt dass der Autofahrer fast immer eine Teilschuld erhält nicht auch konsequent beim autonomen Fahren gelten?
Daher stimme ich Herrn Fischer zu. Da wird ein nicht existentes Problem künstlich aufgebaut.
Stimme dir völlig zu Lars. Denkfehler alleine ist schon (wie bei vielen Diskussionen, die aber zu vereinfacht an die Sache rangehen und zu binär denken – was der Realität eben selten entspricht): wie soll die Software denn wissen, wer wie wo getroffen wird, ob er es überlebt oder nicht?
Das alleine ist nicht einschätzbar.
Es wird immer ein Hindernis geben, was ein wenig weiter entfernt ist als das andere.
Software: “Hindernis A” –> Vollbremsung, möglichst ein etwas weiter entferntes “Hindernis B oder C” ansteuern.
Das Ausweichen auf feste Hindernisse statt auf Menschen sollte auch kein Problem sein in der Stadt. Auch das kann man nicht wissen, ob das überhaupt gefährlicher ist für den Insassen. Baumtreffer vs Person, die durch Scheibe fliegt. (Gehen wir mal davon aus, dass die Crashtests bei 50 kmh die Wahrheit sagen).
Ich stimme Lars Fischer weitgehend zu und möchte noch Folgendes ergänzen: Neben der Programmierung des autonomen Fahrzeuges auf Risikominimierung – und genau diese Notwendigkeit zeigen ja gerade diese Dilemmasituationen auf – , bspw. langsames Passieren von an Gehwegen geparkter Autos (Kind läuft unverhofft auf die Straße), könnte für die “Entscheidung” der Computersteuerung gelten, dass Personen die Folgen eigenen Fehlverhaltens zu tragen haben und niemand anderes unverschuldet verletzt/getötet wird.
Das würde im Falle des auf die Straße laufenden Kindes bedeuten, dass letztlich dieses Kind, obwohl hier nicht von verantwortlichem Fehlverhalten gesprochen werden kann, die betroffene Person wäre. Insofern spielt der Zufall bei dieser Idee auch eine Rolle, aber nicht als Würfeln, sondern als zufällig entstandene Situation.
Verlassen wir die Dilemmasituation und brechen das Problem auf den Alltag herunter, so ergibt sich, dass das autonome Fahrzeug am ehesten geeignet ist, Personenschäden zu minimieren: kein menschliches Fehlverhalten am Steuer (zu schnelles Fahren, Fehlreaktion wegen Erschrecken), maximale Reaktion zur Schadensbegrenzung (Vollbremsung und rechts in geparktes Fahrzeug lenken).
Ich erwarte, dass mit technischer Reife des autonomen Fahrens sogar die Diskussion zum Lenkverbot für Menschen angestoßen werden wird!
Gerd Schneider
Flächendeckendes autonomes Fahren wird garnicht anders möglich sein, als wenn dem Menschen jegliche Entscheidungsgewalt im Verkehr entzogen wird. Und die Flächen müssen abgegrenzt sein, dass es Fußgängern nicht möglich, ist die Fahrbahn zu betreten. Ansonsten ist es nämlich sehr einfach das ganze zu sabotieren: Es stellt sich alle 100m jemand auf die Straße und macht bei einem herannahenden Fahrzeug einen Schritt auf die Fahrbahn. Bei entsprechender Häufigkeit kommt damit jeder Verkehr zwangsweise zum erliegen.
Danke, ich habe auch häufig den Eindruck, dass Leute die sich über diese angeblichen Probleme Gedanken machen, noch nie etwas programmiert haben.
Andererseits finde ich die Fragestellung schon interessant, wenn es um die Abwägung “Leben des Fahrers schützen” und “Leben der Anderen schützen” geht.
Typisches Beispiel: Reh (wahlweise Mensch, aber erstmal klein anfangen) auf der Fahrbahn. Optimal um das Risiko des Fahrers zu minimieren wäre gerade weiter zu fahren und möglichst zu bremsen.
Überlebenswahrscheinlichkeit des Rehs: Niedrig
Überlebenswahrscheinlichkeit des Fahrers: Sehr hoch.
Eine andere Variante wäre es (bei leerer, übersichtlicher Fahrbahn) auszuweichen.
Überlebenswahrscheinlichkeit des Rehs: Hoch
Überlebenswahrscheinlichkeit des Fahrers: Sehr hoch (aber minimal kleiner als zuvor).
Und an der Stelle muss man als Programmierer irgendwo für alle Fahrer eine Entscheidung treffen, die der einzelne Fahrer vermutlich individuell sehr unterschiedlich treffen würde.
Mir wäre spontan nicht klar, wie man hier entscheiden sollte. Dazu kommt natürlich der ökonomische Aspekt. Welches Auto würde man eher kaufen: Das was im Zweifelsfall den Fahrer schützt oder das Reh/den Passanten?
Ich sehe das auch so. Bei der Frage, welchen Stellenwert der Schutz des Fahrers hat, wird man diskutieren müssen. Aber auch da denke ich, dass das keine ethische Frage ist – ethisch gesehen sind Insassen und andere Verkehrsteilnehmer m.E. offensichtlich äquivalent – sondern eine regulatorische, diese Äquivalenz auch durchzusetzen.
Liebes Auto!
Bitte vertraue auf Deine 48 Airbags, die automatischen Gurtstraffer und schalte das ABS aus, bevor Du mit blockierenden Rädern gefälligst in die nächste Wand knallst. Wenn Du schon ein oder mehrere Leben riskieren mußt, dann halte Dich an diejenigen, die sich dafür entschieden haben sich von Dir fahren zu lassen.
Es ist tatsächlich unethisch, mit ethischen Dilemmata den Menschen in einen Gewissenkonlikt zu zwingen.
In jeder Extremsituation hat der nämlich sowieso keine Möglichkeit, halbwegs darüber zu denken.
Zur Abhilfe dessen, was beim computergesteuertem Fahren trotz schnellerer Berechnung von Fahrsituationen noch passieren kann (Menschen vor dem Auto), könnte man noch einen Airbag an der Stoßstange vorsehen, der bei unvermeidbaren Unfällen mit “Weichteilen” (ähm, Menschen) den Zusammenstoß mildert. (und damit er nicht weggeschleudert wird, böte sich Klebstoff an, der ihn am Luftsack halten sollte – wenn sowas geht).
zu 1)
Nein, habe ich nicht. Aber jetzt, da dieses Mem in meinem Hirn ist, könnte es zukünftig sein, dass ich an “autonome” Fahrer denke. Ansonsten kann man ja ab jetzt auch “computergesteuertes Fahren” sagen, wenn es um die Wollmilchlegende Dingssau geht.
Bei Flugzeugen gibt es den Autopilot. Und der ist eine Entlastung für den Piloten. Wenn ein Flugzeug bei Nebel landen muss, kann sich der Pilot auf den Autopilot verlassen.
Bei den Automobilen wird die Entwicklung auch in diese Richtung gehen.
Zuerst übernimmt der Autopilot Teilfunktionen, z.B. beim Kolonnenfahren mit automatischem Abstandswarner, der nicht ausgeschaltet werden kann. Voraussetzung für diese Funktion muss das Einhalten der Fahrspur sein. Spurwechsel, wie wir sie kennen, müssen technisch ausgeschlossen werden.
Hier schon von vornherein ethisch zu argumentieren ist nicht sehr sinnvoll. Die Automatik soll ja gerade helfen, Unfälle zu vermeiden.
Automatische Fahrzeuge mit personengesteuerten Fahrzeugen auf die gleich Spur zu bringen, das ist allerdings nicht gut.
Die Verantwortung trägt immer der Fahrer, anders wird es nicht gehen, es sei denn, die Verkehrsverhältnisse sind idiotensicher, d.h. der Wagen ist für einen Streckenabschnitt einem automatischen Verbund eingegliedert.
Wenn der Bordcomputer ein Dilemma erkennen sollte, wird er das Steuer an den Fahrer zurückgeben. Es ist natürlich fraglich, ob der Fahrer so schnell die Kontrolle über das Auto gewinnen kann. Allein das motorische Einstellen auf die Mechanik des Autos kann zu lange dauern.
Fazit: das automatische Fahren wird sich auf eine Art Förderbänder begrenzen, wo das Auto in einen Konvoi eingegliedert ist und er allenfalls Präferenzen für die Geschwindigkeit angeben kann, der Bordcomputer aber darüber entscheidet.
Ich habe an dieser Stelle unter dem Nick Andreas Fischer mal eine kleine Diskussion angezettelt, und vertrete, wie Sie dort nachlesen können, eine der Ihren fast identische Position.
Die Idee des autonomen Autos ist ohnehin so absurd, dass man gleich ein paar weitere Fragen stellen könnte:
– Warum wird das Auto nicht so programmiert, dass es sich selbst in die Luft katapultiert, also den Insassen opfert statt dass jemand Drittes die Rechnung bezahlt?
– Wie will man eigentlich verhindern, dass Fußgänger und sonstige ohne Rücksicht die Straße überqueren, weil das Auto ja immer bremsen muss? (Antwort: Fußgänger brauchen bis dahin auch einen Chip oder eine Plakette am dann vorgeschriebenen Helm, damit man sie wegen Verkehrsverstoßes zur Rechenschaft ziehen kann.
– Wie schlägt sich so eine Kiste im Berufsverkehr von Neapel?
(to be continued)
Weil ich ehrlichgesagt nicht einsehe, dass ich mich opfern soll, nur weil jemand anderes einen Fehler macht (bspw. ein Fußgänger der ohne zu schauen auf die Straße tritt). In dem Fall wäre dann nämlich ich der Dritte der die Rechnung bezahlt …
Als einzelne Kiste vermutlich eher schlecht als recht. Aber wenn nur mehr computergesteuerte Fahrzeuge unterwegs sind, dürfte das die Verkehrssituation deutlich entspannen.
@ fegalo:
Zuerst einmal wird es eine allgemeine Fußgängerscheinpflicht geben.
Das Mautchipimplantat wird von der Sensorik des selbstfahrenden Fahrzeugs nur berücksichtigt, wenn die Gehwegmaut im Voraus entrichtet wurde.
Die verschiedenen Levels sowohl der Maut als auch der Versicherungsstufen des Passagiers werden so verrechnet, dass immer klar ist, wer zu verunfallen ist.
Man könnte es auch positiv formulieren: dermaleinst werden Fußgänger in Deutschland(!!!) die Straße genauso nach Belieben überqueren können, wie das in zivilisierteren Gegenden (z. B. Catania/Sizilien) schon heute der Fall ist 🙂
Vermutlich um Längen besser als der typische deutsche Autofahrer (der hat hoffentlich einen Defibrillator an Bord; der Robbie wird keinen brauchen).
“Die Verantwortung trägt immer der Fahrer, anders wird es nicht gehen […]”
“Da sollte der Fahrzeughalter haften […]”
Ich kann mir nicht vorstellen, dass das funktionieren wird. Dies würde ja bedeuten, dass der Fahrer für etwaige Fehler in der autonomen Steuerung / Programmierung seines Fahrzeuges gerade stehen müsste.
Dies könnte der Fahrer nur vermeiden, wenn er sein Fahrzeug permanent überwacht, um im Notfall eingreifen zu können. Dies widerspricht aber allem, mit dem uns die Industrie aktuell versucht autonomes Fahren schmackhaft zu machen, also Sachen wie während der Fahrt zu schlafen, Mails zu checken, im Internet zu surfen, Filme schauen, usw. Selbst wenn der Fahrer darauf verzichtet und versucht sein Fahrzeug zu überwachen, um im Notfall eingreifen zu können, wird ihm das nur schwer gelingen. Es ist wesentlich ermüdender, einem Autopiloten beim Fahren zu zu schauen und auf einen Fehler zu warten als selber aktiv zu fahren. Gerade bei längeren Autobahnetappen, bei denen autonomes Fahren besonders hilfreich wäre, ist dies für den Fahrer totlangweilig.
@LF
Ich finde diese pseudo-philosophische Diskussion auch viel zu abgehoben und theoretisch, oder besser: sie geht mir auch völlig auf den Sack.
Meine Kritik an der Diskussion ist nicht nur die, dass sie sehr theoretisch ist (damit kann ich noch gut leben), sondern dass dort quasi faktenfrei ins Blaue diskutiert wird. Das fängt damit an, dass man da Probleme konstrukiert, die man nicht hat (Oma mit 1,5 Tonnen beschleunigtem Blech umbringen, oder deren Enkel), mit impliziten Annahmen die völlig falsch sind (ein autonomes Fahrzeug wird ganz sicher auf Jahre hinaus keinen Sensor haben, der das Alter einer Person abschätzt; man kann schon froh sein, wenn es den Unterschied zwischen einer blauen LKW-Plane und dem blauen Himmel hinbekommt – Stichwort Tesla) und geht über zu dem Punkt, dass man praktisch an der falschen Stelle diskutiert: Wieso ist es für uns _überhaupt_ etisch, wenn wir zulassen, dass Tonnen von Material mit mehreren km/h inmitten von Wohngebieten und Städten, die vollgestopft mit Menschen sind bewegt werden? Was haben wir uns da gedacht, als wir sagten “lass den eine Fahrprüfen machen (ein Sample zum Zeitpunkt X) und damit hat er die Erlaubnis bis zu seinem Ableben als offensichtliche Gefahr für Leib und Leben Autos zu lenken, (fast) egal in welcher Verfassung er ist (und selbst dann, wenn seine Sensoren altersbedingt beginnen auszufallen)”? Haben wir diese Diskussion? Ich meine dass es viel wichtiger ist, über die Probleme zu reden, die wir jetzt bereits haben, als um die, die wir uns ausdenken können. Aber haben wir nicht. Wollen wir nicht und lenken uns lieber mit ein paar pseudo-akademischen Betrachtungsweisen ab.
Viel viel wichtiger beim Themenkomplex Automation und Ethik finde ich, zu diskutieren, was bereits passiert – siehe z.bsp. automatisierte Fabrik in der es kaum noch Arbeit für Menschen gibt, die aber kleine Kreise von Personen reich macht, hingegen andere vor echte Probleme stellt (Wie verdiene ich denn jetzt mein Essen?). Oder so Sachen: Maschinen lernen aus dem Datenwust den wir als Person hinterlassen sehr gut vorherzusagen, wie wir uns zukünftig in bestimmten Situationen verhalten werden. Wie verhindern wir, dass das jemand nutzt, um uns gezielt zu manipulieren? DAS sollten wir diskutieren, denn DAS passiert gerade, DASS funktioniert schon, DASS hat aber kaum jemand im Bewußtsein, DASS prägt die Ethik unserer Kinder, von diesen Themen sollten wir uns durch die Quatsch-Diskussionen nicht ablenken lassen, dort sollte unser Fokus sein!
Was etwas untergeht in den Kommentaren: die Möglichkeiten, Unfälle weit im Vorfeld zu vermeiden, werden so stark zunehmen, dass sich die Diskussion erübrigt.
Wie man im Tesla-YT-Video auf der Autobahn schon sehen kann, verfügen bereits heutige Systeme Unfälle zu antizipieren (“Vorausschauendes Fahren 4.0”). Gleiches sollte für Personen gelten, die sich in der Nähe aufhalten. Computerintelligenz steigt, wir bauen mit dem Alter hingegen ab.
UND: Autos werden miteinander vernetzt sein, eine Art Schwarmintelligenz bieten können, was Informationen über Hindernisse und Untergründe (nass, matschig, ölig, etc. Hubbel, Schlagloch) betrifft und ihre Position zueinander im Verkehr. Unfälle untereinander sollten so theoretisch unmöglich sein. Mal alle Fragen des Datenschutzes und der Datensicherheit (Hackerangriff, Amokauto) außen vor gelassen.
Dazu kommt noch, dass man insgesamt weniger Autos auch am Straßenrand wird vorfinden können, da wir uns alle nur noch die benötigten selbstfahrenden Karren per App und nach Bedarf bestellen.
fegalo,
….Die Idee des autonomen Autos ist ohnehin so absurd, dass man gleich ein paar weitere Fragen stellen könnte:
Das wird die Zukunft des Individualverkehrs sein. Die Autonomie des Autos hat schon begonnen, ESP,
ABS, elektronischer Motorsteuerung, Einparkfunktion, Abstandswarner, aut. Geschwindigkeitsregler, Regensensor, usw. usw.
Jetzt folgt konsequenterweise die automatische Lenkfunktion.
Was spricht dagegen wenn es funktioniert und die Zahl der Unfälle senken hilft.
zuvor, ich habe zwar nicht noch niemals programmiert, aber jedenfalls nicht professionell programmiert. Kann daher nur eine _Frage_ stellen.
Unstrittig ist, daß die Programmierung eines “automatisch” gesteuerten Autos eine Richtschnur enthält, die Schädigung von Menschen zu vermeiden.
Daher müssen zwingend die “Sensoren” so ausgewertet werden, daß die EDV versucht, Menschen von Nichtmenschen zu unterscheiden (es ist jetzt uninteressant, mit welcher Zuverlässigkeit das möglich ist).
Also muß die Programmierung mindestens mit den drei “Begriffen” “Insassen”, “Menschen außerhalb des Autos” und “Nichtmenschliches” arbeiten.
Gehen wir nun vom einfachsten Dilemma aus, eine Situatuon, in der die Alternative besteht, eher Schädigung der Insassen oder eher Schädigung von Menschen außerhalb des Autos zuzulassen.
Bei einem menschlichen Fahrer wird sich in einer solchen Situation sponatn zeigen, ob er die mehr opferbereite oder die weniger opferbereite Möglichkeit wählt, unabhängig davon, was der Fahrer eventuell für ethische Grundsätze hat oder zu haben glaubt, und welche ethische Bedeutung der Alternative überhaupt zugemessen wird.
Die Frage ist aber:
Kann ein Programmierer es überhaupt vermeiden, für diese Alternative irgendwie eine Vorzugslösung zu programmieren (abgesehen vom Einbau von Zufallsfunktionenen) ?
D.h. wird nicht für den Programmierer das, was bisher ein Gedankenexperiment war, notwendig zu einer Frage, die er so oder so entscheiden muß?
Es ist auch unerheblich, wie korrekt die EDV die Situation überhaupt analysieren kann. Sie tut das mit sicher beschränkter Genauigkeit. Aber das scheint mir keine Rolle zu spielen.
@ bote 17
„Das wird die Zukunft des Individualverkehrs sein. Die Autonomie des Autos hat schon begonnen, ESP, ABS, elektronischer Motorsteuerung, Einparkfunktion, Abstandswarner, aut. Geschwindigkeitsregler, Regensensor, usw. usw.“
Das behaupten Sie. Es ist ein Märchen, dass autonome Systeme weniger Unfälle verursachen als menschengelenkte Autos. Das ist Journalistendreck, der gar nicht zur Kenntnis nimmt, unter welchen Bedingungen autonome Systeme getestet werden.
Ich denke, dass man autonome Fahrzeuge niemals einführen wird, ohne dass sämtliche Straßen mit elektronischen Markern versehen werden.
Nur: Wer soll das bezahlen und warum?
Pingback:Links der Woche – Enno Park
Die Ethik hat das Ziel das Leid zu verringern.
Das Leid ist eine intensive Größe wie zum Beispiel die Konzentration von Alkohol im Wodka, und keine extensive Größe, wie die Gesamtmenge des Alkohols.
Intensive Größen sind nicht additiv, auch zehn Liter Wodka enthalten noch immer nur 40 Prozent Alkohol.
Daher muss man die Gesamtmenge des Leids durch die Anzahl der betroffenen Personen dividieren.
Daher hat ein Mensch mit starken Schmerzen den ethischen Vorrang vor einer großen Anzahl von Menschen mit schwachen Schmerzen, obwohl die letzteren rein rechnerisch auf eine größere Gesamtmenge von Leid kommen würden.
Spannendes Gedankenexperiment. Das Trolley-Problem als Totschlagargument ist tatsächlich Unsinn.
Ist hier nicht Thema, aber individuelles automes Fahren ergäbe nur Sinn auf Autobahnen. Dass es in Städten Pflicht wird, das werden gottseidank weder ich noch meine zukünftigen Kinder erleben.