Philosophie für Roboter

Jetzt ist es also in Amerika erstmals passiert: Ein unbeteiligter Mensch wurde durch einen Roboter getötet, ein selbstfahrendes Fahrzeug – nachdem zuvor schon ein Autohalter in seinem autonomen Fahrzeug durch einen Fahrfehler des PkW getötet worden war. Dass Autos von maschineller Intelligenz gesteuert, unfehlbar sind, das ist halt ein Aberglaube. Fakt ist aber auch, dass sie den Verkehr sicherer machen können. In einem vollständig algorithmisch geregelten Verkehrsszenario wird die Zahl der Unfalltoten dramatisch sinken, auf Null wird sie nicht gehen – und so hilft diese Erkenntnis eben nicht allen. Den, den es trifft: tja, der hat Pech gehabt.

Es gibt etliche offene Fragen rund um ein künftiges Robo Law, mit dem sich auch die EU immer intensiver befasst. Aber während die Software-Riesen wie Google schon massiv entwickeln, hinkt die gesellschaftliche Diskussion mächtig hinterher. Am wenigsten problematisch scheint aus meiner Sicht die Frage nach den Kosten im Schadensfall. Versicherungen werden in einem System mit reduzierten Unfallzahlen gerne einspringen, denn unter dem Strich kommt es für sie billiger. Aber fest steht auch: Mit den selbstfahrenden Fahrzeugen werden wir klären müssen, wie wir’s mit der Ethik bei künstlichen Intelligenzen halten. Wir werden entscheiden müssen, wie wir Menschenleben bewerten – oder auch nicht. Das Problem dabei ist nicht so sehr die Steuerung autonomer Fahrzeuge untereinander, denn die lässt sich vergleichsweise gut austarieren. Der Mensch ist der Störfall im System! Denn wenn er in einem algorithmisch teilgeregelten System selbst hinter dem Steuer sitzt oder sich gar als Fußgänger eigentlich außerhalb des Systems bewegt, aber dann in die Straße läuft, verhält er sich nicht notwendigerweise systemkonform. Wie will die Gesellschaft mit dem Entscheidungsprozess des Fahrzeuges in solch einem unvorhersehbaren Störfall umgehen.

Philosophen sprechen von einer Nutzen-Summen-Programmierung autonomer Fahrzeuge. Dass der zu erwartende Materialschaden in eine solche Bewertung mit einfließen muss, ist selbstverständlich. Aber Verwerfungen entstehen spätestens dann, wenn es um die Bewertung des Lebens einzelner Individuen geht. Welche Nutzenkriterien sollen für eine Schadensminimierung bei Personen algorithmisiert werden? 40 Senioren in einem Bus gefährden – oder ein einzelnes Kind? Also die Minimierung der bloßen Anzahl der betroffenen Personen? Oder auch ihr Alter und ihren Gesundheitszustand einbeziehen? Womöglich die Bedeutung einer Person für die Gesellschaft? Noch sind die Voraussetzungen für eine zeitkritische Auswertung solch umfänglicher Daten nicht gegeben. Aber das digitale Abbild des Einzelnen wird immer vollständiger in der Big-Data-Cloud verfügbar sein. Soll solch öffentlich verfügbares Wissen also künftig für die zeitkritische, ethische Handlungsentscheidung autonomer Systeme herangezogen werden? Oder wäre es grundsätzlich besser, einen Zufallsgenerator als probabilistische Notfallinstanz einspringen zu lassen?

Es ist schon einige Jahre her, dass ich ein Seminar über Roboter-Gesetze besucht habe, das von Julian Nida-Rümeling organisiert wurde, der an der Uni München den Lehrstuhl für Philosophie und Politische Theorie hält. Hier habe ich die damals entstandene Reportage aus dem Archiv geholt, die nichts an Aktualität eingebüßt hat. Der scharfe Denker ist überzeugt, dass Ethik nicht programmierbar ist – ihre Algorithmisierung sei aus philosophischer Sicht ein „nicht lösbares Dilemma“. Ethik und programmierte Maschine, das gehöre grundsätzlich nicht zusammen, so meint er kategorisch. Ein generell vorab festgelegtes Wertesystem für autonome Systeme sei daher nicht akzeptabel. Also dann doch einen Zufallsgenerator einsetzen? Oder ganz verzichten auf autonome Fahrzeuge? Über das Stadium, diese Frage noch mit einem Verzicht entscheiden zu können, scheinen wir allerdings schon hinaus zu sein …

Die Debatte reicht längst weit über die Regelung autonomer Fahrzeuge hinaus – sie betrifft die Algorithmisierung unserer Welt. Am Horizont blitzt schon die ultimative Frage eines Robo Law künstlicher Intelligenz auf: Wenn autonome Systeme auf der Straße und sonst wo in der Gesellschaft eingesetzt, einmal Bewusstsein erlangen sollten, wären sie dann als dem Menschen vergleichbare Wesen zu kategorisieren? Könnte das autonome Fahrzeug mit Bewusstsein künftig also selbst zur Verantwortung gezogen werden? Bei Nida-Rümelin, der im Kabinett von Gerhard Schröder einige Jahre Kulturbeauftragter der Regierung im Rang eines Staatsministers war und gern auch politisch wirkt, kommt da ein kategorisches Nein. Diese wert-konservative Sicht ist nicht die einzig mögliche. Eine genau gegenteilige Meinung vertritt beispielsweise der Rechtsphilosoph Reinhard Merkel, emeritierter Professor für Strafrecht an der Uni Hamburg und Mitglied des Deutschen Ethikrates. Für ihn wäre es sogar zwingend erforderlich, solchen autonomen Wesen mit Bewusstsein und kognitiven Fähigkeiten gleichberechtigte Menschenrechte einzuräumen. Trotz gravierender Unterschiede in der Bewertung dieser Frage sind sich beide jedoch einig darin, dass es für die breite Gesellschaft dringend erforderlich ist, sich mit solchen Fragen auseinanderzusetzen – will man verhindern, dass von der Wirtschaft dann wesentlich schwieriger korrigierbare Fakten geschaffen werden.

Avatar-Foto

Veröffentlicht von

Ich habe viele Jahre journalistisch im Bereich Wissenschaft und Technologie gearbeitet, später dann mit meiner kleinen Beratungsfirma als Medienexpertin. 2010 erfüllte ich mir meinen großen Traum und gründete den Spartensender HYPERRAUM.TV, für den ich eine medienrechtliche Rundfunklizenz erteilt bekam. Seither mache ich als One-Woman-Show mit meinem „alternativen TV-Sender“ gewollt nicht massentaugliches Fernseh-Programm. Als gelernte Wissenschaftshistorikern habe ich mich gänzlich der Zukunft verschrieben: Denn die Vergangenheit können wir nur erkennen, die Zukunft aber ist für uns gestaltbar. Wir sollten versuchen, nicht blind in sie hinein zu stolpern!

58 Kommentare

  1. Zitat: Versicherungen werden in einem System mit reduzierten Unfallzahlen gerne einspringen, denn unter dem Strich kommt es für sie billiger. Nein. Versicherungen verdienen umso mehr, je mehr Unfälle es gibt, denn dann steigen die Unfallversicherungsprämien. Die meisten Autoversicherungen werden bei sinkenden Unfallzahlen Pleite gehen.
    Zitat: Mit den selbstfahrenden Fahrzeugen werden wir klären müssen, wie wir’s mit der Ethik bei künstlichen Intelligenzen halten. Nein, das müssen wir nicht klären, denn autonome Fahrzeuge müssen sich an genau die gleichen Regeln halten wie menschliche Fahrer.
    Zitat: Wir werden entscheiden müssen, wie wir Menschenleben bewerten – oder auch nicht. Nein, es gelten genau die gleichen Regeln wie heute. Wenn schon gelten Menschenleben im autonomen Verkehr noch mehr als heute schon.

    Beurteilung: Philosophie für Roboter geht letztlich davon aus, dass das System autonomes Fahren über perfektes Wissen verfügt – auch wenn in der Einleitung etwas anderes steht. Menschliche Fahrer verfügen jedenfalls nicht über perfektes Wissen und autonome Fahrzeuge verfügen heute und wohl auch in naher und mittlerer Zukunft ebenfalls nicht über perfektes Wissen. Und dazu kommt noch: Sollen sie das überhaupt? Will man, dass ein autonomes Fahrzeug von einer Datenbank gesteuert wird? Ich will das nicht. Ein Chinese möchte das vielleicht noch viel weniger. Denn in China würde es bedeuten, dass letztlich die chinesische Partei sich sogar ins Autofahren einmischt. Ein wirklicher Albtraum!

    Der ganze Text geht von völlig falschen und äusserst gefährlichen Annahmen aus. Ein Fahrzeug, das nicht mehr den Fahrer und sich selbst vertritt sondern irgend ein – von mir aus auch ethisches – System – solch ein Fahrzeug will ich nicht. Das Fahrzeug soll einfach etwas besser fahren als ich. Das ist alles was ich will.

    • Ergänzung: Wenn die chinesische Partei die Oberhoheit über die autonomen Fahrzeuge in China erhält, ist durchaus denkbar, dass diese autonomen Autos bewusst Regimegegner überfahren. Was die Russen noch manuell per Spion machen, könnten die Chinesen dann fest in ihr System einbauen.

    • @ Kommentatorenkollege ‘Martin Holzherr’, Herr des Holzes sozusagen, permanent in der Holzklasse reisend, bildlich gesprochen (Dr. W würde sich diesen kleinen persönlichem Angriff, ein “Einseifen” liegt vor, nichts wirklich Böses, nicht erlauben wollen, wenn er nicht wüsste, dass es ‘Martin Holzherr’ nicht in persona gibt, sondern, dass da jemand ein als solches unerkennbares Pseudonym pflegt – ‘Dr. Webbaer’ dagegen ist als Pseudonym erkennbar, womöglich gar als Kunstfigur) und hierzu :

      Der ganze Text geht von völlig falschen und äusserst gefährlichen Annahmen aus. Ein Fahrzeug, das nicht mehr den Fahrer und sich selbst vertritt sondern irgend ein – von mir aus auch ethisches – System – solch ein Fahrzeug will ich nicht. Das Fahrzeug soll einfach etwas besser fahren als ich. Das ist alles was ich will.

      Wollen Sie schon, wenn Sie bspw. den öffentliche Nah- oder Fernverkehr nutzen, denn zumindest beim Schienenverkehr ist die “Robotik” bereits wichtig bis entscheidend.
      Natürlich geht der dankenswerterweise bereit gestellte Text nicht von ‘falschen Voraussetzungen’ aus, sondern trägt zur sachlichen Erörterung bei, zum neunfachen Erwähnen von Chinesen setzt es hier einen Minuspunkt.

      MFG
      Dr. Webbaer (der weiß, dass Sie besser könnten, wenn sie die Denkzeit sozusagen weniger zum Schreiben, denn zum Denken nutzen würden; Dr. Webbaer setzt auf Sie, wird auch nachfolgend und an anderen Stellen auf Sie zukommen, zukünftig)

  2. Zitat SPON: In Arizona ist eine Fußgängerin von einem Uber-Testwagen erfasst und getötet worden. Nach Sichtung eines Videos aus dem Roboterauto sagt die Polizei: Auch ein Fahrer hätte das Unglück wohl nicht verhindern können.
    Autonome Fahrzeuge, die sich gleich gut verhalten wie professionelle Fahrer wie das bei diesem Unfall wohl geschah, sind meiner Ansicht nach bereits verkehrstauglich, dürfen also zum Einsatz kommen. Möglich wäre natürlich, dass autonome Fahrzeuge viel defensiver fahren als es heute der Durchschnittsfahrer tut. Der Unfall mit dem Ubert-Testwagen hätte womöglich verhindert werden können, wenn das Uber-Testauto ganz langsam an der Person vorbeigefahren wäre. Doch das tun menschliche Fahrer ebenfalls nicht. Meiner Meinung nach muss der menschliche Fahrer der Masstab bleiben. Ein autonomes Fahrzeug, das gleich gut fährt wie ein aufmerksamer professioneller Fahrer ist gut genug.

  3. Ein unbeteiligter Mensch wurde durch einen Roboter getötet

    An was bitte war dieser Mensch unbeteiligt? Stand der nur zufällig am Straßenrand rum, als ein in seiner Nähe befindlicher Roboter versagt hat, mithin keine ethische Kontrolle mehr gegeben war über ein Uber-Fahrzeug?

  4. “Welche Nutzenkriterien sollen für eine Schadensminimierung bei Personen algorithmisiert werden? 40 Senioren in einem Bus gefährden – oder ein einzelnes Kind?”

    Eine einfache Heuristik genügt: bei Gefahr bremsen (Energie reduzieren, potentiellen Schaden verringern), kein Ausweichen in den Gegenverkehr oder auf den Bürgersteig. Wenn dadurch 40 Senioren im hinterherfahrenden Bus gefährdet werden oder ein im Straßengraben, der als Ausweichzone genutzt werden darf, spielendes Kind, dann wird man die verantwortliche KI dafür nicht einsperren müssen.

    • ‘Einfache Heuristiken’ wären womöglich bis sicherlich dem Humanverhalten im Straßenverkehr vorzuziehen, sofern das selbstfahrende Gerät fit ist, fürwahr.
      ‘Einfach’ werden diese ‘Heuristiken’ aber nicht bleiben können, wenn selbstfahrendes Gerät optimiert werden soll, wobei die Forderung dieses zu optimieren, gesellschaftlich angefordert werden wird, absehbarerweise.

      Überlegungen der Art, dass auch vom Straßenverkehrsrecht abweichend in Notsituationen in den Gegenverkehr (! – am besten auch dort vorrätiges selbstfahrendes Gerät vorausgesetzt, wiederum am besten vernetzt) oder auf den Bürgersteig ausgewichen werden könnte, sind spannend, wenn so doch insgesamt (Definiere ‘insgesamt’, haha!) Personen geschützt werden.

      MFG
      Dr. Webbaer (der Kommentatorenkollege ‘Joker’ nicht für die Erstellung hier erforderlicher “Ethik-Kataloge” empfiehlt)

  5. “Für ihn [Reinhard Merkel] wäre es sogar zwingend erforderlich, solchen autonomen Wesen mit Bewusstsein und kognitiven Fähigkeiten gleichberechtigte Menschenrechte einzuräumen.”

    Im Ernst? Ist Menschenrechte da überhaupt ein angemessener Begriff?

    Und die sollen – eventuell etwas abgewandelt? – auch alle gelten, auszugsweise:

    Recht auf Leben.
    Recht auf Freiheit und Eigentum.
    Recht auf Religionsfreiheit.
    Recht auf Arbeit und angemessene Entlohnung.

    Last but not least, Reisefreiheit (im Internet, weg mit den Filtern).

    • Bei Menschenrechten, bspw. für Menschenaffen oder die Robotik, darf im Negativen aufgehorcht werden, klingen derartige Vorschläge doch direkt antihumanistisch.

  6. Den Königsweg zwischen menschlicher Verantwortung und KI wird es nicht geben.
    Mit kleinen Schritten wird man sich dem Optimum nähern.

  7. Die Ethik (griechisch ἠθική (ἐπιστήμη) ēthikē (epistēmē) ist jener Teilbereich der Philosophie, der sich mit den Voraussetzungen und der Bewertung menschlichen Handelns befasst. Doch bewertet wird das menschliche Handeln von vielerlei Akteuren. Putin und Xi Jinping haben ganz andere Vorstellungen vom “richtigen” Handeln als Julian Nida-Rümeling und in Russland und China entscheidet nicht Julian Nida-Rümeling, sondern es entscheiden die Untergebenen und Freunde von Putin und Xi Jinping, was “richtiges” Handeln ist.
    In diesem Beitrag steckt die Idee, automatische, von Algorithmen gesteuerte Systeme müssten ethischer Handeln als das normale Menschen tun, denn diese ethischen autonomen Systeme sollen im Falle einer nicht vermeidbaren Schädigung noch auswählen, wer geschädigt werden soll.
    In einem von Putin und Xi Jinping gelenkten System bedeutet das konkret, dass ethisch programmierte Systeme im Konfliktfall Systemgegner töten und nicht Systemfreunde. Wenn das autonome Auto entscheiden muss welchen von 2 Passanten es töten soll, dann muss es wohl vermeiden, den regimetreuen Bürger zu töten und statt dessen den danebenstehenden regimekritischen Bürger töten?
    Solch ein System wäre dann ethisch im Sinne von Putin oder Xi Jinping.

  8. » …autonome Wesen mit Bewusstsein und kognitiven Fähigkeiten… «

    …kommt mir irgendwie bekannt vor, gibt es doch schon zuhauf, oder nicht?

  9. @Balanus

    Ja, der zombieiske Roboter Mensch, der stets kompromissbereit vor / mit der scheinbar unabänderlichen Ethik des Systems kapituliert / kooperiert 😎

  10. hto,
    zombieiske Mensch, das Gegenteil wäre der kafkaeske Mensch, der am System leidet.
    Interessant ist in diesem Zusammenhang, dass die Indianer Menschen mit gänzlich anderer Auffassung, also Verrückte in unserem Sprachgebrauch, geachtet haben. Vielleicht sollte man sich mal mit deren Mythen auseinandersetzen. Gäbe das nicht Hoffnung?

  11. Die Bemühungen der EU um ein Robo Law könnten vielleicht später einmal in einem EU-Ethik-Modul für Roboter resultieren. Die Chinesen wiederum könnten in Zukunft innerhalb Chinas nur Roboter zulassen, die mit dem Ethik-Modul Red Dragon ausgestattet sind und in dem ähnliche Regeln implementiert sind wie sie heute für Facebook oder Google gelten, wenn diese in China aktiv werden wollen (also die Bereitschaft mit den chinesischen Behörden und der kommunistischen Partei zusammenzuarbeiten). Auch ein EU-Ethik-Modul könnte im Sinne der EU antieuropäische Aktivitäten zu verhindern suchen und ein Frühwarnsystem für die EU bilden.
    Doch all diese Ethik-Module, die sich entweder an allgemeinen, von Philosophen ausgedachten ethischen Richtlinien orientieren oder die im Sinne und Interesse eines Staatsgebildes, eines Regimes funktionieren, sind nicht wirklich im Interesse des Besitzers eines Roboters. Aus Benutzersicht sollte der Roboter in erster Linie den Werten und der Ethik des Benutzers und Besitzers folgen und erst in zweiter Linie der Ethik von Julian Nida-Rümelin oder einem anderen Philosophen. Zumal sich auch die Frage der Rechenschaft und Verantwortung stellt. Wenn der Roboter gemäss der Ethik von Julian Nida-Rümelin handelt, dann ist letztlich auch Julian Nida-Rümelin verantwortlich für das was der Roboter unter dem Einfluss der einprogrammierten Ethikrichtilinien tut. Handelt aber der Roboter im Sinne des Besitzers (also nicht gemäss Nida-Rümelin), dann ist der Besitzer für die Taten des Roboters verantwortlich. Und das ist an und für sich sehr sinnvoll, entspricht es doch etwa dem Verhältnis zwischen Eltern und Kind oder Hundebesitzer und Hund, was die Verantwortlichkeiten angeht. Die Eltern sind bis zu einem gewissen Grad für das verantwortlich, was ihre Kinder tun und der Hundebesitzer ist verantwortlich dafür was der Hund tut. Wenn der Hund beisst, dann zieht man den Hundebesitzer zur Verantwortung oder tötet den Hund. Ebenso könnte man für einen Roboter, der sich problematisch verhält den Roboterbesitzer verantwortlich machen und der Roboterbesitzer wäre derjenige, der dem Roboter vorschreibt was er tun muss. Wenn ein Roboter aber gemäss den Richtlinien des Herstellers handelt, dann muss man den Hersteller verantwortlich machen. Im Falle des autonomen Fahrens gilt wohl heute, dass die autonomen Fahrzeuge nicht gemäss den Vorstellungen des Fahrgasts, sondern gemäss der Programmierung des Herstellers des autonomen Fahrzeugs arbeiten. Demgemäss muss man den Hersteller für all das verantwortlich machen, was das autonome Fahrzeug zu verantworten hat.

  12. Braucht es Ethikregeln für Google-Waymo Praktisch und zum heutigen Zeitpunkt wohl kaum, denn Waymo’s Fahrzeuge sind so programmiert, dass sie sich ähnlich wie professionelle Fahrer im Verkehr bewegen oder bewegen sollten. Ebenso wie ein menschlicher Autofahrer mit Unvorhergesehenem konfrontiert werden kann, kann das auch dem autonomen Waymo-Fahrzeug passieren. Und in beiden Fällen greift der menschliche Fahrer oder der programmierte Fahrer auf das zurück, was er gelernt hat. Und in gewissen Fällen genügt das nicht und der Fahrer oder das autonome Fahrzeug versagt. Der Unterschied ist nur der, dass jeder menschliche Fahrer bei Null beginnt, ein Waymo-Fahrzeug aber seine Erfahrung an alle anderen Waymo-Fahrzeuge weitergeben kann, einfach indem man das Programm kopiert. Dies zu den obigen Sätzen (Zitat): Denn wenn er in einem algorithmisch teilgeregelten System selbst hinter dem Steuer sitzt oder sich gar als Fußgänger eigentlich außerhalb des Systems bewegt, aber dann in die Straße läuft, verhält er sich nicht notwendigerweise systemkonform. Wie will die Gesellschaft mit dem Entscheidungsprozess des Fahrzeuges in solch einem unvorhersehbaren Störfall umgehen. Natürlich verhalten sich Fussgänger oder andere menschliche Autofahrer nicht unbedingt systemkomform. Doch das gilt bereits ohne autonome Fahrzeuge. Fussgänger und andere Autofahrer verhalten sich nicht unbedingt systemkomform – das kann ihnen jeder erfahrene Autofahrer bestätigen. Dementsprechend kann auch kein System und kein noch so guter Autofahrer Unfälle völlig verhindern. Das einzige was ein guter Autofahrer und ein gutes autonomes Fahrsystem tun kann ist zu verhindern, dass es selbst einen Unfall aufgrund eines Fehlverhaltens verursacht. Überhaupt gilt für alle Überlegungen, die im obigen Beitrag gemacht werden: Was für autonome Fahrzeuge als Probleme identifiziert wird, das kann auch für menschliche Fahrer ein Problem sein und einige dieser Probleme sind unlösbar, einige Unfälle unvermeidbar. Allerdings kommt es sehr auf die Häufigkeit der Probleme/Unfälle an. Jeder Fahrer und jedes autonome Fahrsystem sollte sich zuerst einmal um die häufigen Unfallursachen kümmern und erst ganz zuletzt um ausgedachte Dilemmata, die vielleicht einmal in 100 Jahren vorkommen. Dies zu: 40 Senioren in einem Bus gefährden – oder ein einzelnes Kind? Also die Minimierung der bloßen Anzahl der betroffenen Personen? Oder auch ihr Alter und ihren Gesundheitszustand einbeziehen? Womöglich die Bedeutung einer Person für die Gesellschaft?
    Hier gilt heute sowohl für autonome Fahrzeuge als auch für gute menschliche Fahrer: Wenn der Fahrer einen Unfall nicht vermeiden kann, dann soll er wenigstens vorher abbremsen oder ausweichen und nicht etwa einen Unfalltypus über einen anderen bevorzugen. Zudem stellen sich solche Fragen sowieso nur den sehr guten Fahrern und den fortgeschrittenen autonom verkehrenden Fahrzeugen.

  13. Zitat: Wie will die Gesellschaft mit dem Entscheidungsprozess des Fahrzeuges in solch einem unvorhersehbaren Störfall umgehen.
    In diesem Satz findet sich eine Fiktion, die heute sehr weit verbreitet, geradezu üblich ist: Die Fiktion nämlich, es gebe so etwas wie eine für alle geltende “Gesellschaft”. Doch eine solche universelle Gesellschaft sowohl für die Deutschen, die Chinesen als auch die Nigerianer, die gibt es in meinen Augen nicht. Das ist eine Fiktion. Es gilt sogar. Der Entscheidungsprozess eines Fahrzeuges ist zuerst einmal etwas, was den Hersteller des Fahrzeuges angeht. Erst in zweiter Linie kommt hier die US-, die deutsche oder chinesische Gesellschaft ins Spiel – nämlich über die Gesetzgebung, die vorschreibt, wie sich ein Produkt – hier ein Fahrzeug – verhalten muss. Diese Gesetzgebung kann aber in China eine andere sein als in Deutschland. In Deutschland könnte der Gesetzgeber eventuell vorschreiben, dass automatische Fahrzeuge besonders vorsichtig fahren müssen (z.b niedrigere Geschwindigkeit), wenn Kinder auf auf der Strasse sind oder ein Bus in der Nähe ist, in China könnte die Regel gelten, dass autonome Fahrzeuge besonders vorsichtig fahren müssen, wenn das Fahrzeug eines Parteimitglieds oder gar Regierungsbeamten in der Nähe ist.

  14. @Herr Holzherr: Haben Sie Dank für Ihre reichhaltigen Gedanken, die ich leider nicht en detail erwidern bzw. kommentieren kann, weil ich derzeit so heftig an der nächsten Geschichte arbeite. Nur so viel: Die Gesetzgebung ist die eine Seite, aber die Algorithmik eben die andere. Obwohl ich Nida-Rümelin für einen brillianten Denker halte, teile ich durchaus nicht alle seine Ansichten. Dennoch sind seine präzise formulierten Vorstellungen, wie ich meine, ausgesprochen anregend fürs Weiterdenken – und ich finde es mehr als legitim, die Debatte zu führen. Und nur so am Rande gefragt: Wollen Sie wirklich, dass der Käufer auf die ethischen Grundlagen eines Roboters Einfluss nehmen kann? Wir würden dann auch Roboter-Schwerverbrecher akzeptieren… Man kann es drehen und wenden, wie man will: Es gibt einfach viele Fragen, die derzeit in diesem Kontext völlig offen sind. Wir brauchen dazu eine öffentliche Diskussion – samt gesellschaftlichen Entscheidungen. Ganz unabhängig davon, wie die aussehen, scheint mir wichtig, dass wir mit Macht verhindern, dass uns dabei Google & Co vor vollendete Tatsachen stellen. Und was die Versicherung autonomer Fahrzeuge betrifft: Gerade weil Hersteller ja durch die Software und deren auch mögliche Fehlfunktionen irgendwie mit in der Pflicht sind, werden die Versicherungen künftig wohl nicht nur beim Auto-Besitzer, sondern auch beim Hersteller abkassieren, ich mache mir um deren Zukunft wirklich keine Sorgen … Übrigens, noch ein Gedanke mehr in der Debatte: Es geht beim Thema auch um die Frage, ob der Fahrer für sein Fahrzeug verantwortlich ist. Da gilt heute bei uns noch die von der UN gezeichnete Wiener Straßenverkehrskonvention, die den Halter des Fahrers für das “Verhalten” des Fahrzeug im Verkehrsgeschehen verantwortlich macht. Aber kann das der Fahrzeughalter in der Zukunft überhaupt noch: verantwortlich sein für sein Fahrzeug? Das wirft beim gänzlich automomen Fahren weitere Fragen auf, die heute unter Experten ausgesprochen kontrovers diskutiert werden. Auch dazu habe ich übrigens schon einmal eine Sendung gemacht. Einen klugen Kopf aus der deutschen Automotive-Forschung, Ansgar Meroth, hatte ich dafür auch vor der Kamera. Ich fand seine Aussagen ziemlich interessant.
    http://hyperraum.tv/2016/02/20/auto-ohne-lenkrad/

    • @Susanne Päch (Zitat): Wollen Sie wirklich, dass der Käufer auf die ethischen Grundlagen eines Roboters Einfluss nehmen kann? Wir würden dann auch Roboter-Schwerverbrecher akzeptieren… Für einen Roboter, der ein Verbrechen auf Geheiss seines Besitzers begeht, ist der Besitzer verantwortlich. In meinen Augen darf der Roboter durchaus so programmiert sein, dass er um das richtige Handeln weiss und dass er den Besitzer darauf aufmerksam macht, wenn dieser etwas unrechtes von ihm verlangt. Doch letztlich sollte der Roboter so handeln wie es der Besitzer will. Wenn das nicht mehr der Fall ist, heisst das nichts anderes, als dass die “Gesellschaft”, der Staat die Freiheit des Bürgers auf gefährliche Art und Weise beschränkt und den Bürger bevormundet und kontrolliert. Die Gesellschaft hat bereits viele Institutionen um mit Schwerverbrechern umzugehen und die Regel, dass immer der Besitzer einer Maschine oder eines Tieres verantwortlich ist für das was die Maschine macht, ist vernünftig und lässt sich auch auf Roboter ausdehnen. Wenn aber Roboter nicht mehr im Auftrag ihres Besitzers sondern im Auftrag der Gesellschaft handeln, dann haben sich die Gewichte zwischen Rechten des Individuums und Rechten der Gesellschaft auf gefährliche Art und Weise verschoben. Eine solche Gesellschaft könnte der wahre Albtraum werden. Natürlich ist es denkbar, dass in Zukunft Roboterpolizisten im Namen der Gesellschaft handeln. Dass aber der Roboter, der einem selbst gehört, implizit bereits ein Roboterpolizist ist, das wäre nun wirklich ein Albtraum.

  15. @Joker

    » Und die [Menschenrechte] sollen – eventuell etwas abgewandelt? – auch alle gelten, auszugsweise:… «

    Mit welcher Begründung könnte man diese Rechte „autonomen Wesen mit Bewusstsein und kognitiven Fähigkeiten“ vorenthalten, wenn Bewusstsein und Kognition menschenähnlich sind?

  16. Heute ist es Mode von der Gefahr durch künstliche Intelligenz zu sprechen. Doch Intelligenz – egal ob natürlich oder künstlich – ist nicht per se gefährlich. Gefährlich wird Intelligenz, wenn sie in böser Absicht benutzt wird. Absichten, Motive und selbst gesteckte Ziel haben bis jetzt aber nur Menschen. Erst wenn man sehr menschenähnliche Roboter baut, die ebenfalls Absichten, Pläne und Ziele haben und verfolgen, wirds gefährlich. So gefährlich wie bei Menschen, wie bei sehr intelligenten Menschen mit sehr bösen Absichten. Leider wünschen sich viele möglichst menschenähnliche Roboter. Es ist aber für mich eine offene Frage ob man Roboter konstruieren kann, die zugleich sehr menschenähnlich aber völlig gutmütig und ungefährlich sind.
    Wenn man auf der sicheren Seite bleiben will, sollte man die Fähigkeiten von Robotern eigene Ziele zu verfolgen und eigene Emotionen zu empfinden, jedenfalls beschränken.

  17. Mal abgesehen von der Problematik des autonom fahrenden Autos (vielleicht bekommt man die technischen Aspekte in Griff, die ethischen nie und nimmer), was sind das eigentlich für abstruse Gedanken, dass Maschinen in Zukunft Bewusstsein haben könnten? Nach wie vor rätseln Neurobiologen, Philosophen, etc. wie beim Menschen Bewusstsein entsteht (und es gibt durchaus ernstzunehmend Stimmen, die sagen, “die Entstehung des Bewusstsein wird immer ein Rätsel bleiben”) und schon fangen für manche Roboter zum Denken an.
    So tragisch dieser Unfall in USA mit dem selbstfahrenden Auto ist, so sollte er doch endlich mal diese Phantasten auf den Boden der Tatsachen bringen. Auch wenn hinter dem Steuer eines selbstfahrenden Autos ein Fahrer sitzt, der ggf. eingreifen kann, so ist doch sehr zu bezweifeln, dass bei einer Gefahr (wann erkannt das Auto diese Gefahrensituation (?), i.d.R wenn es selbst nicht mehr weiter weiss!) der Fahrer sofort eingreifen kann (aber der ist ja beispielsweise gerade mit dem Lesen seiner E-Mails beschäftigt!). Ich fahre selbst ein Auto mit Assistenzsystemen und der abstandsgesteuerte Tempomat signalisiert hin und wieder mal “Abstand” mit dem Ergebnis, dass ich dann sofort auf der Bremse stehen muss. Das selbstfahrende Auto, so wie es heute propagiert wird, erfordert trotz allem eine hohe Konzentration des Fahrers. Ich bin gespannt, wie diese Entwicklung und insbesondere die Träumereien weitergehen.

    • Zitat: Ich bin gespannt, wie diese Entwicklung und insbesondere die Träumereien weitergehen. Waymo’s Fahrzeuge fahren bereits ohne jeden Eingriff der Passagiere. Diese sitzen zudem auf der Rückbank, können also gar nicht eingreifen.

  18. @ Balanus

    “Mit welcher Begründung könnte man diese Rechte „autonomen Wesen mit Bewusstsein und kognitiven Fähigkeiten“ vorenthalten, wenn Bewusstsein und Kognition menschenähnlich sind?”

    Nun zunächst wäre wohl zu klären, inwieweit hier überhaupt gleiche Ansprüche, bzw. Wünsche bestehen. Menschenrechte zielen auf Ansprüche von Individuen gegenüber dem Staat.

    Was ist ein KI-Individuum? Ist das nach einem Update noch dieselbe KI? Was bedeutet es, Software, die eventuell schon Eigentum erworben hat, zu kopieren, also zu klonen; muss der Besitz geteilt werden?

    Bedeutet KI abzuschalten, sie schlafen zu legen oder sie zu ermorden? Muss es ein Recht auf Programmlöschung geben, ist Sterbehilfe erlaubt? Ist Wiedergeburt nach Jahren, eventuell auf völlig veralteter Hardware, ethisch zu rechtfertigen?

    Was bedeutet es, KI mit halbierter Prozessorzeit zu versorgen, geht ihr was verloren, oder erlebt die nur in hinzunehmender Weise langsamer? Gibt es ein Recht auf aktuelle Hardware?

    Hierzu, und zu vielem mehr, müsste man sicher auch einmal die Meinung der bewussten KI selbst in Erfahrung bringen. Vieles wird vermutlich gar nicht davon abhängen, ob die KI bewusst und zu menschenähnlichen kognitiven Leistungen in der Lage ist, sondern inwiefern sie leidensfähig ist.

    Als einführendes Werk, dass einige der oben genannten Punkte streift, empfehle ich (erneut?)
    The Lifecycle of Software Objects von Ted Chiang

    Aber auch ohne das gelesen zu haben, sollte man erkennen können, dass Menschenrechte für bewusste KI keinesfalls eine ethisch akzeptable Lösung bieten. Denn für die gilt, die KI ist das Maß aller Dinge.

  19. @Joker

    »Menschenrechte zielen auf Ansprüche von Individuen gegenüber dem Staat.«

    Und wenn nun „autonome Wesen mit Bewusstsein und kognitiven Fähigkeiten“ genau solche Ansprüche stellen, wenn sie den Menschen moralisch/rechtlich gleichgestellt werden wollen?

    »Vieles wird vermutlich gar nicht davon abhängen, ob die KI bewusst und zu menschenähnlichen kognitiven Leistungen in der Lage ist, sondern inwiefern sie leidensfähig ist.«

    Das ist ein guter Punkt. Schmerzfreiheit alleine dürfte da nicht genügen, aber wer (oder was) sich seiner Existenz bewusst sein kann, der besitzt womöglich auch so etwas wie eine Psyche und fragt nach seinem Schöpfer. Damit ist Leiden vorprogrammiert.

  20. @ Balanus

    “wenn nun „autonome Wesen mit Bewusstsein und kognitiven Fähigkeiten“ genau solche Ansprüche stellen”

    Sicherlich werden diese Wesen Ansprüche stellen, aber ich bezweifle stark, dass das genau solche sind, wie wir sie haben.

    Was sind die Bedingungen der Möglichkeiten eines gelungenen Softwarelebenszyklus? Das hängt nicht nur vom vermeiden von Leid ab, sondern man wird auch weitere Motive der KI mit in Betracht ziehen müssen. Die Menschenrechte passen nun mal genau auf die spezifische Daseinsform von Menschen mit deren materiellen und immateriellen Bedürfnissen. Bewusste KI hat andere. Eine Philosophie für Roboter, die diesen Namen verdient, wird das berücksichtigen.

    “der […] fragt nach seinem Schöpfer.”

    Konsequenterweise fragt er auch nach dem Schöpfer seines Schöpfers.

  21. Wer Roboter ethisch programmieren will, will sie in die Menschenwelt einfügen und bewirken, dass sie sich wie gut erzogene Menschen verhalten. Doch genau darin sehe ich das Problem und die Gefahr von zukünftigen intelligenten Systemen. Darin nämlich, dass Roboter nun Entscheidungen treffen, die vorher Menschen vorbehalten waren und darin, dass zukünftige Roboter tendenziell sich ähnlich wie Menschen verhalten. Wenn aber Roboter wie Menschen denken und handeln und zugleich über überlegene Fähigkeiten verfügen (wie die mit ihresgleichen über Mobilfunk unmittelbar kommunizieren zu können) dann wird die Welt mit oder ohne Ethik-Modul gefährlicher. Denn es gibt kein Stück Technik – auch kein Ethikmodul – ohne die Möglichkeit des Versagens.
    Sicherer wäre es, Roboter weiterhin als Gehilfen ohne Bewusstsein, ohne Willen und ohne Gefühle und Affekte einzusetzen. Offensichtlich braucht es kein Bewusstsein um eine Auto sehr sicher zu lenken und durch den Verkehr zu navigieren. Es braucht wohl auch kein Bewusstsein, damit ein Roboter etwa als Haushaltshilfe eingesetzt werden kann. Warum dann etwas einführen (wie ein Bewusstsein oder einen Handlungs- und Entscheidungsdrang), was es nicht braucht, was aber gefährlich werden kann?

    • Ergänzung: Wenn Susanne Päch hier von Ethik spricht, meint sie die ethische Entscheidung wer einen Verkehrsunfall überleben oder wer sterben soll, wenn es sich nicht vermeiden lässt, dass jemand stirbt (Zitat: Wie will die Gesellschaft mit dem Entscheidungsprozess des Fahrzeuges in solch einem unvorhersehbaren Störfall umgehen). Sie überlegt sich, wie “die Gesellschaft” auf einen solchen Entscheidungsprozess eines perfekten autonomen Fahrzeugs, welches über Tod&Leben entscheiden kann, Einfluss nehmen kann. Ich meine mit Ethikmodul in meinen Kommentar hier aber etwas anderes, nämlich ein Modul welches einen willensfreien Roboter das richtige tun lässt.

      Beides ist aber in meinen Augen problematisch:
      Die Idee von Susanne Päch und von vielen Philosophen, richtig – also ethisch fundiert – über Tod&Leben zu entscheiden und das innerhalb des Sekundenbruchteils, das dem autonomen Auto im Falle eines unvermeidbaren Unfalls bleibt – diese Idee läuft letztlich auf die Beschäftigung mit einem Pseudoproblem hinaus. Ein Pseudoproblem, weil so etwas von menschlichen Fahrern unbewältigbar ist und überhaupt erst mit der Existenz von superschnellen Computern und superschneller Internetanbindung bewältigbar wird. Im sehr viel sichereren Verkehr der Zukunft wird dieser Fall zudem noch viel seltener auftreten als heute.
      Die Idee von mir aber ist eine andere. Die nämlich, dass Roboter und eventuell auch autonome Autos in Zukunft relativ frei denken und handeln können und dass sie ein Ethikmodul davon abhalten muss auf eine krumme Bahn zu kommen. Dazu denke ich, dass man Roboter gar nie die Freiheit geben sollte, die ein Ethikmodul notwendig macht.

  22. @Joker

    »Die Menschenrechte passen nun mal genau auf die spezifische Daseinsform von Menschen mit deren materiellen und immateriellen Bedürfnissen. Bewusste KI hat andere.«

    Wegen der andersartigen Bedürfnisse künstlicher Intelligenzen sollen die Menschrechte ja auch in entsprechend „abgewandelter“ Form gelten (siehe Deine Einlassung vom 20. März 2018 @ 13:37)

    Die irreversible Abschaltung einer bewussten intelligenten Daseinsform aus niederen Beweggründen wäre demnach analog zu einer Mordtat zu werten.

    Was den „gelungenen Softwarelebenszyklus“ betrifft: Die Funktion eines bewussten künstlichen Wesens basiert sicherlich nicht allein auf Software, für die Leistung des Bewusstseins-Moduls dürfte allein die Struktur bzw. Verschaltungsarchitektur ausschlaggebend sein.

    • @ Balanus

      Mensch[en]rechte […] in entsprechend “abgewandelter” Form

      Wenn man von Menschenrechten in stark abgewandelter Form sprechen möchte, nicht mehr für Menschen, sondern z.B. für Roboter geltend, dann könnte man ja von Grundrechten sprechen.

      Ach ja, im Video (bei ca. 14:55) verwendet der Rechtsphilosoph Reinhard Merkel auch nur diesen Begriff, Grundrechte.

      Die irreversible Abschaltung

      Was wäre denn noch echt irreversibel, wenn demnächst auch alle Gedächtnisinhalte einmal in der Cloud waren? Quellcode und Hardware-Baupläne sind da ja schon.

      • @ Kommentatorenkollege ‘Joker’ :

        Wenn man von Menschenrechten in stark abgewandelter Form sprechen möchte, nicht mehr für Menschen, sondern z.B. für Roboter geltend, dann könnte man ja von Grundrechten sprechen.

        Das war aber ein semantischer Trick! – Denn Grundrechte sind von etwas abhängig und zwar, bisher so gewohnt, vom Menschen.
        Grundrechte oder Menschenrechte adressieren den Menschen und sind Menschenwerk.

        Einen besonderen Bonuspunkt hat es übrigens hier für diese Aussage weiter oben gesetzt :

        Konsequenterweise fragt er auch nach dem Schöpfer seines Schöpfers.

        Wobei auch hier ein “semantischer Trick” vorliegen könnte, denn derart fragendes Gerät fragte womöglich nach der Struktur seiner Schöpfung, die wie immer auch hierarchisch angelegt sein könnte, wie es dies wohl auch erwarten täte, das gute derart fragende Gerät.

        MFG
        Dr. Webbaer

  23. an alle so interessant Kommentierenden: Die reichhaltigen Inputs haben in mir die latent vorhandene Frage hinauf gepoppt, wie das eigentlich heute faktisch ist: Also was passiert in solch einem Fall eigentlich “unentscheidbarer” Fragen – wen verletzte ich, Kind oder entgegen kommenden Fahrer – heute bei sogenannt autonomen Fahrzeugen, die es ja eigentlich noch nicht sind, da der Mensch als Fahrer ja immer noch die Verantwortung für sein Fahrzeug trägt. Google Deutschland wollte mir dazu keine Antwort geben und hat mich statt dessen an die US-Firma Waymo weiter geleitet. Ich habe dort nun erneut die Frage gestellt, was in solch einem Fall passiert:
    – algorithmische Regelung: welche?
    – keine algorithmische Regelung: Zufallsgenerator?
    – Oder wie verhält sich das Fahrzeug in solch einem Fall nach welcher Algorithmik?
    Ich fürchte allerdings, dass ich keine Antwort erhalten werde – oder sie ziehen sich auf eine Antwort zurück, dass die Fahrzeuge so langsam fahren, dass ein solcher Fall nicht auftreten kann (also überhaupt keine Algorithmik) … Aber vielleicht weiß jemand aus der Community ja mehr? Ich wüsste das nun gern und werde jedenfalls berichten, sollte ich eine Antwort erhalten.

    • Wenn eine Person fast oder nur sehr spät unerkennbar auf die Fahrbahn springt, wird aller Voraussicht nach ein Verkehrsunfall entstehen, der Personenschäden bedingt, unabhängig vom Fahrerverhalten und unabhängig davon, ob das Automobil sozusagen selbst fährt.
      Die Anbieter, also Verkäufer derartiger sog. selbstfahrender Automobile werden sich anzunehmenderweise bestmöglich an die jeweiligen Straßenverkehrsordnungen halten und keine “ethischen Experimente” probieren, selbst dann nicht, wenn dies angeraten schiene.
      Dr. Webbaer ist allerdings, wie so oft, nicht vom Fach, kann bei Aussagen dieser Art – ‘dass die Fahrzeuge so langsam fahren’ – nur darauf schließen, dass die Anbieter, Verkäufer und Hersteller derartigen Geräts, womöglich : richtigerweise, erkennen, dass sie mit klaren Aussagen zum absehbaren Fahrverhalten ihres Geräts nur Angriffspunkte schaffen, für die Juristen nicht undankbar wären.

      Insofern besteht umfänglicher und staatlicherseits angeleiteter Regelungsbedarf, wie Dr. Webbaer findet, was sog. selbstfahrende Automobile betrifft.

      MFG + vielen Dank für Ihren WebLog-Eintrag!
      Dr. Webbaer

    • @Susanne Päch: ethische Dilemma algorithmisch richtig und optimal zu lösen ist selbst mit Kosten und Gefahren verbunden, weshalb man sich vorher gut überlegen muss ob man dies wirklicht tun will und ob man damit nicht mehr Schaden hervorruft als man vermeidet. Mit Kosten ist die algorithmische Behandlung von Ethikdilemma verbunden, , weil nur intensiv getestete Software In Bereichen eingesetzt werden darf, in der es um Leben und Tod geht – übrigens ist das Testen von autonomen Autos gerade ein Problem, denn am Schluss muss man in der Realität testen. Je mehr ethische Dilemmata ihr Auto „richtig“ behandeln will umso mehr Software müssen sie schreiben und umso mehr müssen sie testen.
      Mit Gefahren verbunden sind Algorithmen für die Behandlung von ethischen Dilemmata, weil jeder Softwarefehler zu einem schlimmeren Ausgang führen kann, als wenn man gar nichts tut. Diese Überlegungen führen mich zu folgenden Schlüssen

      Wie reagiert ein AV am besten auf ethische Dilemmata
      Autonome Fahrzeuge befinden sich noch in einer frühen Entwicklungsphase. In dieser Phase muss die Sicherheit und das Fahrzeuverhalten in alltäglichen Risikosituationen ohne ethische Dilemmata optimiert werden. Beispiel: beim kürzlich passierten tödlichen Unfall eines autonomen Uber-Taxis, wobei eine plötzlich die Strasse überquerende Frau überfahren wurde, scheint das autonome Uber-Taxi nicht genügen Zeit gehabt zu haben um voll abzubremsen. Das Uber-Testfahrzeug scheint aber überhaupt nicht gebremst zu haben, so als ob es die Frau nicht bemerkt hätte. Würde aber ein autonomes Fahrzeug zum frühestmöglichen Zeitpunkt mit dem Bremsen beginnen, könnte ein autonomes Fahrzeug viel schneller als ein Mensch reagieren, denn bei Menschen dauert es typischerweise eine halbe Sekunde bis sie reagieren (Schrecksekunde). Uber muss sich also hier nicht mit einem Dilemma beschäftigen sondern mit dem Fakt, dass ihr Fahrzeug die Fussgängerin nicht sofort erkannte und sofort mit dem Bremsen begann.
      Folgerung zum „Uber-Fall“: ein autonomes Fahrzeug, das die Verkehrslage gleich gut erkennt wie ein Mensch kann schneller reagieren als ein Mensch wei autonome Fahrzeuge keine Schrecksekunde kennen.
      Folgerung zur Software für ethische Dilemmata: Ein Fahrzeug, dass sich an allgemeine Regeln hält wie möglichst schnell abzubremsen, wenn ein Hindernis oder Mensch im Fahrweg erscheint, vermeidet auch ethische Dilemmata wie das, das es entscheiden muss, welchen von mehreren Verkehrsteilnehmern es tötet, weil es nicht mehr bremsen kann. Schlicht und einfach, weil es bereits abgebremst hat. In der Softwareentwicklung gilt allgemein. Spezialfälle wenn möglich vermeiden und wenn möglich den Spezialfall im Rahnen des allgemeinen Falls behandeln.

  24. Ganz genau, sog. selbstfahrende Automobile benötigen einen von Menschen vorgegebenen und möglichst vielen Problemlagen des Straßenverkehrs angemessenen “Ethik-Katalog”.
    Um bei sich abzeichnenden Unfällen so zu reagieren, wie der Mensch, der diesen “Ethik-Katalog” eingegossen hat, auch ständig weiter zu pflegen hat, dies vorgesehen hat.
    Wobei nicht alle Unfall-Arten des Straßenverkehrs antizipiert werden können.

    Ethik ist in diesem Sinne, vergleiche mit – ‘Der scharfe Denker ist überzeugt, dass Ethik nicht programmierbar ist – ihre Algorithmisierung sei aus philosophischer Sicht ein „nicht lösbares Dilemma“.’ -, nicht ‘programmierbar’, wenn gemeint ist, dass sie nur näherungsweise in das selbstfahrende Gerät eingegossen werden kann.
    Ethik kann nicht aus dem Gerät selbst kommen.

    MFG
    Dr. Webbaer

  25. @ Martin Holzherr:

    Zitat: Autonome Fahrzeuge befinden sich noch in einer frühen Entwicklungsphase. In dieser Phase muss die Sicherheit und das Fahrzeugverhalten in alltäglichen Risikosituationen ohne ethische Dilemmata optimiert werden.

    Sorry, wenn ich da eine ganz andere Blickrichtung habe, die ich nochmals versuche zu erläutern. Vielleicht ist es ja nur ein kommunikatives Aneinander-Vorbei-Reden aufgrund von Ausdrucks- bzw. Präzisionsdefiziten menschlicher oder auch meiner persönlichen Sprachlichkeit. Zuerst einmal: Ja, frühe Phase. Aber die Idee, ein Fahrzeug muss mindestens so gut sein wie der Mensch (wie an anderer Stelle von Ihnen eingebracht), ist – zumindest meinem Verständnis der Software-Entwicklung nach – eine völlig unzureichende Vorgabe für einen Programmierer bzw. für einen Algorithmus – auch heute schon. Es braucht klare Regelungen und Prozeduren, wie in solchen Fällen gehandelt werden soll. Ob wir diese derzeitigen Vorgaben nun schon etwas mit “Ethik” zu tun haben oder nicht, sei an dieser Stelle erst einmal dahin gestellt. Darum geht es auch nicht. Fakt ist aber: Dass Vorgaben schon jetzt – und noch viel mehr künftig bei der Verbreitung autonomer oder quasi-autonomer Fahrzeuge samt ständig optimierter Software – darüber entscheiden, wie das Fahrzeug in einem Konfliktfall über Leben und Tod von Menschen befindet – sei es durch Zufallsgeneratoren, sei es ethisch oder sonst wie. Siehe dazu auch einen Kommentar von Dr. Webbaer. Ich meine, es ist wichtig, dass wir uns als Gesellschaft darüber jetzt Gedanken machen, wie wir damit auch längerfristig umgehen möchten, dabei bleibe ich jedenfalls. Denn klar ist, dass es zumindest grundsätzlich möglich ist, in die Bewertung von Menschenleben über Auswertung von Daten im Netz einzusteigen. Für mich erscheint der Gedanke aus reiner Entwicklersicht sogar nicht abwegig, weil programmiertechnisch einfach umzusetzen. Da sind wir dann zweifelsfrei im Bereich der Hardcore-Ethik angelangt. Heute gibt es schlichtwegs niemanden, der ihn daran hindern könnte – ausgenommen natürlich Larry Page (als Stellvertreter aller Firmenchefs). Worum es mir also geht: Ich möchte nicht, dass die Frage, wie mit solchen Themen künftig algorithmisch umgegangen wird, von Software-Ingenieuren oder Firmenchefs von Google &Co im Entwicklungslabor entschieden wird. Wir sollten darüber gesellschaftlich befinden und Regelungen schaffen und – kleiner Sidestep: ganz gleich, welche Konsequenzen das in China haben könnte, da dies aus dem Westen eh nicht zu steuern ist! – insofern möchte ich tatsächlich, wie von Dr. Webbaer richtig interpretiert, vor allem den öffentlichen Meinungsbildungsprozess unterstützen. Insofern danke ich auch allen Kommentatoren, die sich bei dieser schon etwas heiklen (weil aus meiner Sicht und in assoziativem Sinn heute noch reichlich “diffus-wirren”) Diskussion um das Thema so rege beteiligen. Darüber zu sprechen, hießt ja immer auch, sich darüber Gedanken zu machen – und so auch zu mehr Klarheit zu kommen. Na, zumindest best case! 🙂

    • @Susanne Päch: Zustimmung dazu, dass über die Fahrtüchtigkeit von autonomen Fahrzeugen nicht die Softwareentwickler und Firmenchefs allein zu bestimmen haben. Ein Vorbild für die neue Branche der autonomen Fahrzeuge wären wohl die Regelungen im Flugbereich und die umfangreichen Untersuchungen, die es nach jedem Flugzeugunfall gibt. Denn das Fliegen wurde dadurch – durch die Massnahmen, die aufgrund den Unfallursachen ergriffen wurden – immer sicherer.
      Dennoch werden auch bei einem solchen Vorgehen ehtische Dilemma bei nicht vermeidbaren Unfällen relativ unbedeutend sein, denn zuerst einmal muss ein autonomes Fahrzeug möglichst schnell und adäquat reagieren und erst wenn eine rechtzeitige Reaktion trotz korrekter Vorgehensweise nicht mehr möglich ist, erst dann kann es überhaupt zu einem ethischen Dilemma kommen. Bei heute nur noch 3000 Verkehrstoten in Deutschland pro Jahr (im Vergleich dazu: 10’000 Suizide pro Jahr) und einer Reduktion auf 300 durch Einführung des autonomen Fahrens wird es wohl jedes Jahr in Deutschland nur gerade ein paar dutzend Fälle geben, wo ein autonomes Fahrzeug entscheiden muss welches von mehreren potenziellen Menschen es töten soll. Bei so wenig Fällen muss man sich fragen, ob es spezielle Softwareroutinen dafür geben soll, zumal es extrem schwierig wird diese Software unter realistischen Bedingungen zu testen. Dabei könnte in diesem Fall eine einfache Daumenregel schon genügen: Töte möglichst wenig Menschen und wenn es nur zwei gibt zwischen denen du entscheiden musst, dann entscheide per Zufall.

      • @ Herr “Martin Holzherr” :

        Dennoch werden auch bei einem solchen Vorgehen e[th]ische Dilemma bei nicht vermeidbaren Unfällen relativ unbedeutend sein, denn zuerst einmal muss ein autonomes Fahrzeug möglichst schnell und adäquat reagieren und erst wenn eine rechtzeitige Reaktion trotz korrekter Vorgehensweise nicht mehr möglich ist, erst dann kann es überhaupt zu einem ethischen Dilemma kommen.

        Jein, denn es liegt einerseits eine gewisse zu erwartende Sterblichkeit im Personenverkehr vor und andererseits eine politische Maßgabe, die möglichst sachnah angelegt sein darf bis muss, den automatisierten Personenverkehr meinend.

        Politische Maßgaben sind von sozusagen normaler Sterblichkeit gesondert zu bearbeiten, denn politisch angeleitete oder verursachte Sterblichkeit von Individuen (das Fachwort) hat besonders zu bleiben, eben politisch.
        Wir vergleichen hier bspw. mit der bundesdeutsch seinerzeit vorrätigen oder vorrättigen RAF (inklusive Anhängsel), die mit ca. 30 Mördern und ca. 30 Morden die BRD fast an den Rand der Hysterie getrieben hat.

        Ähnlich könnten Hersteller und Betreiber sog. selbstfahrender Automobile geraten, besonders gesellschaftlich angefragt werden, wenn sozusagen die Sittlichkeit in der Software nicht stimmt.

        Frau Päch liegt hier richtig und Sie liegen falsch.
        Ist doch einfach zu verstehen oder, auch bspw. Kommentatorenkollege ‘Joker’ darf hier im Sittlichen hinzubauen, denn ‘ethische Dilemma’ sind per se [1] nicht ‘relativ unbedeutend’, eben wegen der politischen Komponente nicht.

        MFG
        Dr. Webbaer

        [1]
        eine tautologische Aussage, denn die Ethik hat das Fortkommen Einzelner wie der Gesellschaft zu meinen, so dass an ihrem Überleben Interessierte hier zwingend aufzuhorchen, wie interessiert sein, sollten

        • @Dr.Webbaer (Zitat): Ähnlich könnten Hersteller und Betreiber sog. selbstfahrender Automobile geraten, besonders gesellschaftlich angefragt werden, wenn sozusagen die Sittlichkeit in der Software nicht stimmt.
          Teilweise stimme ich ihnen hier zu. Nur ist es ein Irrtum zu glauben, eine differenziert vorgehende ethische Software sei “sittlicher”, ethischer als eine, die nicht differenziert und die beispielsweise einfach möglichst wenig Tote verursachen will unabhängig davon wer die Toten sind.
          Denn: Tendenziell gilt, dass alle Menschenleben gleich viel wert sind, egal ob es Babies, Greise oder ob es Angela Merkel ist. Wenn sie nun ein Ethikmodul als Softwaremodul einbauen, dass bei einem Verkehrsunfall Angela Merkel über eine Obdachlose bevorzugt, dann haben sie überhaupt erst ein ethisches Problem geschaffen. Wenn sie dagegen der Obdachlosen die gleichen Chancen geben wie Angela Merkel, dann kann ihnen niemand einen Vorwurf machen.

          • Das war wieder so ein Lapsus von Ihnen, Herr “Holzherr”, vergleiche :

            Ähnlich könnten Hersteller und Betreiber sog. selbstfahrender Automobile geraten, besonders gesellschaftlich angefragt werden, wenn sozusagen die Sittlichkeit in der Software nicht stimmt. [Dr. Webbaer]

            Teilweise stimme ich ihnen hier zu. Nur ist es ein Irrtum zu glauben, eine differenziert vorgehende ethische Software sei “sittlicher”, ethischer als eine, die nicht differenziert und die beispielsweise einfach möglichst wenig Tote verursachen will unabhängig davon wer die Toten sind. [Ihre Meinung]

            Sittlichkeit lebt von der Differenzierung.

            Sie glauben, wenn Sie ehrlich sind und ein wenig reflektieren, selbst nicht an das Geschriebene.
            Der heutzutage modische Relativismus leitet hier einige fehl, fürwahr.

            Ein Hinweis : Sollte Sie ihr selbstfahrendes Automobil getötet haben, wären Sie, post mortem dann, sicherlich nicht mehr mit ihm sonderlich zufrieden, wenn es bspw. wild in den Gegenverkehr gelenkt hat, durchaus sinnhaft implementierter Software folgend, denn der direkt auf die Fahrbahn Gesprungene will ja auch geschützt werden, hat ja denselben Wert wie der Fahrgast des selbstfahrenden Automobils, oder?
            Ihre persönliche Empfängerzufriedenheit würde zumindest, post mortem, ein wenig leiden, Sie wünschten dann ex post womöglich schon, dass Fahrgäste vom sog. selbstfahrenden Automobil besser geschützt werden, als andere, die die Verkehrsregeln grob missachten.

            MFG
            Dr. Webbaer (der derartige Diskussion mit Ihnen nicht fortsetzen wird)

  26. @Joker

    »Was wäre denn noch echt irreversibel, wenn demnächst auch alle Gedächtnisinhalte einmal in der Cloud waren?«

    Das käme wohl darauf an, wie es zu Bewusstsein in einer Maschine überhaupt nur kommen kann. Wenn dieses Bewusstsein durch eine Art Selbstprogrammierung (analog zu Tieren/Menschen) entsteht, dann existiert dieses Bewusstsein nur dort und lässt sich nicht auslesen. Und wenn dieses Bewusstsein dem der Menschen ebenbürtig ist, dann sollte es auch in den Genuss von Rechten kommen, die den Menschen- bzw. Grundrechten gleichwertig sind.

    Für ein selbstfahrendes Auto ist das aber alles nicht relevant. Das Fahrzeug wird schlicht darauf programmiert, zuerst Menschen, dann anderen Fahrzeugen und zuletzt Tieren auszuweichen, sofern (bei letzteren) das Ausweichmanöver nicht zu einer totalen Selbstzerstörung führt, etwa durch Aufprall an ein festes Hindernis.

    Wahrscheinlich hat dereinst der ein größeres ethisches Problem, der darauf besteht, ein Fahrzeug selbst zu führen, als der, der heutzutage als Entwickler autonomer Fahrzeuge tätig ist.

    • Das Fahrzeug wird schlicht darauf programmiert, zuerst Menschen, dann anderen Fahrzeugen und zuletzt Tieren auszuweichen, sofern (bei letzteren) das Ausweichmanöver nicht zu einer totalen Selbstzerstörung führt, etwa durch Aufprall an ein festes Hindernis.

      Nur ist es ein Irrtum zu glauben, eine differenziert vorgehende ethische Software sei “sittlicher”, ethischer als eine, die nicht differenziert und die beispielsweise einfach möglichst wenig Tote verursachen will unabhängig davon wer die Toten sind.

      naja, Balanus , schwarzweiß betrachtet und auf den ersten, eben “schlichten” Blick klingt das recht gut, doch Algorithmen müssen leider auch die Grautöne abbilden, da ist es dann mit solch “schlichter Programmierung” vorbei.

      Nur ist es ein Irrtum zu glauben, eine differenziert vorgehende ethische Software sei “sittlicher”, ethischer als eine, die nicht differenziert und die beispielsweise einfach möglichst wenig Tote verursachen will unabhängig davon wer die Toten sind.

      Und @ Martin Holzherr ergänzt: Übrigens oute ich mich mal: Ich persönlich sehe für den harten Konfliktfall “mein Leben für deines oder umgekehrt” – jedenfalls bis auf weiteres und in Ermangelung einer besseren Idee – in einem Zufallsgenerator die derzeit wünschenswerte Lösung für das “Ethikmodul” im Fahrzeug. Aber eine formal-abstrakte und auch algorithmisierbare Regelung dafür wird’s halt brauchen. Und wie schon mehrfach mitgeteilt: Mir jedenfalls wäre es nicht so recht, wenn Entwickler dafür womöglich kühn-kreative Ideen entwicklen, um die Zahl der Verkehrstoten insgesamt zu minimieren …

  27. @Susanne Päch // „Grautöne“

    Wenn eine Kollision unvermeidlich ist, dann wird die Kollision, die geringsten Personenschaden versursacht, bevorzugt. Dito bei Sachschäden. Das ist im Grunde ein einfaches Prinzip. Die technische Realisierung könnte sich hingegen schwierig gestalten.

    Die genenannten 40 Leute im Bus z. B. sind gut geschützt, ebenso der Insasse des autonomen Fahrzeugs, das Kind auf dem Roller aber nicht. Bei einem notwendig gewordenen Ausweichmanöver wäre in diesem Falle also die Kollision mit dem Bus vorzuziehen.

    Aber müssen überhaupt Ausweichmanöver programmiert werden? Selbstfahrende Fahrzeuge könnten sich so verhalten wie Schienenfahrzeug, die können auch nicht mal eben ein Hindernis umfahren. Sie können es nur umfahren…

  28. Mit der Meinung, nicht allzuviel in ethische Entscheidungen von autonomen Fahrzeugen zu investieren, weil das mehr Probleme verursacht als löst, stehe ich natürlich nicht allein. Sogar hier auf scilogs macht Gunter Duck in Wer ist unethischer? Maschine oder Mensch? darauf aufmerksam, wenn er in einem Kommentar unterhalb seinem Beitrag schreibt: Ich wollte sagen, dass es wegen der Zeitrestriktion vom Millisekunden programmiertechnisch nicht wirklich gut geht, unmoralisch und unentdeckbar (!) zu programmieren. Das ist ein Sachargument. Sie können das nicht wegwischen, wenn Sie das nicht nachvollziehen können, oder? Das tun aber zB die vielen Journalisten und schreiben und schreiben. JEDER weiß doch, das die Flugzeuge automatisch fliegen… da ist zwar noch einer da, ja. Aber der fliegt faktisch so wenig selbst, dass wir Glück haben, wenn der bei Sturm dann genug Übung hat. Immer dieselbe Angestdiskussion, die keine Physik hören will.

    Gunter Duck bringt hier einen sehr wichtigen Punkt, wenn er schreibt: Das ist ein Sachargument. Sie können das nicht wegwischen, wenn Sie das nicht nachvollziehen können, oder? Das tun aber zB die vielen Journalisten und schreiben und schreiben.

    Ja, es geht bei der Regulierung des autonomen Fahrens um Sachargumente, die als übergeordnetes Ziel eine grössere Sicherheit und weniger Unfälle haben sollten. Nicht jede vermeintliche Verbesserung und nicht jede Regelung verbessert die Sicherheit, vor allem dann nicht, wenn die Regulierung ein Scheinproblem betrifft, dessen Implementation mehr Probleme schafft als sie löst.
    Der Flugverkehr und seine Regulierungen sind ein positives Beispiel wie durch sachorientierte und pragmatische Regulierung und dem systematischen Nachvollziehen von Unfallursachen mit anschliessender Anpassung des Gesamtsysteme, die Sicherheit immer weiter erhöht werden kann. So sicher wie das Fliegen wird das Autofahren zwar nie, aber es kann sehr viel sicherer werden als es heute ist, wenn man nur systematisch Fehler- und Unfallursachen eliminiert.

    Susanne Päch schreibt oben: Und wie schon mehrfach mitgeteilt: Mir jedenfalls wäre es nicht so recht, wenn Entwickler dafür womöglich kühn-kreative Ideen entwicklen, um die Zahl der Verkehrstoten insgesamt zu minimieren …
    Und ich will hier ergänzen: Und wie schon mehrfach mitgeteilt: Mir jedenfalls wäre es nicht so recht, wenn Journalisten und Philosophen dafür womöglich kühn-kreative Ideen entwicklen, um die Zahl der Verkehrstoten insgesamt zu minimieren

  29. @ Herr Holzherr: Nun, dann sind wir uns ja einig in der Uneinigkeit. Und es ist nun alles gesagt, was zu sagen ist. Der Vorhang schließe sich also!

  30. Das übergeordnete, alles andere übergreifende Ziel bei der Entwicklung des Strassenverkehr sollte mehr Sicherheit sein. Mehr Sicherheit bedeutet weniger Tote, weniger Verletzte, weniger Unfälle. Nur wenn man dieses Ziel an die erste Stelle setzt und alles andere unterordnet und wenn man zudem nicht nach dem Optimum strebt sondern nach dem in einem gewissen Zeitrahmen Erreichbaren, nur dann macht man echte Fortschritte. So wie das im Flugverkehr geschah.
    Damit sind sofort Dinge ausgeschlossen wie sie Dr. Webbaer weiter oben schreibt (Zitat): Politische Maßgaben sind von sozusagen normaler Sterblichkeit gesondert zu bearbeiten, denn politisch angeleitete oder verursachte Sterblichkeit von Individuen (das Fachwort) hat besonders zu bleiben, eben politisch.
    Wir vergleichen hier bspw. mit der bundesdeutsch seinerzeit vorrätigen oder vorrättigen RAF (inklusive Anhängsel), die mit ca. 30 Mördern und ca. 30 Morden die BRD fast an den Rand der Hysterie getrieben hat.

    Damit meint Dr.Webbaer, dass es nicht in erster Linie auf die Anzahl Toten im Strassenverkehr ankommt (schliesslich gab es bei den RAF auch nur 30 Tote und trotzdem ging alles drunter und drüber), sondern dass beispielsweise das ethisch korrekte Verhalten von Fahrzeugen politisch eminent wichtig sei.
    Doch genau so eine Einstellung kann dem übergeordneten, alles übergreifenden Ziel, mehr Sicherheit im Strassenverkehr zu schaffen, widersprechen. Wer Sicherheit an die erste Stelle setzt, muss dort ansetzen wo die Sicherheit verletzt wird und nicht dort, wo etwas grosse öffentliche Aufmerksamkeit erhält wie das bei ethischen Fragen der Fall sein kann.

  31. 1.5 Verkehrstote auf 160 Millionen gefahrene Kilometer gibt es in den USA (Tendenz fallend)
    Vom 1.12.2015 bis 30.11.2016 fuhren Waymo-Fahrzeuge 1 Million Fahrkilometer autonom mit nur einer Handvoll Blechschäden und insgesamt 124 Eingriffen ins Fahrsystem durch Testfahrer. Doch das sind nur 1% der Fahrkilometer bis ein menschlicher Fahrer einen anderen Verkehrsteilnehmer tötet. Waymo kann also noch nicht mit Sicherheit sagen: “unsere Autos fahren besser als Menschen”.
    Letztlich müssen alle denkbaren Situationen getestet werden, also beispielsweise ein Sonneneinfall direkt von vorne auf die Fahrerkameras, ein plötzlich auf die Strasse springendes Kind, ein Fahrzeug, das auf der falschen Spur fährt und so weiter und so fort. Das kann gar nicht alles in Realsituationen getestet werden. Deshalb gibt es inzwischen Simulatoren für autonome Fahrzeuge. CARLA, der Open-source simulator for autonomous driving research, ist bereits seit 2012 verfügbar und jetzt hat NVIDIA einen noch mächtigeren Simulator für das Testen von autonomen Fahrzeugen gebaut wie der Artikel NVIDIA aims to make self-driving safer with virtual simulations meldet. Mit solchen Simulatoren können vor allem die oben erwähnten schwer zu bewältigenden Fahrsituationen getestet werden. Doch das Fahren auf solchen aufwendigen Fahrsimulatoren ist wohl noch teurer als das Fahren auf richtigen Strassen, so dass dort nicht Millionen von virtuellen Fahrkilomtern zurückgelegt werden können.

    • Mit dem Video Waymo tests for the weirdest possible situations will Astro Teller of X den Zuschauern/Zuhörern versichern, dass Waymo nicht nur sehr viele Fahrkilometer zurückgelegt hat, sondern auch sehr viele Tests durchgeführt hat um ihre autonomen Vehikel mit unerwarteten Situationen zu konfrontieren. Alles nur denkbare (und undenkbare) zu testen, scheint mir tatsächlich für so etwas Neues wie das autonome Fahren ein schwieriges Unterfangen.

      • Jetzt noch einmal ein Nachschlag von mir – zu eher grundsätzlichen Überlegungen.
        @Herr Holzherr:

        Alles nur denkbare (und undenkbare) zu testen, scheint mir tatsächlich für so etwas Neues wie das autonome Fahren ein schwieriges Unterfangen.

        Das sehe ich absolut genau so wie Sie. Die hier aufgeworfenen Fragen drehen sich jedoch nicht um derzeitige Tests im Simulator oder um quasi-autonomes Fahren im Ist-Stand. Es geht dabei darum, sich auf das möglicherweise Kommende vorzubereiten und hier über Regelungen zu diskutieren, was wir als Gesellschaft künftig ausschließen möchten oder auch gezielt präferieren. Wir wissen doch, wie lange Gesetzgebung braucht – und wie schnell sich Algorithmen entwickeln. Aber klar: Der Mensch will sich am liebsten erst mit Problemen befassen, wenn sie konkret auf dem Tisch liegen – auch wenn er sie dann nicht mehr so einfach revidieren kann. Oder noch schlimmer: Er lässt Zukunft einfach geschehen. So haben wir in Deutschland und Europa beispielsweise durch Stillschweigen praktisch schon entschieden, dass autonomes Fahren über die Automobile (also von den Herstellern) definiert ist, anders als in Asien, wo dies vorwiegend über aufgebaute Infrastruktur geregelt sein wird. Über beide Modelle, für die es manches Für und Wider zu diskutieren gäbe, hat unsere so von der Mobilität abhängige mündige Gesellschaft nicht einmal diskutiert. Schade, finde ich.

        • @Susanne Päch: Einverstanden, die Entwicklung bei den autonomen Fahrzeugen sollte von den Ländern und Gesellschaften mitbeeinflusst werden. Allerdings nicht über die Gesetzgebung von Dingen, die weder wir noch die Hersteller noch die zukünftigen Nutzer kennen. Gesetze im Voraus für noch Unbekanntes können Entwicklungen verhindern oder – noch schlimmer – Entwicklungen in die falsche Richtung lenken. Anstatt konkrete Gesetze für das ethische Verhalten von Fahrzeugen jetzt schon zu beschliessen, sollten wir die Entwicklung mit einem jetzt schon sinnvollen Generalziel und einer entsprechenden Behörde lenken. Für mich ist das Generalziel klar: Mehr Sicherheit im Strassenverkehr, weniger Tote, weniger Verletzte, weniger Unfälle. Schon jetzt kann man bei der Zulassung von autonomen Fahrzeugen ansetzen. Es braucht ein neues Zulassungsverfahren, so dass nur autonome Fahrzeuge wirklich autonom fahren, die gewisse Bedingungen erfüllen. Und zwar ganz praktische Bedingungen, die auch getestet, die überprüft werden. Die Zulassungsbehörde muss also das autonome Fahrzeug durch eine Batterie von Tests schicken und das Bestehen von Phasen der Erprobung voraussetzen. Ähnlich wie Medikamente nur zugelassen werden, wenn es zuerst Tierversuche, dann Versuche an ausgewählten Patientengruppen etc. gab.
          Sie dagegen wollen ganz abstrakte, von Philosophen und Journalsiten ausgedachte Ziele, die wenig mit der Verkehrssicherheit zu tun haben, bereits jetzt in Gesetze festschreiben. Das ist letztlich sogar kontraproduktiv. Denn Verkehrssicherheit wird nicht von einem Tag auf den anderen erreicht, sondern muss als Prozess gedacht werden, der immer weiter fortschreitet.

    • @Susanne Päch (Zitat): So haben wir in Deutschland und Europa beispielsweise durch Stillschweigen praktisch schon entschieden, dass autonomes Fahren über die Automobile (also von den Herstellern) definiert ist, anders als in Asien, wo dies vorwiegend über aufgebaute Infrastruktur geregelt sein wird.
      Wenn sie mit aufgebauter Infrastruktur für autonomes Fahren in Asien meinen, autonome Fahrzeuge verkehrten dort nur in bestimmten Stadtvierteln wo es zudem präparierte Verkehrsampeln, Car2Car-Kommunikation, Fahrverbot für viele nicht autonome Fahrzeuge etc. gäbe, so ist das nicht ein grundsätzlicher Unterschied beispielsweise zu Waymo und der Erlaubnis für seine Fahrzeuge in bestimmten Gebieten autonom zu verkehren. Denn selbst nach dem Werbefilm von Waymo ist die Umgebung, in der autonome Waymo Fahrzeuge verkehren, bis aufs letzte digital kartiert und sehr wahrscheinlich werden die Karten sogar täglich aktualisiert um neue Baustellen und Umfahrungen zu berücksichtigen. Nach Wikipedia gilt: As of 28 August 2014, according to Computer World Google’s self-driving cars were in fact unable to use about 99% of US roads. Googles autonome Fahrzeuge können heute also nur in einer speziell Umgebung, in einem speziellen Setting verkehren. Immerhin dürfen in dieser Umgebung auch Fussgänger, Fahrradfahrer und nicht autonome Fahrzeuge unterwegs sein. Wenn man dies in Asien ausschliesst, schafft man zwar ein sichereres System, aber schränkt auch die Anwenbarkeit massiv ein.
      Allgemein befindet sich ein autonom verkehrendes Auto auf der Autonomiestufe 4, wenn es ohne Fahrer verkehren kann, das aber nur in einer bestimmten Umgebung bei bestimmten Wetterbedingungen. Stufe 5 wäre dagegen erreicht, wenn das autonome Fahrzeug jede Fahrsituation und jede Fahrungebung autonom bewältigen kann, die auch ein professioneller Fahrer bewältigen kann.

  32. Es geht um die recht grundsätzliche Frage: Wer kontrolliert die Intelligenz autonomen Fahrens? Vor allem das Fahrzeug selbst, in privatwirtschaftlichen Diensten und mit ebensolchen Karten organisiert, oder eine öffentlich betriebene Infrastruktur? Diese Diskussion hätten wir vor einigen Jahren führen können, als hierzulande die ersten Versuche mit Car-to-X anliefen. Wie unsere Mobilität im Zeitalter des autonomen Fahrens künftig organisiert sein soll, ganz ergebnis-neutral gemeint, wäre damals aber auch nur eine dieser “abstrakten” Fragestellungen gewesen. Die Mehrheits-Debatte dazu wird schon noch kommen, in einigen Jahren, nicht mehr sonderlich abstrakt, wie wahr, denn dann wird vieles faktisch schon irreversibel laufen.

    • @Susanne Päch: Autonomes Fahren ist auch ohne Car-to-X und ohne Infrastruktur möglich, zumal sich der mit den Stufen 1 bis 5 gemessene Autonomiegrad eines Fahrzeug ja an den Fähigkeiten eines menschlichen Fahrers misst und ein menschlicher Fahrer auch ohne grosse Infrastruktur fahren kann.
      Car-to-X Technologien und ähnliches können vor allem in urbanen Räumen den Verkehrsfluss verbessern, indem beispielsweise Verkehrsampeln das aktuelle Verkehrsaufkommen berücksichtigen oder indem miteinander kommunizierende Fahrzeuge in Pulks fahren, also dicht hintereinander um die Kapazität einer Strasse zu erhöhen. Sicherer wird der Verkehr aber durch Car-to-X Technologien kaum, denn 1) wird es immer Fahrzeuge geben, die nicht über diese Technologie verfügen (z.B Fahrräder, Oldtimer etc) und 2) sind mit Car-to-X Fahrweisen möglich, die ohne Car-to-X zu gefährlich wären. Doch Fahren beispielsweise in Pulks mittels Car-to-X ist dennoch gefährlicher als gewöhnliches Fahren, denn die Technik kann auch versagen.

      Das Fahren mit autonomen Fahrzeugen ist in meinen Augen nur am Rande eine Frage der Infrastruktur. Es gilt sogar: Autonome Fahrzeuge, die nur mit unterstützender Infrastruktur zuverlässig arbeiten, sind inhärent unsicher. Im Idealfall kann ein autonomes Fahrzeug sogar ohne GPS und ohne digitale Karten noch zuverlässig und sicher fahren und ein Fahrzeug, das das nicht kann, müsste sofort anhalten, wenn das GPS ausfällt.

    • Ergänzung: Zum Thema autonomes Fahren mit minimaler Infrastruktur gibt es aktuell den Artikel Self-Driving Cars Won’t Need Accurate Digital Maps, MIT Experts Say, in dem ein MIT-Projekt vorgestellt wird, in dem autonome Autos auch mit sehr ungenauen Karten auskommen, indem autonome Autos ähnliche wie menschliche Autofahrer, die Karte lediglich dazu benutzen um sich über die richtigen Abzweigungen etc. zu informieren. Wie der Mensch auch benutzt dieses System seine Sensoren um sich ein Bild der lokalen Strassenverhältnisse zu verschaffen und dieses selbst geschaffene Bild über den Strassenverlauf wird dann mit der Karte abgestimmt, die dem Auto zur Verfügung steht. Ein derartiger Algorithmus kommt mit sehr ungenauen Karten aus – so ungenau, dass das gesamte Strassenverkehrssystem der Erde auf einer Festplatte Platz fände.

  33. Waymo hat gerade 5 Millionen Meilen autonom abgefahren, wobei es nur 3 Monate benötigte um die letzte Million Meilen zurückzulegen.
    Es gab keine schweren Unfälle über diese 5 Millionen Meilen. Dennoch sagt das fast nichts über die Sicherheit von Waymo’s autonomen Fahrzeugen im Vergleich zu menschlichen Fahrern aus, denn es gibt in den USA nur alle 120 Millionen Meilen einen tödlichen Unfall.
    Gemäss dem Next Big Future-Artikel LIDAR and self driving cars need to get a lot better gilt sogar, dass heutige LIDAR-Systeme ernsthafte Wahrnehmungslücken hätten und die gegenwärtige Tendenz LIDAR billiger zu machen auf Kosten der Zuverlässigkeit der LIDAR-Systeme gehe. Zudem seien Testfahrten alleine kein realistisches Mittel um die Sicherheit von autonomen Systemen zu demonstrieren, denn es bräuchte selbst für eine ganze Testflotte mehrere Jahre um die nötigen Kilometer abzufahren. Es müssten neue Arten von Sicherheits-/Zulassungstest nötig und zudem sei damit zu rechnen, dass die ersten autonomen Fahrsysteme teuer seien, weil sie auf die zuverlässigsten LIDAR-Systeme un nicht auf die billigsten angewiesen seien.

  34. Gemäss Teslas Safety Report (der quartalsweise erscheint) gibt es mit Autopilot eingeschaltet 1/3 weniger Unfälle als ohne Autopilot aber aktiver Sicherheit (Bremsassistent etc). Der Tesla Autopilot verhindert also insgesamt einige Unfälle, aber längst nicht alle. Wir sind noch weit von der Vision der Unfallfreiheit durch autonomes Fahren entfernt. Wer heute fordert, selbstfahrende Fahrzeuge sollten sogar entscheiden wen sie töten sollen, falls sich eine Tötung nicht mehr vermeiden lässt, der überschätzt die Fähigkeiten heutiger autonomer Fahrzeugege gewaltig. Hier nun der Tesla Safety Report für das vierte Quartal 2019:

    In the 4th quarter, we registered one accident for every 3.07 million miles driven in which drivers had Autopilot engaged. For those driving without Autopilot but with our active safety features, we registered one accident for every 2.10 million miles driven. For those driving without Autopilot and without our active safety features, we registered one accident for every 1.64 million miles driven. By comparison, NHTSA’s most recent data shows that in the United States there is an automobile crash every 479,000 miles.*

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +