AI-Symposium 2018 — erste Eindrücke

Zur Zeit findet in Münster das AI-Symposium statt, eine internationale Konferenz, die von der RWTH Aachen ausgerichtet wird (Astrid Rosenthal-von der Pütten, Benedikt Paul Göcke, Frank Meier-Hamidi). Die grundlegende Motivation ist: “give artificially intelligent systems another dimension in terms of their impact on our perception and interaction with them”.

Trotz eines hohen Grads an Interdisziplinarität (ich bin da ja erfahrungsgemäß skeptisch) haben sich gestern Abend einige spannende Diskussionen bei der poster-session ergeben. Meine Thesen in Kürze:

  1. Alter Wein in neuen Schläuchen: Vermeintlich neue Diskussionen/ Fragen um Künstliche Intelligenz sind meistens alte Hüte (bzw. alter Wein), beziehungsweise spätestens dann, wenn man versucht, Antworten auf die Fragen zu geben. Der Hintergrund ist der dass viele aktuelle Fragen — Was sind Roboter? (Ontologischer Status) Sollten Roboter Rechte haben? Was ist künstliche Intelligenz im Unterschied zu natürlicher? — die Beantwortung von Fragen erfordern, die schon seit vielen Jahren, teilweise schon seit Beginn sämtlicher philosophischer Überlegungen kursieren und diskutiert werden, nämlich: Was ist der Mensch? (Ontologie, Anthropologie) Was wollen wir? (Ethik/ Moral) Was ist ein gutes Leben? (Eudaimonologie 😉 ) oder Wie verändert sich die Arbeitswelt und was wollen wir diesbezüglich? Dies sind alles keine neuen Diskussionen, die aber im Kontext aktueller Diskussionen wieder relevant werden/ sind. Das heißt nicht, dass ein Rückgriff auf schon bestehende Diskussionen/ Theorien immer fruchtbar sein muss, aber zumindest sollte man doch einen Blick in die Geschichte (selbst die jüngste) wagen und nicht so tun, als wäre das jetzt alles neu. Berechtigter Einwand: Nein, es gibt schon neue Fragen, zum Beispiel der ontologische Status von Robotern und Roboterrechte. Meine Antwort: Ja, aber bei der Beantwortung dieser Fragen kommt man an altem Wein nicht vorbei.
  2. Viele Ansätze diskutieren derzeit recht allgemein Ethics of AI (Villani 2018; Floridi et al. 2018; Ethik-Kommission des BMVI 2017; Horvath 2015; Bostrom and Yudkowsky 2015; Ismajloska and Bakreski 2012 u. a.). Ich halte nichts von solchen allgemeinen Ansätzen. Grund: Die Aussagen, die für solche allgemeinen Bereiche getroffen werden können, müssen notwendigerweise sehr allgemein sein, ähnlich den vielgelobten Robotergesetzen von Isaac Asimov. Nichts gegen Asimov, der tolle Sci-Fi-Geschichten geschrieben hat in einer Zeit, in der seien Ideen im Hinblick auf die (damals noch nicht eingetretene) Zukunft wirklich visionär waren. In der Praxis sind solche allgemein gültige Aussagen wie, dass kein Mensch zu Schaden kommen darf, allerdings äußerst unpraktisch, da zu unkonkret. Ebenso die “Ethischen Regeln” des BMVI zum Automatisierten und vernetzten Fahren. “Teil- und vollautomatisierte Verkehrssysteme dienen zuerst der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr.” oder “Der Schutz von Menschen hat Vorrang vor allen anderen Nützlichkeitserwägungen.” Ok, und was programmiere ich jetzt als Programmierer eines großen Autokonzerns? Was sich gut verkauft. Unkonkrete moralische (!) Regeln führen zwangsläufig zur Ignoranz und letztendlich zum ökonomischen Primat.
  3. Bei der Erstellung von moralischen Regeln muss man also differenzieren zwischen Entwicklungen, die moralisch gewichtiger sind (Sex-Puppen, Militär-Drohnen etc.) und solchen, die weniger gewichtig sind (Staubsaugerroboter). Das heißt: Konkret werden. Und das ist dann aber noch nicht Ethik, solange man keine plausiblen, schlüssigen Begründungen für die moralischen Regeln angibt. Zumal in der so genannten EthikKommission des BMVI gerade mal (Wirtschafts-) Ethiker von vierzehn Teilnehmern sitzt — und eine Frau. Unter einer Ethik-Kommission stelle ich mir etwas anderes vor.
  4. Für die Entwicklung von automatisierten Fahrzeugen wird in philosophischen/ ethischen Diskussionen immer noch häufig auf Dilemma-Beispiele verwiesen (trolley-Problem etc.). Dies halte ich nach wie vor für Unfug, da man a) mit Dilemma-Beispielen nicht weiter kommt, was tatsächliche Implementierung von Moral in Maschinen angeht, b) sind Dilemmata qua Konzept unlösbar. Das Ganze habe ich hier schon einmal recht ausführlich dargelegt.

Hier sind die Thesen im Detail.

Hier ist das Poster dazu.

 

Literatur:

  • Asimov, Isaac (1940): “Robbie”. In: Super Science Stories. New York: Popular Publications.
  • Birnbacher, Dieter and Birnbacher, Wolfgang (2016): “Automatisiertes Fahren. Dieter und Wolfgang Birnbacher über ethische Fragen an der Schnittstelle von Technik und Gesellschaft”. In: Information Philosophie 4. Ed. by Peter Moser.
  • Bostrom, Nick and Yudkowsky, Eliezer (2015): “The ethics of artificial intelligence”. In:
    The Cambridge Handbook of Artificial Intelligence. Ed. by Keith Frankish and William M.
    Ramsey. Vol. 4. Cambridge: Cambridge University Press, pp. 316–334.
  • Ethik-Kommission des BMVI (2017): “Automatisiertes und vernetztes Fahren. Bericht: Juni 2017”. In: Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI), pp. 1–36. Url: https://bit.ly/2IBhZZ8. Retrieved: 19.06.2018.
  • Floridi, Luciano et al. (2018): “AI4People – An Ethical Framework for a Good AI Society:
    Opportunities, Risks, Principles, and Recommendations”. Forthcoming in Minds and Ma-
    chines, December 2018. Url: https://www.academia.edu/37691951/AI4People_- _An_
    Ethical_Framework_for_a_Good_AI_Society_Opportunities_Risks_Principles_and_
    Recommendations. Retrieved: 01.11.2018.
  • Horvath, Josip (2015): The Ethics of Artificial Intelligence. Url: https://www.fsb.unizg.hr/
    brodogradnja/UZIR-2016-Essay-Josip-Horvat.pdf. Retrieved: 01.11.2018.
  • Ismajloska, Mersiha and Bakreski, Jane (2012): “The Ethics of Artificial Intelligence”. In:
    ICT Innovations 2012 Web Proceedings, pp. 539–542.
  • Villani, Cédric (2018): For a meaningful artificial intelligence. Towards a French and European Strategy. Url: https://www.aiforhumanity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf. Retrieved: 15.10.2018.

Bachelor-Studium "Philosophie, Neurowissenschaften und Kognition" in Magdeburg. Master-Studium "Philosophie" und "Ethik der Textkulturen" in Erlangen. Freie Kultur- und Wissenschaftsjournalistin: Hörfunk, Print, Online. Wissenschaftliche Mitarbeiterin, Abteilung Philosophie, Fachbereich Medienethik an der Pädagogischen Hochschule Ludwigsburg.

9 Kommentare Schreibe einen Kommentar

  1. Bei der Erstellung von moral[is]chen Regeln muss man also differenzieren […]

    Ganz genau, wenn humane Ethik in Gerät einzufließen hat, beim Staubsauger-Roboter, der sozusagen in der Wohnung herumwimmelt, scheint diese Frage erst einmal untergeordnet zu sein, ist sie aber bereits bei näherer Betrachtung nicht, wenn dieser bspw. (territorial hoch anerkannte, sozusagen, höchst respektierte) Haustiere angreift und zu verschlingen droht – bei sog. selbstfahrenden Automobilen wird die (zwingend) einzugießende (humane) Ethik und das Problem dieses Eingießens aber (vielen) direkt deutlich.

    Witzigerweise ist der (ohnehin untaugliche) sog. Kategorische Imperativ hier nicht sinnhafterweise zu implementieren, in die Robotik, so dass sich anders beholfen werden muss, durch Regelmengen der (humanen) Moral.

    Die Bestimmung derartiger Regelmengen war “bei uns”, also hier bei den Scilogs.de , bereits häufiger mal ein Thema; Dr. W erlaubt sich hierzu anzumerken, dass ein diesbezüglicher nie enden währender Prozess ansteht – und wünscht der werten hiesigen Inhaltegeberin weiterhin viel Einsicht und Erfolg dabei, wie generell (also auch ihr Fortkommen meinend) ebenfalls,
    MFG + schönes Wochenende schon einmal,
    Dr. Webbaer

  2. Bonus-Kommentar, wie Bonus-Punkt (auch) hierfür :

    Für die Entwicklung von automatisierten Fahrzeugen wird in philosophischen/ ethischen Diskussionen immer noch häufig auf Dilemma-Beispiele verwiesen (trolley-Problem etc.).Dies halte ich nach wie vor für Unfug […]

    Vgl. auch mit diesem Jokus aus dem Hause Gerhart Baum (ein ehem. BIM, FDP, also real existierender bundesdeutscher Liberalist) :

    Ein todgeweihtes Leben ist genauso viel wert wie ein Leben mit Zukunft, fünf Leben sind genauso wertvoll wie 50 oder 5.000. Das ist unsere Verfassung, so, wie sie von Anfang an interpretiert worden ist. [Quelle]

    Gerät robotischer Art kann nicht, gar ungünstig, wie von Sportsfreund Gerhart Baum geschildert, Leben absolut sehen, einzelnes, sondern hat abzuwägen, muss sozusagen vorab so instruiert werden Anwalt, Henker und Richter, in alphabetischer Reihenfolge zu sein.
    Schön ist dies Aussicht nicht, allerdings : alternativlos.

    ‘Dilemmata’ entstehen so nicht, Einschätzungen der Art, gar aus (formal) liberalem Hause – vgl. mit ‘fünf Leben sind genauso wertvoll wie 50 oder 5.000’ – sind nicht in Robotik eingießbar.
    Stattdessen muss eben vorab Gerät trainiert werden, o.g. Regelmengen zugrunde gelegt.

  3. Bonus-Bonus-Kommentar hierzu :

    Das heißt nicht, dass ein Rückgriff auf schon bestehende Diskussionen/ Theorien immer fruchtbar sein muss, aber zumindest sollte man doch einen Blick in die Geschichte (selbst die jüngste) wagen und nicht so tun, als wäre das jetzt alles neu.

    Sie haben ja so-o recht, werte Frau Seng, anthropologisch ist sich um das hier gemeinte erkennende Subjekt bereits bestens bemüht worden, ein sog. Trockennasenprimat liegt vor, wie aus bärischer Sicht gerne angemerkt wird, der sozusagen bereits auf das Beste beforscht war, bevor mit dem Web, Dr. W sich hier ein wenig auskennen tun, und der sog. AI Neues anzustehen hatte.

    Those who cannot remember the past are condemned to repeat it. [George Santayana]

    Medienbrüche dieser Art gab es bereits mehrfach, die Erfindung der Sprache, die der Schrift, die des Buchdrucks beispielsweise gingen der der Erfindung der netzwerkbasierten, mittlerweile gar per se globalen Kommunikation vorher, wobei allerdings auch das gute alte Buch ähnlich leisten konnte.
    So dass medial nicht so-o viel Neues vorliegt, auch die sog. AI muss wohl noch längere Zeit dem Erkenntnissubjekt gehorchen, womöglich wird sich i.p. Algorithmik hier auch nichts grundsätzlich ändern lassen.

    Web und AI sind allerdings geeignet, wie Dr. W findet, Leutz in den Vordergrund zu spülen, die sich eben mit “Web und AI” ein wenig auskennen, die dann meinen, obwohl anthropologisch meist nur schwach gebildet, sich erhöhen zu können und die Debattenlage hegemonial bestimmen zu können.
    Dr. W muss bspw. immer ein wenig diesbezüglich über den Bundesdeutschen Sascha Lobo schmunzeln.

  4. Wie geht das mit den Asimovschen Roboterregeln zusammmen, daß im Auftrag des Militärs in den USA Roboter konstruiert werden, die selbständig Krieg führen und Menschen töten sollen ? Und es gibt tatsächlich Menschen, die solchen Maschinen Rechte einräumen wollen ? Die Perversion jeden Rechtes. Vielleicht sollte man erst einmal darüber nachdenken, was für Handlungen man in einen Roboter programmieren darf. Und die Firmen und Programmierer bestrafen, die gegen diese Regeln verstoßen und solche Roboter entwickeln und herstellen !

  5. Jetzt ist Schweigen im Wald. Keine Diskussion mehr. Schade. Ich wollte mit meinem Beitrag nur andeuten, daß es der Mensch ist, der die Regeln macht, nach denen die Roboter handeln. Auch bei “selbstlernenden” Systemen wird vorgegeben, nach welchem Muster gelernt wird und welche Regeln dabei gelernt werden. In dem Roboter (KI-System) steckt also in aller erster Linie die Intelligenz der Konstrukteure und nicht irgend eine gottgewollte “künstliche Intelligenz”. Auch nicht in Go- oder Schach- computern.

    Und es gibt eben immer wieder Menschen, denen jede Regel des Zusammenlebens (piep)egal ist. Die nur den eigenen Vorteil sehen. In der Politik schreit da so ein “Trump”eltier “America first” und macht damit Regeln des politischen Zusammenlebens kaputt. Leider gibt es auch Konstrukteure, die sich nicht an die Regeln halten. Und “intelligente” tötende Roboter entwickeln. Töten hat nichts mit Intelligenz zu tun. Das machen schon Bakterien, die sich gegenseitig auffressen. Intelligente Bakterien ?? Oder ist das Intelligenzniveau der Konstrukteure vergleichbar mit dem eines Bakteriums ? Vielleich sollte man sowas, genau wie Giftgas, verbieten !

    Mich regen tötende Roboter fürchterlich auf. Trotzdem Danke für Ihren Artikel, Frau Seng. Werden solche Fragen auch auf dem AI-Symposium 2018 diskutiert ?

  6. Hallo Leser,
    1. ich habe weder die Asimov’schen Regeln (er sagt Gesetze) geschrieben, noch finde ich sie eune hinreichende Grundlage für moralische oder ethische Entscheidungen. Das geht ja auch aus meinem Artikel hervor.
    2. Roboter im Krieg sind einfach eine neue Technik. M. E. sollte man vielmehr diskutieren, ob Krieg Oberhaupt geführt werden sollte.
    3. Heute hatten wir einen tollen Vortrag von David Gunkel über Roboterrechte. In seinem neuen Buch diskutiert er das ausführlich und kommt zu dem Schluss, dass er sich von seiner bisherigen These, Robotern Rechte zuschreiben zu wollen, verabschiedet. Mein Einwand war: Er nannte ein paar Beispiele, in denen es um Datenschutz ging, dann geht es aus meiner Sicht aber um Rechte für Menschen. Warum es Roboterrechte bedarf sehe ich im Moment nicht.
    4. Ich Stimme Ihnen absolut zu, dass Menschen die Regeln machen, nach denen Roboter handeln. Mindestens ein Probleme sehe ich dabei und zwar: die bisherigen Regeln sind zu allgemein, um in der Entwicklung Anwendung zu finden.
    5. Von “gottgewollt” sprechen Sie, nicht ich. Intelligenz ist in erster Linie, wie ausführlich dargelegt, eine Definitionssache, bei KI heißt das bislang: Mustererkennung, einfache Problemlösung.
    6. Viele Fragen wurden diskutiert, z. B. auch inwieweit Programme Menschen dominieren oder Demokratie untergraben können (s. Präsidentenwahl in Amerika).

    Besten Dank für Ihre Mühe!
    LS

  7. Ergänzung: Menschen geben zumindest die Ziele vor wie, einen großen Datensatz auf bestimmte Muster hin zu untersuchen. Die Regeln bzw. Algorithmen, mit denen ein bestimmtes Ziel erreicht wird, sind dabei für Menschen nicht mehr immer nachvollziehbar (Bsp. AlphaGo)
    (Und sorry für die ganzen Autokorrekturfehler.)

  8. Mich regen tötende Roboter fürchterlich auf. [“Leser”]

    Sog. selbstfahrende Automobile wären potentiell derartige Roboter.
    Deshalb ist die Ethik, die humanistischer Bauart ist (vgl. mit ‘Mein Einwand war: Er nannte ein paar Beispiele, in denen es um Datenschutz ging, dann geht es aus meiner Sicht aber um Rechte für Menschen.’), zentral.
    Antihumanistisch wäre es Gerät (oder Tier) Rechte zuzusprechen.
    Hört sich vielleicht ein wenig harthörig und wenig gefühlig an, aber die Unterscheidung zwischen Sache und Bär oder Mensch macht Sinn.
    Dr. W hält es für notwendig, selbstfahrende Automobile und vergleichbares Gerät unter die Aufsicht der Gesellschaft zu stellen.
    Er ist insgesamt sehr liberal, aber er sieht auch die Notwendigkeit der dbzgl. zentralen Steuerung, wenn es sozusagen ans Eingemachte geht.

    MFG + schönen Tag des Herrn noch,
    Dr. Webbaer

  9. Folgende Erwartungen verbinden sich mit AI :
    – Automatisierung auch anspruchsvoller Arbeit
    – Künstlich Intelligente Agenten ersetzen Fahrer, Piloten, Soldaten, KinderbetreuerInnen und sind an deren Stelle mit den gleichen ethischen Fragen konfrontiert wie ein Kampfpilot oder eine Kindergärtnerin.
    – Artificial Intelligence entwickelt eventuell Eigenintelligenz und handelt ähnlich wie Menschen handeln – das heisst z.B. nicht unmittelbar nachvollziebar/transparent, ja eventuell sogar verschwörerisch.

    Ob Arbeiten wegrationalisiert werden, AI zur Bedrohung für die Menschheit an und für sich wird oder aber AI ethisch gesehen problematisch oder gar falsch handelt, sind aber ganz verschiedenartige Fragen.

    Es gibt also ganz unterschiedliche generelle Fragestellungen im Zusammnehang mit AI.
    Wenn Isaac Asimov und Nick Bostrom erwähnt werden sind wir in der existenziellen Dimension (Mensch Roboter), wenn aber Bücher und Kommissionen über das automatisierte Fahren referenziert werden, dann hängt es vom Autor ab ob er praktische Fragen stellt (z.B. wer ist für einen Verkehrsunfall verantwortlich, wenn das Fahrzeug selber fährt) oder ob er das Thema zum Anlass nimmt um etwa ethische Dilemmata (wie das Trolleyproblem) zu transportieren, die es eigentlich auch mit menschlichen Fahreren geben könnte, wo aber ein automatisiertes Fahren den Ethikern das erste Mal die Chance gibt, in den Entscheidungsprozess einzugreifen (indem sie Forderungen an die Programmierung stellen).

    Wein in alten Schläuchen sind vor allem die existenziellen Fragen (Asimov,Bostrom) und überhöhte ethische Fragen wie sie sich in Dilemmata offenbaren.
    Neu aber können Verantwortlichkeitsabgrenzungen und gesellschaftliche Zielsetzungen im Zusammenhang beispielsweise mit autonomen Fahren sein. Hier widerspreche ich teilweise Leonie Seng mit ihrer Aussage zum autonomen Fahren (Zitat) “In der Praxis sind solche allgemein gültige Aussagen wie, dass kein Mensch zu Schaden kommen darf, allerdings äußerst unpraktisch, da zu unkonkret. Ebenso die “Ethischen Regeln” des BMVI zum Automatisierten und vernetzten Fahren.

    Ich möchte hier auf einige Aussagen der “Ethik-Kommission Automatisiertes und Vernetztes Fahren” eingehen und zeigen, dass sie durchaus konkrete Auswirkungen besitzen.
    Im Kapitel Ethische Regeln für den automatisierten und vernetzten Fahrzeugverkehr lesen wir etwa

    Punkt 1. Die technische Entwicklung gehorcht dem Prinzip der Privatautonomie im Sinne eigenverantwortlicher Handlungsfreiheit.
    Hierzu gibt es durchaus eine Alternative. Nämlich die, dass der Staat regelt wie ein autonomes Fahrzeug zu fahren hat.

    Punkt 2. Die Zulassung von automatisierten Systemen ist nur vertretbar, wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht.
    Auch das hat ganz konkrete Auswirkungen: Wenn ein selbstfahrendes Auto gleich viele, gleich schwere Unfälle verursacht wie im Durchschnitt menschliche Fahrer, dann ist es gemäss Punkt 2 nicht legitimiert, eingesetzt zu werden.

    Punkt 6: Die Einführung höherer automatisierter Fahrsysteme insbesondere mit der Möglichkeit automatisierter Kollisionsvermeidung kann gesellschaftlich und ethisch geboten sein, wenn damit vorhandene Potentiale der Schadensminderung genutzt werden können.
    Das bedeutet konkret, dass es sogar eine Pflicht des Staates geben kann, automatisierte Fahrsysteme zu fördern oder gar durchzusetzen. Damit könnte sogar ein Verbot des manuellen Fahrens begründet werden. Dann nämlich, wenn es bei automatisiertem Fahren viel weniger Kollisionen gibt.

    Punkt 9: Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.
    Das ist doch sehr konkret und bedeutet, dass im Konfliktfall die Grossmutter vom selbstfahrenden Auto gleich behandelt wird wie das Kind im Kindergartenalter.

    Punkt 10: Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen.
    Konkret weiss ich von einem Fall, wo ein Autofahrer vor Gericht ging, weil er für einen Unfall haften sollte, der nach seiner Meinung auf ein Fehlverhalten des Assistenzsystems zurückging. In diesem Fall entschied das Gericht gegen den Autofahrer, also in Widerspruch zu Punkt 10. Allerdings ereignete sich das nicht in Deutschland, sondern in einem anderen deutschsprachigen Land.

    Fazit: Ich kann Leonie Seng nicht zustimmen, dass das Dokument der Ethik-Kommission: “AUTOMATISIERTES UND VERNETZTES FAHREN” des Bundesministeriums für Verkehr und digitale Infrastruktur zu wenig konkret sei. Für mich hat es genau den richtigen Grad an Konkretheit angesichts der noch teilweise offenen Zukunft in diesem Bereich.

    Ich würde sogar so weit gehen und behaupten, dass der Geist hinter diesem Papier sehr gut zur Denkweise in Deutschland passt, wo man zwar dem Individuum alle denkbaren Freiheiten zugesteht aber am Schluss doch immer wieder den Staat und die Gesamtgesellschaft verantwortlich macht.

Schreibe einen Kommentar