Böse neue intelligente Welt – führt künstliche Intelligenz zu mehr Krieg und der Erosion der Menschenrechte?

Maschinelles Lernen hat mit lernen gar nichts zu tun. Man sollte von diesem Begriff überhaupt ganz abkommen und es das nennen, was es ist: Statistische Parameteroptimierung. Das meinte Noel Sharkey, einer der Teilnehmer der Podiumsdiskussion zu künstlicher Intelligenz beim Heidelberg Laureate Forum.

Nicht nur der Begriff wurde bei der Podiumsdiskussion entzaubert. Deutlich waren kritische Stimmen zum Thema zu vernehmen. Dirk Helbig, Professor für Computational Social Science an der ETH Zürich präsentierte eine ganze Liste an Werten und Normen, von der Menschheit in Jahrhunderten mühsam errungen, die nun zur Disposition stünden.

Folie aus dem Vortag von Dirk Helbig

Folie aus dem Vortag von Dirk Helbig

Helbig steht mit seiner Kritik nicht alleine. Bill Gates, Stephen Hawking und Elon Musk warnen vor der künstlichen Intelligenz. Es ist vor allem ein Thema, das den technisch interessierten und sicher nicht visionsfreien Herren Sorgen macht: Die militärischen Anwendungen, die durch autonome Roboter und Drohnen möglich werden.

Dass das nicht nur Stoff für Hollywoodfilme bietet sondern bereits real vorkommt zeigt sich zum Beispiel in den Wäldern rund um Boston, in denen die Firma Boston Dynamics ihre Roboter testet. Dort unternimmt etwa der Humanoide “Atlas” autonome Spaziergänge. Boston Dynamics ist inzwischen eine hundertprozentige Tochter von Google. Die Firma erhielt Fördergelder vom amerikanischen Verteidigungsministerium.

künstlich Intelligente Roboter gegen menschliche Soldaten also.  Joel Sharkey stellte in der Hot Topic Session die rhetorische Frage, was denn wäre, wenn nicht nur die USA an Militärtechnik mit künstlicher Intelligenz arbeiten würde, sondern auch China und andere Nationen. Und wenn es nicht nur einzelne Roboter wären, die auf Menschen losgingen, sondern ganze Roboter schwärme und Armeen aufeinander. Böse neue Welt.

Direkte gesellschaftliche Auswirkungen, ganz ohne militärisches Säbelrasseln, haben Roboter, die Aufgaben übernehmen, die aktuell von Menschen durchgeführt werden, und dadurch Arbeitsplätze gefährden. Ein Roboter, der 400 Burger pro Stunde zubereitet, ersetzt nicht nur einen Angestellten eines Schnellrestaurants.

Ob Roboter als Barkeeper zum Einsatz kommen oder Arbeiter bei der Herstellung von Autos und anderer Industriegüter nicht nur unterstützen, sondern komplett ersetzen: Wenn die aktuelle Entwicklung so weiter geht, stehen uns womöglich drastische Umwälzungen auf dem Arbeitsmarkt bevor. Ist es apokalyptisch, Aufstände der betroffenen Arbeiter zu prophezeien?

Von den Organisatoren der Podiumsdiksussion wurde vor dem Hintergrund dieser Herausforderungen erkannt, dass es einer neuen Gesetzgebung bedarf, die den Umgang zwischen Mensch und Maschine reguliert. Thomas Dreier, Leiter des Zentrums für Angewandte Rechtswissenschaft am KIT und ebenfalls Teil der Podiumsdiskussion, stellte dann auch gleich zum Anfang seines Vortrags klar, dass was legal für Menschen gilt, auf künstliche Intelligenz übertagen werden muss. Also ein System, basiert auf normativen Werten um Menschenwürde und Menschenrechte. Nur das wie, das blieb weitgehend offen.

Christoph Drösser, Wissenschaftsredakteur bei der Zeit und Moderator der Podiumsdisussion zitierte dann Isaak Asimov mit seinen Robotergesetzen:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Das sollte ob der oben beschriebenen Gefahren rechtlich der kleinste gemeinsame Nenner sein. Wie man das international umsetzen möchte, das wäre ein Thema für eine weitere Podiumsdiskussion. Oder für den Europäischen Gerichtshof für Menschenrechte.

Dieser Artikel ist der zweite Teil einer zweiteiligen Serie über die Hot Topic Session zu künstlicher Intelligenz beim vierten Heidelberg Laureate Forum. (Teil 1 hier). Die Diskussion wurde von Christoph Drösser moderiert. Auf dem Podium saßen: Vint Cerf, Thomas Dreier, Dirk Helbig, Jim Hendler, Raj Reddy, Holger Schwenk und Noel Sharkey.

Tobias Maier ist promovierter Molekularbiologe mit über zehn Jahren Forschungserfahrung an internationalen Instituten. Er ist selbstständig und arbeitet als Dozent am Nationalen Institut für Wissenschaftskommunikation in Karlsruhe. Seit 2008 schreibt Tobias das Blog WeiterGen auf den deutschen ScienceBlogs und twittert unter @WeiterGen. --- Tobias Maier is a science communication professional with a ten year track record in biomedical research. He’s a lecturer at the National Institute for Science Communication in Germany (NaWik) and he’s a freelance trainer for leadership and management skills and career development courses for scientists. Tobias writes a blog on the German ScienceBlogs network and he’s on Twitter as @WeiterGen

3 comments Write a comment

  1. Diese Einschätzung der Möglichkeiten und Gefahren der künstlichen Intelligenz enthält einen tiefen inneren Widerspruch: Einerseits soll maschinelles Lernen nichts anderes sein als

    Statistische Parameteroptimierung.

    Andererseits sollen Roboter praktisch alle menschlichen Tätigkeiten inklusive denen, die Planung und Intelligenz erfordern, übernehmen können. Und dementsprechend wird gefordert, dass sie sich an ethische Regel (Robotergesetze) halten.
    Ich bezweifle, dass Roboter, deren Handlungen und Handlungssziele durch statistische Parameteroptimierung bestimmt werden, überhaupt in der Lage sind ethische Konflikte zu erkennen. Dementsprechend fehlen solchen Robotern die intellektuellen (und emotionalen?) Voraussetzungen für ethisches Handeln.

    Auch die Aussage, die AI-Kritiker Musk, Hawking und Bill Gates sähen die Gefahren der künstlichen Intelligenz vor allem im militärischen Einsatz, also beim Einsatz von Computern und Robotern als Tötungs- und Kriegsmaschinen oder aber beim Ersatz von Lohnarbeitern durch effizientere und billigere Roboter scheint mir nicht zuzutreffen.
    Der offene Brief über künstliche Intelligenz den 12 Experten inkluive Musk und Hawking veröffentlicht haben, gibt hier gute Auskunft über die wirklichen Befürchtungen dieser AI-Warner:

    artificial intelligence has the potential to eradicate disease and poverty, but researchers must not create something which cannot be controlled.

    Es stimmt, dass in diesem Brief auch der Einsatz von AI für Kriegszwecke thematisiert wird, aber die wirkliche Gefahr sehen die Experten im unbemerkten Auftauchen von künstlicher Superintelligenz:

    we could one day lose control of AI systems via the rise of superintelligences that do not act in accordance with human wishes – and that such powerful systems would threaten humanity. Are such dystopic outcomes possible? If so, how might these situations arise? …What kind of investments in research should be made to better understand and to address the possibility of the rise of a dangerous superintelligence or the occurrence of an “intelligence explosion”?

    Fazit: Die AI-Warner Musk,Gates, Hawkings etc. warnen vor der langfristigen Gefahr von superintelligenten Maschinen, die eigene Wünsche und Vorstellungen entwickeln, welche den Wünschen und Vorstellungen der Menschheit diametral entgegengesetzt sein könnten.

    Elon Musk hat übrigens Geld in die Firma Open AI investiert und als erstes will er einen Roboter, der Hausarbeiten verrichten kann und der so lernfähig ist, dass er allgemeine Aufgaben übernehmen kann. Ferner soll dieser Roboter auf mündlich erteilte Aufträge Rückfragen stellen können bis er die Aufgabe wirklich verstanden hat. Mit anderen Worten: Elon Musk glaubt an smarte Roboter, an Roboter, deren Handlungen nicht mehr ohne weiteres mit statistischer Parameteroptimierung erklärt werden können.

  2. Wieso gab es dieses Treffen gerade jetzt wenn das Problem wie unser Gehirn funktioniert schon von mir gelöst wurde? Es hat doch keinen Sinn jetzt über das Thema zu diskutieren wenn man 60 Jahre lang nichts gemacht hat und nur das angenehme Leben an den Unis genossen hat!
    Und wenn ich höre was alles uns diese Leute empfehlen, von welchem Unsinn da gewarnt wird, dann frage ich mich wer hat diese Leute ausgewählt solche Treffen zu organisieren?
    Sollte man über die Einflüsse der schon kommenden intelligenten Roboter tatsächlich sachlich diskutieren wollen, dann müsste man an erster Stelle den Erfinder der wirklichen künstlichen Intelligenz einladen, was der zu dem Thema zu sagen hat. Mich hat aber niemand gefragt!

    Als Erfinder der Hirnalgorithmen mit denen es jetzt ab sofort möglich ist die ersten intelligenten Roboter der Welt zu konstruieren sage ich: wir haben da mit einer Weltverschwörung der Regierungen zu tun. Die Politiker wollen uns in Dunkelheit der weiteren 60 Jahre leerer KI-Forschung zwingen, die intelligenten Roboter sollen nicht das Licht dieser Welt sehen. Die Menschheit wird somit absichtlich in die miserable Rolle der dummen Textilarbeiter in England des 19. Jahrhunderts gestoßen. Wie naiv diese Absichten sind! Solche Zukunft sieht für niemanden gut aus!
    http://www.moravcik.info

  3. Die Intelligenz setzt keine Ziele, sie dient nur zum Erreichen der Ziele.
    Die Ziele kommen von räumlich außerhalb, beziehungsweise von zeitlich vor der Intelligenz.
    Die Intelligenz kann höchstens Unter-Ziele oder Konsequenzen entwickeln um die bereits vorgegebenen Ziele zu erreichen.
    Natürlich ist es günstig, wenn die künstlichen Intelligenzen das Ziel haben, die Wünsche der Menschen zu erfüllen.
    Jede weitere Konkretisierung der Ziele der künstlichen Intelligenzen ist grundsätzlich für Fehler anfällig.
    Siehe auch bei Google unter: Karl Bednarik Kurzgeschichte Menschenrechte für Roboter.

Leave a Reply




Bitte ausrechnen und die Zahl (Ziffern) eingeben

E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +