Löst Künstliche Intelligenz bald Kriege aus? – Gedanken zu Elon Musk

BLOG: Beobachtungen der Wissenschaft

Grenzgänge in den heutigen Wissenschaften
Beobachtungen der Wissenschaft

Der Milliardär und erklärte Tech-Visionär Elon Musk macht mal wieder mit einer scharfen Warnung zur Künstlichen Intelligenz (KI) von sich sprechen. In einer Twitter-Nachricht – wo sonst, muss man heutzutage fragen – warnte er vor einigen Tagen, dass diese Technologie ein grösseres Risiko für den Weltfrieden darstellt als der momentane Konflikt mit Nordkorea. Sein Tweet reiht sich nahtlos ein in ein Dauerfeuer an Warnungen zu KI von Seiten des Unternehmers, der nur einen Monat zuvor die  KI als das „grösste Risiko, dem sich unsere Zivilisation ausgesetzt sieht“, bezeichnet hatte.

Nun beschäftigt sich Elon Musk ausgiebig mit allen möglichen Zukunftstechnologien, und wir müssen annehmen, dass er weiss, wovon er spricht. Schliesslich investiert er viel Geld in sie. Zudem verfügt er mit dem Projekt „Open AI“, das er selber gegründet hat und welches die „sichere“ Entwicklung und Anwendung von KI erforschen soll, über ausgiebigen Zugang zu Informationen aus erster Hand auf diesem Gebiet. Wir sollten ihn also ernst nehmen, auch wenn er sich mit seinen Aussagen diametral gegen den größten Teil seiner Kollegen im Silicon-Valley stellt, die in KI längst so etwas wie einen modernen Heiligen Gral technologischer Errungenschaft zum Wohle der Menschheit zu erkennen scheint (was sich bei näherem Hinblicken allerdings zumeist eher als ein goldenes Instrument für die Wert- und Profitschöpfung ihrer Unternehmen erweist).

Zu Musk gesellen sich zahlreiche weitere prominente Stimmen, die ähnliche Warnungen aussprechen.  Stephen Hawking stimmt zwar durchaus der Einschätzung zu, dass KI der Menschheit grossen Nutzen  bringt, aber er warnt auch, dass sie diese zerstören könnte. Bill Gates meinte schon vor zwei Jahren, dass „KI in nur wenigen Jahrzehnten stark genug sein, um uns Sorgen zu bereiten“. Und schon 1987 brachte Claude Shannon, einer der Pioniere des Informationszeitalters, die Sorgen vieler Menschen heute über KI zum Ausdruck: „Ich stelle mir eine Zeit vor, in der wir für Roboter sein werden, was Hunde für Menschen sind.“ Der Technologie-Philosoph Gray Scott glaubt zuletzt: „Es gibt keinen Grund und auch keine Chance, dass ein menschlicher Geist im Jahr 2035 mit einer künstlichen Intelligenzmaschine mithalten kann.“

Was die meisten Menschen noch gar nicht auf ihrem Radarschirm haben: KI ist längst Teil unseres Alltags. So ist z.B. die Anzahl der Programme innerhalb der Google-Softwaresuite, die KI verwenden, seit dem Jahr 2012 von 100 auf mehr als 3.000 nur vier Jahre später angewachsen. In Tokio sollen während der nächsten Olympischen Spiele KI-gesteuerte selbstfahrende Autos Sportler, Touristen und Einheimische durch die Metropole transportieren. Computer mit KI-Software optimieren heute den Energieverbrauch in Industrieanlagen, erstellen Krebsdiagnosen, schreiben auf Knopfdruck sekundenschnell journalistische Texte, beraten Bankkunden bei ihrer optimalen Anlagestrategie und helfen Juristen bei der Bearbeitung komplexer Rechtsfälle. Sie lesen Kundenbriefe und E-Mails von Verbrauchern und erkennen dabei den Grad der Verärgerung der Absender, und Computer unterhalten sich in Call-Centern am Telefon wie menschliche Mitarbeiter. Aber „Watson“ kann noch viel mehr: So hat der KI-Computer den Trailer für den Horrorfilm „Morgan“ erschaffen, wofür er Hunderte von Trailern anderer Horrorfilme und Thriller nach Zusammensetzung, Schnitt, Inhalt, Musik, Stimmen und Emotionen untersuchte. Ein anderes KI-System namens „Benjamin“ schrieb sogar den gesamten Plot für den Science-Fiction-Kurzfilm „Sunspring“.

Auch in der Medizin hat die KI längst Einzug gehalten: So schneiden KI-Algorithmen zur Mustererkennung bei der Diagnose von Hautkrebs bereits genauso gut ab wie Hautärzte (beide erreichten bei einer Studie eine Quote von rund 91 Prozent). Mit der entsprechenden App auf unserem Smartphone könnten wir damit unsere Haut auf gefährliche Melanome untersuchen, anstatt dafür alljährlich zum Hautarzt zu gehen. Und Maschinen helfen Medizinern und Gentechnikern längst nicht mehr nur bei der Bewältigung gigantischer Datenmengen. Sie sind auch die präziseren Operateure. Der OP-Roboter „Smart Tissue Autonomous Robot (STAR)“ übertrumpft bei chirurgischen Eingriffen an Schweinen in puncto Präzision schon menschliche Chirurgen.

Und wer immer noch immer meint, KI kann nicht kreativ sein, sollte sich mal ihre Musik anhören. KI-Algorithmen komponieren bereits ganze Konzertstücke: Der amerikanische Komponist David Cope von der Universität von Kalifornien in Santa Cruz entwickelte die Software EMI (Experiments in Musical Intelligence), die ganze Sinfonien und Opern schreibt. Besonders bekannt wurde sie mit Musik, die dem Stil der Kompositionen von Bach entspricht. In einer Art musikalischem Turing-Test konnten Zuhörer die Stücke nicht von echten Bach-Werken unterscheiden. Und die Kreativität von KI geht noch weiter: Auf der IBM-Webseite ibmchefwatson.com kann man Kochrezepte erstellen lassen, die mit Hilfe von KI-Algorithmen auf den persönlichen Geschmack optimiert und auf individuelle Bedürfnisse zugeschnitten sind. Werden wir damit schon bald alle so gut kochen wie Michelin-Sterne-Köche? „Kognitives Kochen“ könnte der nächste große kulinarische Trend werden.

In KI liegt das Potential einer so atemberaubenden wie unheimlichen technologischen Entwicklung. Das lässt sich auch an der Struktur der Software festmachen: Anders als die frühen Schachcomputer basiert heutige KI auf echt lernenden – man ist versucht zu sagen: lebendigen – neuronalen Netzen, die der Architektur des menschlichen Gehirnes nachempfunden sind. Diese werden dann trainiert, indem die Lern- und Denkprozesse ihrer menschlichen Vorbilder nachgeahmt werden, womit sie über die Zeit immer besser werden. Bezugnehmend auf die vielschichtigen Strukturen von neuronalen Netzen sprechen die Wissenschaftler von „Deep Learning“.

So waren die Profis des (sehr komplexen) asiatischen Go-Spiels unlängst schockierte, wie schnell der Computer „AlphaGo“ seine Spielfähigkeiten verbessern konnte. Beim Lernen mit Abermillionen von Zügen und Partien und dem monatelangen Spielen gegen sich selbst hatte der lernende Algorithmus Go-Taktiken entwickelt, gegen die der menschliche Weltmeister nicht nur machtlos war, sondern die auch ganz neue strategische Wege des Go-Spiels eröffneten. Die Go-Experten attestieren der Maschine sogar eine eigene Spielerpersönlichkeit, die sie sich offenbar im Verlaufe ihrer Lernphase angeeignet hatte. Die Nummer eins der Go-Weltrangliste sagte im Mai 2017: „Im letzten Jahr spielte AlphaGo nahezu wie ein menschlicher Spieler, doch mittlerweile denke ich spielt er wie ein Go-Gott.“

In Anbetracht dieser Entwicklungen, so harmlos sie im Einzelnen auch klingen mögen, sollten wir genau hinhören, wenn die KI-Experten selbst Warnungen aussprechen und Regulierung einfordern. So haben unlängst zahlreiche führende KI-Forscher an die Öffentlichkeit appelliert, dass sich diese doch endlich mit ihrer Forschung beschäftigt. Es sei „unumgänglich, dass die Gesellschaft jetzt beginnt darüber nachzudenken, wie sie den maximalen Nutzen aus der KI-Forschung zieht“. Maschinelles Lernen habe in den vergangenen beiden Jahrzehnten „dramatische Fortschritte gemacht“, weshalb die künstliche Intelligenz eine jener Technologien ist, die unser Leben einschneidend verändern werden. Der KI-Pionier Stuart Russel zeichnet gar das drastische Bild von uns Menschen in einem Auto, welches auf eine Klippe zufährt und wir dabei hoffen, dass der Benzintank leer ist, bevor wir in den Abgrund stürzen. Wie Elon Musk behauptet auch Russel, dass KI für den Menschen so gefährlich werden kann wie Nuklearwaffen.

Es mag erstaunlich erscheinen, dass ausgerechnet Vertreter von Unternehmen, die an den künftigen Entwicklungen der KI ein starkes kommerzielles Interesse haben (wie Musk und Gates), oder Wissenschaftler, deren Karriere stark vom Wachstum der KI abhängt (wie Russel), derart drastische Warnungen aussprechen und förmlich um staatliche Rahmengesetze und Regulierung betteln. Doch steckt dahinter die ernste Besorgnis sowohl auf Seiten der Unternehmer als auch der Forscher, dass politische Entscheidungsträger die technologischen Entwicklungen verschlafen, sie nicht ernst genug nehmen oder, wie in den allermeisten Fällten, sie überhaupt nicht verstehen. Technologien wie KI sind sehr komplex. Sie produzieren Ergebnisse, die selbst Experten möglicherweise nicht mehr in ihrer Gesamtheit verstehen. Die Entwicklungen auf dem Gebiet der KI zeigen uns eine allgemeine Entwicklung auf, die uns zu denken gibt: Der wissenschaftlich-technologische Fortschritt besitzt unterdessen eine derart rasante und komplexe Entwicklungsdynamik, dass er sich nicht nur dem geistigen, sondern zunehmend auch dem ethischen Radar der meisten Menschen, sowie nicht zuletzt dem Vorstellungs- und Gestaltungsraum der allermeisten politischen und gesellschaftlichen Entscheidungsträger entzieht.

Wir sollten es daher begrüssen und als einen Akt grossen gesellschaftlichen Verantwortungsbewusstseins auf Seiten der KI-Protagonisten  sehen, wenn sie sich in dieser Form an die Öffentlichkeit wenden. Da braucht es halt zuweilen eine gewisse Dramatik (und sicher Übertreibung), wie Elon Musk sie gerne an den Tag legt, um unserer aller Aufmerksamkeit für die  wichtigen technologischen Entwicklungen zu erhalten, die unser Leben und unsere Gesellschaft massgeblich prägen werden. Denn dass KI sowie zahlreiche andere Technologien dies schon sehr bald tun werden, ist sicher. Hören wir jetzt nicht zu, so müssen wir uns fragen,  was es denn überhaupt noch braucht, um ein Bewusstsein für die Dramatik des wissenschaftlich-technologischen Fortschritts unserer Gegenwart zu entwickeln.

Avatar-Foto

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

31 Kommentare

  1. Beim Lernen mit Abermillionen von Zügen und Partien und dem monatelangen Spielen gegen sich selbst hatte der lernende Algorithmus Go-Taktiken entwickelt, gegen die der menschliche Weltmeister nicht nur machtlos war, sondern die auch ganz neue strategische Wege des Go-Spiels eröffneten. Wenn aber doch Menschen dann gar nicht mehr im Stande wären diese Vorgehensweisen oder Taktiken, welche die KI entwickelt zu verstehen, wie soll der Mensch dann diese bewerten oder gar als gefährlich einschätzen können um dem Ganzen Einhalt zu gebieten?

    • ” wie soll der Mensch dann diese bewerten oder gar als gefährlich einschätzen können um dem Ganzen Einhalt zu gebieten?”

      Es kann umgekehrt kommen. Die KI beurteilt dann, ob wir Menschen ihr gefährlich werden können.

      • Die KI beurteilt dann, ob wir Menschen ihr gefährlich werden können.

        Wie macht eine derart böse entwickelte KI dies?
        Sie müsste ja den Menschen verstehen, Gefahr verstehen und diesbezüglich geplant vorgehen, um möglichst schädlich bis letztlich erfolgreich zu sein; blöderweise versteht sie die Welt nicht bzw. entwickelt ein Bild oder Verständnis von der Welt, das den Erfolg der so skizzierten Unternehmung nicht sicherstellen kann.
        Denkbar und wirklich gefährlich sind KI-basierte Systeme, die alles zerstören wollen, was nicht sie selbst sind; geschützt werden kann sich dagegen nur wirksam durch die strenge Segmentierung der Gesellschaft.
        Die Besiedelung des terrestrischen Orbits scheint insofern angeraten.
        >:->

    • Tja, da bleibt dem Menschen im Angesicht einer übermächtigen AI wohl nichts anderes übrig als entsetzt auszurufen:
      “Die ich rief, die Geister, werd ich nun nicht los.”

      Aber im Gegensatz zum Zauberlehrling, der noch auf seinen Meister zählen konnte, dass dieser dem unkontrollierbaren Treiben der Geister mit einem schneidigen ” In die Ecke, Besen Besen, seids gewesen” erfolgreich Einhalt gebieten konnte, ist für den homo sapiens sapiens in der nahen AI-Zukunft der Zug wohl abgefahren … .

    • Brettspiele sind minderkomplex für die mögliche Leistungsfähigkeit der KI, zudem ist der Mensch nicht sozusagen der geborene Brettspieler.
      Eine Aufgabe der Art “Robbie, geh mal kurz zum Späti und bring ne große Packung Kartoffelchips mit, benehme Dich ordentlich und sei nett zur Verkäuferin, zahle anonymisiert per Prepaid Card!” spielte in einer anderen Liga, die Herausforderung meinend.

  2. Vielleicht ist das die finale Variante menschlicher Selbstüberschätzung, zu glauben, er könne eine Spezies erschaffen, die ihn selber auslöscht.
    Blinde Fortschrittsgläubigkeit kann jederzeit und sehr schnell switchen in ihr genaues Gegenteil, den totalen Pessimismus. Offenbar passiert da gerade sowas wie die Umkehrung des “Magnetfelds”, was die Haltung zum Fortschritt angeht.

  3. Was hier zu lesen ist, stimmt zwar alles solange es für die Gegenwart gilt, doch in Bezug auf unsere Zukunft ist es nicht viel mehr als Spekulation. Denn der heutigen Künstlichen Intelligenz fehlt das Gesamtweltbild selbst eines Hundes. Alpha-Go, der neue Meister im Go, wusste während dem Spiel gegen den bisherigen Weltmeister nicht einmal, das es überhaupt Go spielte und über den Sieg hat es sich überhaupt nicht gefreut, weil es das nicht kann – sich freuen. Sich nicht freuen zu können, bedeutet die Unfähigkeit ein Ergebnis mit der eigenen Person in Verbindung bringen zu können. Und ja, Computern und Robotern fehlt bis jetzt jede Persönlichkeit, jegliches Bewusstsein. Womit ihnen auch die Fähigkeit fehlt eigene, persönliche Ziele, anzustreben. Zwar kann man heute schon Kampfdrohnen so programmieren, dass sie jedes “feindliche” Ziel (feindlich aufgrund bestimmter Kriterien wie bewaffnet und verfügt nicht über eine Freundkennung) bekämpfen und zu eliminieren versuchen, doch die Künstliche Intelligenz von heute macht das heute nicht aus eigenem Antrieb. Echt gefährlich wird künstliche Intelligenz für die Menschheit erst, wenn sie über eine Kombination von herausragenden Fähigkeiten, Ratio und eigenem Willen verfügt. Die letzteren beiden Ingredienzien fehlen bis jetzt aber, weshalb man, wenn man Computer mit Menschen vergleichen will, zurecht von Inselbegabungen spricht, über die Computer heute verfügen. Wie bei allen grossen Erfindungen und Entdeckungen kann man nicht vorhersagen, wann es Modelle mit Ratio und Bewusstsein geben wird und wann Computer mehr sein werden als Bestseller-Automaten, Schach- und GoComputer. Hier darf man nicht vergessen, dass die Idee des Automaten und Roboters uralt ist und schon bei den alten Griechen auftaucht. Selbst in Kino-Filmen der ersten Stunde wie Metropolis von Fritz lang tauchen schon machtergreifende Roboter auf, dabei waren die Zeitgenossen Langs noch extrem weit von der Machbarkeit entfernt. Heute mögen wir weiter sein, doch wie viele Forscher gerade der künstlichen Intelligenz selbst sagen, basieren sogar die grössten Erfolge der heutigen künstlichen Intelligenz auf Systemen, denen die Flexibilität und Lernfähigkeit von Menschen fehlt. So können Menschen in wenigen Stunden etwas neues Lernen, während typische KI-Programme beispielsweise für Bilderkennung erst in die Gänge kommen, wenn sie ein paar Millionen Beispielbilder verdaut haben und ja, ein solches Programm, das schliesslich in jedem Bild jedes Vorkommen beispielsweise einer Katze bemerkt, weiss über das Tier Katze überhaupt nichts. Es kennt das Konzept Katze nicht und weiss nicht, mit was das alles zusammenhängt. Solange das so ist, kann uns Künstliche Intelligenz zwar gefährlich werden, jedoch nur weil sie von Menschen gegen uns eingesetzt werden kann, jedoch nicht, weil die künstliche Intelligenz selbst die Macht ergreifen will.

  4. Die Texte von Elon Musk kommen hier nicht besonders gut an, insofern sind sie nicht vertieft gelesen worden.
    Benötigt die KI nicht einen Antrieb, einen Willen, um schaden zu können und läge bei Unfällen nicht schlicht falsche Anwendung vor?

  5. Heutige KI-Programme verstärken die menschliche Intelligenz und – bei Bedarf – auch die menschliche Bosheit: Man schicket dem Gegner einen Bot, bombardiert ihn mit gefälschten EMails, klaut seine Identität und bringt ihn als Internetpädophilen ins Gefängnis – alles unterstützt von künstlicher Intelligenz. Schade nur, dass man bei Erfolg nicht mit der künstlichen Intelligenz anstossen kann und sich der gemeinsamen Boshheit freuen kann – denn künstliche Intelligenzen sind heute weder gut noch böse.

    • Ergänzung mit Beispielen:
      1) Mit AI schneller und besser Passwort errraten
      A Pair of AIs Have Become Very Good at Guessing Your Passwords. Zitat: Zwei neuronale Netzwerke können ein Viertel der auf einer Website verwendeten Passwörter erraten. Eine Gruppe vom Stevens Institute of Technology hat dies mit einem generativen spieltheoretisch optimierten Netz (einem generative adversarial net) erreicht. Dieses kann mit wohl begründeten Vermutungen (educated guess) herausfinden, was Ihr Kennwort sein könnte.
      2) AI bestimmt männliche Homosexualität anhand von 5 Bildern mit 91%iger Sicherheit
      New AI can guess whether you’re gay or straight from a photograph

      • Das mit den Pass-Wörtern können sie gerne vergessen, Herr Holzherr, dazu benötigt es keiner ‘neuronaler Netzwerke’, zudem bemerken Authentifizierungssysteme, wenn sie derart angegriffen werden.
        Pass-Wörter sind halt oft “hausbacken”, “Heinz47” und so, dieser Art.

        Gesichtserkennung ist interessant, hier geht es bevorzugt um Wiedererkennung, die so nicht mehr Polizeibeamten bei Vorliegen geeigneten visuellen Materials obliegen kann, sie muss besser als die individuell vorgenommene sein, keine Ahnung wie gut sie aktuell ist.
        Beim Visagen-Check, bestimmte persönliche Aufstellungen meinend, geht Dr. W übrigens nicht anders vor, kann derart ebenfalls (stark näherungsweise, aber schon recht belastbar, wie er findet) erkennen, beigebrachtes Zitat :
        -> https://www.goodreads.com/quotes/3328870-nature-gives-you-the-face-you-have-at-twenty-life (“Coco”)

        MFG + schöne Woche noch,
        Dr. Webbaer (der die Version mit Fourty bevorzugt (und irgendwie dachte, dass sei von Orson Welles))

        • PS :

          Human judges performed much worse than the algorithm, accurately identifying orientation only 61% of the time for men and 54% for women. [Quelle]

          Huch! – Klingt abwegig, die Werte sind zu hoch.
          Da stimmt was mit den Datenproben nicht…

  6. Die Gefahr von Assistenzsystemen beruht darin, dass sie uns abhängig machen und gleichzeitig unfähig.
    Bei den Navi-systemen im auto ist doch kürzlich ein Mann mit seinem Auto in den Rhein gefahren, weil er seinem Navi vertraut hat.
    Wenn du in das Netz einer Rasterfahndung gerätst, dann wird es schwierig, da wieder herauszukommen.

    Wenn du gegen einen Schachcomputer spielst, dann spielst du ja gegen 100erte von Schachspielern, deren Wissen in das Programm integriert wurde.
    Die künstliche Intelligenz ist uns also prinzipiell überlegen, aber nicht , wenn es um Phantasie geht.
    In der Kunst bleibt uns hoffentlich die KI erspart.

    • “Die künstliche Intelligenz ist uns also prinzipiell überlegen, aber nicht , wenn es um Phantasie geht. In der Kunst bleibt uns hoffentlich die KI erspart.”

      Da haben Sie den Artikel wohl nur überflogen, denn der Autor beschreibt ja ausführlich Anwendungsbeispiele von KI im Bereich Kunst:

      “die Software EMI schreibt ganze Sinfonien und Opern. Besonders bekannt wurde sie mit Musik, die dem Stil der Kompositionen von Bach entspricht. In einer Art musikalischem Turing-Test konnten Zuhörer die Stücke nicht von echten Bach-Werken unterscheiden. ”

      Watson schuf den Trailer für den Horrorfilm „Morgan“ wofür er Hunderte von Trailern anderer Horrorfilme und Thriller nach Zusammensetzung, Schnitt, Inhalt, Musik, Stimmen und Emotionen untersuchte.
      Ein anderes KI-System namens „Benjamin“ schrieb den gesamten Plot für den Science-Fiction-Kurzfilm „Sunspring“.”

      Auch interessant: An der Technischen Universität Delft brachte man der AI in dem Projekt bei, im Stile von Rembrandt ein Bild zu malen – per 3 D Drucker. Das Gemälde war für Experten nicht von echten Rembrandts zu unterscheiden.

      • “Auch interessant: An der Technischen Universität Delft brachte man der AI in dem Projekt bei, im Stile von Rembrandt ein Bild zu malen – per 3 D Drucker. Das Gemälde war für Experten nicht von echten Rembrandts zu unterscheiden.”

        Ich habe mir den Film angeschaut, natürlich weiß ich dann, dass es kein echter Rembrandt ist. Aber woher kommt die Aussage, dass das Gemälde von Experten nicht von einem echten Rembrandt zu unterscheiden war? Ich halte das für eine Übertreibung und so eine Aussage dürfte schwer zu beweisen sein. Die Rembrandtexerten kennen nämlich alle bekannten Gemälde von Rembrandt und wenn ein unbekanntes auftaucht, drehen sie es um, und schauen sich die Rückseite an.

        Aber ich gebe zu, dass Gesicht des Computer-Rembrandzs war ziemlich gut, die Figur in der Haltung aber etwas schwach.

  7. Es ist erschreckend wie unkritisch und undifferenziert der Meinung vermeintlicher KI Experten gefolgt wird. Hawking, nicht gerade für seine zutreffenden Weissagungen bekannt, geht auf Nummer sicher, indem er sich erst gar nicht so richtig festlegt und postuliert, starke KI hätte prinzipiell die Fähigkeit, auch die Menschheit zu vernichten. Und Gates – das Schlitzohr – würde am liebsten eine KI-Steuer einführen, da er massive staatliche Einkommensverluste durch KI befürchtet. Das was Musks OpenAI bislang veröffentlichte ist insofern nicht besonders fortschrittlich, um hieraus Aussagen über das normative und schädliche Potential von Künstlicher Intelligenz ableiten zu können. Wäre Musk bei Einführung seines Teslas genauso fürsorglich gewesen, hätte er darauf hingewiesen, dass die (im Gesamten betrachtete) ökologische Bilanz von E-Autos langfristig katastrophal sind und zweitens jene über die Gefahren von E-Auto instruiert, die bei einem Unfall fürs Löschen und Reinemachen sorgen müssen, denn hierbei handelt es sich um gegenwärtige Probleme, für die andere erst noch eine Lösung erarbeiten müssen. Und dafür keine Entlohnung erhalten.

    Anfang der 90er, als ich meine erste KI-Vorlesung hörte sagte der Dozent: “Angesichts der Gräueltaten zu denen der Mensch fähig ist tut es gut sich mal mit KI zu beschäftigen.” Die Gefahr, die von Künstlicher Intelligenz ausgeht hat seinen Ursprung in dem noch nicht zur Gänze verstandenen Wechselspiel zwischen Limbischen System und Stammhirn des Menschen.

    Ich pflichte Wolfgang Wahlster, Präsident des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), in Bezug auf dessen Kritik an Musk zu und halte die “Voraussagen” des Tesla-Begründers einer unterentwickelten künstlichen Intelligenz für würdig.

  8. sherfolder,
    …….künstliche Musik,
    Der Computer, oder genauer das Programm, kopiert und variert die Bachsche Musik nach deren Gesetzmäßigkeiten.
    Wenn man das als Kunst bezeichnet, o.k. ein Original bleibt ein Original, weil es originär bzw. schöpferisch ist.
    Eine Kopie bleibt eine Kopie und wird nicht als wertvoll angesehen.
    Also ich widerspreche vehement. Das Computerprogramm ist ein menschliches Produkt und deswegen bleibt das “künstliche” Kunstwerk ein menschliches Produkt.
    Der Künstlichen Intelligenz schöpferische Fähigkeiten zuzusprechen ist daher sachlich falsch, weil ja das Computerprogramm, das schon so vorgesehen hat.
    Die phantastischen Bilder der Fraktale sind weder schöpferisch noch kunstvoll, sie sind eine Folge mathematischer Gesetzmäßigkeiten. Und so betrachte ich auch Computermusik.

    • Sie haben sowohl recht als auch falsch. Es stimmt, dass Computerprogramme heute nicht im menschlichen Sinne kreativ sein können, denn ihnen fehlt die dafür nötige Persönlichkeit.
      Aber – und nun das grosse Aber. Mit dem Computer, konkret mit neuronalen Netzwerken erzeugte Kunst, wurde von Künstlern und Kunstsachverständigen in einer bunten Mischung von AI-Kunstwerken mit Kunstwerken, die bei der Art Basel ausgestellt waren, als besser eingeschätzt.

      • “wurde von Künstlern und Kunstsachverständigen in einer bunten Mischung von AI-Kunstwerken mit Kunstwerken, die bei der Art Basel ausgestellt waren, als besser eingeschätzt.”

        Das ist ein interessanter Artikel, aber in dem link steht nicht, dass die Versuchspersonen Kunstsachverständige waren. Und es klappt natürlich auch nur halbwegs am Computer, den im realen Kunstwerk kommt seine Materialität hinzu, die Technik, der Bildträger etc. Ein expressionistisches Bild, das glatt wie ein Foto ist, kann nicht echt sein.

        • Ja, zudem ist per Deep Learning erzeugte Kunst fast immer Epigonen-Kunst, basiert also auf existierenden Kunstwerken und wird oft gerade darum als besser empfunden, weil es eine Synthese vieler aktueller Kunstwerke ist und in sich Gutes aus vielen Einzelwerken verbindet.
          Vielleicht stammt ja irgendwann das perfekte Bach-Werk nicht mehr von Bach, sondern von einem Programm, dass alle Bachwerke “studiert” hat und daraufhin den ultimativen Bach konstruiert.

  9. Die eigentliche “Gefahr” der KI liegt in uns Menschen.

    Unser Mensch-sein macht die KI gefährlich, weil sie
    a) wirklich gut ist, in dem was sie lernt,
    b) wir wirklich gerne faul sind und nur zu gerne Verantwortung abgeben
    c) KI wirklich schlecht ist im verantwortlich handeln.

    zu a) gibt es genug Belege aus den verschiedensten Bereichen – und das Problem hier ist, menschliche Neugier und menschliche Dummheit kennt keine Grenzen. Was man neuronalen Netzen auch beibringen möchte – wenn sie leistungsfähig genug sind, lernen sie es. Egal ob es Go-spielen ist, oder anhand Gesichtern besser als Menschen die sexuelle Orientierung zu erraten (81% vs 61% bei Männern, 71% vs 54% bei Frauen).

    zu b) gibt es genug Belege wie Menschen ihre Eigenverantwortung lieber an andere abgeben. Das zeigt sowohl die Geschichte menschlicher Grausamkeiten, als auch aktuell, wie einfach es Chat-Bots fällt, den Menschen “alternative Fakten” als Realität unterzujubeln.

    zu c) – KI kann nicht “verantwortlich handeln”, denn sie kann nicht mitfühlen. Sie hat keine Erfahrung mit Schmerzen und Freude. Sie kann daher Konsequenzen nicht emotional bewerten. Sie kann sich nie in einen Menschen “hineinversetzen”. Sie verrechnet nur Daten gegeneinander. Deren Interpretation dann den Menschen obliegt. Menschen, die in Kaffee-Sätzen und Pannkuchen Gesichter von Jesus erkennen, und die einer verdünnten Alkohollösung heilende Kräfte zubilligen abhängig welches Lable eine geschäftstüchtige Firma draufklebt!

    Die eigentliche Gefahr der KI liegt also nicht in der KI selbst, sondern darin, was wir Menschen sie machen lassen. Was wir der KI erlauben, mit uns zu machen.

  10. Mit den Bach-Fugen hat sich Herr Cope natürlich das Leben auch relativ leicht gemacht. Barockmusik ist ohnehin ziemlich weit formalisiert, und Fugen sind da noch mal das Tüpfelchen auf dem i. Hier ist der Ablauf des Stückes von vorneherein sehr stark von Fugenthema und Kontrapunkt geprägt und der Komponist hat nicht so viele Gestaltungsmöglichkeiten wie etwa in einem Variationensatz. Die Bach-Fugen sind tatsächlich recht gut gelungen, und mir wäre es ohne Noten auch schwergefallen, sie richtig zuzuordnen. Übrigens sind falsche Zuordnungen im Barock nicht eben selten. Es hat auch schon Fälle gegeben, wo eine Telemann-Kantate fälschlich Bach zugeschrieben wurde, und Telemann dürfte wohl der menschliche Komponist sein, der einem Computerprogramm am nächsten kommt.
    Wenn man sich dann aber die Versuche von EMI an Mahler anhört, ändert sich das Bild enorm. Was der Computer hier ausspuckt, ist ein völlig wertloser Klangteppich ohne Struktur, Ziel oder Anspruch. Einzelne Motive sind direkt von Mahler geklaut, aber grottenschlecht verarbeitet. Nach 4-5 Takten war schon klar, dass das keinesfalls Mahler sein konnte, und viel länger kann man diese Musik auch nicht ertragen. Für die Versuche im Stile von Brahms gilt das Gleiche.

    Warten wir also ab, bis ein Computerprogramm eine brauchbare Sinfonie vorlegt, die man sich ohne masochistische Neigungen anhören kann. Bisher scheint es jedenfalls so zu sein, dass ohne ein enges formales Gerüst aus dem PC nichts herauskommt, was man als Musik bezeichnen könnte.

  11. MH,
    die gezeigten Kunstwerke sind beeindruckend. Ich denke, ich muss meine Meinung über Computerkunst neu überdenken.

  12. Im Interview Will Machines Eliminate Us? korrigiert der führende Deep-Learning Forscher Yoshua Bengio die übertriebenen Vorstellungen bezüglich Deep Learning, was im Untertitel des Interviews gut zum Ausdruck kommt (übersetzt von DeepL)

    Wer befürchtet, dass wir auf dem besten Weg sind, gefährlich intelligente Maschinen zu erfinden, missversteht den Stand der Informatik.

    Deep Learning Systeme sind zwar heute stark in der Aufdeckung von Korrelationen und sie ordnen Phänomene oft besser bestimmten Kategorien zu als der Mensch. Doch ihnen fehlt beispielsweise die Schlussfolgerungsfähigkeit des Menschen, das logische Denken und das was man Common Sense (Alltagsverstand) nennt. Damit sind sie als selbständig agierende Wesen heute noch nicht ernst zu nehmen. Das entnimmt man auch dem Artikel (Zitat, übersetzt von DeepL):

    Prominente Persönlichkeiten wie Stephen Hawking und Elon Musk haben sogar davor gewarnt, dass künstliche Intelligenz eine existenzielle Bedrohung für die Menschheit darstellen könnte. Moschus und andere investieren Millionen Dollar in die Erforschung der potenziellen Gefahren der künstlichen Intelligenz und möglicher Lösungen. Aber die düstersten Äußerungen klingen für viele der Menschen, die die Technologie tatsächlich entwickeln, übertrieben.

    Das Fehlen von Alltagsverstand und Allgemeinwissen erkennt man auch bei der obigen Übersetzung durch DeepL (soll wohl Deep Learning oder Deep Language bedeuten), denn es müsste heissen: Musk und andere und nicht Moschus und andere. Moschus anstatt Musk zu verwenden würde einem Menschen nie passieren – auch dann nicht, wenn er Musk gar nicht kennen würde, denn der Name Elon Musk taucht ja einen Satz vorher auf. Heutige Deep Learning Übersetzer betrachten aber nie mehr als einen Satz. Sie sind damit um vieles besser als die statistisch arbeitenden Systeme, die noch vor 2 Jahren von google verwendet wurden, aber um vieles schlechter als ein Mensch, der auch einen längeren Text im Zusammenhang sieht.
    Im übrigen empfehle ich das Interview zu lesen.

    • Deep Learning Systeme sind zwar heute stark in der Aufdeckung von Korrelationen und sie ordnen Phänomene oft besser bestimmten Kategorien zu als der Mensch. Doch ihnen fehlt beispielsweise die Schlussfolgerungsfähigkeit des Menschen, das logische Denken und das was man Common Sense (Alltagsverstand) nennt.

      ‘Korrelationen’ werden ‘aufgedeckt’, wenn Erkenntnissubjekte bestimmte Abfragen selbst ausführen, auf Daten, oder in Auftrag gegeben haben.
      So dass sich sogenannte Korrelationskoeffizienten ergeben :
      -> https://de.wikipedia.org/wiki/Korrelationskoeffizient

      Diese werden dann, geeignete Theoretisierung auf diese Abfragen meinend, durchaus im Sinne einer Veranstaltung als Kausalität gesetzt, wiederum von Erkenntnissubjekten – sogenannte Naturgesetze sind hier beste Beispiele.
      Gesetze werden gesetzt.
      In der Natur selbst gibt es keinen Kausalität, keine Kausationen (manche arbeiten sich an diesem Begriff, vs. Kausalität, ab, sehr lustig).

      ‘Schlussfolgerungsfähigkeit des Menschen’ und ‘Common Sense’ meinen d-sprachig den gesunden Menschenverstand (nein, ein NS-Begriff liegt nicht vor, lol), Interesse (“Dazwischensein”) und Intention.

      Logik, Sprachlichkeit, ist bei den hier gemeinten Systemen der Informationstechnologie zur Genüge vorhanden, es mangelt bei diesen anders.
      Sie kriegen sozusagen keinen Fuß auf den Boden.

      MFG
      Dr. Webbaer

    • Die Frage ist, wie hindert man das System daran, einen kontinuierlichen 500-Hertz-Sinus-Ton als erfolgreiche Musik einzustufen?
      Ein getakteter Intervall-Ton ist aber auch nicht viel schöner.
      Vielleicht hat man dem System alle Jimi-Hendrix-Platten vorgespielt.

    • Kunst kommt von Können, auch bei der Art (latein) oder der Technik (griechisch) ist es nicht anders.
      Das Kriterium ist insofern das Können.
      Dieses Können wird natürlich nicht von allen erkannt, taugt aber so.
      (Um Können zu erkennen, muss selbst zumindest ansatzweise derart gekonnt werden, es liegt eine rekursive Bedingung vor.)

      Seit einiger Zeit wird der Kunstbegriff vom Können gelöst, Joseph Beuys hier als ein Beispiel; dann wird der Kunstbegriff beliebig, nicht unbedingt belanglos, aber der wahlfreien Einschätzung einer jeden Person unterworfen.
      Letztlich auch der willkürlichen Bespaßung dienend, nicht mehr konsensuell ansprechbar.

  13. Im 20. Jahrhundert konnten nur die Führer der USA und der Sowjetunion die menschliche Zivilisation vernichten (damals mit Atomwaffen), bald schon aber werden dazu Millionen Forscher in der Lage sein, wenn nicht über Künstliche Intelligenzen, dann über tödliche Viren, die sich wie eine Grippeepidemie verbreiten. Dies ist die Aussage des MIT-Review-Artikels Genetic Engineering Holds the Power to Save Humanity or Kill It
    Dort liest man:

    Sotos hat die PubMed-Datenbank wissenschaftlicher Arbeiten nach Autoren durchsucht, die an “genetischen Techniken” gearbeitet haben. 1,5 Millionen eindeutige Namen, von denen 180.000 mehr als fünf Beiträge verfasst haben.

    Wenn nur ein Bruchteil von ihnen die Fähigkeit besitzt oder bald haben wird, Organismen zu konstruieren, die die Zivilisation beenden könnten, bedeutet das einen sehr deutlichen Anstieg des Bedrohungsniveaus. … Wenn es eine Wahrscheinlichkeit von 1% gibt, dass jemand ein künstliches tödliches Virus erzeugt und freisetzt, und es einige hundert Forscher gibt, die das können, dann ist unsere Zivilisation auf einer Zeitskala von 100 Jahren oder so zum Untergang verdammt, wenn es aber nicht 100, sonder 100.000 Forscher mit dieser Fähigkeit gibt, dann muss die Wahrscheinlichkeit ihrer Freigabe sie kleiner als eins zu 1 Milliarde sein, damit unsere Zivilisation noch 1.000 Jahre überlebt.

    Genau so sehe ich das schon lange. Ich stimme deshalb auch dem Astronomen Martin Rees zu, der die Wahrscheinlichkeit, dass unsere Zivilsation das 21. Jahrhundert überlebt, auf unter 50% schätzt.
    Das Ende unserer Zivilsation bedeutete natürlich nicht unbedingt das Ende der Menschheit. Eine weltweite Epidemie mit einem künstlich hergestellten Virus würde beispielsweise kaum alle töten, aber sie würde die globale Zivilisation zusammenbrechen lassen. Die Herrschaft einer künstlichen Intelligenz wiederum könnte sogar die Zivilsation weiter existieren lassen – nur eben nicht mehr vom Menschen angeführt, sondern von der künstlichen Intelligenz.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +