The Digita lArtist 2

Das superintelligente Gespenst

Quelle: TheDigitalArtist – pixabay

Superintelligenz

Ein Gespenst geht um in der Welt – das Gespenst der Superintelligenz. Eine solche ultraintelligente Maschine übersteige die intellektuellen Fähigkeiten jedes Menschen, meinte 1965 ihr “Erfinder”, der Mathematiker und Kryptologe Irving John „Jack“ Good.

Die Bibel der Superintelligenz-Katastrophisten ist jedoch das vor ein paar Jahren erschienene Buch des Oxford-Philosophen Nick Bostrom “Superintelligenz: Szenarien einer kommenden Revolution.” Daraus bezieht auch der Tesla-Gründer Elon Musk seine „Künstliche Intelligenz“-Alpträume: Musk ist zwar kein KI-Experte, bezeichnet aber Künstliche Intelligenz als „fundamentales Risiko für das Fortbestehen der menschlichen Zivilisation“.

Dieses superintelligente Gespenst verbreitet leider auch Angst vor den heutigen „Künstliche Intelligenz“-Programmen, die mit Superintelligenz nichts am Hut haben. Diese Programm könnten uns aber helfen, Krankheiten zu besiegen, Kriege zu verhindern, die globale Erwärmung zu stoppen und unvorstellbare Erkenntnisse über die Natur, den Menschen und sein Gehirn zu erlangen. Außerdem verschleiert die Panikmache mit Superintelligenz den Blick auf die wirklichen Probleme mit real existierender Künstlicher Intelligenz. Müssen wir vor Superintelligenz Angst haben? Wo liegen die wirklichen Gefahren der Künstlichen Intelligenz? Das versuche ich in diesem Blogtext auszuloten.

Machen wir uns zuerst ein paar Gedanken darüber, ob Forscher bald eine künstliche Intelligenz entwickeln könnten, die klüger wäre als jeder Mensch. Nach dem Superintelligenz-Szenario würde eine von uns entwickelte Superintelligenz plötzlich anfangen, sich selbst zu verbessern und exponentiell klüger zu werden – das nennt man technologische Singularität, den Big-Bang der Superintelligenz.

Können Sie sich das vorstellen? In einer Stunde sind Sie zweimal klüger als jetzt, in zwei Stunden viermal, in drei Stunden achtmal, in vier Stunden sechzehnmal – ihre Intelligenz explodiert! Mittags planen Sie etwas für den Abend ein, und am Abend müssen Sie denken: Was habe ich mir bei der Planung gedacht, ich Vollidiot? Wäre eine superintelligente Maschine nicht eher ein Fall für den Psychiater?

Quelle: TheDigitalArtist – pixabay

Nick Bostrom schreibt:„Es ist durchaus möglich, eine Superintelligenz zu haben, deren einziges Ziel es ist, etwas völlig Beliebiges wie zum Beispiel Büroklammern herzustellen. Und die sich mit aller Macht jedem Versuch widersetzen würde, dieses Ziel zu ändern. Diese Intelligenz würde zuerst die gesamte Erde in Büroklammer-Fabriken verwandeln und später sogar Teile des Weltalls.“

Die gesamte Erde in Büroklammer-Fabriken zu verwandeln ist aber nicht superintelligent, das ist superblöd. Das würde ein Computerprogramm machen, der nur auf diese Aufgabe hin optimiert wurde, Büroklammern herzustellen. Ein solches Programm schaltet man einfach aus, wenn es Blödsinn tut, statt über Superintelligenz zu schwadronieren.

Die Meinung der KI-Experten

Nach einer Befragung sehen 92,5 führende Künstliche-Intelligenz-Experten eine Superintelligenz jenseits eines vorhersehbaren Horizonts. Einer der Experten schrieb:

„Nick Bostrom ist ein professioneller Schreckenstreiber. Sein Institut hat die Aufgabe, existenzielle Bedrohungen für die Menschheit zu finden. Er sieht sie überall. Ich bin versucht, ihn als den “Donald Trump” der KI zu bezeichnen.“

In einem Interview mit Russ Roberts sagte einer der führenden Robotik-Experten Rodney Brooks (MIT): „Er (Nick Bostrom) ist in KI nicht viel erfahrener als in der Suche nach außerirdischem Leben. Aber das macht er. Das ist seine Spielerei. Was die anderen – und auch Nick – angeht, so hat keiner dieser Leute, die sich darüber Sorgen machen, jemals an KI gearbeitet. Sie waren draußen. Gleiches gilt für Max Tegmark.“ Max Tegmark hat einen anderen KI-Bestseller geschrieben: “Leben 3.0: Menschsein im Zeitalter Künstlicher Intelligenz.” In seinem Beitrag bei Robohub “Künstliche Intelligenz ist ein Werkzeug, keine Bedrohung” beschäftigt Brooks sich mit dem Thema ausführlich.

Das sehen die KI-Experten in vielen Medien freilich anders: „Beherrschen Roboter bald die Welt?“, fragte sich das Weekend-Magazin in Wien. Darunter stand etwas über Staubsaugerroboter, und ich freute mich sehr, dass Staubsaugerroboter bald in Österreich die Herrschaft übernehmen. Ein paar Staubsauger könnte man dann über die Grenze nach Ungarn schicken.

Doch der Autor fabulierte weiter: „Über den Staubsaugerroboter sind wir längst hinaus – ging der Mensch schon zu weit und übernimmt die künstliche Intelligenz bald die Kontrolle?“ Hat er recht? Sind wir bei den Staubsaugerrobotern zu weit gegangen?

Quelle: TheDigitalArtist – pixabay

Hand aufs Herz: Wäre Ihnen ein Staubsaugerroboter als Präsident sowieso nicht viel lieber als Donald Trump? Künstliche Intelligenz richtet viel weniger Schaden an als natürliche Dummheit: Eine Maschine würde nie sagen: „Es friert und schneit in New York – wir brauchen eine globale Erwärmung.“ Eine Maschine würde nie behaupten, man müsse Frauen wie Scheiße behandeln.

Solche Sachen macht eine Maschine nur dann, wenn der Mensch ihr diese eingepflanzt hat. Wenn der Mensch der Maschine einen mit Vorurteilen beladenen Datensatz zum Lernen gegeben hat. Als zum Beispiel der Chatbot Tay (ein künstliches neuronales Netz, also ein KI-Programm) von Microsoft durch Kommentare „junger Menschen“ lernen sollte, wie „junge Menschen“ heute sprechen – und das bei Twitter!

Dem Chatbot musste der Stecker gezogen werden, als sie (Tay ist eine sie) dann Sprüche der Twitter-Trolle abließ wie: Hitler würde einen besseren Job machen als die Affen, die wir jetzt haben.Künstliche Intelligenz sei rassistisch, zeigte man sich schockiert. Was sollte der arme Chatbot aber machen? Man wollte Tay beibringen, wie Idioten bei Twitter zu sprechen, und dann wunderte man sich, dass sie wie Idioten bei Twitter sprach.

Superintelligenz am Abakus?

Bereits vor etwa 30 Jahren wurden alle grundlegenden Algorithmen für künstliche neuronale Netze entwickelt. Diese ermöglichen den heutigen Hype der Künstlichen Intelligenz. Backpropagation, “der Grundalgorithmus“ der künstlichen neuronalen Netze, wurde schon im Jahre 1986 von David Rumelhart, Geoffrey Hinton und Ronald J. Williams vorgestellt. Warum haben dann die KI-Bilderkennungsprogramme noch vor ein paar Jahren nicht einen Affen von einem Nilpferd unterscheiden können, wenn man dafür gute Algorithmen hatte?

Weil unsere Computer damals mit tiefen (vielschichtigen) neuronalen Netzen und den vielen Daten, die sie zum Lernen brauchten, nicht rechnen konnten. Dafür mussten erst Computer mit großer Rechenleistung entwickelt werden. Viel rechenintensivere Computer werden wir aber nicht mehr bekommen. Beim Bau der Mikroprozessoren stoßen wir langsam auf ihre atomaren Grenzen. Sollten keine fehlerfrei rechnenden Quantencomputer entwickelt werden können, landen wir in keinem neuen Zeitalter des Rechnens.

Wenn aber unsere Rechner mit ihrer Leistung unseren Algorithmen immer nachhinken, wie soll sich dann auf ihnen plötzlich exponentiell eine krasse Maxi-Super-Intelligenz entwickeln? Das wäre, wie wenn Sie die Schrödingergleichung eines komplexen Moleküls mit den Fingern rechnen möchten. Kann sein, dass es Superintelligenz irgendwann gibt, in nächsten 100 Jahren sicher nicht. Außerdem werden wir’s lange vorher wissen, ob sie möglich ist.

Quelle: geralt – pixabay

Trotzdem machen uns die Medien Angst davor, als ob’s nicht viel schlimmere Bedrohungen für die Menschheit geben würde: Kriege! Terror! Krankheiten! Den Klimawandel! Mario Barth!

Künstliche Intelligenz heute

Unsere heutigen Künstliche-Intelligenz-Programme sind künstliche neuronale Netze. Diese Optimierungsverfahren können Muster in sehr großen Datensätzen erkennen und Sachen unterscheiden. Das jedoch nach viel Training. Sie sind nur eine Ansammlung von zusammenverbundenen Punkten in einem Computerprogramm. Die Verbindungen zwischen diesen Punkten werden beim Training des Netzes mit Hilfe von Mathematik schrittweise so lange gestärkt oder geschwächt, bis das Netz eine optimale Antwort auf seine Aufgabe liefert.

Ein solches KI-Programm kann – an Millionen Wohnzimmerbildern trainiert – besser und schneller als der Mensch jeden Gegenstand auf dem unbekannten Foto eines Wohnzimmers bestimmen. Wenn man aber in das Wohnzimmerbild einen Elefanten kopiert, ist das Programm so verwirrt, dass es nicht einmal das Fernsehgerät von dem Elefanten unterscheiden kann. Das Programm hat keine Ahnung, was ein Fernsehgerät ist und was ein Elefant. Wenn ein Elefant in einem Wohnzimmer auftaucht, verwechselt das Programm den Stuhl mit dem Sofa, so verwirrt ist es. Hätte man schon während des Trainings des Netzes in alle Wohnzimmerbilder einen Elefanten kopiert, würde das Netz ein Wohnzimmerbild ohne einen Elefanten nicht als das Bild eines Wohnzimmers erkennen.

Wenn man einem konvollutionellen neuronalen Netz viele Bilder zeigt, kann es sehr gut die wesentlichen Merkmale (Features) der Objekte auf den Bildern lernen. Diese Objekte werden nach dem Training von dem Netz auch auf Bildern erkannt, die das Netz noch nie gesehen hat.

Genauso kann man ein rekurrentes neuronales Netz (besser gesagt ein Long-Short-Term-Memory-Netz) trainieren, Merkmale in zusammenhängenden Zeichenfolgen zu finden – wie in Übersetzungen zwischen Englisch und Japanisch und zwischen Englisch und Koreanisch. Daraus bildet das Netz einen universellen Raum der Bedeutungen (eine universelle Repräsentation der Bedeutungsmerkmale). Mit Hilfe dieser Repräsentation kann ein zweites rekurrentes Netz dann Texte aus dem Japanischen ins Koreanische übersetzen. Und das obwohl es an keinen japanisch-koreanischen Übersetzungen trainiert wurde.

Dieses Wunderwerk heißt Zero-Shot-Translation. Das ist schon phantastisch, gleichzeitig aber das höchste, was ein künstliches Netz machen kann: Eben Muster aus großen Datensätzen graben. Mehr geht nicht! Wie soll uns ein solches Programm beherrschen? Und warum?

Das echte Problem mit KI

Das Problem ist nicht, dass uns irgendwann maschinelle Superintelligenz beherrscht. Das Problem ist, dass uns schon jetzt Menschen mit Hilfe von Künstliche-Intelligenz-Programmen manipulieren und kontrollieren. Im Grunde sind wir selbst schuld daran. Warum überlassen wir Online-Plattformen Entscheidungen darüber, was wir sehen, lesen, essen und kaufen wollen, indem wir ihren “Empfehlungen” folgen? Verlieren wir mit unserer Entscheidungsfreiheit am Ende nicht unsere ganze Freiheit?

Egal ob Googles künstliche Intelligenz unsere Suchergebnisse im Netz auf uns zuschneidet, Amazon uns Produkte anbietet, die wir „brauchen“, Netflix uns Filme vorschlägt, die wir sehen „wollen“, oder Facebook uns mit Botschaften und Anzeigen zuschüttet, zu Produkten, die wir uns „wünschen“: Man personalisiert unsere eigene Blase mit Hilfe der Künstliche-Intelligenz-Programme bis auf die Größe eines Rattenlochs. Ist das die richtige Zukunft der Künstlichen Intelligenz? Als Manipulations-Software?

Ich gebe aber zu, hier bin ich selbst etwas zwiespältig: Ich will die Online-Plattformen nicht nur negativ darstellen: Ohne Google, Facebook und die anderen Tech-Firmen würde es die momentane Revolution in Künstlicher Intelligenz nicht gegeben: Die großen Erfolge von Googles DeepMind in der Behandlung von Augenkrankheiten und in der Proteinfaltung, die unsere Medizin revolutionieren kann. Den Google-Übersetzer (Google Neural Machine Translation), der Erstaunliches leistet. Die Meisterung der Bilderkennung in den KI-Abteilungen von Google und Facebook.

Die Revolution im autonomen Fahren sollen wir auch nicht vergessen, die den Klimawandel positiv beeinflussen kann. Und und und. Was passiert aber, wenn “Empfehlungen” zum Zwang werden? Wenn ein Staat die Kontrolle über Online-Plattformen übernimmt, die uns manipulieren, oder sich selbst solcher Kontroll- und Manipulationsprogramme bedient? Das ist in Diktaturen gängige Praxis.

KI-Grüße aus China

In einem anderen Blogtext habe ich erwähnt, wie ich mal einen chinesischen KI-Forscher fragte, wie es möglich ist, dass China langsam weltführend wird in Künstlicher Intelligenz. „Wir haben die Daten!“, sagte er. Die immer schneller gewordenen Computer waren einer der zwei Gründe für die momentane Revolution in Künstlicher Intelligenz. Der zweite Grund waren die großen Datensätze, die dank Internet angesammelt wurden: Ohne gewaltige Datenmengen können keine künstlichen neuronalen Netze trainiert werden.

Auch die bekannten Online-Plattformen wie Google oder Amazon brauchen große Datensätze, damit sie ihre KI-Programme weiter entwickeln können. Daten sind das Öl des Künstliche-Intelligenz-Zeitalters. Und das ist ein großes Problem: Je mehr Datenschutz, umso weniger Daten stehen den Plattformen zur Verfügung, umso mehr aber können Diktaturen weltführend in künstlicher Intelligenz werden. Ist das gut für uns? Ich möchte auf jeden Fall nicht, dass Russland oder China die KI-Weltmeister werden. Leider wurde es China bereits.

Quelle: adamtepl – pixaqbay

In einer chinesischen Schule wurde testmäßig das Essverhalten der Schüler mit KI-Programmen optimiert, damit sie nicht zu viel Kuchen essen. Im smarten chinesischen Klassenzimmer wird vielleicht bald mit KI-Programmen alles ausgewertet: Ob die Schüler schön aufmerksam sind oder im Unterricht aus dem Fenster schauen – auch das wurde schon getestet.

Genauso wird das chinesische Bewertungssystem für das soziale Verhalten der Bürger durch Künstliche Intelligenz gestemmt. Hier sollte man aber nicht vergessen, dass bei westlichen Online-Plattformen bereits seit langem unser Kaufverhalten von anderen bewertet wird – wie bei eBay.

Bei Amazon kann ein Mensch, der im Leben nur ein Buch gelesen hat, Franz Kafka verreißen: „GÄÄÄÄÄHHHHHHNNNN“, kommentiert eine Rezensentin Kafkas “Das Schloß“: „Soooooo viele Worte und sooooooo wenig gesagt.“ Und SCHWUPP! Schon bekommt Kafka einen Stern verpasst, statt einen Sternenhimmel, den er verdient. Kitschige Vampirromane werden dagegen hochbewertet. Daran haben wir uns gewöhnt. Gibt es aber eine Grenze der Gewöhnung an Kontrolle und Manipulation? Gewöhnen wir uns am Ende nicht an eine „Black Mirror“-Zukunft? Aus China kommen auf jeden Fall breite Impulse dafür.

Mittlerweile erkennen künstliche neuronale Netze Gesichter besser als der Mensch. Überall in China werden Kameras aufgestellt. Doch nicht einmal Gesichter werden von chinesischen Erkennungsprogramme gebraucht, um einem Menschen den richtigen Namen zu verpassen. Sein Gang reicht völlig.

Das Foto einer berühmten chinesische Managerin wurde auf einem großen öffentlichen Bildschirm gezeigt, weil sie verbotenerweise eine befahrene Straße überquert haben sollte – von künstlicher Intelligenz überführt und auf den Pranger gestellt. Blöderweise hatte die Kamera die Managerin an einem vorbeifahrenden Bus geblitzt, auf dem ihr Foto angebracht war. Ist das superintelligent?

Dazu fällt mir ein: Weil manche Affenarten auf allen Vieren hintereinander laufen, erkennen sich diese Affen an ihren Hintern besser als wir Menschen uns an den Gesichtern. Was müssten jetzt chinesische Künstliche-Intelligenz-Programme alles unterscheiden lernen, wenn die Menschheit nicht den aufrechten Gang entwickelt hätte?

Quelle: miapowter – pixabay

Sollen wir uns nicht langsam fragen, inwieweit China in Sachen KI-Kontrolle Vorbild für unsere westlichen Tech-Firmen und Regierungen werden kann? Lässt man sich schon jetzt nicht auf der Jagd nach Daten von Peking inspirieren? Wird unser Turbo-Kapitalismus der schönen neuen Welt der Kontrolle und Manipulation mit Künstliche-Intelligenz-Programmen wie in China widerstehen können?

Selbstverständlich gehen wir in den westlichen Demokratien mit unseren Privatdaten viel bewusster um als die Chinesen. Diesen bleibt auch nichts anderes übrige, als die Kontrollwut ihrer Regierung zu akzeptieren. Doch passen wir tatsächlich so klug bei unseren Privatdaten auf?

Deep Fakes

Bei einer Schullesung von mir wollte eine Fotografin für eine interne Dokumentation für die Bibliothek fotografieren, die meine Lesung organisiert hatte. Ein Drittel der Schüler durfte auf Geheiß der Eltern nicht fotografiert werden. Nach der Show wollten aber alle Schüler mit mir ein Selfie schießen. Ein paar Minuten später waren unsere Selfies dank sozialen Netzwerken online und in der ganzen Welt zu bewundern.

Dabei können unsere Selfies eine Spielwiese für Künstliche-Intelligenz-Manipulationsprogramme werden wie Deep Fakes: Wenn ein künstliches neuronales Netz wie GAN (generative adversial network) mit ein paar Hundert Selfies trainiert wird, kann es die Gesichter aus den Selfies in jedes Video und jedes Foto einbauen. Diese Fälschungen sind mittlerweile so gut, dass sie nur von einem anderen künstlichen neuronalen Netz entlarvt werden können. Wenn wir also Erpressern und Manipulatoren genug Stoff liefern wollen, sollen wir weiterhin fröhlich unsere Selfies im Netz posten – so wie ich. Ja, ich weiß, für die meisten Erpresser sind nur die Prominenten interessant, wer weiß aber, was auf uns noch alles zukommt in Sachen Datenmissbrauch?

Wer in künstlicher Intelligenz in die Führung gehe, werde die Welt beherrschen, sagte Vladimir Putin. Es ist an der Zeit, uns breit Gedanken über real existierende künstliche Intelligenz zu machen, als über Science Fiction wie Superintelligenz: Wie könnten wir mit Hilfe künstlicher Intelligenz die Erde und uns vor uns selbst retten? Wie verhindern wir aber gleichzeitig, dass andere Menschen, egal ob in Firmen oder in Regierungen, uns mit diesen Programmen manipulieren und kontrollieren? Und dass in einem Maß, von dem Orwell nicht einmal “alpzuträumen” wagte.

Quelle: geralt – pixabay

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Hirn- und Künstliche-Intelligenz-Forschung schreiben und über die Berührungspunkte beider Gebiete. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Seit Jahren moderiere ich den Science Slam auf Münchner Wissenschaftstagen - für die Deutsche Akademie der Technikwissenschaften (acatech) und die Bayerische Akademie der Wissenschaften - und bin der Gründer und Gastgeber des Science Kabaretts in der Seidlvilla zu München:
 
Weiter bin ich Schriftsteller und Poetry Slammer, u. a. zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erscheint gerade als eBook bei Digital Publishers.
 
Mein letzter Roman heißt Die unglaublichen Abenteuer des Migranten Němec.
 
Eine kurze Geschichte von mir gibt es jeden Tag in der Früh auf meiner Autorenseite bei Facebook. Zum Beispiel eine über den Turing-Test am Starnberger See. :-)
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-)
 
Jaromir

Kommentare Schreibe einen Kommentar

  1. Ja, alles durchgelesen, vielen Dank für Ihre Web-Nachricht, Herr Jaromir Konecny, es ist schon bemerkenswert, wie eine Welt, die vielleicht fünf Milliarden Jahre existiert, wie einige meinen auch zeitlich aus einem sog. Urknall hervorgegangen ist, vor vielleicht 100.000 Jahren zum Verständnis fähige Subjekte, sog. Erkenntnissubjekte hervorgebracht hat, vor vielleicht 5.000 Jahren die Schrift erfand, die tonale Ausdrucksweise zu persistieren verstand, und vor ca. 500 Jahren die Aufklärung erfand, wie Dr. W findet, die Kunst des Denkens, das Ergebnisoffene zentral meinend, die szientifische Methode, nun die sog. künstliche Intelligenz bereit steht, vor vielleicht 50 Jahren beginnend, konkurrierend mit der menschlichen (wobei der Intelligenzbegriff vor ca. 100 Jahren entwickelt worden ist, zuvor machte der Mensch mehr in Klugheit, Schlauheit und Verständigkeit, gar Weisheit), was also eine besondere Herausforderung darstellt.

    Womöglich gilt es hier, vergleiche mit ‘Es ist an der Zeit, uns breit Gedanken über real existierende künstliche Intelligenz zu machen, als über Science Fiction wie Superintelligenz: Wie könnten wir mit Hilfe künstlicher Intelligenz die Erde und uns vor uns selbst retten? ‘, gar nicht um ‘Rettung’ oder um Albtraum (Dr. W zieht das B dem P hier deutlich vor).

    Dr. W sieht es ein wenig mau aus, vielen Dank für Ihre auch publizistische Arbeit, Herr Jaromir Konecny, also da, also da weiß Dr. W nicht, wie der hier gemeinte Nasentrockenprimat noch halbwegs unbeschadet aus dieser Sache herauskommen kann, ohne direkt kulturpessimistisch zu werden, Dr. W ist Sanguiniker.

    Sicherlich steht die Totalerfassung des Individuums bald an, auch in sog. liberalen Demokratien, verargumentiert über Bedrohung, wobei zivilisatorische Bedrohung dot tatsächlich existiert.

    Es sieht mau aus, und Dr. W ist vglw. froh sich in nicht ferner Nähe verabschieden zu müssen, wobei allerdings der Nachwuchs zu beachten gilt.

    Die hier gemeinte Zivilisation kulminiert gerade sozusagen, sich bspw. auch i.p. dieser fetten Aussage – ‘Eine Maschine würde nie behaupten, man müsse Frauen wie Scheiße behandeln.’ – unsicher ist.

    MFG
    Dr. Webbaer

    • Lieber Herr Dr. Webbaer,

      danke für Ihren Kommentar. Komischerweise hatte ich einen solchen Kulturpessimismus nie, vielleicht Dank dem Aufwachsen in der sozialistischen Diktatur. Eigentlich hatte ich schon dort eine schöne Kindheit, und schlechter wurde das Leben danach nicht, auch wenn es hin und wieder kleine Durststrecken gab wie beim sozialistischen Militär oder ein Jahr lang in einem Flüchtlingslager. Eher staune ich immer, wie wunderbar diese Welt mit 8 Milliarden Menschen darin funktioniert, und dass wir uns nicht gegenseitig ausgelöscht haben. Der Mensch ist ein supersoziales Tier.

      Wenn ich in die Geschichte zurückblicke, habe ich auch nie das Gefühl, dass es früher besser war. Der von uns verursachte Klimawandel trübt zwar etwas den Blick in die Zukunft, andererseits glaube ich wirklich: Mit künstlichen neuronalen Netzen bekamen wir vielleicht zum ersten Mal eine Chance, das Unvermeidliche, zu vermeiden.

      Das was wir an Künstlicher Intelligenz haben, also künstliche neuronale Netze, ist dem Menschen keine Konkurrenz, sondern ein Hilfsmittel.

      Liebe Grüße

      Der 62jährige Jaromir Konecny 🙂

  2. @Jaromir Konecny: Ein schöner Beitrag, der das Wesentliche zusammenfasst.

    Wir werden schon heute in einem Maße durch Werbung und zielgerichtete Kampagnen manipuliert und (fehl-)geleitet, dass aus der KI selbst keine noch grössere Gefahr hervorgehen kann (wenn dann die einer bessere Organisation und “individuelleren Betrachtung”). Man sollte nicht der KI einen Riegel vorschieben, sondern der menschlichen Perversion.

    Gerade diejenigen, die das menschliche Streben als Götzenbild verehren und es durch die “instinktive” Neugierde verharmlosen (wollen) werden nie verstehen, welche (schadhaften) Auswirkungen daraus tatsächlich resultieren. Erst recht, wenn man sich bei seiner “eigenen” Meinung auf Aussagen und Postulate (vermeintlich) gewichtiger Persönlichkeiten beziehen kann – während man selbst ein Popanz ist. Was wirklich Angst macht bei diesem (unsachlichen) “Meinungsaustausch” und der “Aufklärung” um KI ist die gezeigte Unfähigkeit, das Menschliche im großen Ganzen richtig einschätzen zu können. Und das obschon wir vor (vermeintlich) gewaltigen, globalen Problemen stehen, die es zu lösen gilt.

    Das Vorwort des Dozenten meiner ersten Vorlesung über Künstliche Intelligenz lautete: Wenn man sieht zu welchen Gräueltaten menschliche Intelligenz fähig ist tut es gut, sich mit künstlicher Intelligenz beschäftigen zu können. Es hat den Anschein, als hätte sich die kollektive menschliche Intelligenz seit 25 Jahren nicht maßgebend entwickelt. Daher tut es nach wie vor gut, sich mit KI beschäftigen zu können.

  3. Sog. künstliche neuronale Netzwerke, die bisher nur fachspezifisch funktionieren, an der Funktionalität dieser Netzwerke hegt Dr. W mittlerweile keine Zweifel, werden vermutlich auch moralisch zukünftig viele anleiten, wobei diese Netzwerke natürlich (“geboren”) Spezialisten zu bleiben haben, nicht menschlich und derart um das Fortkommen bemüht sein können, so dass es eben, wie einige meinen, nun zivilisatorisch ‘mau’ aussieht.

    Der Klimawandel wie auch einigen ungünstig erscheinende Immigration, die Islamisierung ist gemeint, die nicht nur die BRD betrifft, sind vor derartig zu beschauendem Hintergrund eher nebensächlich, korrekt.

    Aber das mit der zivilisatorischen Zuspitzung ist auch von Ihnen, lieber Herr Jaromir Konecny (62 yo. – Dr. W mag alte Herrschaften), bemerkt worden.
    Auch Dr. W schon lange im Geschäft sein, auch die Langhaarigen und Schmuddelbärtigen seinerzeit beobachtend habend, es lohnt sich schon erfahren zu sein.
    Sie wissen vielleicht, in der Dubček-Ära, wie diese besuchenden Kräfte der BRD seinerzeit in der ČSSR seinerzeit angenommen worden sind, so um 1969 herum.

    MFG
    Dr. Webbaer (der hier ein wenig kulturpessimistisch bleiben wird)

  4. Viele Dank für diese fundierte Beschreibung der tatsächlichen Gefahren, die von KI ausgehen, auch für die Abgrenzung von den SciFi-inspirierten Hirngespinsten, die man so häufig liest.
    Gestatten Sie mir, noch einen Gefahrenaspekt hinzuzufügen:
    In der kulturellen Entwicklung der Menschheit sind schon häufig inhärente Fähigkeiten, die jedes Individuum besitzt, externalisiert worden. Durch die Entwicklung und Verbreitung der Schrift wurde es möglich, Lieder oder Überlieferungen auf einem externen Medium statt im Gedächtnis des Individuums zu speichern. Das war einerseits ein enormer Fortschritt, andererseits hat es die Leistungsfähigkeit des Gedächnisses, bezogen auf die Gesamtpopulation, sicher nicht gefördert. Vor 2500 Jahren war es nichts besonderes, Ilias und Odyssee auswendig rezitieren zu können, heute schaffen das nur noch ein paar Personen, die uns eher merkwürdig erscheinen. Taschenrechner vs. Kopfrechnen ist ein weiteres Beispiel, und die Entwicklung des Transportwesens hat der körperlichen Fitness der Gesamtpopulation sicher auch keinen Gefallen getan.
    Was bedeutet das für die Entwicklung der KI? Wie wird es in ein paar Jahrzehnten mit der Fähigkeit des Menschen bei der Mustererkennung aussehen, also das, was Intelligenz eigentlich ausmacht?
    Ich bin ebenso wie Sie ein eher sonniges Gemüt und nicht kultupessimistisch veranlagt, aber diese Frage beschäftigt mich schon.

    • aristius fuscus: “In der kulturellen Entwicklung der Menschheit sind schon häufig inhärente Fähigkeiten, die jedes Individuum besitzt, externalisiert worden. Durch die Entwicklung und Verbreitung der Schrift wurde es möglich, Lieder oder Überlieferungen auf einem externen Medium statt im Gedächtnis des Individuums zu speichern. Das war einerseits ein enormer Fortschritt, andererseits hat es die Leistungsfähigkeit des Gedächnisses, bezogen auf die Gesamtpopulation, sicher nicht gefördert.”

      Jaromir: Danke für Ihre netten Worte und die wichtigen Anmerkungen. Solche Gedanken habe ich mir schon öfter gemacht, zumal ich ein überzeugter Anhänger der alten grischischen Weisheit bin: “Alles ist Übung.”

      Wohl erleichtern wir uns immer mehr das Leben, dank unserer expandierenden Technologie, und überlassen auch die Arbeit unseres Gehirns den Maschinen: Vor der Erfindung des Buchdrucks mussten Bücher mit der Hand abgeschrieben werden, viele Mönche lernten ganze Werke auswendig (wie Sie auch anführen), damit sie durch Katastrophen nicht verloren gingen, oder weil es einfach zu teuer war, ein Buch herzustellen. Ihr Taschenrechner-Beispiel ist ein anderes. Trotzdem steigt die Intelligenz im Schnitt (Flynn-Effekt) – seit der Intelligenzmessung um etwa 30 (IQ-Tests)-Punkte pro zehn Jahre, was einen Unterschied zwischen hoch- und normalintelligent bedeutet.

      Manche Forscher scheinen in den letzten Jahren zwar das Abflachen dieser Intelligenz-Steigerung zu beobachten, andere jedoch nicht. Auf jeden Fall ist der Mensch allgemein klüger als vor 100 Jahren. Die Maschinen übernehmen zwar viele geistige Aufgaben von uns, andererseits bieten sie uns neue Herausforderungen. Ich glaube, wir werden tatsächlich immer klüger, nur vielleicht etwas anders intelligent als früher. Zum Beispiel können viele Jungs wohl schlechter im Kopf rechnen als wir, als wir jung waren. Sie beherrschen aber dank den Computerspielen virtuos 26 Tasten einer Tastatur, und das mit allen zehn Fingern – solche komplexen Bewegungen in Verbindung mit visueller und geistiger Arbeit fördern nachweislich stark die Gehirnentwicklung. Außerdem wird unsere schöne neue digitale Welt immer komplexer, und schon das ist eine große Herausforderung unserer Denkfähigkeiten.

      Vielleicht geht aber mit zunehmender Digitalisierung und dem Aufkommen der Künstliche-Intelligenz-Programme die Bildungsschere immer mehr auseinander. Ein Teil der Menschheit wird immer gebildeter – jemand muss ja die Maschinen programmieren und trainieren und sie verstehen. Ein anderer Teil, der sich mit dem Neuen nicht auseinandersetzen will, verblödet langsam.

      Ich bin davon überzeugt, dass wir den neuen Herausforderungen nur gewachsen sind, und uns weiter auch intellektuelle entwickeln, wenn wir uns weiter bilden. Jetzt vor allem in Künstlicher Intelligenz. Deswegen schreibe ich ja diesen Blog. 🙂

      Damit unsere Kinder damit zurechtkommen, muss sich unser Bildungssystem grundlegend ändern: Vom Pauken zum Denken! Kreativität und Innovationslust müssen mehr gefördert werden als Leistungsvermögen, denn die Maschinen können viel mehr leisten als wir. Sie werden nie müde, sie brauchen keinen Schlaf. Alles was automatisiert werden kann, wird in den nächsten Jahren automatisiert. Dieser Zug ist nicht mehr aufzuhalten – wir sitzen alle drin. Damit wir nicht auf der Strecke bleiben, müssen wir das ganze Leben hindurch lernen – und das wird wiederum unsere Intelligenz steigern. Das glaube ich.

  5. Ich bin ebenso wie Sie ein eher sonniges Gemüt und nicht kultu[r]pessimistisch veranlagt, aber diese Frage beschäftigt mich schon.

    Sehr gut, diesbezüglich darf gut gelaunt herangegangen werden, am besten womöglich auch ein wenig leichtfüßig und sanguinisch sozusagen.

    Der Mensch (vs. Bär) ist sozusagen an Grenzen gestoßen, die ihm nicht eigen sind.
    Beachtet werden darf in diesem Zusammenhang auch seine Herkunft im Säugetierwesen, von dem sich auch Dr. W in diesem Zusammenhang nicht frei sprechen wird.

    Es sieht im hier gemeinten Kontext effing mau aus.
    Ein wenig Abhilfe schafft hier das Web dadurch, dass soz. sich jeder im Bereichen fit machen kann, die noch vor wenigen Jahren soz. Geheimwissen darstellten.

    Gegensätzlich zum hier dankenswerterweise publizierenden, äh, Publizisten (akademische Grade sind hier momentan unbekannt, Dr. W lässt sich abär gerne ergänzen), also pessimistisch, also Dr. W, wobei er auch die Adjektivierung ‘realistisch’ an dieser Stelle mag.

    Es ist ein Wagnis so zu denken, wie es der hiesige werte Inhaltegeber tat.

    MFG
    Dr. Webbaer

    • Dr. Webbaer: “Der Mensch (vs. Bär) ist sozusagen an Grenzen gestoßen, die ihm nicht eigen sind.”

      Jaromir: Was war dem Menschen schon im Laufe der Evolution eigen? Der Mensch stand dank der sich ständig ändernden Umwelt auch ständig vor neuen Herausforderungen und wuchs an ihnen – und das wörtlich: Bis zum aufrechten Gang und darüber hinaus zu unserem großen und nie in der Natur gewesenen Gehirn und – das sollen wir nicht vergessen – zu seinem Status als ein soziales Supertier. Dass acht Milliarden solcher ursprünglich “wilden Wesen” mit den Eigenschaften eines Raubtiers und wohl auch Aasfressers auf der Erde noch einigermaßen zusammen auskommen und außerdem über die Erde herrschen, ist ein Wunder. Was sonst? 🙂

  6. The Force is not a metaphysical but an ubiquitous power

    Die grösste Gefahr künstlicher Intelligenz ist die Macht, welche künstliche Intelligenz den Betreibern solcher Programme gibt. Diese Macht besteht darin, dass das was früher hunderttausende von Sachbearbeitern hätten tun müssen, nun ein Programm vollautomatisch tun kann. Personalisierte Buch- und Geschenkempfehlungen wie wir sie heute kennen wären auch schon vor 50 Jahren möglich gewesen – nur mit einem riesigen menschlichen Arbeitsaufwand. Heute geschieht das nebenbei.

    Und was sind die Konsequenzen? Dazu liest man auf MIT-Review China’s social credit system stopped millions of people from buying travel tickets
    Zitat (übersetzt von DeepL): China hat im vergangenen Jahr Millionen von potenziellen Reisenden daran gehindert, Flug- oder Bahntickets im Rahmen seines “Sozialkreditsystems” zu kaufen, so die Associated Press.
    Reiseverbote: Chinesische Gerichte verbieten Menschen, 17,5 Millionen Mal Flüge und 5,5 Millionen Mal Zugtickets im Jahr 2018 zu kaufen, so das National Public Credit Information Center. Die Personen, die versuchten, die Einkäufe zu tätigen, wurden gestoppt, weil sie wegen sozialer Kreditdelikte auf die schwarze Liste gesetzt worden waren. Die AP berichtet auch, dass 128 Personen letztes Jahr wegen unbezahlter Steuern daran gehindert wurden, das Land zu verlassen. Der Bericht des Zentrums besagt, dass die Behörden im vergangenen Jahr über 14 Millionen Datenpunkte zu “unzuverlässigem Verhalten” gesammelt haben. Beispiele sind unbezahlte Kredite und falsche Werbung.

    Nun, so etwas wäre theoretisch auch schon vor 50 Jahren möglich gewesen – nur wäre es am administrativen Aufwand gescheitert. Das ist das Neue am Einsatz der künstlichen Intelligenz: Dem System entgeht nichts mehr, es kann jede noch so kleine Kleinigkeit berücksichtigen und Konsequenzen daraus ziehen. Und der Automatismus kann zudem auch typisch menschliche Regungen und Äusserungen auswerten. Ich kann mir vorstellen, dass das chinesische “Sozialkreditsystem” sogar weiss, wie häufig ein Chinese missmutig in die Kamera schaut oder wie häufig er auf die Strasse spuckt.

    • Martin Holzherr: “Ich kann mir vorstellen, dass das chinesische “Sozialkreditsystem” sogar weiss, wie häufig ein Chinese missmutig in die Kamera schaut oder wie häufig er auf die Strasse spuckt.”

      Jaromir: Ja, solche Programme werden in China tatsächlich entwickelt. Zumindest hat man sie in einer Schule getestet, um zu wissen, ob die Kinder aufmerksam dem Lehrer zuhören usw. Sentiment Analyse ist ja ein weit entwickeltes KI-Ansatz in natural language processing. Genauso wie KI-Programme in Texten nach ihrem “Gefühl” graben, können andere konvolutionelle neuronale Netze Gefühle aus den Gesichtern lesen. Das kann man Online ja selbst testen, indem man KI-Programmen Fotos zeigt und sie fragt, wie die Menschen auf den Fotos drauf sind.

  7. Zitat: Nach dem Superintelligenz-Szenario würde eine von uns entwickelte Superintelligenz plötzlich anfangen, sich selbst zu verbessern und exponentiell klüger zu werden – das nennt man technologische Singularität, den Big-Bang der Superintelligenz.
    Die Transhumanisten Ray Kurzweil, Peter Diamandis &Co glauben generell, wir lebten heute im Zeitalter der exponentiellen Beschleunigung, in der auf sehr vielen oder allen Gebieten das Moore‘sche Gesetz gelte: nicht nur Computer-Chips werden gemäss deren Lehre alle 2,3 Jahre doppelt so leistungsfähig, sondern auch die Medizin, die Transporttechnologie (gestern Eisenbahn, heute Hochgeschwindigkeitszüge, morgen Hyperloop) und fast alles anderen Technologien. Nur kann das nicht stimmen solange sich der Mensch in Form von Forschern in dieser Akzelerationsschlaufe befindet: Nicht zufällig messen Lehrstuhlinhaber an Universitäten den Fortschritt in Doktorandengenerationen. Ein Doktorat dauert aber immer gleich lang und verkürzt sich nicht exponentiell. Erst wenn es den Menschen nicht mehr braucht um zu Erkentnissen zu kommen, können wir ins echt exponentielle Zeitalter eintreten, in ein Zeitalter, in dem Fortschritte nicht mehr allein auf der Skalierung schon bekannter Technologien beruhen wie in der Halbleiter- und Chipindustrie, sondern auch im exponentiellen Wissenserwerb. Tatsächlich gibt es erste Ansätze dazu, etwa in der Materialwissenschaft, wo neue Materialien nicht mehr im Labor durch unzählige Experimente „erbrütet“ werden, sondern wo sie von Deep Learning- Systemen vorgeschlagen werden , die auf die Korrelation von chemischer Strukturformel und Eigenschaften des Stoffes trainiert wurden.

    Doch was bedeutet eine Welt in der der Mensch aus der Schleife genommen wurde (taking the human out of the loop) ? Letzlich wohl, dass es den Menschen nicht mehr braucht, ja dass der Mensch sogar stört. Wenn es einmal so weit ist, dass Wissenschaft und Technologie auch ohne Menschen fortschreitet, dann würde sehr schnell eine Welt enstehen die mit der menschlichen nichts mehr zu tun hat. Vielleicht findet diese Zukunft tatsächlich nicht auf der Erde statt sondern in den unendlichen Weiten zuerst unseres Sonnensystems, dann der ganzen Galaxis. Jürgen Schmidhuber ( ein deutschsprachiger KI-Forscher) mindestens glaubt daran, dass Roboter und künstliche Intelligenzen der nächsten Generation der menschlichen Welt entfliehen werden um sich die Ressourcen zuerst unserer Nachbarplaneten, dann der ganzen Galaxis anzueignen. Vielleicht erbarmt sich dann irgendwann eine zukünftige Superintelligenz der Menschheit und löst beispielsweise ihr Klimaproblem Ruck-Zuck indem es einen CO2-Staubsauger der Zukunft mal für ein paar Minuten in die irdische Atmosphäre hält und das überschüssige CO2 abzieht. Und der Roboter, der dies macht, denkt sich dabei: „So dumm diese Menschen. Die versinken in ihrem eigenen Dreck und können sich nicht einmal selbst helfen. Kaum auszudenken, dass wir selbst letzlich Produkte dieser primitiven Spezies sind. Nun ja, alles Grosse beginnt mit Kleinem und aus erbärmlichem Schmutz können edle Kreaturen wie wir hervorgehen. “

  8. Conscious and sentient robots? A wrong goal, a wrong question

    Roboter mit Bewusstsein, die sich in den Menschen hineinfühlen können, scheinen nicht nur Forschern, sondern gerade auch eher geisteswissenschaftlich und künstlerisch orientierten Menschen ein erstrebenswertes Ziel. Dabei beginnt genau hier die eigentliche Gefahr, wird genau hier die rote Linie überschritten.

    Sicher sind intelligente, aber emotinonslose und letztlich dumme Roboter, die vom Militär als Kampfmaschinen eingesetzt werden auch schon ein Problem. Doch eine moralische Maschine, die selber bestimmt, was gut und falsch ist, wäre ein noch viel grösseres Problem, denn für den Kampfroboter kann man immer einen Menschen verantwortlich machen, der ihm Befehle erteilt hat, für eine selbstständig denkende, moralische Maschine aber nicht mehr.

    In diesem Punkt stimme ich zu 100% mit Daniel Dennett überein und mit dem, was er im Artikel Will AI Achieve Consciousness? Wrong Question geschrieben hat. Dort liest man (übersetzt von DeepL):
    Wir schaffen Werkzeuge, nicht Kollegen, und die große Gefahr besteht darin, den Unterschied nicht zu sehen (zwischen Werkzeug und Kollegen), den Unterschied, den wir mit politischen und rechtlichen Innovationen verdeutlichen, markieren und verteidigen sollten.

    Weiter liest man (übersetzt von DeepL): Roboter sind, wie Norbert Wiener sagt, hilflos, nicht im Sinne von eingeschränkter oder behinderter Existenz als Agenten sondern im Sinne, dass sie überhaupt keine Agenten sind – dass sie nicht in der Lage sind, von Vernunftsüberlegungen,die ihnen präsentiert werden, “bewegt zu werden” (wie Kant es ausdrückte). Es ist wichtig, dass wir es so belassen, was einige Anstrengungen erfordert.

    Langfristig ist “starke KI” oder allgemeine künstliche Intelligenz prinzipiell möglich, aber nicht wünschenswert (mehr dazu später). Die weitaus eingeschränktere KI, die heute praktisch möglich ist, ist nicht unbedingt böse. Aber sie stellt ihre eigenen Gefahren dar -die hauptsächlich darin besteht, dass sie mit einer starken KI verwechselt werden könnte!

  9. “Beherrschen Roboter bald die Welt ?”
    Die Roboter müssten dann wahrscheinlich über ein Bewertungsmuster verfügen, was ihnen die Möglichkeit gibt, menschliches Handeln einzuordnen- und nach moralisch ethischen Kriterien, oder ökonomischen Kriterien, oder ideologischen Kriterien, oder nur ein nach einfaches Machtstreben, einzuordnen. Bei all den aufgezählten Kriterien spielen aber Emotionen(Gefühle) eine Rolle: als Bewertungskategorien. Ein Roboter müsste also beim Erkennen der Dummheit der Menschen, nicht nur den Rückschluss
    “Ich verbessere sie ” sondern auch” Ich bin besser und schalte diese dumme Konkurrenz aus ” ziehen. Dieser Quantensprung zum eigenen ICH des Roboters geht meiner Meinung nach nur über solche Gefühle wie Überheblichkeit, Arroganz, Besserwisserei, Selbstbewusstsein etc..
    Und: Ein Roboter müsste sich seines eigenen ICHs bzw. des eigenen SELBST bewusst werden.

    • Golzower: “Und: Ein Roboter müsste sich seines eigenen ICHs bzw. des eigenen SELBST bewusst werden.”

      Jaromir: Wir haben hier schon über Selbst-Bewusstsein und Bewusstsein einige Male diskutiert. Unsere KI-Roboter werden durch künstliche neuronale Netze (KNN) gesteuert. Und diese können jeweils nur auf eine enge Aufgabe hin trainiert werden. Man kann selbstverständlich einem KNN-Modell Netze angliedern, die auf eine Bewertung von irgendwas trainiert werden, jedoch in einem sehr engen Rahmen: Ein Netz – eine Aufgabe – eine Bewertung. Dass ein solches Modell mit unseren heutigen Rechenmöglichkeiten so etwas wie Bewusstsein entwickeln könnte, ist wirklich nur ScienceFiction – eine unrealistische.

  10. Menschliche Intelligenz versus Künstliche Intelligenz

    Die Angst vor der KI beruht doch mehr auf dem Nichtwissen über Computerwissenschaft als auf der Angst, die Kontrolle zu verlieren.
    Dabei steht die KI auf noch viel wackligeren Beinen als unsere menschliche Intelligenz.
    Ein Standbein ist das Internet, ein anderes Standbein sind die gebräuchlichen Computersprachen.
    Jeder Informatiker hat da Einblick und es gibt viele Fachbücher über Internetprogrammierung.
    Und dass das “System Computer” störungsanfällig ist gegenüber jedem intelligenten Häcker, das wird jeden Tag bewiesen.
    Ein einziges, noch unbekanntes Schadprogramm kann ein ganzes Netzwerk stören.
    Der Roboter mit “Selbstbewußtsein”, das ist nur eine Vermenschlichung. Wer den Roboter technisch versteht, der kann ihn per Funk lahmlegen.
    Also an alle Besorgten, die Industrienationen werden schon eifersüchtig darauf achten, dass sich die Computerindustrie nicht verselbständigt.

    • bote19: “Die Angst vor der KI beruht doch mehr auf dem Nichtwissen über Computerwissenschaft als auf der Angst, die Kontrolle zu verlieren.”

      Jaromir: Meiner Meinung nach beruht die Angst der Menschen, die Kontrolle (über die Maschinen) zu verlieren, auf dem Nichtwissen über Computerwissenschaft. 🙂

    • bote19: “Der Roboter mit “Selbstbewußtsein”, das ist nur eine Vermenschlichung. Wer den Roboter technisch versteht, der kann ihn per Funk lahmlegen.
      Also an alle Besorgten, die Industrienationen werden schon eifersüchtig darauf achten, dass sich die Computerindustrie nicht verselbständigt.”

      Jaromir: Ja! Man sollte Roboter in keinem Fall vermenschlichen – das hassen sie. 🙂

      Ich bitte um Entschuldigung für den Witz – ich konnte nicht widerstehen. 🙂 Ansonsten sehe ich das aber ähnlich wie Sie: So wie die heutigen Künstliche-Intelligenz-Programme (künstliche neuronale Netze) sind, kann der Mensch die Kontrolle über sie nicht verlieren, der Mensch kann aber mit Hilfe von künstlichen neuronalen Netzen andere Menschen kontrollieren. Darum geht es in meinem Blogtext.

  11. Jaromir Konecny

    Sie haben es auf den Punkt gebracht. Interessenverbände können mit Hilfe von KI Menschen analysieren und kontrollieren.
    Dem kann man nur auf drei Arten begegnen.
    1. Indem man Informatik samt technischer Anwendungen auf jeder Schulstufe behandelt
    2. Indem man viel mehr neue Berufe schafft, die sich mit KI beschäftigen und damit kontrollieren können.
    3. Aufklärung der Öffentlichkeit und das Anpassen der Gesetzgebung an die neuen Verhältnisse.

    • Danke! Ich sehe das genauso wie Sie. Es müsste breite Aufklärung stattfinden. Nicht nur, um nicht kontrolliert zu werden. Auch um in einer automatisierten Arbeitswelt zurecht zu kommen. Unser Schulsystem muss sich grundlegend ändern. Kreativität und Innovationslust sind gefragt. Nicht Pauken und Leistungsdruck. Was automatisiert werden kann, wird automatisiert. Maschinen können jedoch viel mehr leisten als wir. Schüller sollten lernen, wie man lernt und dabei Spaß hat. Denn unsere Kinder müssen ihr Leben lang lernen. Sonst geht die Zukunft an ihnen vorbei. Ich glaube auch, eine voll automatisierte Welt wird ohne ein bedinungsloses Grundeinkommen nicht funktionieren.

  12. JK Spaßiger Nachtrag
    Computer hassen die Vermenschlichung nicht, die fühlen sich sogar wohl bei ihnen.
    Erinnern Sie sich noch an die Tamagotchi? Mit diesem kleinen Minicomputer konnten Kinder eine sentimentale Beziehung zu einer KI aufbauen.
    Das sollte man wiederbeleben und Spielroboter anbieten, die die Kinder selbst programmieren können .

    • bote19: “Erinnern Sie sich noch an die Tamagotchi? Mit diesem kleinen Minicomputer konnten Kinder eine sentimentale Beziehung zu einer KI aufbauen.
      Das sollte man wiederbeleben und Spielroboter anbieten, die die Kinder selbst programmieren können.”

      Jaromir: Das fände ich gut: Schola ludus, wie Commenius sagte – Die Schule ist ein Spiel.

  13. Superbegabungen für Spezialprobleme haben gewisse KI-Systeme schon heute obwohl sie überhaupt nichts von der Welt verstehen. Wirklich nützlich für den Allgemeingebrauch werden KI-Systeme, wenn sie folgendes erreichen
    1) Fähigkeit zu kontinuierlichem, lebenslangem Lernen
    2) Fähigkeit zum Wissenstransfer von einem Gebiet auf ein anderes
    3) Common Sense Knowledge&Reasoning
    1)+2) können zu 3) beitragen.
    Es gilt jedenfalls: ohne Common Sense Knowledge&Reasoning sind KI-Systme für den Alltag nicht brauchbar, denn Menschen machen ständig Schlüsse die dies erfordern. Beispiel: Jemand empfiehlt seinem Freund eine Abkürzung als Zufahrt zu seinem Haus, merkt dann aber, dass das nicht funktioniert, weil das Auto des Freundes zu breit ist für die schmale Gasse, welche die Abkürzung ist.
    Für uns sind solche Überlegungen so selbstverständlich, dass wir sie gar nicht mehr wahrnehmen. Für KI-Systeme sind solche Überlegungen bis jetzt nicht möglich, denn sie wissen nicht einmal, dass Strassen zu schmal für SUVs sein können.

    • Martin Holzherr: “Superbegabungen für Spezialprobleme haben gewisse KI-Systeme schon heute obwohl sie überhaupt nichts von der Welt verstehen. Wirklich nützlich für den Allgemeingebrauch werden KI-Systeme, wenn sie folgendes erreichen
      1) Fähigkeit zu kontinuierlichem, lebenslangem Lernen
      2) Fähigkeit zum Wissenstransfer von einem Gebiet auf ein anderes
      3) Common Sense Knowledge&Reasoning
      1)+2) können zu 3) beitragen.

      Jaromir: Ich glaube, von solchen KI-Systemen sind wir noch weit entfernt. Ich muss zugeben, dass ich sie auch nicht unbedingt brauche. Schon mit ihrer wunderbaren Fähigkeit, in sehr großen Datensätzen, die Menschen völlig überfordern, Muster zu erkennen, stoßen künstliche neuronale Netze jetzt überall eine Revolution an.

      Wir haben hier schon über DeepMinds AlphaFold gesprochen. Hier ein Artikel im Quantamagazine “Wie künstliche neuronale Netze die Wissenschaft ändern.

  14. Das Bostrom Zitat (und sein Inhalt) ist zwar auf Irrsinn hinlaufende Vermutung, aber das ist nur ein Gleichnis aus Erfahrungen von früheren Betracxhtungen von Systemen, die im Laufe ihres Wirkens immer effizienter werden und so dazu führen, dass sie irrationale Auwirkungen haben.

    Demnach sind wir schon heute mit solcher “Superintelligenz”, die keine ist, allseits konfrontiert. Denn mit Systemen, die mit der Zeit immer effizienter (gemacht) werden, haben wir es schon Heute zu tun. Primäre Zielsetzungen evolvieren dann zu Selbstzwecken, die unabhängig von Umgebungsvariablen ihr Ziel konsequent und unaufhaltsam verfolgen.

    Das “System” und Systemdenken ist dabei das eigentliche Problem. Sie werden installiert, passen sich aber den Umgebungsvariablen nicht hirneichend schnell an. Un dwenn man keine Lobby hat, kann man ewig darauf warten, das in seinem Sinne und der Gerechtigkeit wegen für einen selbst die Systeme auf individuelle Komplikationen angepasst werden.

    Das ist sogesehen die Kritik, die man gegen Verwaltungen regelmäßig oder gar inzwischen gewohnheitsmäßig vorbringt: Sie seien unflexibel und Stur und damit Irrational und also Verschwenderisch und Anmaßend im Sinne der Steuerzahler.

    Und ich kann das inzwischen verstehen, obwohl ich kaum dem üblichen Verdächtigen entspreche, von denen man das früher immer hörte.

    • Trotzdem sind diese Systeme von Menschen geschaffen und können von Menschen abgeschafft bzw. ausgeschaltet werden, wenn sich die Menschen nur drauf einigen könnten. Und das ist das Problem, das ich auch in meinem Blogtext zeigen wollte: Wo führt es hin, wenn vor allem KI-Programme entwickelt werden, die uns kontrollieren und manipulieren sollen? Sind wir überhaupt in der Lage, aus unseren immer kleiner gewordenen Blasen auszubrechen, wenn sie irgendwann zubetoniert sind. Wie gesagt: Das Problem ist nicht, dass Maschinen uns irgendwann beherrschen, (dafür gibt es nun mal keine rationelle Begründung, wenn man weiß, wie künstliche neuronale Netze – KNN – funktionieren). Das Problem ist, dass uns irgendwann andere Menschen mit Hilfe von KNN so kontrollieren und manipulieren, dass wir uns dagegen nicht mehr wehren können.

  15. Golzower (& Jaromir): “Und: Ein Roboter müsste sich seines eigenen ICHs bzw. des eigenen SELBST bewusst werden.”

    -> Nein, er muß absolut nicht sich seiner selbst bewusst werden, wenn er Teil einer umfassenden Vernetzung ist. Und nur so ist ja diese künstliche Intelligenz vorerst nur vorstellbar. Dabei werden diese Roboter nicht sich selbst bewusst, sondern nur dazu programmiert, eine Instanz zu sein. Und das reicht schon, um ein System “Roboter” strukturiert funktionieren zu lassen.

    Diese künstliche Intelligenz wäre dann aber erst nur ein emergentes Phänomen, das aus seinen Einzelsystemen höhere Komplexität simmuliert. Das ist unsere menschliche Intelligenz aber auch (nur). Denn das Problem am Menschen ist, dass es in einer zusehens komplexer werdende Umwelt schon seit Ewigkeiten nicht mehr alles optimal begreifen und verstehen kann. Oder vielleicht gab es diesen Zustand sowieso nie? Das Prinzip Arbeitsteilung kam ja nicht umsonst so erfolgreich in die Welt.

    Ich bin übrigens verstört, dass ein Wissenschaftler, wie sie, glaubt, es handle sich um ein Wunder, dass die 8 Milliarden Weltbevölkerung sich nicht gegenseitig zur Strecke brachten.
    Selbstverständlich ist das kein Wunder. Dafür gibt es einen Grund, den sie als Forscher am Gehirn doch eigentlich kennen müssten!

    Sie müssten dafür nur die extrapolierten Einzeldaten sozusagen wieder zurück in die Weltzusammenhänge intrapolieren. Aber vielleicht haben sie zu selektiv geforscht? Das wäre bei der üblichen Praxis, Probanden anzuwerben (Studenten aus der Umgebung) freilich wieder mal kein Wunder.
    Dann kann man natürlich in Unwissenheit selig von einem Wunder sprechen.

    vrblb mt frndlchn Grßn

    • demolog: “Dabei werden diese Roboter nicht sich selbst bewusst, sondern nur dazu programmiert, eine Instanz zu sein. Und das reicht schon, um ein System “Roboter” strukturiert funktionieren zu lassen.”

      Jaromir: Die Roboter der Zukunft werden nicht “programmiert”, sie werden selbst lernen, wie sie ihre Aufgaben meistern. 🙂

    • demolog: “Diese künstliche Intelligenz wäre dann aber erst nur ein emergentes Phänomen, das aus seinen Einzelsystemen höhere Komplexität simmuliert. Das ist unsere menschliche Intelligenz aber auch (nur). Denn das Problem am Menschen ist, dass es in einer zusehens komplexer werdende Umwelt schon seit Ewigkeiten nicht mehr alles optimal begreifen und verstehen kann. Oder vielleicht gab es diesen Zustand sowieso nie? Das Prinzip Arbeitsteilung kam ja nicht umsonst so erfolgreich in die Welt.”

      Jaromir: Die “Hardware” des Menschen evolvierte Hand mit Hand mit seiner “Software”, in einem extrem komplexem Evolutionsprozess über große Populationen: Mutation & Selektion. So wie künstliche neuronale Netze arbeiten, können Sie auch Milliarden davon zusammenfügen, es wird trotzdem keine Emergenz entstehen. Jedes einzelne künstliche neuronale Netz (KNN) wird auf eine einzige Aufgabe hin trainiert. Eine minimale Änderung der Modellparameter stört massiv die Funktionalität des KNN. Wie sollen sich solche mathematischen Optimierungsverfahren zu etwas verbinden, das eine Emergenz entstehen lässt?

    • demolog: “Ich bin übrigens verstört, dass ein Wissenschaftler, wie sie, glaubt, es handle sich um ein Wunder, dass die 8 Milliarden Weltbevölkerung sich nicht gegenseitig zur Strecke brachten. Selbstverständlich ist das kein Wunder. Dafür gibt es einen Grund, den sie als Forscher am Gehirn doch eigentlich kennen müssten! Sie müssten dafür nur die extrapolierten Einzeldaten sozusagen wieder zurück in die Weltzusammenhänge intrapolieren. Aber vielleicht haben sie zu selektiv geforscht? …”

      Jaromir: 🙂 Zum Glück habe ich’s mir abgewöhnt, mich durch das Denken der anderen verstören zu lassen. Wissenschaftlich habe ich aber in der Evolutionstheorie geforscht, bin also kein “Forscher am Gehirn”, obwohl ich mich mit der Hirnforschung seit Jahren intensiv beschäftige. Ich weiß nicht, was Sie unter “Weltzusammenhänge” meinen. Es wäre bei diesen Diskussionen besser, mit Sachargumenten zu kommen, als mit Wortblasen wie “Weltzusammenhänge” und Unterstellungen wie “vielleicht haben sie zu selektiv geforscht? …”

      Stellen Sie sich nur vor, dass der Mensch vor der Aufklärung die technologischen und wissenschaftlichen Mittel besessen hätte wie jetzt. Was wäre hier passiert? Hätte das die Erde überlebt? Noch vor 30.000 Jahren haben sich Gruppen unserer Urahnen die Köpfe eingeschlagen, wenn sie sich trafen. Vielleicht haben wir die Neandertaler ausgelöscht. Und und und … Und jetzt leben 8 Milliarden solcher damals mit harten Bandagen ständig um das eigene Überleben kämpfenden Wesen auf diesem Planeten, und es funktioniert – einigermaßen. Die kulturelle Evolution des Menschen, der Humanismus und das Mitgefühl, das sich der Mensch erarbeitet hat, während seiner Entwicklung, lassen mich staunen. Warum nicht?

  16. Ich finde es verstörend, dass sie im Ansinnen, die Moderne brachte alles Gute in diese Welt, sodass sich der Steinzeitmensch nicht mehr gegenseitig dahinmetzelte, quasi der Meinung sind, das 20. Jahrhundert sei in diesem Sinne ein Segen für die Menschheit gewesen.

    Denn für nichts anderes, als für die Verwirklichung der wissenschaftlichen und philosophischen Ekrenntnisse und Ideale steht dieses 20. Jahrhundert ausdrücklich in der Geschichtserzählung dieser Welt.

    Leider steht es auch dafür, in einem Jahrhundert soviele Menschen gemetzelt zu haben, wie es in der Historie sonst nur Naturkatastrophen oder Seuchen vergleichbar hinterlassen haben.

    Und es steht dafür, das, was emergent aus dem Leben hervorgeht und auf das es rückwirkend angewiesen ist, nicht einfach nur sinnvoll zu kritisieren, sondern es sogar zu leugnen. Und das ist, was die Menschen meinen, wenn sie Gott sagen. Dieser ist gleichzeitig unentbehrliche Be- und Verbindung und unüberwindbare Demütigung zugleich.
    Die Lösung in der konsequenten Leugnung wäre menschlich gesehen zwar verständlich, ist aber auch irrational – vort allem im Sinne der Aufklärung, wie sie verstanden werden kann.

    Und es ist unverständlich, das Menschen, die in ihrem Leben alles im Reinen erkennen, sich nicht vorstellen können, das es Existenzen gibt, bei denen das so nicht ist und das es dafür andere Gründe gibt, als gewisse eigene Verfehlungen oder Missstände.
    In diesem Sinne gibt es für Menschen, deren leben von Anfang an unter erschwehrten Bedingungen verlaufen ist, später, wenn diese Menschen in der Welt nach üblicher Sichtweise versagt haben, unerklärlicherweise keine Gnade und schon gar keine Unterstützung, sondern Anmaßung und Übergriffigkeit, sodass genau solche Menschen in der Statistik auftauchen, in der Armut und mangeklnder Bildungsstand mit gesundheitlichen Risiken und vorzeitigem Ableben in Verbindung gebracht werden.

    Und das ist, ohne im Einzelnen darauf einzugehen, auch Folge dieser so gelobten modernen Kultur, die sich aber auch dafür lobt, dass sie (zumindest suggestiv) evolutionäre Selektionswirkungen auf das einzelne Leben durch Kultivierung und Technologie ausser Kraft gesetzt zu haben angibt.

    Aus der Natur der Sache ist es nur jenen möglich, solche unsichtbaren Wirkungen zu erkennen, welche davon direkt betroffen sind. Denn Erkenntnis folgt auf Ereignis. Nicht nur im Idealfall, sondern in solch Extremfällen eben notwendigerweise. Nur jene, die keine Not zur Erkenntnis verspühren, reden so, wie sie. Weil es dazu keinen Anlass gibt, der sie zu solcher Denkweise zwingt. Es geht ihnen für solche Denkszenarien schlicht zu gut.

  17. @ Jaromir Konecny 20. März 2019 10:13

    Zitat: „So wie künstliche neuronale Netze arbeiten, können Sie auch Milliarden davon zusammenfügen, es wird trotzdem keine Emergenz entstehen. Jedes einzelne künstliche neuronale Netz (KNN) wird auf eine einzige Aufgabe hin trainiert. Eine minimale Änderung der Modellparameter stört massiv die Funktionalität des KNN. Wie sollen sich solche mathematischen Optimierungsverfahren zu etwas verbinden, das eine Emergenz entstehen lässt?“

    Emergenz kann meiner Meinung nach (auch) entstehen, wenn die „Ergebnisse vieler KNN“ in einem annähernd „gleichzeitigen Zusammenhang“ (auf eher flächigen Strukturen, vergleichbar einem Bildschirm, einer Filmleinwand, Mattscheibe, Netzhaut im Auge, Zwischenschichten zwischen Gehirnorganen ….) gebracht werden, danach zur weiteren Auswertung die (Information abbildenden) Signale selektiv (nach gewissen „gelernten“ Mustern) weiteren KNN zugeführt werden. Natürlich sollten beim „Bewusstsein“ des Menschen auch noch „Empfindungen“ generierende Strukturen eingebunden sein.

    In der Elektronik/Informatik kann derartiges in einer „Datenstruktur“ die man Akkumulator (= Datensammler) nennt praktisch realisiert werden. Der „AKKU“ ist sozusagen das „Zentrum“ der Informationsverarbeitung.

    Dies wäre ungefähr vergleichbar einer „Schaltwarte“ in großen Betriebsanlagen, wo alle Infos sozusagen emergieren, auf Fernsehbildschirmen gleichzeitig (können auch aus der früher gespeicherten Vergangenheit stammen) aufgezeigt werden, zusammenlaufen und vom Bedienungspersonal die erforderlichen Handlungen zur Steuerung des Betriebsablaufes gesetzt werden.

    Heikler ist die Frage zur Erklärung des Empfindungsphänomenes.

    Anorganische Gebilde gelten als „tot“ (ohne innere „Dynamik“) und dürften daher nicht empfindungsfähig sein.
    Bedeutet, man muss unterscheiden zwischen „denkender Informationsverarbeitung“ und „Empfindung“.

    Man kann im Inneren von anorganischen Computerchips eine elektrische Dynamik erzeugen die das System zur Informationsverarbeitung befähigen, vermutlich aber nicht um es direkt empfindungsfähig zu machen.

    Nach meiner sehr vagen und von mir nicht (wirklich seriös, ich betone „seriös“) belegbaren Vermutung, könnten Empfindungen wie Lust und Schmerz dann entstehen, wenn z.B. Wasserstoffbrücken in bestimmten organischen Systemen z.B elektrisch zur Resonanz „angestoßen“ werden, je resonanter desto stärker die Empfindung. Bei Phasengleichheit mit der Eigenresonanz könnte vielleicht Lust, bei Gegenphasigkeit Schmerz entstehen.
    Es dürfte jedenfalls auch auf dynamische chemische Prozesse ankommen, elektrische Prozesse allein dürften eher nicht reichen.

    Ein ethisches Problem wäre z.B. dass, würde man derartige Systeme „nachbauen“, extreme Schmerzempfindungen auftreten könnten, „Leid“ entstehen würde und das System kann sich nicht mitteilen, worauf der Philosoph T. Metzinger hingewiesen hat.
    Wo im neuronalen System des Menschen dieses Empfindungsphänomen genau auftritt, dürfte noch nicht geklärt sein. Denkbar wäre, dass es besondere zellulare Strukturen gibt deren Funktionen man heute noch nicht vollständig kennt.

    Resonanzeffekte waren in der Elektronik von besonderer Bedeutung und absolut alltäglich.

    Resonanzeffekte können in dynamischen Systemen auftreten. Sie spielen auch im Maschinenbau (z.B. Schwingungen bei Kurbelwellen), in der Statik (Schwingungen bei Brückenbauwerken und Erdbeben) eine Rolle und sind dort auch erforscht.

    In der Biologie, bei vom Gehirn gesteuerten Prozessen, könnten sie eine besondere Rolle spielen, weil elektrische Impulse besonders leicht derartige Resonanzen auslösen können. Bei manchen Empfindungen (z.B. „Lust“) wären derartige Effekte naheliegend, aber auch bei Psychosomatischen Effekten.

    Bei meiner Ausbildung vor über 50 Jahren wurde auch nebenbei bemerkt, dass derartige Resonanzeffekte auch bei der Bindung von Molekülen, vielleicht auch bei Wasserstoffbrückenbindungen, eine Rolle spielen könnten.

    Es ist nicht nur die Dynamik bei der Bindung von Bedeutung, sondern besonders auch die mitunter sehr schwierig zu berechnende Resonanzeffekte, die groß Wirkungen haben können. Kraftwirkungen können wegen der Resonanzeffekte extrem steigen oder sich auslöschen.
    Resonanzeffekte sind nicht einfach zu erkennen und können auch höchst rätselhaft sein.

    Ich weiß nicht ob in der Chemie derartige Effekte bereits in diesem Sinne erforscht sind. Bedeutet, dynamische (lebende) biochemische Strukturen könnten nicht nur zyklisch aktiviert, sondern auch unerwünscht zerstört werden oder auch neu entstehen (Entzündungen, Nekrosen, Tumore…).

    Effekte im Bereich der Schnittstellen „Elektronik – Chemie“ sollten auch in der Medizin genauer erforscht werden weil sie die Ursache für Fehlfunktionen sein könnten.

  18. @ Jaromir Konecny 20. März 2019 10:13

    Zitat: „Jedes einzelne künstliche neuronale Netz (KNN) wird auf eine einzige Aufgabe hin trainiert. Eine minimale Änderung der Modellparameter stört massiv die Funktionalität des KNN.“

    Ich würde hinzufügen: Jedes einzelne künstliche neuronale Netz (KNN) wird derzeit auf eine einzige Aufgabe hin „isoliert“ (also weitgehend unabhängig von den anderen KNN) trainiert.

    Dies dürfte beim Menschen normalerweise anders sein.
    Beim Lernen sind auch (wegen der hochgradigen Parallelität der Verarbeitung), und der „dazwischengeschalteten Bewusstseinsanzeigestrukturen“ andere Bereiche in die Lernprozesse eingebunden und die Modellparameter werden auch in den benachbarten KNN modifiziert und bilden die Sachverhalte immer besser ab.
    Selbst bei massiven Widersprüchen dürfte es allmählich zustande kommende „Ausgleichsprozesse“ geben. Natürlich können diese Ausgleichsprozesse auch scheitern, so wie letztlich auch Menschen und ganze Gesellschaften an inneren Widersprüchen scheitern.

    Es dürft ein Problem des koordinierten Trainings vieler KNN sein. Natürlich dürften à la longue auch besondere „individuelle Muster“ (entsprechen verschiedenen Persönlichkeitsstrukturen) bei der „Verknüpfung“ der KNN eingesetzt werden.

    So wie es verschiedene „Persönlichkeiten“ mit unterschiedlichem “Bewusstsein” gibt die evolutionär entstanden sind, wird es auch verschiedene, ich nenne es hier einfach „Roboterlichkeiten“ geben, die nebeneinander existieren und im evolutionären Wettbewerb stehen.

    Es wird die Frage sein ob man denen „Empfindungsfähigkeit“ implementiert.

    Wegen der „Leid“ Frage sollte man es eher aus ethischen Gründen unterlassen.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +