Die Geister, die wir rufen: Künstliche-Intelligenz-Algorithmen als neue Alchemie

Ist Software bald so schwierig zu verstehen, wie ihre Schöpfer?

Erst im Februar berichtete Science von einer Krise der Replikation der KI-Forschung: Bei klaren Algorithmen und deterministischen Computern sollte man erwarten, dass ein Programm bei gleichen Eingaben immer zum selben Ergebnis führt. Dass das häufig nicht der Fall war, erklärten Forscher mit der unvollständigen Veröffentlichung wichtiger Informationen und der Abhängigkeit der Software von Trainingsdaten.

In der Science vom 3. Mai widmet sich jetzt ein Artikel dem Vorwurf, KI funktioniere wie mittelalterliche Alchemie: Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.

Google-Forscher tritt Debatte los

Auslöser für den kritischen Bericht war eine Vorlesung von Googles KI-Forscher Ali Rahimi vom letzten Dezember, in dem der Vergleich mit der Alchemie gemacht wurde und der eine breite Diskussion auslöste. Mit einem Vortrag am 30. April auf der International Conference on Learning Representations in Vancouver, Kanada legte Rahimi nun nach.

Viele Forscher auf diesem Gebiet tappten im Dunkeln und wüssten eigentlich nicht, was sie täten. Nicht nur einzelne Algorithmen funktionierten wie eine “Black Box”, bei der man nur Ein- und Ausgabe kennen und nicht verstehe, was im Inneren geschehe. Ganze Teil der KI-Forschergemeinschaft würden inzwischen genauso anmuten.

Der Informatiker François Chollet, ebenfalls von Google, formuliert es so: Man programmiere die Software schlicht so, dass sie die Trefferquote maximiere. Trotz tausender wissenschaftlicher Arbeiten zum Thema basiere das aber im Wesentlichen auf Versuch und Irrtum.

Geistlose Optimierungsstrategien

Rahimi veranschaulichte das in seinem Vortrag mit ein paar Beispielen. Nachdem andere Forscher einige Optimierungsstrategien aus einem der besten bekannten Übersetzungsalgorithmen entfernten, habe dieser auf einmal bessere Übersetzungen vom Englischen ins Deutsche oder Französische geliefert. Auch umgekehrte Fälle werden erwähnt, dass also das Grundgerüst eines Algorithmus eher wertlos sei und das Ergebnis nur durch Optimierungsstrategien brauchbar werde.

So oder so – solche Tricks legen eher nicht den Verdacht nahe, dass in diesem Forschungszweig von Wissen und Verständnis getriebenes Vorgehen die Regel ist. Bei Unternehmen, denen es nur um das (am Ende ökonomisch verwertbare) Ergebnis geht, würde das nicht überraschen. Von wissenschaftlicher Forschung würde man aber mehr erwarten.

Vor allem das Ergebnis zählt

Als möglichen Grund nennt der Informatiker Csaba Szepesvári von DeepMind in London die im Feld übliche Publikationskultur. Bei der Veröffentlichung in Fachzeitschriften würde die Leistung eines Algorithmus belohnt, ob dieser bisherige Höchstwerte übertreffe. Die Erklärung seiner Arbeitsweise durch die Autoren sei demgegenüber nachrangig.

Interessant sind nun die Lösungsvorschläge des Google-Forschers Rahimi oder des Informatikers Ben Recht von der University of California in Berkeley: Beispielsweise solle man untersuchen, was die Entfernung einzelner Teile eines Algorithmus für Auswirkungen auf die Funktionsweise hat; oder man solle ein Programm erst mit einfacheren Beispielaufgaben untersuchen, bevor man es auf komplexere Probleme loslässt, etwa bei der Bilderkennung.

Indirektes Vorgehen

Kommt das jemandem bekannt vor? Tatsächlich versucht man ja seit Längerem, den Menschen beziehungsweise sein Gehirn auf diese Weise zu verstehen. So sind in den Neurowissenschaften etwa Läsionsstudien beliebt, in denen man psychische oder neurologische Funktionsausfälle bei Patienten mit Gehirnschädigung untersucht.

Man denke etwa an Phineas Gage, den wohl bekanntesten Patienten der Neurologie. Oder an die Entdeckungen von Paul Broca und Carl Wernicke, nach denen Hirnregionen benannt wurden. Schon im 19. Jahrhundert wurden solche Fälle also fruchtbar diskutiert. Ethisch umstritten ist, wenn Forscher heute solche Läsionen nach Belieben im Tierversuch erzeugen.

Umgang mit der “Black Box”

Und natürlich hat man über Seh-, Hör- und andere Wahrnehmungsvorgänge viel gelernt, indem man in der Psychologie oder den Neurowissenschaften mit einfachen Stimuli geforscht hat. Beliebt waren und sind hierfür etwa geometrische Figuren wie Dreiecke und Kreise, die jedoch in unserer Alltagswelt eher nicht vorkommen.

Die “Black Box” ist zudem charakteristisch für eine der einflussreichsten psychologischen Schulen des 20. Jahrhunderts, nämlich den Behaviorismus. Weil man damals noch nicht so detailliert das arbeitende Gehirn untersuchen konnte wie heute, nahmen Vertreter dieser Schule wie John Watson oder Burrhus Skinner in positivistischer Manier schlicht das, was man untersuchen konnte: das Verhalten.

Wenn man so den Vergleich zwischen der heutigen KI-Forschung und der Wissenschaftsgeschichte von Psychologie und Neurowissenschaften zieht, dann zeichnen sich einige Parallelen ab. Das System, das man untersucht, ist zu komplex, um es direkt und in seiner Gänze zu erforschen. Daher unterteilt man es in Module und greift zu indirekten Forschungsmethoden.

Trend der “Computational Sciences”

Das entbirgt nicht einer gewissen Ironie, wenn man sich vor Augen führt, dass in den heute im Trend liegenden “Computational Sciences”, etwa der Computational Biology, Computational Neuroscience oder gar Computational Psychiatry KI-Algorithmen zum Erklären der untersuchten Phänomene verwendet. Wenn man den Alchemie-Vorwurf betrachtet, dann scheinen diese Algorithmen mehr Fragen aufzuwerfen, als sie Antworten geben.

Das bekannteste Beispiel hierfür könnte das Human Brain Project sein. In den Medien erfuhr dessen ambitiöses Ziel viel Aufmerksamkeit, auf einem Supercomputer im Forschungszentrum Jülich ein ganzes menschliches Gehirn zu simulieren. Ziel der Simulation soll ein besseres Verständnis sein – doch ob sich die Simulation, sollte es denn überhaupt gelingen, leichter verstehen lassen wird als das Original, das steht in den Sternen.

Letztlich verlieren vor diesem Hintergrund auch reduktionistische Argumente an Überzeugungskraft: Die Idee, das ganze Universum oder wenigstens den Menschen mit einer grundlegenden Formel zu erklären, rückt in weite Ferne, wenn die Arbeitsweise maßgeblicher Forschungsmethoden selbst nicht mehr verstanden wird.

Praktische Bedeutung der Probleme

Der Alchemie-Vorwurf sollte aber auch mit Blick auf praktische Anwendungen aufhorchen lassen. KI-Systeme werden immer verbreiteter. Ob es um die Abschätzung der Kreditwürdigkeit oder der Gefährlichkeit einer Person geht oder ob demnächst autonome Fahr- und Flugzeuge unsere Verkehrswege bevölkern – bei Irrtümern und Unfällen wird die Fehleranalyse schwierig, wenn Fachleute schließlich einräumen müssen: “Wir machen es schlicht so, weil es gut funktioniert.”

Natürlich kann man mit einem pragmatischen Vorgehen sehr weit kommen, vor allem dort, wo es eben um die Praxis geht. Auf Dauer wird man von einer anerkannten Wissenschaft aber auch theoretisches Verständnis erwarten. Es bleibt abzuwarten, wie sich die KI-Forschung dem Alchemie-Vorwurf stellen wird.

Hinweis: Dieser Beitrag erscheint parallel auf Telepolis – Magazin für Netzkultur.

Veröffentlicht von

www.schleim.info

Stephan Schleim ist studierter Philosoph, Psychologe und promovierter Kognitionswissenschaftler. Seit 2009 ist er an der Universität Groningen in den Niederlanden, zurzeit als Assoziierter Professor für Theorie und Geschichte der Psychologie. Der Autor schreibt auch für zahlreiche andere Medien. Die Diskussionen hier sind frei und werden nicht moderiert. Gehen Sie respektvoll miteinander um, orientieren Sie sich am Thema der Blogbeiträge und vermeiden Sie Wiederholungen. Beim Gedankenaustausch darf es auch mal heiß hergehen, jedoch nicht beleidigend werden, vor allem nie unter die Gürtellinie gehen.

67 Kommentare Schreibe einen Kommentar

  1. Nur ein Satz hierzu :

    Bei klaren Algorithmen und deterministischen Computern sollte man erwarten, dass ein Programm bei gleichen Eingaben immer zum selben Ergebnis führt.

    Dies ist nicht der Fall, wenn unterschiedliche Algorithmik an ein und demselben Problem arbeitet und Entscheider-Funktionalität dieser Algorithmik eben entscheidet, auch probabilistisch (das Fachwort) vorgeht und für diese eben probabilistische Entscheidung die “Schnittstelle Physik” nutzt.
    So dass die (menschliche sozusagen) Kompetitivität auf Maschinen-Ebene nachgebaut wird.)

    Die Logik, die in Informationstechnologie implementierte, letztlich menschliche (oder bärische) kann zwar keine Zufallsgeneratoren erstellen, die sozusagen wirklich zufällig sind, kann aber die “Schnittstelle Physik” derart nutzen, so dass dies der Fall zu sein scheint.

    Und es funktioniert.
    Sogenanntes Machine learning kann auf probabilistische Art und Weise funktionieren.
    So dass herkömmlich gewohntes Kausalitätsdenken, gemeint zuvörderst : menschliches, zu unterliegen hat, im Ergebnis.

    MFG + schöne Mittwoche noch,
    Dr. Webbaer (der natürlich dann reziprok wiederum kritisch werden könnte, wenn das oben Beschriebene allgemein einsichtig wird, im Moment abär noch diesbezüglich sparsam bleibt)

  2. *
    So dass die (menschliche sozusagen) Kompetitivität auf Maschinen-Ebene nachgebaut wird.[]

  3. “Es bleibt abzuwarten, …”

    Genau so ist es, mehr Praxis ist von dieser (Un)Realität nicht zu erwarten, es wird sich schon ein Sündenbock oder eine noch blödere Idee … 😎

  4. Off topic:
    “Ethisch umstritten ist, wenn Forscher heute solche Läsionen nach Belieben im Tierversuch erzeugen.”

    Das tendenziöse “nach Belieben” eignet sich gut für wissenschaftsfeindliche Zitate. Ihre früheren Posts lassen vermuten dass Sie das so nicht gemeint haben dürften.

  5. „Alchemie“ ist für die KI Forschung kein Vorwurf, sondern Name einer Strategie von vielen möglichen Strategien.
    „Alchemie“ steht sozusagen für „blindwütige mitunter hirnlose“ Versuche. Menschen haben das „Treiben“ ehemals beobachtet und haben so nebenbei wichtige Entdeckungen gemacht, sind zu neuen Erkenntnissen gekommen.

    Wenn auch der KI Forschung der Vorwurf gemacht wird, mitunter selbst nicht zu wissen „was ihre Algorithmen eigentlich wirklich tun“, kann dies zunächst einmal stimmen.
    Man will sozusagen, dass Algorithmen blindwütig wie ein „Zufallsgenerator“ auf die Suche nach Möglichkeiten gehen, auf die z.B. noch kein Mensch je gekommen wäre.

    Aber im nächsten Augenblick werden sich Informatiker bemühen, ihren „selbstständigen“ Algorithmen „auf die Finger zu sehen“, zu erkennen was die Algorithmen sozusagen „tatsächlich tun“, warum die Algorithmen zu bestimmten Ergebnissen kommen. Dazu sind natürlich neue und planmäßig erdachte Algorithmen nötig.

    Damit steht die KI wieder fest am Boden der Wissenschaft.

  6. @Webbär: Wahrscheinlichkeit

    Es geht ja nicht darum, dass unterschiedliche Algorithmen zu unterschiedlichen Ergebnissen kommen können… sondern dass das beim selben Algorithmus mit denselben Eingabedaten nicht der Fall sein sollte, wenn der Computer deterministisch funktioniert.

    Was Sie ansprechen, dass Computer probabilistisch rechnen können, bedeutet schlicht, dass sie Funktionen der Statistik/Stochastik berechnen können. Auch die sind aber deterministisch in den Sinne, dass gleiche Eingaben zur gleichen Ausgabe führt, nur dass das Ergebnis dann eben eine bestimmte Wahrscheinlichkeit zwischen null und eins ist.

  7. @nichtTendenziös: Belieben

    Das “nach Belieben” bezog ich auf den Ort der Läsion im Gehirn, also Region A oder B oder C, eben so, wie es für einen Versuch erforderlich ist…

    …in der Praxis ist das Belieben des Forschers im anderen Sinne natürlich durch die Ethikkommission eingeschränkt, jedenfalls in den “westlichen” Rechtsstaaten.

  8. @Elektroniker: Verstehen

    Wie soll das funktionieren: Algorithmen, um Algorithmen zu verstehen?

    Man könnte ja die im Text angedachten Vorschläge (wie Teile entfernen, mit kleinen Problemen beginnen) auch als Algorithmen im Sinne von “Kochrezepten” verstehen.

    Ob man so einem Verständnis viel näher kommt, das ist aber die Frage.

    P.S. Schön übrigens, dass Sie die Diskussion hier immer wieder mit ihren qualifizierten Beiträgen bereichern.

  9. Der Bericht ist nichts mehr als ein Unsinn und passt in die Propaganda in den Medien. Wie das Gehirn die Informationen wirklich verarbeitet das will man nicht wissen, anstatt dessen verbreitet man den KI-Unsinn.

    Für die Gründe der KI-Hype Welle müssen sie die Politiker fragen, denn die sind dafür verantwortlich, dass jeden Tag Unsinn über künstliche Intelligenz in den Medien erscheint.
    Wahrscheinlich fürchten sie, dass die Roboter mit meiner Gehirnsimulation bald alle Idioten in der Politik ersetzen werden (was auch nicht ganz unmöglich ist).

  10. @ Stephan Schleim 10. Mai 2018 11:25

    Zitat: „Wie soll das funktionieren: Algorithmen, um Algorithmen zu verstehen?“

    Auf diese scheinbare „Unmöglichkeit“ möchte ich weiter unten eingehen.

    Im einfachsten Fall führt der „Prüfalgorithmus“ ein detailliertes zeitabhängiges Protokoll aller im System laufenden Prozesse mit allen Input/Outputdaten. Dieses gespeicherte Protokoll kann mit entsprechend passender komfortabler Software analysiert werden. Besonders fremde Software und Algorithmen können mit den Methoden des „Reengineering“ analysiert und allenfalls angepasst werden. Diese Softwareentwicklung ist sehr teuer und lohnt nicht immer.
    Diese einen Algorithmus „verstehende“ Software bereitet eine zu analysierende Software so auf, dass der Nutzer Erkenntnisse gewinnt und Zusammenhänge versteht. Im gewissen Sinne “versteht” z.B. ein Compiler einen in einer Programmiersprache formulierten Algorithmus ausreichend.

    Ich kenne den letzten Unfall eines autonomen Autos, bei dem eine Frau die bei Dunkelheit die Fahrbahn überqueren wollte und getötet wurde, nicht im Detail.

    Es wurde aber bekannt, dass eine Fehlinterpretation der Bildinformation (wie auch bei einem früheren Unfall) Ursache war, dass das Auto nicht sofort stehen blieb.
    Die dunkel gekleidete Frau trug angeblich eine helle Tragtasche, aber sie selbst wurde wegen der Dunkelheit (schlechter Kontrast – schlechte Mustererkennung) nicht erkannt. Das System interpretierte die Tragtasche als frei herumfliegenden Nylonsack, wobei eine Notbremsung (wegen potentieller Gefährdung Nachkommender) nicht gerechtfertigt war.

    Anders als in der philosophischen „Denke“, kann in der Informatik Information (Geistiges) mittels „interpretierender“ Prozesse mit „Materie wechselwirken“.

    Aus diesen Gründen strukturiert die Informatik in Prozessor – Prozess – Information um systematisch die Möglichkeiten einer „Wechselbeziehung“ zwischen den 3 „Komponenten“ nutzen zu können.

    In diesem Sinne kann auch ein Algorithmus einen anderen Algorithmus analysieren, allenfalls auf ihn einwirken.
    Z.B. formuliert ein Programmierer mittels einer Programmiersprache einen Programmtext auf seinem Computer und tippt ihn in ein besonderes Textprogramm (Programmeditor). Dieser „Quellcode“ kann von einem anderen Computerprogramm (Compiler) so „übersetzt“ werden dass ein auf jedem „passenden“ Computer lauffähiges Programm entsteht.

    Heutzutage ist die Tätigkeit eines Programmierers etwas anders. Meistens wählt er aus einer umfangreichen Programmbibliothek passende „Programmteile“ aus und führt sie zu einem neuen „Anwender bezogenen“ Programm zusammen.

  11. Zitat: Bei klaren Algorithmen und deterministischen Computern sollte man erwarten, dass ein Programm bei gleichen Eingaben immer zum selben Ergebnis führt. So ist es und es gilt sogar: Ein gegebenes Programm kommt bei gleichen Eingabedaten zum gleichen Ergebnis – und das gilt auch für ein KI-Programm. Der nachfolgende Satz ist deshalb falsch (Zitat): Dass das häufig nicht der Fall war, erklärten Forscher mit der unvollständigen Veröffentlichung wichtiger Informationen und der Abhängigkeit der Software von Trainingsdaten.
    Wahrscheinlich aber meint dieser Abschnitt etwas anderes, nämlich folgendes: Das Verhalten eines Programms, das mit maschinellem Lernen arbeitet, hängt sowohl von den Trainingsdaten als auch von den aktuellen Daten ab und es kann zudem bei nur geringfügig unerwarteten oder “gefälschten” aktuellen Eingabedaten plötzlich komplett versagen. So genügt es beispielsweise bei Programmen, die in photografischen Bildern Objekte erkennen, ein paar Bildpunkte gezielt zu verändern und das Programm erkennt beispielsweise plötzlich einen Dinosaurier wo es vorher ein Kamel meldete, obwohl es für einen Menschen keinen sichtbaren Unterschied zwischem dem Originalbild und dem “Gefälschten” gibt.
    Und klar ist der Witz am Maschinenlernen ja gerade, dass die Maschine anhand von Trainingsdaten etwa lernt Objekte zu erkennen unb zu benennen und nicht indem man die Maschine programmiert. Es muss einen deshalb auch nicht verwundern, dass der Vorgang, der zum Erkennen führt, nicht ohne weiteres nachvollziehbar ist. Schliesslich ist es das beim Menschen auch nicht oder mindestens nicht immer der Fall. Zwar kann ein Mensch durchaus Gründe angeben, warum er ein Kamel und nicht einen Dinosaurier sieht, doch nicht selten sind die Auskünfte nicht sonderlich befriedigend – selbst wenn die Wiedererkennungsrate sehr hoch ist.

    Im übrigen gibt es bei den Fehlern des maschinellen Lernens durchaus Ähnlichkeiten mit Softwarefehlern auch von programmierter Software. Programmierte Software verhält sich eben auch nicht immer richtig und hin und wieder völlig falsch. Hier jedoch, weil Programmierer eben hin und wieder Fehler machen und einige dieser Fehler auch noch in der produktiven Version der Software stecken. Allerdings lassen sich solche Programmierfehler nachträglich meist flicken, während es beim maschinellen Lernen viel schwieriger wird und die Lösung häufig darin besteht, das Set der Testdaten zu verbessern. Ein gutes Beispiel für die Wichtigkeit der Qualität der Testdaten ist die Übersetzungs-Software DeepL, welche mit den genau gleichen (oder ähnlichen) Algorithmen wie Google translate und andere Übersetzer arbeitet, aber welche als Trainingsdatensätze nicht Textübersetzugen aus dem Internet verwendete, sondern Textübersetzungen von speziell für diese Aufgabe angeheuerten Dolmetschern.

  12. @ Dr. Zdenek Moravcik 10. Mai 2018 13:11

    Sicherlich ist man neugierig und möchte besser wissen wie das Gehirn funktioniert, aber nachbauen wird man es nicht wollen, es ist einfach zu autonom, viel zu launenhaft. Womöglich gründen Roboter auf funktioneller Basis des menschlichen Gehirns auch noch eine eigene Gewerkschaft, wollen sich womöglich selbst verwirklichen, ganz ohne Menschen? Nicht auszudenken.

    Anders die KI. Deren Systeme sind längst im „Anmarsch“ und vor allem, mit ihnen kann man Geld verdienen. Sie sind die wahren Sklaven, derzeit garantiert nicht empfindungsfähig und beliebig beherrschbar.

    Dass die Medien auf der KI Welle schwimmen, mit dem Traum vom süßen Nichtstun in der Zukunft ihren Umsatz steigern wollen, kann man ihnen nicht verübeln.

  13. “Die glücklichen Sklaven sind die erbittertsten Feinde der Freiheit.” Marie von Ebner-Eschenbach

    Die glücklichen Sklaven der Systemrationalität in “Wer soll das bezahlen?” und “Arbeit macht frei” 😎

    So erschufen sie nun eine KI und lebten glücklich mit ihrem Profit, bis … 😂

  14. @Holzherr: Replizierbarkeit

    Ihr Beitrag ist eine Ausformulierung mit anschaulichen Beispielen, doch kein Widerspruch zu meiner Formulierung.

    Wenn Algorithmus und/oder Daten unvollständig veröffentlicht sind oder wenn andere Trainingsdaten verwendet werden, dann kann das eben erklären, warum das im Prinzip gleiche Programm (also mit demselben Algorithmus) zu anderen Ergebnissen kommen kann.

  15. @Elektroniker

    Sie schwimmen auf der KI Welle / surfen den Zeitgeist und träumen vom Gipfel der Ignoranz, so dass einem allein vom Zuschauen übel wird!

  16. @ Schleim
    Interessant. “Handelt” die Evolution nicht genau so: trial and error? Da wir Teil davon sind, handeln wir halt genauso.

  17. @ hto 10. Mai 2018 17:39

    Zitat: „Sie schwimmen auf der KI Welle / surfen den Zeitgeist …“

    So ist es bei mir, allerdings seit rund 50 Jahren. Kann beobachten wie Träume die man ehemals nicht einmal so richtig zu denken wagte, immer stärker Realität werden.

    Ich bin zwar aus psychologischen Gründen leicht skeptisch, aber vielleicht kann durch Einsatz von Hochtechnologie und KI, die Ausbeutung des Menschen so gut wie beseitigt und die Gleichheit der Menschen (auf möglichst hohem Niveau) gefördert werden.
    Kapitalisten „halten“ sich Menschen nicht mehr zur Ausbeutung, sondern als Konsumenten um den Wirtschaftskreislauf in Schwung zu halten, ausgebeutet werden die Maschinen.
    Eine „Selbstverwirklichung“ der Menschen, gute solidarische Löhne bei geringem Arbeitsaufwand werden, erstmals in der Geschichte, denkmöglich.

    Fragt sich nur, ob man die Chancen nutzen kann und der Mensch aus psychologischen Gründen überhaupt dazu fähig wäre, eine von Ausbeutung weitgehend freie Wohlstandssituation zu ertragen.

  18. @ Dietmar Hilsebein 10. Mai 2018 19:53

    “Trial and error” kann sozusagen „Methode“ haben.

    Beispiel:

    1.) Primitiver „blindwütiger“ trial and error.

    2.) Systematischer trial and error. Grundsätzlich „vorgegebener Rahmen“. (Vermutlich bei der Evolution: DNA „Zufallsgenerator“)

    3.) Intelligent gesteuerter, „optimaler“ trial and error.

  19. @Elektroniker

    1.) habe in erster Linie auf die angesprochenen Medien und deren KM gezielt.

    2.) wenn die Automatisierung und die kapitalistische Ignoranz so fortschreitet, also auch die atomgestützten Machtinterressen kontrollieren und somit überleben kann, dann werden die diversen menschenverachtenden Szenarien der Science Fiction sicher “normale” Realität, man bedenke die immer wieder hochkochende Propaganda von Überbevölkerung (diese ist nur mit diesem System desZusammenlebensnicht zu ernähren)!

  20. @Schleim

    Es geht ja nicht darum, dass unterschiedliche Algorithmen zu unterschiedlichen Ergebnissen kommen können… sondern dass das beim selben Algorithmus mit denselben Eingabedaten nicht der Fall sein sollte, wenn der Computer deterministisch funktioniert.

    Ich glaube nicht, dass es direkt darum geht, dass der Algorithmus nicht deterministisch ist. Es geht darum, dass die Software einerseits teilweise zufällig entsteht (Lernen durch zufällige Trainingssätze), und das Ergebnis für den Menschen/Softwareentwickler schwer fassbar ist. Letzteres ist wohl das große Problem. Man kann in das Resultat, also die fertig gelernte KI, eine viel zu große Menge an Daten reinstecken (Sensordaten eines Autos zum Beispiel) als dass man für all diese Eingaben eine deterministische Aussage im Sinne von KI reagiert gut oder schlecht vorab treffen könnte. Man würde aber bei gleichen Eingaben immer die gleichen Ausgaben erhalten, solange der Algorithmus fix ist (also fertig ist mit Lernen) – der Computer reagiert also schon noch deterministisch. Durch den stochastischen Ansatz bleibt einem aber zur Auswertung gar nichts anderes übrig als viel zu testen. Versuch und Irrtum eben, das ist korrekt.

    Wenn man den Algorithmus aber im Betrieb weiterlernen lassen möchte, dann hat man wirklich sehr große Probleme, denn dann könnte es sein, dass der Algorithmus zum Beispiel spontan lernt, einem Kind auf der Straße auszuweichen, aber dabei vergisst, wie man an einer roten Ampel hält. Das wäre dann zwar streng genommen immer noch deterministisch, denn der Algorithmus würde mit dem gleichen Ausgangspunkt immer wieder lernen, dem Kind auszuweichen, und vergessen, an der Ampel anzuhalten, aber in der Praxis hätte man immer unterschiedliche Lernsätze.

    Ein mehr theoretischer Ansatz wäre hier die Formalisierung des Problems. Dann könnte man sogar beweisen, dass der Algorithmus korrekt funktioniert (Terminiertheit wird schwieriger). Die KI-Methoden kommen ja aber eben genau da zum Einsatz, wo sich das Formalisieren als überaus schwierig gestaltet. Wie will man denn zum Beispiel Straßenverkehr vernünftig formalisieren?

    Und noch was allgemeines zum Thema. Die erste Frage, die mein Prof. damals in der ersten Stunde zum Thema Softwareentwicklung stellte, war: Wann ist eine Software groß? Antwort: Wenn sie nicht mehr in einen Kopf passt. Und große Software gibt es sehr viel. Und das Human Brain Projekt wird sehr, sehr, sehr groß. Ist es nicht verblüffend, dass unser Gehirn dann nicht in unseren Kopf passen wird? 🙂

  21. PS:
    Vielleicht sollte man noch mal klar stellen, dass es eigentlich um zwei Algorithmen geht. Das eine ist der “Lern”-Algorithmus, dem man Trainigssätze geben kann, und durch ihn entsteht der “Lösungs”-Algorithmus, der dann das eigentliche Problem lösen soll (zum Beispiel Auto fahren). Je nachdem wie man den “Lern”-Algorithmus füttert, entsteht immer ein anderer “Lösungs”-Algorithmus. Aber sowohl der Lern-Algorithmus ist deterministisch, denn für jeden Trainingssatz wird immer der gleiche “Lösungs”-Algorithmus erzeugt, und auch jeder einzelne Lösungs-Algorithmus ist deterministisch, denn er wird immer die gleiche Lösung zu einem fixen Problem liefern.

    Das Problem der Reproduzierbarkeit hat so zumindest nichts direkt mit strenger Determiniertheit zu tun.

  22. Hallo Herr Schleim,

    Sie schreiben:
    „Viele Forscher auf diesem Gebiet tappten im Dunkeln und wüssten eigentlich nicht, was sie täten.
    Das System, das man untersucht, ist zu komplex, um es direkt und in seiner Gänze zu erforschen.
    Wenn man den Alchemie-Vorwurf betrachtet, dann scheinen diese Theorien mehr Fragen aufzuwerfen, als sie Antworten geben.
    Letztlich verlieren … auch reduktionistische Argumente an Überzeugungskraft: Die Idee, das ganze Universum oder wenigstens den Menschen mit einer grundlegenden Formel zu erklären, rückt in weite Ferne, wenn die Arbeitsweise maßgeblicher Forschungsmethoden selbst nicht mehr verstanden wird.“

    Ich habe den dem obigen Text, der original von Ihnen stammt, nur ein Wort verändert: das Wort “Algorithmen” gegen das Wort “Theorien” ersetzt. Wofür steht der Text jetzt ?

    Für die moderne Physik.

    Wie in der IT steht in der Physik das Ergebnis im Vordergrund: wie finde ich den Mechanismus, der mir mein Meßergebnis am optimalsten erklärt. Eine pragmatische instrumentalistische Arbeitsweise. Die Ontologie spielt keine Rolle. Was Quantenfelder wesenhaft sind, oder virtuelle Teilchen aus dem angeregten Vauumfeld, weiß keiner. Ist auch nicht so wichtig – „spielt keine Rolle“ wie Herr Päs in seinem letzten Beitrag freimütig zugibt.

    Lieber Herr Schleim, in der exakten Wissenschaft weiß auch keiner was er tut.
    Auch wer jetzt spontan widersprechen möchte: die Systeme sind zu komplex, um sie direkt und in ihrer Gänze zu erforschen, und die Theorien werfen mehr Fragen auf als sie Antworten geben, und reduktionistische Argumente verlieren an Überzeugungskraft, weil die Methoden immer weniger verstanden werden, man denke nur an die „experimentelle Mathematik“ der String-Theorien.

    Ja ist das so schlimm, wenn das überall so ist, auch in der Physik ? Nein, wenn man sich darüber im Klaren ist. Dazu leistet Ihr Text einen super Beitrag ! Denn den wenigsten ist bewußt, daß die Physik – was die Ontologie dieser Welt betrifft – genauso im Dunkeln tappt und im Experiment keiner weiß, was da eigentlich abgeht. Aber es funktioniert, und das ist Rechtfertigung genug, um weiterzumachen. Wie bei dem Neandertaler, der den Hebel erfunden hat, aber vom Hebelgesetz keine Ahnung hatte. Und genauso wie dieser, irrlichtert die Wissenschaft seitdem vorwärts und erhascht hier und da eine kleine Erkenntnis über den Grund von allem, die vielleicht Bestand hat, wahrscheinlich aber nicht.

    Grüße Fossilium

  23. @foobar: Reproduzierbarkeit

    Danke für die interessanten Ausführungen.

    Den Punkt mit der Determiniertheit habe ich ja eher als Aufhänger aufgegriffen: Man würde eben nicht erwarten, dass die Ergebnisse von Algorithmen nicht reproduzierbar sind.

    Bei Experimenten (sei es mit Dingen, Tieren oder Menschen) kann man ja immer vermuten, dass die Randbedingungen anders waren oder die untersuchten Objekte/Subjekte anders waren als vorher.

    Insofern überrascht der Vorwurf gegen die KI-Algorithmen schon etwas. Es liegt wohl vor allem an einer schlampigen Veröffentlichungspraxis.

  24. @Fossilium: Physik

    Danke für Ihre Ergänzung. Ich kann hier mangels Kenntnis nicht für mich beanspruchen, für die Physik zu sprechen. Da gibt es andere Blogger.

    Aber erst einmal fällt mir auf, dass man dort Theoretische und Experimentalphysik voneinander unterscheidet. Und dass es in letzterer eher um das Ergebnis geht als um das Verständnis, daß wundert mich nicht. Es würde mich nicht wundern, wenn so mancher theoretische Physiker den Experimentalisten bisweilen “Unwissenschaftlichkeit” vorwürfe, eben gerade deshalb, weil man eher nach dem Prinzip von Versuch und Irrtum vorgeht.

    Wie dem auch sei: Ihr Punkt ist bedenkenswert und ich wollte demnächst sowieso ein Beispiel aus der Physikochemie diskutieren… aber ein theoretisches Verständnis scheint mir doch ein wichtiges Ziel wissenschaftlicher Forschung zu sein, nicht nur schicke Anwendungen.

  25. Insofern überrascht der Vorwurf gegen die KI-Algorithmen schon etwas. Es liegt wohl vor allem an einer schlampigen Veröffentlichungspraxis.

    Ich würde das nicht unbedingt schlampig nennen. Das Problem ist wirklich die große Komplexität. Versuch und Irrtum als Methode kann da durchaus etwas helfen (auch wenn es in der Informatik eher überrascht). Vielleicht hat man sich jetzt auch etwas verrannt, so dass zu viele Experimentatoren und zu wenige Theoretiker unterwegs sind. Und wenn ich sage, dass die Experimente eine höhere Aufmerksamkeit erzielen, da sie sich in der Öffentlichkeit besser verkaufen lassen, und dass man da vielleicht mal gegensteuern sollte, rede ich Ihnen vermutlich nach dem Mund.

    Auf Ihren nächsten Artikel zur Physikochemie bin ich schon gespannt.

  26. @Fossilium

    “Ja ist das so schlimm, wenn das überall so ist, auch in der Physik?”

    Man sollte sich aber darüber im Klaren sein, dass der Neandertaler noch nicht mit einer systematischen Arroganz die spalterischen Mechanismen seines Tuns bewusst ignorieren konnte.

    Spätestens seit der Atombombe, sollte Wissenschaft konsequent nur dann fortschreiten, wenn gleichzeitig ein kompromissloses fusionierendes Verantwortungsbewusstsein für eine wettbewerbslose / nicht imperialistische Menschheit miteinhergeht.

    NICHTS gehört dem / irgendeinem “Einzelnen” wirklich-wahrhaftig allein, SOGAR DIE GEDANKEN NICHT, weil wir alle immer im SELBEN Maße “durchströmt” vom Geist der “Gott” ist / der Schöpfung / des Zentralbewusstseins und der Gemeinschaft geprägt wachsen!

    Tatsächlich ist der so bis zur KI entwickelte Materialismus nur ein Selbstmordinstrument, was aus der Überproduktion von “individualbewusstem” Kommunikationsmüll entspringt, mit dem das Hohelied der Sinnhaftigkeit von zufälliger Einmaligkeit gespielt wird.

  27. PS zum Überraschungseffekt:

    Es gab zwar früher einen Pflichtanteil Theorie im Grundstudium für Informatik und eingeschränkt auch im Hauptstudium (keine Ahnung, wie es aktuell aussieht), aber die meisten Studenten haben sich da nur versucht, durchzuschleppen. Während woanders die Hörsäle gefüllt wurden, kam es in der theoretischen Informatik desöfteren zu Kursen, wo man zu fünft in einem kleinen Zimmer hockte.

    Da unterscheidet sich die Informatik vermutlich nicht groß von anderen Studienfächern. Wie war es denn in der Philosphie?

  28. Beim Verständnis von Methoden und Algorithmen des maschinellen Lernens und aktuell des deep Learnings (hierarchische neuronale Netze) geht es letztlich darum, die Mathematik dahinter zur verstehen. Tatsächlich sind ja die Deep Learning – Methoden nicht einer Theorie, einer mathematischen Idee, entsprungen, sondern einer Anleihe bei der Biologie, weshalb man ja von neuronalen Netzen entspricht. Diese neuronalen Netze haben entfernt Ähnlichkeiten mit Netzwerken von Hirnzellen (Neuronen). Sie verteilen die Informationsverarbeitung auf ein Netzwerk von Neuronen, die ihre Inputs verarbeiten, indem sie bei Überschreiten eines Aktivierungsschwellwerts, ein Signal an andere Neuronen weiter oben weitergeben. Warum dies bei Klassifizierungsaufgaben (Zuordnung eines Objekts zu einer Klasse) überhaupt so gut funktioniert wie es funktioniert, das weiss man heute immer noch nicht genau. Eines der vielen Papiere, die sich mit dem mathematischen Verständnis neuronaler Netzwerke befassen ist Mathematics of Deep Learning In diesem Papier werden Beziehungen zwischen den Methoden des Deep Learning und partiellen Differentialgleichungen für Optimierungsprobleme hergestellt. Es gibt übrigens auch Beziehungen zwischen Deep Learning und der in der theoretischen Physik wichtigen Renormalisierung. Dazu liest man in Deep learning and the renormalization group (übersetzt von DeepL): Methoden der Renormierungsgruppe (RG), die die Art und Weise modellieren, in der das effektive Verhalten eines Systems von der Größe abhängt, in der es realisiert ist, sind der Schlüssel zur modernen Theorie der kondensierten Materie und der Teilchenphysik. Wir vergleichen die Ideen hinter dem RG einerseits und dem tiefen maschinellen Lernen andererseits, wobei Tiefe und Umfang eine ähnliche Rolle spielen. Um diesen Zusammenhang zu verdeutlichen, überprüfen wir eine neuere numerische Methode basierend auf dem RG – der Multiskalenverschränkung renormalization ansatz (MERA) – und zeigen, wie sie in einen Lernalgorithmus umgewandelt werden kann, der auf einem generativen hierarchischen Bayes’schen Netzwerkmodell basiert. Unter der in der Physik üblichen Annahme, dass die zu erlernende Verteilung vollständig durch lokale Korrelationen charakterisiert ist, beinhaltet dieser Algorithmus nur eine explizite Auswertung von Wahrscheinlichkeiten und damit der Wegfall der Probenahme.

    Methoden der theoretischen Physik für komplexe Vielteilchensysteme wie die Renormalisierung haben also Beziehungen zum Deep Learning, das Deep Learning mittels neuronaler Netze ist aber nicht aus der Physik, sondern aus einer Anleihe bei der Biologie entsprungen. Letztlich gilt wohl sogar: Dass biologische Gehirne so mächtig geworden sind wie sie es bei höheren Tieren und insbesondere beim Menschen sind, ist nicht einer Theorie sondern ist evolutionären Entwicklungen und Zufällen zu verdanken. Doch sowohl Theorien komplexer Systeme wie sie in der Physik entwickelt wurden als auch die Informationsverarbeitung von Gehirnen und künstlichen neuronalen Netzen scheinen auf etwas Gemeinsames zu konvergieren.
    Das ist wohl auch der Grund, dass der Mensch die Welt überhaupt verstehen kann. Einstein fand ja das das Erstaunlichste was es gibt: Der Mensch scheint das Universum verstehen zu können.

  29. Hier noch das Einstein-Zitat: Das Unverständlichste am Universum ist im Grunde, daß wir es verstehen können.

  30. “… scheinen auf etwas Gemeinsames zu konvergieren.”

    – bestenfalls auf die Erkenntnis des geistigen Stillstandes seit der “Vertreibung aus dem Paradies” (unser erster und bisher einzige geistige Evolutionssprung), um dann endlich als Mensch (alle) unser wahres Potential vom Ursprung bis … zu nutzen, in einem System OHNE wettbewerbsbedingte …!? 😎

  31. @ Martin Holzherr 11. Mai 2018 12:21

    Zitat: „ Warum dies bei Klassifizierungsaufgaben (Zuordnung eines Objekts zu einer Klasse) überhaupt so gut funktioniert wie es funktioniert, das weiss man heute immer noch nicht genau.“

    Ich vermute, dies hängt mit dem Prinzip der Synapsenbildung zusammen das Eric Kandel als wesentlich für die Gedächtnisbildung formuliert hat.

    Synapsen bilden sich hauptsächlich dann, bzw. es werden bestehende synaptische Netzwerke verstärkt, je mehr und öfter die betreffenden Synapsen mit den angrenzenden Neuronen aktiviert werden. Diese Prinzip wurde z.B. bei Geigenspielern (Fingerfertigkeit) bewiesen.

    Dies scheint bei Objekten die der gleichen Klasse angehören offensichtlich stärker der Fall.
    Der Begriff “Klasse” bedeutet „besondere Gemeinsamkeiten“.

    Anschaulich: Es dürfte wesentlich häufiger sein z.B. über so etwas wie „gemeinsame Aktivitäten“ einer „Klasse“ mehrerer 10 Jähriger Schüler zu sprechen (dabei selektiv Neuronenverbände zu aktivieren und synaptische Verknüpfungen zu „stärken“), als über eine nicht existierende „Klasse“ (Menge) bestehend aus einen 1 Jährigen, einen 13 Jährigen, einen 46 Jährigen und einen 90 Jährigen.

  32. @ Herr Dr. Schleim hierzu :

    Es geht ja nicht darum, dass unterschiedliche Algorithmen zu unterschiedlichen Ergebnissen kommen können… sondern dass das beim selben Algorithmus mit denselben Eingabedaten nicht der Fall sein sollte, wenn der Computer deterministisch funktioniert.

    Stellen Sie sich unterschiedliche Algorithmen vor, die an ein und demselben Problem arbeiten bzw. rechnen, diesen ist ein Entscheider-Algorithmus übergeordnet, der bedarfsweise entscheidet, auch weil er seine Pappenheimer sozusagen kennt, ihre Stärken und Schwächen, basierend auf seiner Erfahrung oder Historie, die irgendwie mit Belohnungspunkten gewichtet wird, die er, also dieser Entscheider-Algorithmus einstmals zugewiesen hat, auch weil er (fortlaufend) Feedback über den Erfolg der Gesamt-Algorithmik erhält,
    dann wird es so sein, dass dieser Entscheider-Algorithmus einmal eine spezielle Präferenz ausspricht, vielleicht eine besondere Entscheidung selbst entwickelte, und wenige Sekunden später sozusagen, bei erneuter Abfrage wiederum eine andere ausspricht.


    Ansonsten könnte dieser Entscheider-Algorithmus auch die “Schnittstelle Physik” nutzen, um sozusagen echten Zufall zur Hand zu haben, und dann auf dieser Basis sozusagen nach gusto vorschlagen.
    Auch so etwas macht spieltheoretisch oft Sinn, Anwendungen können sich gedacht werden, allgemein : Kooperationsverhältnisse meinend, aus Sicht der SW-Entwickler diese unterstützend, der Zufall ist sozusagen ein Tool für Kooperationsverhältnisse, vergleiche bspw. mit diesem (sinnhaften) Jokus :

    -> https://de.wikipedia.org/wiki/Madman-Theory


    Jeder Kaufmann weiß, dass der “Mad Man” funktioniert, Kooperationsverhältnisse meinend, der “Mad Man”, IT-unterstützt, auch i.p. Bluff und so, vergleiche mit dem Pokerspiel, wäre dann ein besserer “Mad Man”, als der rein “bauchgestützte” des Kaufmanns.


    Insofern, ja, “neue Alchemie” klingt hier nicht schlecht.

    MFG + schönes WE schon einmal!
    Dr. Webbaer

  33. @ Kommentatorenfreund ‘Elektroniker’ :

    Aber im nächsten Augenblick werden sich Informatiker bemühen, ihren „selbstständigen“ Algorithmen „auf die Finger zu sehen“, zu erkennen was die Algorithmen sozusagen „tatsächlich tun“, warum die Algorithmen zu bestimmten Ergebnissen kommen. Dazu sind natürlich neue und planmäßig erdachte Algorithmen nötig.

    Damit steht die KI wieder fest am Boden der Wissenschaft.

    Nö.

    Stellen Sie sich ein Rudel von fachspezifischen Algorithmen vor, die an einem Problem arbeiten bzw. rechnen, und eine übergeordnete Entscheider-Funktionalität, einen Entscheider-Algorithmus, der bei fortlaufender Weiter-Rechnung seiner Kinder sozusagen, bei Aufruf zu entscheiden hat und entscheidet, im schlimmsten Fall sozusagen über die “Schnittstelle Physik” “echten Zufall” kennt, dann ist da nichts mehr herauszulesen aus “Papis”, aus seiner Entscheidung, das menschen-lesbar verständig wäre,
    egal, wie sein “Human-Modul” für Erklärungszwecke angelegt ist.

    Dies ginge wegen der Komplexität nicht, die sich so aggregiert hat, und erst recht nicht, wenn er als Gute-Laune-Bär sozusagen die “Schnittstelle Physik” nutzen würde; es besteht ja der sozusagen schlimme Verdacht, dass der Zufall bei der Bearbeitung von natürlichen oder realen Problemen dieser Welt helfen könnte.


    Blöd halt, dass dieser Entscheider-Algorithmus dann sozusagen recht hätte, den Erfolg seiner vorgeschlagenen Entscheidungen betreffend, kleiner Trost vielleicht :
    Optimale Lösungen wird er nicht bereit stellen, auch spätere Generationen seiner selbst nicht.

    MFG + schönes WE,
    Dr. Webbaer (Der Alchemist sozusagen, hüstel, der zuviel SciFi gelesen hat, vermutlich)

  34. @foobar: Studium

    Ich hatte Informatik im Nebenfach und machte die Erfahrung, dass vor allem die praktischen Fächer (sprich: programmieren) beliebt waren. Nur dafür braucht man freilich keine Uni. Aber man kann sich auch vorstellen, dass der Zustrom über den damals neuen Bachelorstudiengang die exotischen “wissenschaftlichen” Fächer quersubventionierte.

    In Philosophie war das unvorhersehbar, weil es jedes Semester ein neues Curriculum gab, eben frei nach Interessen der Lehrstühle, plus ein paar Grundlagenfächer.

    Da wir viele Studierende für das Lehramt hatten, waren vor allem die Veranstaltungen des Ethik-Lehrstuhls beliebt und über die stärkte Theologie auch die für mittelalterliche Philosophie.

    Bei ersterem fand ich den Prof nicht so qualifiziert, bei letztere reizte mich das Thema nicht so. Daher blieb ich größtenteils von Massenveranstaltungen verschont. Heute halte ich dann Vorlesungen voor hunderten Studierenden.

  35. Das Problem der Reproduzierbarkeit hat so zumindest nichts direkt mit strenger Determiniertheit zu tun.

    Die Reproduzierbarkeit von Ergebnissen ist eine Sache, das Re-Engineering eines Systems eine andere.

    Kleiner Gag am Rande hierzu :

    Daher blieb ich größtenteils von Massenveranstaltungen verschont. Heute halte ich dann Vorlesungen voor [Hervorhebung : Dr. Webbaer] hunderten Studierenden.

    Das Fachwort hier ‘Argumentum ad populum’, zudem setzt es hier ein “Wayne interessiert’s“, ansonsten natürlich schöne, konsistente Überlegung im dankenswerterweise bereit gestellten WebLog-Artikel.

    MFG + schönes Wochenende!
    Dr. Webbaer

  36. Heute halte ich dann Vorlesungen vor hunderten Studierenden

    Ich vermute, du meinst deine Kurse zu Theoretischer Psychologie.
    Pflicht? Wahlpflicht? Oder freie Wahl? Das macht natürlich einen Unterschied. 🙂

  37. @foobar: Lehre

    Sowohl als auch. Die Wissenschaftstheorievorlesung ist Pflicht im zweiten Jahr. Das Modul für Philosophie der Psychologie, ein Wahlpflichtfach, erfreut sich aber auch großer Popularität… Leider so groß, dass ich dort auch wieder auf Multiple-Choice-Klausuren umsteigen muss. Einen Bonus für Freidenker wird es aber weiterhin geben.

  38. Dr. Webbaer,
    ohne ein konkretes Beispiel hängt die Diskussion in der Luft.
    Ich wette, dass bei 10 Diskussionsteilnehmern 10 verschiedene Vorstellungen/Meinungen bestehen, was ein Algoritmus ist. Dieser Begriff ist so allgemein, dass er zu der Berechnung von Pi genauso passt wie die Wahrscheinlichkeit beim Poker ein full house zu haben.
    Dass es Algoritmen gibt, die die Ausfallwahrscheinlichkeit von Krediten berechen, dann wieder welche die Alarm geben, wenn ein Herzinfarkt droht.

    Die Vorläufer dieser Alg0ritmen waren das programmierte Lernen, dass den Zweck hatte, Lernen effektiver zu machen. Es hat sich nicht bewährt.
    Vorläufer waren die Fragebögen beim Arbeitsamt. Wenn der Schulabgänger 30 Fragen beantwortet hatte, warf der computer den geigneten Beruf aus. Das hat sich auch nicht bewährt. Wenn nämlich die Frage lautete: arbeiten sie gerne im Freien und hatten bei den Rechenaufgaben ein schlechtes Ergebnis, dann kannte man sicher sein, dass der Computer “Gärtner” als geigneten Beruf vorschlug. Usw.
    Mit einiger Erfahrung werden die Algoritmen durchsichtig. Und dann ist der Mensch dem algoritmus überlegen.

  39. @ hmann

    Und dann ist der Mensch dem algoritmus überlegen.

    Nicht jedoch: jeder Mensch jedem Algorhythmus.

  40. Vorwurf, KI funktioniere wie mittelalterliche Alchemie

    .
    Alchemie, das mag die richtige Metapher dafür sein, wenn es um die Entscheidung geht, wie die neuronalen Netze zusammengebastelt werden, wie viele Schichten man nimmt und wie man diese verknüpft.

    Man wisse eigentlich nicht, was man tue, sondern drehe hier und da an ein paar Schrauben, bis ein Algorithmus das gewünschte Ergebnis erziele.

    .
    Das klingt mir allerdings weniger nach Alchemie, also physikalischen Gemengen und Stofflichem, hier sehe ich eher Analogien zu angewandter Psychologie und Psychiatrie.

    Es wird nicht lange dauern, dann wird man auch für (jede) KI elaborierte Lerntheorien ausgearbeitet haben, mit diffizilen Belohnungs- und Strafmaßnahmen, die schnell zu gewünschtem Verhalten führen.

  41. @ hmann 12. Mai 2018 11:39

    Darüber was Algorithmen in der Informatik sind, ist sich die Fachwelt einig.

    Probleme gibt es jedoch in der Beurteilung der „wissenschaftlichen Seriosität“ der jeweiligen Algorithmen.

    Für manche gelten Algorithmen die statistische Funktionen, oder ganz schlimm, womöglich sogar auch noch „Zufallsfunktionen“ enthalten, als „nicht seriös“, als „Alchemie“ sozusagen.
    Angeblich hat der Alchemist Berthold Schwarz zwar zufällig das Schießpulver erfunden, es wurden damals aber auch unglaublich verrückte, sinnlose schädliche Experimente durchgeführt.

    Bei den „unseriösen“ Algorithmen ist das Problem, dass einzelne Rechenergebnisse die auf statistischer oder Zufallsbasis beruhen keine Aussagekraft haben. Erst wenn man entweder eine große Zahl von Ergebnissen hat, oder eine Wahrscheinlichkeitsaussage über ein Rechenergebnis, kann man vage Schlüsse ziehen.

    Dies ist ein großes Problem in der KI, weil die zugrunde liegenden neuronalen Netze (nach Lernprozessen) grundsätzlich Wahrscheinlichkeiten bewerten, wie z.B. das Auftreten bestimmter Muster (aus Bildpixel) einer bestimmten Person zuzuordnen ist.

    Auch die „Denkprozesse“ der Menschen beruhen in diesem Sinne auf „Zufälligkeiten“, worauf die Launenhaftigkeit des Menschen beruht, warum z.B. 3 Verfassungsrechtler 4 Rechtsmeinungen haben können … .

    Wenn man in diesem Sinne „weiter bohrt“, ist das wie ein Stich in ein „wissenschaftliches Wespennest“.
    Eine „banale“ Kausalität und Determiniertheit wie man es sich wünschen würde, dürfte es wegen der extremen Komplexität und Dynamik vieler in der Natur existierenden Systeme und Prozesse gar nicht geben. Z.B. lassen sich heutzutage, hauptsächlich in der Biologie (z.B. wegen winziger „Unterschiede“ in den hochdynamischen und komplexen Systemen), Forschungsexperimente nur noch schwer oder überhaupt nicht mehr von anderen Forschern reproduzieren, was für die seriöse Wissenschaft ein Fiasko ist.

    Ich bin in diesem Sinne bei Dr. Webbaer „angeeckt“, weil ich auf die übliche Programmentwicklungsmethodik wie sie früher zur Verbesserung (Optimierung) von Algorithmen üblich war und die an sich für Insider ein alter Hut ist, hingewiesen habe.

    Das grundsätzliche „Komplexitätsproblem“, das man versucht mit statistischen Methoden „irgendwie“ zu bewältigen, kann man nicht wirklich lösen.

  42. Elektroniker
    Mit meinem Autorennenalgorithmus habe ich selbst manipuliert. Was niemand wusste, ich habe in das Programm einen Zufallssgenerator implementiert, der dem schwächsten Kind eine Chance gewährte auch Sieger zu werden. Das musste lange abgestimmt werden, dass niemand merkt, dass es hier nicht mit rechten Dingen zu geht, und trotzdem allen Teilnehmer gleiche Chancen garantierte. Deshalb traue keinem Glücksspielautomaten.
    Bei den Algorihtmen, die Chancen berechnen kann man auch nachhelfen.
    Die Mogelei bei den Abgaswerten beweist das ja aufs beste. Wenn man den Quellcode nicht hat, ist ein Nachweis nur sehr schwer.

  43. Zu Elektroniker:
    ….”Die Denkprozesse der Menschen beruhen mehr oder weniger auf Zufälligkeiten…”
    Eine interessante Feststellung. Können Sie das vielleicht näher definieren ?

  44. @ Dr. Webbaer 11. Mai 2018 16:12

    Der KI Forschung wird zuweilen der Vorwurf gemacht, selbst nicht zu wissen was ihre sich selbst modifizierende Algorithmen eigentlich wirklich tun.

    Mittels Monitoring – und Reengineering Software kann man die Tätigkeit auch unbekannter Software analysieren und allenfalls den Algorithmus verändern.

    Es geht zunächst nicht um den System bedingten Einfluss von Zufallsvariablen, die eindeutig determinierte Ergebnisse verhindern.

    Allerdings sind die statistischen Methoden ein großes Problem in der KI, weil die zugrunde liegenden neuronalen Netze (nach Lernprozessen) grundsätzlich Wahrscheinlichkeiten bewerten.

    Auch die „Denkprozesse“ der Menschen beruhen in diesem Sinne auf „Zufälligkeiten“, worauf die „Launenhaftigkeit“ des Menschen beruht. Ein Mensch kann, in der jeweils zumindest scheinbar gleichen Situation, unterschiedlich handeln.

    Statistische Methoden und Zufallsvariable sind in der KI ein unvermeidbares „Übel“.

  45. @ Golzower 12. Mai 2018 17:01

    Zitat: ”Die Denkprozesse der Menschen beruhen mehr oder weniger auf Zufälligkeiten…”
    Eine interessante Feststellung. Können Sie das vielleicht näher definieren ?

    Einen Versuch ist es wert.
    Wenn man davon ausgeht dass Sie einen Elektronik/Informatik nahen Job haben (hatten) und annähernd nachvollziehen können wie elektronische Gatterschaltungen z.B. Maschinen steuern (besser gesagt, früher gesteuert haben) oder wie elektronisch- technische neuronale Netze zu ihren „Entscheidungen“ kommen, wäre es (fast) einfach.

    Biologische neuronale Netzwerke bestehen aus Neuronen (wie UND Gatter, McCulloch), die beim Lernprozess (Eric Kandel) mittels Synapsen (wie Lötpunkte in elektronischen Schaltungen) verknüpft werden.
    Von der Sensorik ausgehende Signale bilden elektrisch „Musterkomponenten“ in so etwas wie einer hierarchische Folge aus Signalverknüpfungen ab. Das Gehirn ist eine Musterverarbeitungsmaschine.
    Je intensiver „gelernt“ wird, umso dichtere diese Muster abbildende „Neuronenverbände“ bilden sich im Gehirn und desto zuverlässiger ist die Erinnerung oder kann z.B. die Fingerfertigkeit eines Geigers gesteuert werden.
    Für die Entstehung des Output müssen ausreichend viele der relevanten Neuronen (z.B. 90%) aktiviert werden um zu einem “korrekten“ Ergebnis (z.B. 1+1 = 2) zu kommen.
    Neuronen benötigen gewisse Schwellwerte der Signale um zu triggern (einen Impuls weiterzugeben). Werden die Schwellwerte aus unterschiedlichen (auch zufälligen oder krankhaften) Gründen (schlecht gelernt – geschlafen, Aufregung, Drogen, Schlaganfall…) nicht erreicht, so gibt es keine korrekten Ergebnisse.

    In technischen neuronalen Netzen werden die „Neuronen“ jeweils durch einen Prozess „simuliert“, die Muster „bewertet“ und eine Art „Scorewert“ errechnet, der das Ergebnis festlegt.

    Anschaulich: Der „böse Wolf“ wurde vom Rotkäppchen für die Großmutter gehalten, weil er sich ins Bett der Großmutter gelegt hat, ihre Schlafmütze übergezogen und Kreide gefressen hat um seine Stimme zu verändern. Die vorgetäuschten falschen „Muster“ haben gereicht um Rotkäppchen zu täuschen.

  46. @Joker: Belohnen und Bestrafen

    Man verwendet bei solchen Lernalgorithmen schon Reinforcement-Verfahren, bei denen Informationen über die Leistung (richtig/falsch) zurückgegeben werden. Dafür hat man die Trainingsphase.

    Belohnen und bestrafen scheint mir doch ein Bewusstsein vorauszusetzen. Das hatten wir beim Behaviorismus in aller Deutlichkeit.

    Interessant ist die Frage, falls man eines Tages bewusste Computer hat, ob man dann auf diese psychologischen Verfahren zurückgreifen muss. Was wäre dann die Strafe? Ein Stromstoß oder gerade das Gegenteil, den Strom für einen Moment abdrehen?

  47. @Joker: Alchemie

    Nun ja, man versuchte zum Beispiel, einen Homunculus, ein kleines Menschlein, zu erzeugen, indem man Erde, Pferdehaar, Urin und so weiter mischte… Frei nach dem Prinzip Versuch und Irrtum. Das ist hier gemeint.

  48. @ Stephan Schleim 13. Mai 2018 09:06

    Zitat: „Man verwendet bei solchen Lernalgorithmen schon Reinforcement-Verfahren, bei denen Informationen über die Leistung (richtig/falsch) zurückgegeben werden. Dafür hat man die Trainingsphase.
    Belohnen und bestrafen scheint mir doch ein Bewusstsein vorauszusetzen.“

    Genau so sehe ich es auch.
    Man legt einfach fest, dass z.B. vom lernenden System ein hoher „Scorewert“ anzustreben und ein niedriger Wert zu vermeiden ist und schon kann das System eine gewünschte Optimierung anstreben. Das dieser „Algorithmus“ natürlich auch seine Grenzen hat, ist klar.

    „Belohnen und bestrafen“ (Lust und Scherz) dürfte ein „empfindendes Bewusstsein“ voraussetzen und war offensichtlich der „Motivator“ für die Entwicklung hauptsächlich der Tierarten und des Menschen.

    Ich meine, man wird versuchen eine Art künstliches „Übersichtsbewusstsein“ für technische System zu entwickeln, aber aus eher praktischen und ethischen Gründen kein „Empfindungsbewusstsein“.

    In Foren habe ich gelegentlich versucht die „nicht empfindende Komponente“ des „Bewusstseins“ als eine Art eines besonderen „Datensammlers“ zu sehen. Diese (ehemals nur lineare) Struktur existiert seit Anbeginn der elektronischen Prozessortechnik (von Neumann Zyklus) und wird dort „Akkumulator“ bezeichnet.

    In biologischen Gehirnen dürften eher flächige (dünne) „Schichten“ (2 dimensionale Datenfelder) als End- (z.B. Netzhaut) und Grenzschichten zwischen den Hirnorganen diese Information „zusammenfassende“ Funktion wahrnehmen.

    Bewusstsein hat den Zweck, ungefähr gleichzeitig gemeinsam auftretende Sachverhalte abbilden zu können. Einerseits optisch, z.B. Netzhaut, und nach der Umsetzung elektrisch.
    Neuronenverbände sollten prinzipiell auch fähig sein, räumlich zeitliche Muster abbilden und hierarchisch verarbeiten zu können. So dass z.B. aus roten Farbpunkten, bestimmten Formen, Bewegungen, möglicherweise auch Tönen (Signalhorn) das Objekt „Feuerwehrauto“ erkannt wird.

    Allerdings habe ich kaum Echo auf diese Sichtweisen zurückbekommen. Mich würden auch fundierte konträre Meinungen interessieren.

  49. Zu Elektroniker:
    Ich habe nichts gegen ihre Definition. Wo aber ist dort das DENKEN (GEDANKEN) eingeordnet ? Ich selbst bin hier auch ein Suchender und bin mit allen Varianten, die mir hier angeboten werden, nicht zufrieden.Wenn ich einerseits sehe das Gedanken(Denken) “Zufälligkeiten” sein sollen, andererseits aber ihre überragende Macht über Menschen erkenne (Gedanken tragen auch Emotionen und werden somit zur subjektiven Realität und damit zur persönlichen Handlungsebene) dann reicht mir diese Erklärung nicht. Die Zufälligkeit scheint mir darin zu liegen, dass sie für uns “zufällig” als Intuition aus dem Unterbewusstsein ins Bewusstsein gelangen.Denkprozesse (Gedanken) scheinen also Ergebnisse von unterbewussten Prozessen zu sein ( Unterbewusste Bewertungen neuronaler Assoziationsketten von bereits angelegten Mustern ? ) Gedanken, die mit Emotionen (Angst,Trauer, Wut,Freude etc. ) besetzt sind, haben wiederum eine besonders starke suggestive Kraft, da sie lange im Bewusstsein verbleiben und somit entsprechende Handlungs-Reaktionen auslösen ) Denkprozesse scheinen mir also nicht zufällig zu sein, da das Gehirn sich Tag und Nacht im Bewertungs- und Lernmodus befindet….

  50. @ Golzower 13. Mai 2018 11:19

    Ich habe ausdrücklich nicht formuliert, Gedanken seinen nur „zufällig“.

    Ich stimme Ihnen voll zu.

    Eigentlich halte ich letztlich alle Entscheidungen für „determiniert“.

    Auch aus dem Unterbewusstsein „hochkommende“ Entscheidungen zähle ich ausdrücklich dazu. Es kommt einfach darauf an, welche Entscheidung (den Output erzeugende Neuronen), sozusagen bei einem ausreichenden „Scorewert“, am schnellsten getriggert werden.
    Es kann sozusagen 45% zu 40% stehen, dass sie sich für ein Steak zum Mittagessen entscheiden und nicht für Fisch. Der Grund den Sie vielleicht selbst nicht kennen, könnte ein in die Nase steigender Geruch sein. Der hat zur Folge dass sich die Signale desjenigen „Denkpfades“ durchsetzt, der letztlich zum Steak führt.
    Es kann aber auch rein interne Gründe haben, z.B. dass aus nicht erkennbaren dennoch vorhandenen Gründen der Pfad für Steak „empfindlicher“ reagiert, so dass die Neuronen in der Kette bei einem nur minimal kleineren Triggerniveau triggern und dies der Grund für die Entscheidung ist. Der Grund könnte vielleicht darin liegen, dass sich (ganz willkürlich an den Haaren herbeigezogen) in der Nacht bei einem Traum etwas mehr Ladungsträger in den Neuronen des „Steak Pfades“ angereichert haben und dieser Pfad dominierend reagiert.

    Es bleibt einem praktisch nichts anderes übrig, als solche „Imponderabilien“ dem Zufall zuzuordnen. Ähnlich wie bei einem Würfel. Es hat Gründe dass er beim Wurf auf eine bestimmte Zahl fällt, nur hat man kaum eine reale Chance Einfluss zu nehmen, außer man manipuliert den Würfel (Zufallsgenerator), wie es „hamann“ weiter oben angedeutet hat.
    Es ist für Techniker sehr schwierig einen „Zufallsgenerator“ zu bauen, der „wirkliche Zufälle“ generiert.
    In diesem Sinne habe ich den Begriff „Zufall“ gemeint und verwendet.

    Ich vermute, Sie sehen es so ähnlich.

  51. Golzower
    “Denkprozesse scheinen mir also nicht zufällig zu sein, da das Gehirn sich Tag und Nacht im Bewertungs- und Lernmodus befindet….”

    Das ist ein guter Denkansatz. Und es ist gut, das es so ist. Man muss sich das Denken als ständigen Kampf zwischen Gefühl und Logik vorstellen.
    Wer nur in sich konsistent ist, der mutiert zum Monster. Ein Monster, das Handlungen vollführt, nur weil sie logisch oder konsequent sind. Wenn ihre Mutter nur logisch auf ihre Fehler reagiert hätte, wären sie jetzt ein gefühlsarm und kontaktschwacher Mensch. Nur die Inkonsequenz unseres Denkens und Handelns macht uns fähig, die Fehler der anderern zu verzeihen.

  52. Zitat 1: Vor allem das Ergebnis zählt
    Zitat 2: So oder so – solche Tricks [Handoptimierungen oder versuchsweises Entfernen von Codeteilen] legen eher nicht den Verdacht nahe, dass in diesem Forschungszweig von Wissen und Verständnis getriebenes Vorgehen die Regel ist.

    Klar gibt es solche Phänomene bei einer Hype-Technologie (und Wissenschaft?) wie der Artificial Intelligence. Nicht das trennt Wissenschaft von Alchemie und Hokuspokus, sondern es ist die wissenschaftliche Methodik und die Art wie Wissenschaft Spreu vom Weizen trennt. Nur weil es für etwas im Moment keine leicht nachvollziehbare Erklärung gibt, ist es für die Wissenschaft noch lange nicht verloren – im Gegenteil, das macht es ja gerade interessant. Der Unterschied zwischen dem Alchemisten und dem Wissenschaftler sind nicht die Phänomene mit denen sie sich beschäftigen, sondern die Erklärungen mit denen sie sich zufrieden geben. Ein Wissenschaftler gibt sich beispielsweise nicht damit zufrieden, dass sein Algorithmus nun besser läuft nachdem er einen Codeteil entfernt hat. Nein, er will wissen warum und er strebt nach einer möglichste allgemeingültigen Erklärung und gibt sich nicht mit Erklärungen zufrieden, die nur in einem Spezialfall funktionieren.Techniker sind da bereits etwas anders veranlagt und Verkäufer noch mehr. Ein Techniker ist oft schon zufrieden wenn er etwas zum Laufen bringt und er hält es bereits für einen Glücksfall, wenn er aus dem Ergebnis etwas für die Zukunft lernen kann und ein Verkäufer interessiert sich oft nur dafür, das Ergebnis besser rüberzubringen, besser zu verkaufen als andere Verkäufer. Erfolgreiche Alchemisten sind wohl vom Profil her sehr nahe an erfolgreichen Verkäufern.
    Die wissenschaftliche Methodik und das Qualitätsverständnis von Wissenschaftlern sind also das was den Unterschied zwischen Alchemie und Wissenschaft ausmacht und es ist wohl kein Zufall, dass die moderne Wissenschaft mit Leuten begann, die sich schwerpunktmässig genau mit der wissenschaftlichen Methodik und Arbeitsweise beschäftigen. Sie begann nämlich mit Galileo Galilei und mit Descartes und Galileis Hauptverdienst war nicht die Überwindung des geozentrischen Weltbilds, sondern die Forderung nach reproduzierbaren Experimenten um Theorien zu bestätigen oder zu widerlegen
    Nur Experimente zu machen genügt allerdings nicht um eine Tätigkeit als wissenschaftlich zu legitimieren. Es braucht schon eine Theorie, also ein System von Aussagen, mit denen sich Beobachtungen erklären lassen. Heute gibt es noch keine wirklich mächtige Theorie für das Gebiet der künstlichen Intelligenz. Doch wer in diesem Bereich wissenschaftlich forscht, hofft natürlich solch einer Theorie für ein möglichst wichtiges Teilgebiet innerhalb der künstlichen Intelligenz näherzukommen.

  53. @ Martin Holzherr Mai 2018 17:41

    Zitat: „ Forderung nach reproduzierbaren Experimenten um Theorien zu bestätigen oder zu widerlegen“

    Genau diese (eigentlich selbstverständliche) Forderung wird zum Problem, wenn man es mit komplexen und hochdynamischen Systemen zu tun hat. Innerhalb elektronischer Systeme wurden diese Probleme weitgehend gelöst. Problematisch sind die Anwendungen.

    Das grundsätzliche Problem der KI ist, dass man auf statistische Methoden angewiesen ist und Ergebnisse entsprechend zu interpretieren sind.

    Man weiß zwar nicht wirklich wie weit die Wissenschaft, z.B. auf dem Gebiet der theoretischen Biologie/Chemie wirklich ist, weil Forschungsergebnisse geheim gehalten werden dürfen.

    Es scheint doch oft so, dass man im besten Fall weiß, dass ein bestimmtes Medikament bei bestimmten Erkrankungen und weiteren, z.B. zellularen Bedingungen, statistisch relevant helfen kann. Aber den genauen Wirkungsmechanismus (z.B. jeden Prozesszustand zu jedem Zeitpunkt (beliebig zeitlich aufgelöst)) dürfte man (noch?) nicht kennen.

    Unerwünschte „Prozesskoppelungen“ wie z.B. schlecht „gekapselte Prozesse“ früher in der Informatik, dürften auch eine unerwünschte Rolle spielen. Das Problem dürfte sein, dass viele auch im Wettbewerb stehende und aufeinander einwirkende Prozesse, auch unerwünscht interagieren können, womöglich unerwünschte nicht definierte neue Prozesse generieren.
    Es sozusagen nicht definierte Prozesse, sozusagen „zwischendurch“ gibt, die auf den Verlauf destabilisierenden Einfluss nehmen. Dass nicht nur die zu einem bestimmten Zeitpunkt stabilen chemischen „Hauptprozesse“, sondern auch instabile Zustände, verursacht durch das dynamische Verhalten, womöglich eine unerwünschte Rolle spielen.

    Es scheint klar, dass die „Feinauflösung“ des Prozessgeschehens, eine zeitliche Steuerung, als auch eine Prozesskapselung bei chemischen Systemen nicht einfach ist.

    Es fragt sich, ob dieser „dynamische Aspekt“ im Verhalten bei chemischen Prozessen ausreichend berücksichtigt wird, bzw. berücksichtigt werden kann, wie es in der Elektronik/Informatik selbstverständlich ist.

  54. Das ist ein sehr spannender Ansatz von Herrn Schleim. Die psychologischen und wissenschaftstheoretischen Aspekte des Verstehens von KI finde ich persönlich auch sehr spannend.

    Schauen wir uns das von wissenschaftstheoretischer Sicht aus an. Sind Intervenieren und Replizieren sinnvolle Ansätze?

    Schon die Rekonstruktion von endlichen Automaten (finite state machine) mithilfe von Interventionsexperimenten ist hoffnungslos. Mithilfe des Successor Tree Verfahrens kann man zeigen, dass schon die Zustände eines endlichen Automaten mit vier Zuständen nicht allgemein mit Input-Output-Sequenzen feinkörnig identifiziert werden können – nur für eine bestimmte Klasse solcher Automaten.
    Für die komplexeren Automaten gibt es solche wissenschaftstheoretisch fundierten Strategien überhaupt noch nicht (z.B. Automaten jenseits der Turing-Berechenbarkeit).

    Man kann die Sache auch aus psychologischer Perspektive angehen. Dann handelt es sich um ein typisches Problem des Überzeugungswandels: Ein Wissenschaftler versucht, einen Automaten zu verstehen.
    Der Überzeugungswandel kann vereinfachend mithilfe von Automaten oder äquivalenten Darstellungen modelliert werden. Dann könnte etwa eine Kette der Überzeugungszustände des Wissenschaftlers von “Keine Ahnung” zu “vollstes Verständnis” hin modelliert werden. Im Grunde würde man damit eine KI modellieren, die eine KI verstehen soll.
    Selbst in den “einfachen”, für uns heutzutage relevanten Maschinen wie Turingmaschinen, können wir keine Verstehensgarantien für so eine KI geben. Unabhängig von der konkreten Ausmodellierung können wir immer wieder zeigen: Es ist uns nicht möglich, mithilfe einer Turingmaschine ein Konstruktionsschema einer Turingmaschine zu ermitteln.
    Spannend wäre es vielleicht, wenn man exotische Maschinen wie Hypercomputer einsetzen könnte, um a) Konstruktionsschemata zu ermitteln und b) menschliches Verstehen zu modellieren.

    Es gibt aber auch letztlich keine Garantie dafür, dass sich die Eigenschaften des Modells des Überzeugungswandels des Wissenschaftlers und des Modells der KI überhaupt ähneln müssen. Menschliches Verstehen kann ggf. auch ganz anders unabhängig von der Konstruktion der Maschine verstanden werden.

  55. @Gerhard Bukow: Sie beschreiben in ihrem Kommentar das Problem des „Reverse Engineering“ wohl weil sie etwa davon ausgehen, dass Künstliche Intelligenz das menschliche Hirn nachbauen wolle. Reverse Engineering scheint mir aber eher eine technologischer Ansatz und weniger ein Wissenschaftlicher. Ein Wissenschaftler will nicht den Menschen nachbauen sondern ihn verstehen, wobei echtes Verstehen immer ein Langfristziel ist und auf dem Weg dazu auch schon Nachbau gewisser Subsysteme aufschlussreich sein kann wie das bei der letzten Publikation von Deep Mind in der Zeitschrift Nature geschah. Navigating with grid-like representations in artificial agents Dort liest man (übersetzt von DerpL): In unserer neuesten Arbeit[PDF hier] in Nature haben wir einen künstlichen Agenten entwickelt, um die Theorie zu testen, dass Gitterzellen vektorbasierte Navigation unterstützen, in Übereinstimmung mit unserer übergreifenden Philosophie, dass Algorithmen, die für KI verwendet werden, Elemente des Gehirns sinnvoll approximieren können.
    In einem ersten Schritt trainierten wir ein wiederkehrendes Netzwerk, um die Aufgabe der Lokalisierung in einer virtuellen Umgebung mit überwiegend bewegungsbezogenen Geschwindigkeitssignalen durchzuführen. Diese Fähigkeit wird von Säugetieren häufig verwendet, wenn sie sich durch unbekannte Orte bewegen oder in Situationen, in denen es nicht einfach ist, vertraute Orientierungspunkte zu erkennen (z.B. bei der Navigation im Dunkeln).
    Wir fanden heraus, dass gitterartige Darstellungen (nachstehend Gittereinheiten genannt) spontan innerhalb des Netzwerks entstanden sind – eine auffällige Konvergenz mit den neuronalen Aktivitätsmustern, die bei der Suche nach Säugetieren beobachtet wurden, und im Einklang mit der Vorstellung, dass Gitterzellen einen effizienten Code für den Raum liefern.
    Als nächstes versuchten wir die Theorie zu testen, dass Gitterzellen die vektorbasierte Navigation unterstützen, indem sie einen künstlichen Wirkstoff zur Verwendung als experimentelles Versuchskaninchen entwickeln. Dies geschah durch die Kombination des anfänglichen “Grid-Netzwerks” mit einer größeren Netzwerkarchitektur, die einen Agenten bildete, der durch tiefes Verstärkungslernen zu Zielen in herausfordernden Virtual-Reality-Spielumgebungen navigiert werden konnte.
    Dieser Agent arbeitete auf einem übermenschlichen Niveau, das die Fähigkeiten eines professionellen Spielers übertrifft, und zeigte die Art der flexiblen Navigation, die normalerweise mit Tieren verbunden ist, indem er neue Routen und Abkürzungen nahm, als sie verfügbar wurden.

  56. Zu Holzherr:
    “Diese Fähigkeit wird von Säugetieren häufig verwendet, wenn sie sich durch unbekannte Orte bewegen…”
    Dann sind sie aber im Verständnis der Säugetiere noch sehr weit am Anfang. Nach dem was ich recherchiert habe, haben Säugetiere dafür Orientierungszellen im Hippocampus in dem alle Sinneseindrücke zusammenlaufen und verarbeitet werden. Diese Orientierungs -bzw. Bewertungszellen sind meiner Überzeugung nach nicht künstlich erzeugbar, da sie wiederum von bereits bestehenden Mustern, die als Erkenntnisse ( ER-LEBEN) gespeist werden, bedient und geformt werden. Eine “künstliche Intelligenz kann also nichts reales ER-LEBEN , da ihr prinzipiell die Grundvoraussetzungen dafür fehlen, sprich emotionales Erfahren und Erkennen der Umwelt. Der Mensch besteht aus dem intellektuellen und dem emotionalen Erkennen der Umwelt (Implizites und explizites Gedächtnis), was meiner Ansicht nach eine gesunde evolutionäre Einheit bildet. Mit dem nur intellektuellem Erkennen schaffen sie blutleere Wesen (Golems).

  57. @Golzower (Zitat): Säugetiere [haben] dafür Orientierungszellen im Hippocampus in dem alle Sinneseindrücke zusammenlaufen und verarbeitet werden. Diese Orientierungs -bzw. Bewertungszellen sind meiner Überzeugung nach nicht künstlich erzeugbar, da sie wiederum von bereits bestehenden Mustern, die als Erkenntnisse ( ER-LEBEN) gespeist werden, bedient und geformt werden.
    Das mag so sein, es mag also von vornherein und angeboren Zellen im Hippocampus geben, die für den Orientierungssinn zuständig sind. Doch die Beobachtung, dass sich in künstlichen neuronalen Netzen, die mit Raumproblemen trainiert werden, spontan ähnliche Bereiche ausbilden, kann man doch so interpretieren, dass die Hippocampusorientierungszellen eine Architektur ausbilden, die auf natürliche Weise dem Problem und der gegebenen Informationshardware (den Neuronennetzen) entspricht. Interpretation: Die Evolution hat mit den Orientierungszellen im Hippocampus lediglich etwas fest implementiert, was schon natürlicherweise vorkommt oder die Tendenz hat als Resultat von neuronalem Training sich auszubilden. Das muss auch so sein, denn die Evolution hatte nicht unendlich viel Zeit um höhere neuronale Leistungen zu “erfinden”, denn die zufälligen Änderungen, die die Evolution antreiben, wirken sich jeweils erst bei der nächsten Generation aus. Selbst wenn die Evolution Millionen von Jahren Zeit zur Verfügung hat, kann in dieser Zeit nicht beliebig kompliziertes entstehen, sondern es werden wohl “natürliche” Eigenschaften und Tendenzen des bereits vorhandenen bei der Weiterentwicklung genutzt.

  58. @ Gerhard Bukow 14. Mai 2018 22:29

    Zitat: „Spannend wäre es vielleicht, wenn man exotische Maschinen wie Hypercomputer einsetzen könnte, um a) Konstruktionsschemata zu ermitteln und b) menschliches Verstehen zu modellieren.“

    „Hypercomputer“ ist in der Tat ein gutes Stichwort, dass die Phantasie anfeuern kann.

    Ich fürchte, es ist umgekehrt, wir werden „vorhandene“ Computer einsetzen müssen um „Hypercomputer“ (teilweise) zu verstehen.

    Unseren „normalen“ Computern und den neuronalen Systemen ist gemeinsam, dass sie auf Basis „einfacher“ elektrischer Ladungen funktionieren.

    1. Indem die Ladungsströme kontinuierlich verändert und systematisch in den Prozessen der analogen (Rechen)Technik genutzt werden.

    2. Indem von der Sensorik ausgehende (und an der Motorik endende) Ladungsströme zwar gepulst auftreten, im neuronalen Netz „geführt“ werden, „Zusammenballungen“ dieser Ladungsträger Neuronen triggern können, wobei im neuronalen Netz die synaptischen Verknüpfungen (Eric Kandel) eine Speicherung, und die neuronale Verknüpfung wegen ihrer Gatterfunktion (McCulloch) eine Auswertung (Informationsverarbeitung) ermöglichen. Dies könnte am ehesten als „Zwischending“ zwischen analoger und digitaler Informationsverarbeitung betrachtet werden.

    3. Ladungsträger (“Elektronen”) sind auch die Grundlage der allgemein bekannten Methoden der Digitaltechnik.

    Bei „Hypercomputern“ würden nicht einfache Ladungsträger den Information verarbeitenden Job tun, sondern z.B. komplexe molekulare Strukturen und deren Reaktionsketten wenn sie „verknüpft“ werden können.
    Aus System interner Sicht eines Beobachters wären dies normale, z.B. Lebensprozesse.

    Aus einer Sicht außerhalb des Systems (der Welt), könnte ein „Beobachter“ zur Auffassung kommen, das Geschehen auf der Welt wären Prozesse einer extrem komplexen „molekularen Informationsverarbeitung“.
    Dabei haben sich auch „Prozessoren“ und „Prozesse“ entwickelt, die sozusagen ein eigenes, sozusagen „einfacheres“ (auf wenig komplexe Ladungsträger beruhendes) Information verarbeitendes System entwickelt haben.
    Dabei sind sogar „Bewusstsein“ ermöglichende Systeme, die sogar Lust und Schmerz empfinden können entstanden. Dadurch wurden sozusagen „motivierende Faktoren“ ins System eingebracht, was das autonome Verhalten von Teilsystemen gefördert hat.

    Vielleicht tragen die primitiven „neuronalen“ und „technischen“ Computersysteme dazu bei, diese „Hypercomputer“, zumindest zu einem Teil, besser verstehen zu können.
    Es dürften letztlich „transzendente Systeme“ sein, die niemals vollständig verstanden werden können.

  59. Hallo! Ich wollte damit auf folgendes Problem hinweisen:

    Eine psychologische Theorie des Verstehens einer KI muss nicht unbedingt ebenfalls Automaten verwenden. Wenn sie Automaten zur Modellierung des Wissenschaftlers benutzt, dann sind Paradigmen der Wissenschaftstheorie wie Intervenieren und Replizieren nicht unbedingt sinnvoll.

  60. @ Gerhard Bukow 16. Mai 2018 13:10

    Zitat: „Wenn sie Automaten zur Modellierung des Wissenschaftlers benutzt, dann sind Paradigmen der Wissenschaftstheorie wie Intervenieren und Replizieren nicht unbedingt sinnvoll.“

    Ich sehe es natürlich genau so.

    „Intervenieren und Replizieren“ sind oft der allerletzte, verzweifelte Versuch, bei einem „Stillstand“ doch noch irgendwelche neue Erkenntnisse zugewinnen.

  61. Zu Martin Holzherr:
    Wir reden ,glaube ich, aneinander vorbei. Die Evolution hat diese Neuronalen Netze u. a. im Limbischen System geschaffen, damit sich das Individium(Tier/Mensch) in einer (lebensfremden) Umwelt orientieren kann.Basis sind diese Pyramidenzellen(Orientierungszellen).Grundlage davon ist wiederum das uralte Kampf-Fluchtsystem,was im Hinrnstamm intergriert ist und auch noch in uns Menschen unbewusst nachwirkt. Diesess höchst komplexe System arbeitet – nur- auf unterbewusster Ebene der Reizverarbeitung und kann meiner Überzeugung nach nicht künstlich hergestellt werden, da Diese Form der “Intelligenz” nur sinnliche Reize erkennt und konditioniert und keine gedankliche und intelligente Logik (Vernunft) kennt. Sinnliche Reize ergeben sich aber nur im ERLEBEN (Ich erlebe das Leben) selbst, alles andere ist unlogisch. Künstliche Intelligenz kann aber keine sinnlichen Reize erfahren bzw. verarbeiten, da es nicht über dieses Gefühl-System (limbische System) verfügt.Wenn sie dieses System nun bei ihren künstlichen Intelligenzen negieren oder ausblenden,werden sie “seelenlose” KONSTRUKTE schaffen die nicht fähig sind Sinneseindrücke zu verarbeiten.

  62. @ Golzower 17. Mai 2018 11:08

    Zitat: „Dieses höchst komplexe System arbeitet – nur- auf unterbewusster Ebene der Reizverarbeitung und kann meiner Überzeugung nach nicht künstlich hergestellt werden, da Diese Form der “Intelligenz” nur sinnliche Reize erkennt und konditioniert und keine gedankliche und intelligente Logik (Vernunft) kennt. Sinnliche Reize ergeben sich aber nur im ERLEBEN (Ich erlebe das Leben) selbst, alles andere ist unlogisch. Künstliche Intelligenz kann aber keine sinnlichen Reize erfahren bzw. verarbeiten, da es nicht über dieses Gefühl-System (limbische System) verfügt.Wenn sie dieses System nun bei ihren künstlichen Intelligenzen negieren oder ausblenden,werden sie “seelenlose” KONSTRUKTE schaffen die nicht fähig sind Sinneseindrücke zu verarbeiten.“

    Zunächst vermute ich, dass die „un(ter)bewusste Verarbeitung“ von Information im neuronalen Netz nicht anders als die „bewusste Verarbeitung“ geschieht.

    „Bewusstsein“ dürfte bedeuten, dass Informationen (die sie abbildenden elektrischen Signale) an besonderen Strukturen gleichzeitig zur „Abbildung“ kommen, wie „Bilder der Umgebung“ auf der Netzhaut. Der Sinn eines „Bildes“ entsteht erst im (gleichzeitigen) Zusammenhang der einzelnen Bildpunkte. Die Informationen (Signale) die nicht über derartige Strukturen geführt werden, sind „unbewusst“. Z.B. die Bewegungssteuerung beim Gehen.

    Daher wäre es naheliegend, End- bzw. Zwischenschichten (zwischen den Hirnorganen) als Ort derartiger Abbildungen, ähnlich wie auf der Netzhaut zu sehen. Dies wäre der „anschauliche“ Aspekt.
    In der Mathematik erfolgen derartige Abbildung als „Matrix”, in der Informatik auf Datenstrukturen die man „Felder“ (Arrays) nennt.

    Mich würde interessieren, ob man in Ihrem Sinne „Erleben“ als „Auswertung (und auch Speicherung) als eine „Gesamtheit und Aneinanderreihung von Empfindungen“ sehen könnte, oder ob Erleben von ganz besonderer eigenständiger „Qualität“ ist.

    Das Phänomen „Empfindung“ dürfte entstehen, wenn an besonderen „Schnittstellen“ elektrische und chemische Prozesse in Wechselwirkung treten. Dies bedeutet, elektrische Signale können über chemische Reaktionen „Empfindungen“ bewirken wobei elektrische Signale zurück wirken können, die auch ausgewertet werden können, z.B. heiß, kalt, stechend …. .

    Es wäre denkmöglich, derartige chemische Strukturen Tieren zu entnehmen um sie (über besondere Schnittstellen) in künstliche neuronale Netze einzubinden. Oder auch umgekehrt, technische Netze in Versuchstiere ein zu pflanzen.
    Dies wäre so ähnlich, wie auch bei der übrigen Sensorik, die in das neuronale System eingebunden ist.
    Allerdings wären derartige Experimente ethisch bedenklich. Praktisch wären derartige empfindungsfähige „hybride“ Systeme vermutlich nicht wirklich sinnvoll.

  63. Zu Elektroniker:
    Ich denke dass der Mensch im Vergleich zur künstlichen Intelligenz seine Welt in erster Linie über die Sinne(Gefühle) erlebt bzw. wahrnimmt. Ein Beispiel. Fragen sie 1000 Menschen, was für Gefühle und Empfindungen sie zum Duft einer Rose haben. Sie werden wahrscheinlich 1000 unterschiedliche Antworten erhalten. Frau A: Erinnert mich an meine erste Liebe; Herr B: Mein erster guter Date; Herr C : Meine Oma hat mich zum Erben gemacht, nach dem ich ihr Rosen geschenkt habe usw. usw… Menschen assozieren also mit der Sinneserfahrung “Rosenduft” die unterschiedlichsten Erlebnisse und Erfahrungen in ihrem Leben.Sie haben das “erlebt”, weil das implizite Gedächtnis in ihnen den SinnesReiz “Rosenduft” mit anderen gleichzeitig stattgefundenen Reizen(Erlebnissen zzgl. des Gefühls) unbewusst konditioniert und im Unterbewusstsein abgelegt hat.Sie sind damit also unbewusst um eine wichtige Lebens-Erfahrung reicher geworden. Bei einer künstlichen Intelligenz bin ich mir da nicht sicher. Wahrscheinlich erhalte ich hier nur eine chemische Formel für den Rosenduft….

  64. Zu Golzower.

    Was die Bedeutung der Empfindungen und Gefühle beim Menschen betrifft, stimme ich voll mit Ihnen überein.

    Nur meine ich, dass es verschiedene Aspekte gibt die es sinnvoll machen sich mit der KI zu beschäftigen und KI auch zu fördern.

    Der Wirtschaft, als „Treibende“ der KI Forschung, wird es darum gehen „am Ball“ zu bleiben, weiterhin den Wohlstand im Land (vielleicht auf der Welt) zu mehren und davon auch möglichst gut leben zu können. Sie wird sich den Menschen nicht mehr zur “Ausbeutung”, sondern als Konsumenten “halten” wollen.
    Das Volk „giert“ nach mehr Wohlstand und der wäre im Prinzip zu erreichen weil neuerdings sogar intelligente aber „lästige“ Tätigkeiten ausgelagert werden können.

    Erstmals in der Geschichte ist es absehbar, dass nicht Ausbeutung der einen Gruppe Wohlstand einer anderen Gruppe bedeutet, sondern technische System „ausgebeutet“ werden, was absolut ethisch ist, solange diese Systeme nicht Empfindungen und Gefühle entwickeln können. Selbst die Umwelt könnte mehr geschont werden.

    Die Frage für mich ist nur, ob der Mensch der gewöhnt ist im „harten Kampf um die Existenz“ bestehen zu können, es aus psychologischen Gründen überhaupt aushält ein derart „modernes bequemes“ Leben ertragen zu können?
    Womöglich entartet die Gesellschaft völlig, wenn es den meisten Menschen einfach „zu gut“ geht?

  65. Zu Elektroniker:
    “Womöglich entartet die Gesellschaft völlig..”.
    Das sind auch meine Gedanken. Vielleicht sollte man einmal in der WeltGeschichte nachschauen,wie es Gesellschaften ergangen ist, die “entarteten”. Mir fällt – um an Guido Westerwelle zu erinnern- hierzu das spätrömische Weltreich ein (Spätrömische Dekadenz).
    Ein Historiker sagte dazu: “Woran Rom litt, daran leiden auch wir und was Roms Ende brachte, das droht auch das Ende der europäischen Demokratien zu werden”.
    Ein gewisser ethischer und moralischer Sittenverfall dieses Römischen Reiches führte dazu, das dieses System von innen her implodierte.Es ging vielen Menschen “zu gut”, da Migranten aus allen Teilen dieses Reiches für das materielle Wohl dieser herrschenden Kaste (Establishment) als Sklaven schufteten.Letztlich ging dieses Reich im Rahmen einer riesigen Völkerwanderung, die wiederum durch Klimaveränderungen ausgelöst wurde, schutzlos unter.
    Eine entartete Gesellschaft finden sie meiner Ansicht nach auch unter der Herrschaft Ludwig des 14. bis 16. im absolutistischen Frankreich…. und so weiter.

  66. Ohne die vorherigen Kommentare gelesen zu haben: ” Bei Unternehmen, denen es nur um das (am Ende ökonomisch verwertbare) Ergebnis geht, würde das nicht überraschen.” Und genau das ist m. E. ein großes Problem. Denn hinter den meisten, wenn nicht sogar allen KI-Entwicklungen stecken Unternehmen und damit wirtschaftliche Interessen. Viel Entwicklung passiert daher auch hinter verschlossenen Türen. Problematisch ist dies auch, wenn moralische Aspekte eine Rolle spielen, wie beim automatisierten Fahren, bei Kriegsdrohnen oder Pflegerobotern. Wer trifft die Entscheidungen darüber, was entwickelt wird und wie? Und in welchem Verhältnis stehen moralische Überlegungen zu wirtschaftlichen? Die ganzen ethischen Diskussionen — hierzu gibt es viele wissenschaftliche Artikel, die oft auch methodisch und argumentativ gut fundiert sind — laufen ins Leere, wenn es nicht die Möglichkeit gibt, sie auch umzusetzen. Ähnlich wie bei grundlegenden Fragen der Wirtschaftsethik sehe ich hier schwarz.

Schreibe einen Kommentar