Transparente Künstliche Intelligenz für jedermann?

(AutorInnen: Alexander Heimerl & Elisabeth André – Uni Augsburg)

Künstliche Intelligenz (KI) nimmt immer größeren Einzug in unser alltägliches Leben. Sie begegnet uns in Form personalisierter Werbung oder einer App, die uns den optimalen Weg zur Arbeit weist, mit Berücksichtigung von Staus und Baustellen. Dasselbe gilt für Anwendungen, die unsere Gesundheit oder unser Wohlbefinden verbessern sollen. Das Angebot in diesem Bereich ist mannigfaltig, so existieren Smartphone-Apps, die einem beim Abnehmen unterstützen sollen, sei es durch Ernährungsberatung oder sportliche Betätigung. Kurzum gesagt, künstliche Intelligenz findet sich fast überall.

In den meisten Fällen vertrauen wir Technologien, die uns das alltägliche Leben erleichtern oder angenehmer gestalten, und denken nicht weiter über deren Funktionsweise nach. Es gibt jedoch auch Situationen, in denen wir verstehen möchten, wie ein System zu einer Entscheidung kam – insbesondere dann, wenn ein solches System in existenziellen Bereichen unseres Lebens Verwendung findet.

So ist es mittlerweile keine Seltenheit mehr, dass künstliche Intelligenz verwendet wird, um anhand von personenbezogener Daten zu ermitteln, ob eine Person kreditwürdig ist oder nicht. In diesem Fall können die Konsequenzen für Nutzer ambivalent sein. Auf der einen Seite kann ein Unternehmen durch eine automatisierte Bewertung schneller Anfragen bearbeiten und dadurch potentiell mehr Kredite gewähren. Auf der anderen Seite besteht die Gefahr, dass zu Unrecht Personen Kredite verweigert werden. Wie geht man mit diesen Fällen um? Wie erklärt man es den Klienten? Kann man es ihnen überhaupt erklären?

Undurchschaubare Intelligenz?

Viele Herausforderungen und Fragen, die sich beim Einsatz von künstlicher Intelligenz ergeben, resultieren aus der Tatsache, dass die unterliegenden algorithmischen Vorgänge oft undurchschaubar sind oder Systeme so komplex sind, dass sie außerhalb des menschlichen Vorstellungsvermögens liegen. Es ist keine Seltenheit mehr, dass Systeme in unserem Alltag zum Einsatz kommen, die mehrere Millionen Parameter erlernt haben. Da ist es nicht verwunderlich, dass diese Systeme gleichermaßen für Laien und Experten kaum zu verstehen sind. Dadurch finden wir uns in einer Situation wieder, in der wir mit einem Klassifikationsergebnis konfrontiert werden und oft nicht in der Lage sind, nachzuvollziehen, wie dieses Ergebnis zustande gekommen ist. Die Ungewissheit darüber, warum ein System sich so entscheidet, wie es sich entscheidet, kann bei Betroffenen das Gefühl hervorrufen, einem System ausgeliefert zu sein und damit zu digitalem Stress führen. In dem Verbundprojekt ForDigitHealth streben ich und meine Kolleginnen und Kollegen an, die Transparenz von Systemen durch passende Erklärungsmechanismen zu erhöhen, um damit bei Endnutzerinnen und Endnutzern Stress durch wenig nachvollziehbares Systemverhalten zu verringern. Aber kann es überhaupt gelingen, höchst komplexe Systeme mit Erklärungsmechanismen auszustatten?

Mit dieser Frage beschäftigen sich Wissenschaftler schon seit dem Aufkommen der ersten künstlichen Intelligenz Systeme. Waren es zu Beginn noch regelbasierte Systeme, die vergleichsweise leicht erklärt werden können, stehen wir heute vor der Herausforderung, tiefe neuronale Netze mit Millionen von Parametern zu erklären. Die Forschung hat bereits einige Verfahren hervorgebracht, die es einem ermöglichen, künstliche Intelligenz transparenter zu machen [1]. So macht ein gängiger Algorithmus, der vor allem bei der Klassifikation von Bildern Anwendung findet, Teilbereiche in einem Bild kenntlich, die für die Entscheidungsfindung des Systems von besonderem Interesse waren. Dadurch erhält man einen direkten Einblick in die Wirkungsweise des Systems.

Maßgeschneiderte Erklärungen

Solche Verfahren können Entwicklern wie mir helfen, die Performanz und Robustheit von komplexen Systemen besser einzuschätzen. Wenn wir beim Trainieren von neuronalen Netzen zum Beispiel feststellen, dass sich unser System hauptsächlich auf unwichtige Dinge im Hintergrund konzentriert, dann ist das ein konkreter Hinweis darauf, dass wir dem System noch mehr Daten zeigen müssen oder unseren Ansatz überdenken sollten. Personen, die nicht im Bereich von künstlicher Intelligenz forschen, finden Details zu relevanten Eingabekomponenten und den daraus resultierenden Gewichtungen eines neuronalen Netzes vermutlich weniger spannend. Dennoch haben auch sie ein Anrecht auf zweckdienliche Erläuterungen – vor allem, wenn Algorithmen über essentielle Dinge in ihrem Leben entscheiden – etwa ob sie den Job bekommen oder nicht. Wenn wir Endnutzerinnen und Endnutzern Erklärungen zu Entscheidungsprozessen eines Systems präsentieren, dann sollten sie so aufbereitet worden sein, dass man auch ohne Zuhilfenahme von einschlägiger Fachliteratur verstehen kann, was die Erklärung zu bedeuten hat. Erklärungen sollten auch immer einen Mehrwert bieten. Es ist sicherlich nicht hilfreich, Nutzerinnen und Nutzer mit Informationen zu überhäufen nach dem Motto “Da wird jetzt schon was Interessantes für jeden dabei sein”. Erklärungen sollten immer auf die individuellen Bedürfnisse der Nutzerinnen und Nutzer abgestimmt sein. Um dies zu erreichen, verfolgen ich und meine Kolleginnen und Kollegen in dem Verbundvorhaben ForDigitHealth einen nutzerzentrierten Designansatz, d.h. wir involvieren unsere Zielgruppen von Anfang an in den Entwicklungsprozess. Um uns dabei zu unterstützen, berichten Sie uns gerne von Ihren Erfahrungen mit Computersystemen, die bei ihnen aufgrund ihres obskuren Verhaltens Stress ausgelöst haben. Teilen Sie uns mit, ob und wann sie sich welche Art von Erklärungen von einem Computersystem wünschen.

Bitte zitieren als: Heimerl, Alexander; André, Elisabeth (2020). Transparente Künstliche Intelligenz für jedermann? 19.05.2020. Online verfügbar unter: https://scilogs.spektrum.de/gesund-digital-leben/technologien-fur-gesundes-arbeiten/

Literatur

[1] Mueller, S.T., Hoffman, R.R., Clancey, W.J., Emrey, A., & Klein, G. (2019). Explanation in Human-AI Systems: A Literature Meta-Review, Synopsis of Key Ideas and Publications, and Bibliography for Explainable AI. ArXiv, abs/1902.01876./

Bildquelle: pixabay

Gerne möchte der Verbund mit Ihnen diskutieren und jeder Autor freut sich über Ihre Kommentare. Willkommen sind sachliche Kommentare mit Bezug auf den Inhalt des jeweiligen Blogbeitrags. Ebenso sind Meinungen in der Sache oder ergänzende Informationen herzlich willkommen. Trifft dies nicht zu, behalten wir uns vor, die Kommentare nicht freizuschalten. Weitere Informationen dazu finden Sie auch in unserer Netiquette.

Alexander Heimerl

Veröffentlicht von

Alexander Heimerl ist wissenschaftlicher Mitarbeiter am Lehrstuhl „Human Centered Multimedia“ des Institut für Informatik der Universität Augsburg. Er forscht und bloggt zum Thema „Aufmerksame, stresssensible und gesundheitsförderliche KI-Komponenten“ im Rahmen des bayerischen Verbundprojekts „Gesunder Umgang mit digitalen Technologien und Medien“ (ForDigitHealth).

35 Kommentare

  1. Ja, Erklärungen und Begründungen sind für Menschen insbesondere dann wichtig, wenn es darum geht, zu verstehen, warum etwas falsch lief/läuft und wie man das korrigieren kann oder weshalb man etwas akzeptieren muss – beispielsweise ein Gerichtsurteil. Dahinter steckt letztlich das, was man im KI-Jargon kontrafaktisches Denken nennt: was hätte ich tun müssen um zu einem besseren Ergebnis zu kommen.

    Vielleicht muss man sogar die gängigen Deep-Learning Verfahren so anpassen, dass sie nachvollziehbarer werden, selbst wenn sie dadurch nicht besser werden. Denn Nachvollziehbarkeit ist für uns Menschen oft unverzichtbar.
    Der arxiv-Artikel Neural Additive Models: Interpretable Machine Learning with Neural Nets will genau das: Anstatt beliebig allgemeine neuronale Netze zu verwenden werden bei diesem Ansatz bestehende neuronale Netze für die Erkennung/Klassifizierung von Objekten miteinander kombiniert/summiert um eine Gesamtinterpretation zu erhalten. Die Resultate sind ähnlich gut wie beim allgemeinen Ansatz, nur ist hier das Resultat auch erklärbar. Die Kurzzusammenfassung lautet (übersetzt von DeepL):

    Tiefe neuronale Netze (Deep Neural Networks, DNNs) sind leistungsstarke Black-Box-Prädiktoren, die bei einer Vielzahl von Aufgaben beeindruckende Leistungen erzielt haben. Ihre Genauigkeit geht jedoch auf Kosten der Verständlichkeit: Es ist meist unklar, wie sie ihre Entscheidungen treffen. Dies behindert ihre Anwendbarkeit auf Entscheidungsbereiche mit hohem Risiko wie das Gesundheitswesen. Wir schlagen Neuronale Additive Modelle (NAMs) vor, die einen Teil der Expressivität von DNNs mit der inhärenten Verständlichkeit verallgemeinerter additiver Modelle kombinieren. NAMs lernen eine lineare Kombination von neuronalen Netzen, die sich jeweils um ein einzelnes Eingabemerkmal kümmern. Diese Netze werden gemeinsam trainiert und können beliebig komplexe Beziehungen zwischen ihrem Eingangsmerkmal und dem Ausgang lernen. Unsere Experimente zu Regressions- und Klassifikationsdatensätzen zeigen, dass NAMs genauer sind als weit verbreitete verständliche Modelle wie logistische Regression und flache Entscheidungsbäume. Sie weisen eine ähnliche Genauigkeit auf wie bestehende verallgemeinerte additive Modelle auf dem neuesten Stand der Technik, lassen sich aber leichter auf Probleme der realen Welt anwenden.

    • Danke für Ihren Kommentar. Ich stimme Ihnen zu, dass Nachvollziehbarkeit für uns Menschen oft unverzichtbar ist. Der von Ihnen präsentierte Beitrag ist sehr interessant. Zu diesem Ansatz habe ich auch schon ein paar Papiere gesehen und ich glaube die Autoren nennen es Explainable Neural Networks (xNNs). Tatsächlich arbeiten wir gerade an einem ähnlichen Ansatz, bei dem wir Versuchen die Performanz von NN mit der bereits bestehenden Erklärbarkeit von anderen Verfahren zu kombinieren.

      • Ja, die Methode Adaptive Explainable Neural Networks (AxNNs) verwendet ebenfalls Ensembles von verallgemeinerten additiven Modellnetzwerken.
        Das Entscheidende bei beiden Ansätzen (AxNNs und NAMs) ist die Kombination von mehrerer neuronalen Netzen, wobei jedes einzelne neuronale Netz nur einen einzigen Inputparameter abarbeitet, so dass man den Einfluss der Inputparameter auf das Gesamtresultat genau angeben kann.
        Dies sei am Beispiel der Hauspreise in Kalifornien erklärt wobei hier ein Neuronales Additives Modell (NAM) zum Einsatz kam.

        California Housing: Predicting Housing Prices

        Die Aufgabe ist die Regression zur Vorhersage des mittleren Preises von Häusern (in Millionen Dollar) in jedem kalifornischen Bezirk. Die erlernte NAM betrachtet den Median des Einkommens sowie die Lage des Hauses (Breiten- und Längengrad) als die wichtigsten Merkmale (die anderen sechs Diagramme lassen wir aus Platzgründen weg, siehe Abbildung 10 im Anhang). Wie aus Abbildung 7 hervorgeht, steigen die Hauspreise in Regionen mit hoher Datendichte linear mit dem Medianeinkommen. Darüber hinaus zeigt das Diagramm für den Längengrad starke Sprünge in der Preisvorhersage um 122,5◦W und 118,5◦W, die in etwa der von San Francisco bzw. Los Angeles entsprechen.

        Fazit: Neuronale Additive Modelle geben an wie ein Resultat durch die verschiedenen Einflussfaktoren zustande kommt.

  2. Wenn ich in meinem Beruf eine Arbeitsanweisung geschrieben habe – dann habe ich diese jemand in die Hand gedrückt, wo ich kein Vorwissen erwarten konnte. Diese Person sollte mir dann praktisch zeigen/erklären, was sie machen würde, wenn sie nach meiner Anweisung arbeitet.
    War meine Arbeitsanweisung verständlich und wurde korrekt ausgeführt – dann wusste ich, dass man damit problemlos arbeiten kann.

    Die gleiche Vorgehensweise sollten Sie auch für Ihre Computersysteme wählen.
    Dazu kann man so vorgehen, dass ein separates Feld einen Text mit einfachen Erklärungen anzeigt – sobald man mit dem Cursor auf ein aktives Eingabefeld kommt.
    Wenn auch ein Laie problemlos damit arbeiten kann, dann haben Sie ein gutes Programm erstellt

  3. Danke für ihren Kommentar. Ihr Vorschlag ist ein sehr gutes Beispiel dafür, dass man die Nutzer in den Entwicklungsprozess miteinbeziehen muss, um sicherzustellen, dass auch alle aufkommenden Fragen und Hindernisse adressiert werden.

  4. Ihr Beitrag läßt leider nicht erkennen, wo Sie den Unterschied zwischen elektronischer Datenverarbeitung und künstlicher Intelligenz sehen. Oder ist bei Ihnen jede elektronische Datenverarbeitung künstliche Intelligenz ? Künstliche Intelligenz ist leider ein Modewort geworden, um die Modernheit eines Produktes zu betonen. Wie das Wort “elektronisch” vor 20 Jahren. Da gab es dann plötzlich keine elektrischen Staubsauger mehr sondern nur noch elektronische Staubsauger.

    Künstliche Intelligenz gibt es nicht. Das, was heute als künstliche Intelligenz bezeichnet wird, wird heute recht erfolgreich in der Mustererkennung eingesetzt. Z.B. in der Bildverarbeitung oder bei der Erkennung von Krankheiten. Fehler kann man als Laie nicht erkennen. Und wie Sie oben beschrieben haben, kann auch der Fachmann meist nicht nachvollziehen, wie das System zu dem Ergebnis gekommen ist. Ich bin gespannt, was passiert, wenn der erste Patient auf Grund einer Fehldiagnose der künstlichen Intelligenz gestorben ist. Auf der Straße ist das ja schon passiert.

    Heutiger Technik, die mit künstlicher Intelligenz ausgestattet ist, fehlt eine wesentliche Eigenschaft die unbedingt auch zur Intelligenz gehört : die Kreativität ! Kann ein Fehleranalysesystem mit künstlicher Intelligenz Fehler aufspüren, für die es nicht programmiert wurde ? So ein System kenne ich nicht !

    • @Leser: KI ist überall, z.B. wenn bei der Texteingabe im Smartphone Vorschläge für das nächste Wort gemacht werden oder bei der Auswahl von Werbung und Kaufempfehlungen für sie persönlich. Flexibilität und passende Reaktionen auf „weiche“ Faktoren macht diese Systeme intelligenter als es Programme früher überhaupt sein konnten. Intelligent im menschlichen Sinne sind KI-Systeme bis heute nur bedingt, denn ihrer Intelligenz fehlt die Reflektion, fehlt das Wissen um das Warum. Klar machen KI-Programme Fehler – wie das Menschen im übrigen ständig tun. Menschliche Fehler töten heute viele Patienten jeden Tag und auch Verkehrsteilnehmer werden „versehentlich“ überfahren – wohlgemerkt von Menschen und nicht von KI-Systemen.
      Sie schreiben noch, KI-Systeme hätten keine Kreativität. Doch das stimmt nicht. Im Gegenteil: als Kreativitätsgeneratoren sind KI-Systeme weit besser als der Mensch. Weil sie sehr viel mehr Daten auf geschickte Weise kombinieren können. Ihre Schwäche ist wenn schon, dass ihre Werke eine gewisse Beliebigkeit ausstrahlen, denn eine Persönlichkeit haben KI-Systeme nicht.

  5. Vermutlich kommt es bei vielen Anwendungen der KI, wie bei fast allen in der Wirtschaft und Gesellschaft eingesetzten Systemen darauf an, wem sie nutzen. Es stehen praktisch immer Interessen dahinter.

    Natürlich möchte und sollte man nachvollziehen können, wie es zu den Ergebnissen gekommen ist. Wegen der Konkurrenz möchten die jeweiligen Geldgeber gegenüber der “Außenwelt” die Wirkungsweise möglichst verschleiern, weil die Systeme manipuliert, ausgenutzt oder „unterlaufen“ werden könnten.

    Google will nicht, dass sich z.B. Nutzer selbst an die Spitze der angezeigten Trefferlisten setzten können indem sie das System manipulieren, unterlaufen. Das ist jedenfalls wichtig wenn es ums Geld geht.

    Natürlich können auch Manipulationsversuche von der KI selbst erkannt werden. Es ist eine Art „Wettlauf“.

    Andererseits könnten die Systeme die Gesellschaft stark weiterbringen, wenn bisher (fast) unlösbare Probleme einer Lösung wirksam näher gebracht werden könnten.

    Das wäre z.B. die Minimierung der Auswirkungen der Konjunkturzyklen aber auch der Ausbeutung der Menschen auf die Gesellschaft. Selbst Karl Marx soll vermutet haben, dass man durch den Einsatz von „Maschinen und Elektrizität“ (mit einer zusätzlich dies förderlichen Ideologie) einer Problemlösung näher kommen könnte. Es hat nicht gereicht.

    Die Chinesen versuchen es nochmals mit sozialer Steuerung, Roboter, Computer und KI.

    Besonders wichtig wäre es neuerdings, könnte man die Ausbreitung von Seuchen mit Chips und KI minimieren. Da hätten alle was davon, weil es der Gesundheit hilft.

    Man wäre aber auch wieder am Anfang der Überlegungen, weil das System missbraucht und ausgenutzt werden könnte…

    In diesen Fällen gibt es nicht mehr nur „Sieger“.

    • @Elektroniker: Wissen ist Macht – das gilt auch für KI und ihre Anwendungen.
      Damit die Macht aber nicht in die Hände ganz Weniger fällt, müssen möglichst viele dieses Wissen erarbeiten und dass auf allen Hierarchiestufen und in allen Fachbereichen und Berufen. Denn intelligente Systeme sind fast überall einsetzbar. Vom Krankenhaus 🏥 über die Fabrik 🏭 bis zur Schule 🏫 oder den Aktienmarkt. Wir haben es also mit einer Crosscutting-Technologie zu tun, die fast überall hineinspielt.
      Es muss keinesfalls so sein, dass KI die Sache von ein paar Nerds bleibt. Ich könnte mir ohne weiteres neue Berufe in diesem Umfeld selbst für Nicht-Akademiker vorstellen. Beispielsweise könnte es den neuen Beruf KI-Trainer geben, der ganz ähnliche Aufgaben wie ein Hundetrainer übernehmen würde – aber eben mit Robotern 🤖 als zu Trainierenden anstatt mit 🐕 Hunden.

      Allerdings fehlen heute künstlich intelligenten Systemen selbst die Weltkenntnisse und das Allgemeinwissen eines Hundes. So wissen Hunde 🐕 beispielsweise sehr genau wo sie überall hingehen können oder ob sie es schwimmend über den Fluss schaffen, Roboter aber nicht – heute noch nicht. Doch das wird sich ändern.

  6. Alexander Heimerl.
    Bei solchen Themen tauchen Begriffe auf, die nirgends erklärt sind. Das neuronale Netz, was soll das sein ?
    Ein Superlativ für ein Netzwerk ? Geht es dabei um die Struktur von Prozessoren ? Geht es um eine besonders komplexe Struktur einer Sofware ?
    Wo ist die Grenze zwischen einem Netzwerk und einem neuralen Netzwerk ?
    Damit so eine Dikussion nicht zu einem Blah..Blah wird sollte man genaue Vorstellungen darüber haben, wovon man spricht.

    • Danke für Ihren Kommentar. Sie haben recht, dass diese Art von Thema von vielen Fachbegriffen durchzogen ist. Neuronale Netze sind ein Verfahren des maschinellen Lernens, das Teil vom Themenbereich der künstlichen Intelligenz ist. Das Konzept von neuronalen Netzen ist an den Aufbau unseres Gehirns angelehnt, ist aber nicht damit gleichzusetzen. Neuronale Netze bestehen aus einer Vielzahl von miteinander verbundenen Neuronen (daher auch der Name) – ähnlich wie unser Gehirn. Entlang dieser Verbindungen werden, mit Hilfe von mathematischen Formeln, Informationen weitergereicht. Es hat sich gezeigt, dass diese Form von Informationsverarbeitung besonders gut bei der Erkennung von Mustern abschneidet. Eine genaue Erklärung von neuronalen Netzen sprengt leider den Umfang dieses Blogs. Zum Thema neuronale Netze gibt es aber zahlreiche gute Artikel im Internet, bei denen man sich tiefergehend mit der Funktionsweise von neuronalen Netzen auseinandersetzen kann.

    • @H.Wied (Zitat):

      Bei solchen Themen tauchen Begriffe auf, die nirgends erklärt sind. Das neuronale Netz, was soll das sein ?

      Für mich ist die Wikipedia die Referenz, die man voraussetzen kann. Jeder, der Zugang zu diesem Blog hat, hat auch Zugang zur Wikipedia. Wer aber nicht versteht, was in der Wikipedia steht, der sollte auf diesem Blog besser gar nicht posten.
      Zitat:

      Damit so eine Dikussion nicht zu einem Blah..Blah wird sollte man genaue Vorstellungen darüber haben, wovon man spricht.

      Dabei gibt es doch hier auf scilogs einen eigenen Blog nur mit Thema Gehirn&KI
      Dort sind künstliche neuronale Netze und Deep Learning detailliert erklärt.
      Als nächstes Herr Wied fragen sie bestimmt: was ist denn scilogs? Niemand hat mir erklärt was scilogs ist. Wer das nicht erklärt redet doch nur Blah-Blah.

  7. Martin Holzherr,
    Sie machen es sich zu einfach. Meine Kritik richtet sich gegen die Wortwahl. Herr Heimerl weicht auch aus, und nennt die verbundenen Neuronen als Namensgeber. Dabei gibt es in einem Computersystem keine Neuronen.
    Man nimmt nur die Vernetzung der Neuronen in einem Gehirn als Vorbild für die Struktur , ja wovon ?
    Von der Software oder von der Hardware in einem Computersystem. Das sollte doch mal geklärt sein.
    Ja , und es geht noch weiter mit den Superlativen, da spricht man nicht von Learning, sondern von Deep Learning. Wo ist der Unterschied zum Learning ?
    Mich ärgern solche Beiträge, die mit Superlativen glänzen, anstatt ganz konkret an einem Beispiel , meinetwegen mit Namensnennung eines solchen Netzwerkes und was es ganz konkret leistet.
    Das musste mal gesagt werden.

    • @H.Wied: die Neuronen werden im Computer simuliert: Über Zuleitungen erhalten sie Daten und leiten sie, falls das Signal genügend stark ist an die nächste Schicht von Neuronen weiter. In der letzten Neuronenschicht findet dann die Entscheidung statt ob es sich etwa um einen Hund, eine Katze oder einen BMW handelt. Deep Learning heisst es, wenn viele Neuronenschichten aufeinanderfolgen. In den untersten Neuronenschichten, denen, die nahe bei den Eingabedaten sind werden nur einfache, lokale Muster erkannt (also Kanten und ähnliches). In den tieferen Schichten dagegen werden die Einzelteile zusammengesetzt so dass schliesslich entschieden wird, dass es sich beispielsweise um eine Katze handelt.
      Warum heisst es überhaupt Learning? Nun, weil eine Testmenge von Daten zusammen mit der richtigen Lösung benutzt wird, um das System zu trainieren. Man zeigt dem System also tausende Bilder von Katzen, Hunden und BMWs damit es später neue Bilder einer dieser 3 Kategorien zuordnen kann.

    • H. Wied, ich bin Ihrem Kommentar keineswegs ausgewichen. Ich habe Ihnen eine kurze Erklärung gegeben, woher die Namensgebung stammt und was die grundlegende Idee hinter neuronalen Netzen ist. Ich bitte um Ihr Verständnis, dass eine Erklärung von sämtlichen Fachbegriffen massiv den Rahmen dieses Blogpost springen würde. Gerne verweise ich auf einen öffentlich zugänglichen Artikel zum Thema Deep Learning (https://www.spektrum.de/news/maschinenlernen-deep-learning-macht-kuenstliche-intelligenz-praxistauglich/1220451). Der Artikel erläutert auch für den interessierten Laien gut verständlich, dass tiefe neuronale Netze nicht nur ein Hype – oder wie Sie es ausdrücken ein Superlativ – sind, sondern zur Lösung relevanter wissenschaftlicher Fragestellungen beigetragen haben. In unserem Blog geht es jedoch nicht um die Funktionsweise von tiefen neuronalen Netzen, sondern um die Frage, ob und wie man das Verhalten von komplexen Systemen – insbesondere neuronalen Netzen – nachvollziehbarer machen kann. Wir haben dies bewusst als Frage formuliert, was Ihrer Aufmerksamkeit offensichtlich entgangen ist.

  8. Martin Holzherr schrieb (20.05.2020, 13:49 Uhr):
    > Für mich ist die Wikipedia die Referenz, die man voraussetzen kann.

    Es ist allerdings umstritten, in wie fern die Wikipedia in ihrer gegenwärtigen Ausprägung und Fragmentierung überhaupt eine (enzyklopädisch-selbständige oder wenigsten rückführbare) Referenz darstellt,
    oder nicht lediglich eine (teilweise exzerptierte und kommentierte) Auswahl von “Quellen” (die wiederum nicht unbedingt enzyklopädisch-selbstständig oder wenigstens rückführbar sind).

    > Jeder, der Zugang zu diesem Blog hat, hat auch Zugang zur Wikipedia.

    Das meint offenbar “Zugang” im engen Sinne von “Leseberechtigung”;
    aber nicht einschließlich “Schreibberechtigung”, um wahlweise außerdem Beiträge öffentliche zu leisten und zu archivieren.

    > Wer aber nicht versteht, was in der Wikipedia steht, der sollte auf diesem Blog besser gar nicht posten.

    Wer etwas nicht versteht, das in der Wikipedia (und/oder z.B. in dort ggf. gelisteten Quellen) steht, und auf dieses Unverständnis insbesondere im Zusammhang mit dem [[Recht auf Bildung]] öffentlich hinweisen möchte,
    kann zumindest entsprechende Fragen Barriere-frei auf der SciLog-Seite https://scilogs.spektrum.de/einsteins-kosmos/lehrer-fragen-wissenschaftler-antworten posten;
    so wie ich z.B. mit meiner dort seit 19.08.2019, 10:15 Uhr, vorliegenden Frage: zum Panzer auf der Falltüre (alias: [[Panzerparadoxon]]).

  9. @ Leser 19.05.2020, 16:13 Uhr

    Der Unterschied zwischen einen „elektrischen“ und einen „elektronischen“ Staubsauger ist, dass letzterer zusätzlich mit einer bestimmte „zusätzliche Funktionen“ steuernden „Elektronik“ ausgestattet ist. Elektrisch wäre er, wenn es nur einen Motor, sagen wir einmal mit nur 2 Geschwindigkeiten und einen mechanischen Schalter gibt. Für die 2 Geschwindigkeiten würde hier nur die „Wicklung des Motors“ mechanisch (mit dem Schalter) umgeschaltet.

    Für zusätzliche „Mätzchen“, z.B. stufenlos einstellbare Geschwindigkeit, voller Staubbeutel, …. ist eine eingebaute Elektronik mit Transistoren, seit einigen Jahren mit Computerchips üblich. Manche bezeichnen etwas „hochtrabend“, derartige Funktionen als „intelligent“. Das könnte man als etwas übertrieben sehen. Aber derartige Geräte, z.B. Waschmaschinen übernehmen Funktionen die normalerweise nur halbwegs intelligente Menschen steuern könnten.

    Von „künstlicher Intelligenz“ spricht man heutzutage dann, wenn hauptsächlich elektronisch gesteuerte „Maschinen“ (Computer, Roboter, …) Funktionen realisieren können, für die man sonst mindestens einen menschlichen „Spezialisten“ braucht. Wie wir gesehen haben, können Schachcomputer den Weltmeister schlagen, oder sie können aus Röntgen (CT) Bildern Krebs besser erkennen als Fachärzte.

    Einfach erklärt, manche KI Systeme können „Muster“ (für die sie „spezialisiert“ sind), besser auswerten als der Mensch, der im Prinzip eine vorzügliche „Musterauswertemaschine“ ist.

    Die Computer sind deswegen so erfolgreich, weil sie einerseits extrem viel schneller als der Mensch Information verarbeiten können. Ein Neuron, ganz grob vergleichbar mit einem Transistor im Chip, kann maximal, sagen wir einmal mit 100 Hz „triggern“ (schalten), der Transistor im Ghz Bereich, also ganz grob 10 Millionen mal schneller. Beim Menschen ist die Parallelität der Informationsverarbeitung wesentlich größer, (was für den Menschen spricht).

    Andererseits kann das Wissen in technischen Systemen sozusagen „kumuliert“ werden. Viele Spezialisten können ihr „Wissen“ in ein Computersystem einbringen und es existiert weiter, selbst wenn der „Spezialist“ stirbt.

    Der Übergang zur „richtigen KI“ erfolgt dann, wenn Computersysteme selbständig (natürlich Programm gesteuert) ihre „Wissensbasis“ erweitern können, was auch der Mensch kann.

    Bestimmte Algorithmen im Zusammenhang mit „neuronalen Netzen“ bewirken Intelligenzfunktionen.

    Die Intelligenzfunktionen des Gehirns können immer besser verstanden und nachgeahmt werden.
    Der „Word2vec“ Algorithmus ist zumindest annähernd fähig, Texte in ihrer Bedeutung zu verstehen, fast wie der Mensch.

    Es wird zunehmend angestrebt, die „Erkenntnisse“ von „KI Maschinen“ nachvollziehbar zu machen.

    Die Verantwortung für die Behandlung liegt normalerweise beim Arzt. Es wird höchstens zum ethischen Problem, wenn statistisch KI Systeme zwar erfolgreicher sind als der Mensch, aber Menschenleben nicht aufgerechnet werden dürfen.

    Bedeutet, es steht irgendwann fest, dass mehr Menschen deswegen sterben weil man sozusagen auf KI „verzichtet“. Die Autoversicherungen sind natürlich für „KI Autos“ weil sie weniger Schadensfälle verursachen würden.

    Kreativität kann programmiert werden. KI Leistungen könne sich selbständig entwickeln. Sie können sich sogar in einer Art „internener Konkurrenz“ selbständig weiter entwickeln, natürlich auch in der Konkurrenz mit externen Maschinen.

  10. @ H.Wied 20.05.2020, 19:47 Uhr und Alle

    Ich sehe es im Prinzip wie Herr Holzherr, möchte jedoch etwas hinzufügen.

    Es ist üblich dass das neuronale Netz per Software und mit einem gewissen Unterschied zur „Hardware im Gehirn“ mathematisch „simuliert“ wird.

    Die Neuronenverbände im Gehirn bilden „Objektbeziehungen“ ab, die beim Lernen entstehen und beim Denken ausgewertet werden. So ist es auch bei der “Simulation” von Teilen des neuronalen Netzes im Computer.

    Man könnte es auch so formulieren, im Computer werden per Software Teile der Hardware des Gehirnes, bis auf den unten von mir angeführten Unterschied, „emuliert“. (Es beruht auf dem in der Informatik grundlegenden Konzept von Prozessor, Prozess und Information.
    Einfacher verständlich: Uralte Software die auf einem längst verschrotteten PC gelaufen ist, kann mittels „virtuellem Computer(betriebssystem)“ der „Virtualisierungssoftware“, auf einem neuen Computer „laufen“.)

    Das „neuronale Netz im Computer“, so eine Art „Virtualisierungssoftware“, verhält sich ähnlich wie das Gehirn.

    Der Unterschied ist, dass besonders sichere „Objektbeziehungen“ im Gehirn mit besonders vielen „neuronalen Elementen“ (Neuronen, Leitungen, Synapsen) realisiert sind.
    In der Simulation wird jedoch die „Stärke der Beziehungen“ zwischen „Objekten“ mit einer „Prozentzahl bewertet“. Sozusagen wird z.B. die Objektbeziehung dass 1+1 = 2 in der Simulation mit 100% bewertet. Im Gehirn mit besonders vielen und eindeutigen neuronalen Elementen.

    Da man mitunter „Widersprüchliches“ (oder nicht gut genug) lernt, entscheiden sich die vielen zuständigen Neuronenverbände mehrheitlich z.B. für „Schönwetter“, oder „Schlechtwetter“. In der Simulation wird berechnet, es steht z.B. 60% zu 40%.

    Neuronen lassen sich am ehesten mit „Qualifizierten UND Gattern“ in der Technik vergleichen. Das bedeutet, kommen z.B. auf mehreren Dendriten gleichzeitig Signale an, so dass das Neuron triggern kann (UND Bedingung erfüllt), wird auf Ergebnis ist „2“ entschieden. (Frei nach W. Mcculloch).

    Die „Problemstruktur“ wird im „künstlichen neuronalen Netz im Computer“, ganz grob gesagt, auf ähnliche Art abgebildet und realisiert wie im Gehirn, im realen neuronalen Netz.

    „Deep Learning“ lässt sich am ehesten mit den „vorausschauenden Spielzügen“ im Schach vergleichen. Man versucht, möglichst weit in die Tiefe gehend, die Spielzüge des Gegners zu berücksichtigen. Je leistungsfähiger die Maschine, desto besser kann sie in die Tiefe gehen. Allerdings muss das Problem des „exponentiellen Verhaltens“ berücksichtigt, bedeutet möglichst elegant „umgangen“ werden.

  11. Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung falsch. Da auch komplexere und verschachtelte Algorithmen – die auf (informations-)mathematischen Verknüpfungen aufbauen – insbesondere keine allgemeinmethodischen Lösungswege generieren.

    • @Dirk Freyling: sie erwarten also von Intelligenz „allgemeinmethodische“ Lösungen. In der Realität aber meint man mit Intelligenz die Problemlösefähigkeit im menschlichen Umfeld – und die ist selten allgemeinmethodisch.
      Dennoch stimme ich ihnen zu, dass ein System, das etwa die Fähigkeiten eines guten Mathematikers besitzt intelligent sein muss. Aber auch ein System mit dem sie einen befriedigenden Dialog führen können, würde ich als intelligent bezeichnen. Selbst wenn dabei wenig allgemeinmethodisch ist.

  12. Elektroniker,
    danke für ihre einsichtigen Erklärungen.
    Das Thema lautet: Transparente künstliche Intelligenz für Jedermann.
    Das ist ein vollmundiger Anspruch.
    Transparent wird ein Thema erst, wenn es konkret wird, damit ist eine praktische Anwendung gemeint.
    Wenn ein Arzt eine Computerdiagnose macht, was ist dann noch einsichtig. Er kennt den Algritmus nicht, mit dem das Programm seine Diagnose fällt (außer, es ist sein Programm). Was macht das Programm mit den Daten ? Werden die auch dem Gesundheitsamt übermittelt ?
    Und dann noch der Titel Künstliche Intelligenz. Der könnte aus der Public Relations Abteilung einer Sofware Firma stammen. Ein Programm ist nicht intelligent, es sammelt Daten, es wertet Daten aus und es macht eine Diagnose. Daran ist nichts intelligent, das ist alles vorprogrammiert.

    • Der Titel unserer Blogs lautet: Transparente künstliche Intelligenz für Jedermann?
      Wir haben das bewusst als Frage formuliert.
      Ob die Namensgebung des Forschungsfeldes berechtigt ist oder nicht ist nicht Gegenstand dieses Blogposts. In den 80er Jahren gab es eine Debatte darüber, ob man es nicht eher anders nennen sollte. (https://www.researchgate.net/publication/311307803_Intellektik_statt_KI)
      Fakt ist es wurde sich darauf geeinigt bei künstlicher Intelligenz zu bleiben. Ich möchte auch an dieser Stelle nochmal darauf hinweisen, dass dieser Blogpost sich nicht darum dreht was eigentlich Intelligenz ist und ob es angebracht ist von künstlicher Intelligenz zu sprechen, sondern um die Frage, ob und wie man das Verhalten von komplexen Systemen – insbesondere neuronalen Netzen – nachvollziehbarer machen kann.
      Mit Ihrem Beispiel der Computerdiagnose haben sie ziemlich genau die Problemstellung erfasst. Gerade diesen Fragen gilt es sich anzunehmen und zu lösen. Wie können wir dem Nutzer, der mit einem solchen System interagiert , genügend Einsicht liefern, dass er eine adäquate Einschätzung über die Entscheidung des Systems treffen kann.

  13. @ Dirk Freyling 21.05.2020, 21:01 Uhr

    Zitat: „Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung falsch. Da auch komplexere und verschachtelte Algorithmen – die auf (informations-)mathematischen Verknüpfungen aufbauen – insbesondere keine allgemeinmethodischen Lösungswege generieren.“

    So ist es vermutlich auch und dies halte ich für das „größte Elend“ in der Wissenschaft.

    Mit „Intelligenz“, ob künstlich oder natürlich, kann man vermutlich nur ein „Optimum“ erzielen.

    Damit wird man sich begnügen müssen.

  14. Es geht also doch um Begriffsverquasung. Man sollte doch einfach nur mal betrachten, was der Begriff “Intelligenz” bedeutet. Ist mein Fahrrad intelligent, weil mir der Fahrradcomputer sagt, wo ich hinfahren muß, wie weit ich schon gefahren bin, und wie schnell ich gerade fahre ? Wenn ich es möchte, zeigt mir der Fahrradcomputer sogar den Weg zur nächsten Gaststätte. Das hat aber doch alles nichts mit Intelligenz zu tun. Das kann ich alles auch mit einem Tachometer und einer Wanderkarte ermitteln. Ohne jede Elektronik (wenn man ein mechanisches Tachometer benutzt). Wo ist jetzt die Intelligenz geblieben ? Ist ein Buch intelligent, nur weil da intelligente Dinge drinstehen ? Wird es intelligent, wenn mir ein Automat mir dieses intelligente Wissen vorliest ? Wohl eher nicht.

    An künstlicher Intelligenz arbeitet man schon seit den 1960ziger Jahren. Ganz besonders in Erinnerung geblieben ist mir das Programm “Eliza” von Weizenbaum. Ich habe dieses geniale Programm noch als Lochstreifen irgend wo auf dem Dachboden. Es waren nur etwa 200 Zeilen Basic. Dieses Programm machte mit Tastatur und Bildschirm eine Unterhaltung mit dem Computer möglich (nur auf englisch). Auf einfachsten Computern (64k Byte Speicher, 2MHz Takt). Das Programm selbst besaß keinerlei Intelligenz. Die Intelligenz, die da drin steckte, war die Intelligenz des Programmierers, der das Programm geschaffen hat. Und ich habe Leute (mit meist geringerem Bildungsniveau) erlebt, die tatsächlich geglaubt haben, der Computer habe eine Persönlichkeit !

    Der Begriff “künstliche Intelligenz” mag bei neuronalen Netzen eine gewisse Berechtigung haben, weil da Strukturen (Neuronen) ähnlich wie im Gehirn per Software simuliert werden. Man sollte sich aber bewußt sein, daß damit keine wirkliche künstliche Intelligenz erschaffen wird.

    Kreativität ist nicht die Variation eines Parameters und dann ausprobieren ob es besser geht. In dieser Beziehung ist die Elektronik auf Grund der hohen Verarbeitungsgeschwindigkeit besser als der Mensch. Das hat aber nichts mit Kreativität zu tun. Sonst müßte ich auch jede Mutation des Erbgutes als Kreativität der Natur bezeichnen. Kreativität entsteht erst, wenn ich planvoll bei dieser Veränderung vorgehe, wenn ich auch das Konzept der Verarbeitung verändern darf.

  15. Ein elektrisches Auto heißt elektrisch, weil es mit elektrischer Energie angetrieben wird. Eine elektrische Lok heißt elektrisch (E-Lok), weil sie mit elektrischer Energie angetrieben wird. Ein elektrischer Rasenmäher heißt elektrisch, weil er mit elektrischer Energie angetrieben wird. Eine elektrische Bohrmaschine heißt elektrisch, weil sie mit elektrischer Energie angetrieben wird. Und auch der elektrische Staubsauger heißt deshalb elektrisch, weil er mit elektrischer Energie angetrieben wird. Elektronische Energie gibt es nicht. Es ist also völlig sinnlos, zu irgend einem der aufgeführten Geräte elektronisch zu sagen, denn es geht nicht um die Steuerung sondern nur um den Antrieb.

    Ich bin der Meinung, diese gedankliche Genauigkeit sollte man überall berücksichtigen. Nicht jede Maschine, die Informationen verarbeiten kann, ist intelligent. Mein Taschenrechner ist nicht intelligent. Auch nicht mein Computer, obwohl es manchen Leuten so erscheint, als hätte der ein Eigenleben. Auch wenn auf meinem Rechner das Programm “Eliza” läuft, ist der Rechner nicht intelligent. Der Rechner tut nur das, was der Programmierer (und durch das Starten des Programms ich auch) dem Rechner angewiesen haben, zu tun. Wenn der Rechner etwas anderes tut, dann ist er defekt. Und es ist völlig sinnlos, diese Abweichung von der Soll-Funktion als “Kreativität der Natur” zu bezeichnen ! Einen defekten Rechner kann man nicht mehr benutzen.

    Meine Beiträge sind komischerweise tagelang in der Moderation. Warum ?
    Bitte Herr Heimerl, vielleicht können Sie das etwas beschleunigen !

    • Lieber Leser,
      ich bitte um Nachsehen, wenn Kommentare längere Zeit in der Moderation verbleiben. Das betrifft jedoch nicht nur Ihre Kommentare, sondern auch die der anderen. Oft stehen dringlichere Dinge auf meiner Agenda, die meine volle Aufmerksamkeit erfordern. Ich investiere jetzt schon Feiertage und Wochenenden, um diesen Blog zu moderieren.
      Zurück zu ihrer Aussage, dass Programme nur so intelligent sind wie ihr Entwickler. Da haben sie in den meisten Fällen absolut recht. Im Feld des maschinellen Lernens sehe ich das ein wenig anders. Lassen sie mich das am Beispiel von neuronalen Netzen erläutern. Die Art und Weise wie Informationen durch das Netzwerk entlang der Kanten geleitet werden folgt festen Regeln. Es gibt immer einen Forward Pass und Backward Pass. Auch wird in jedem Knoten eine Aktivierungsfunktion angewendet. Im Zusammenspiel werden dadurch Kantengewicht angepasst und möglichst genau auf die Problemdomäne angepasst. Genau dieses Anpassen der Gewichte, auch wenn es mathematisch berechnet wird, ist von vielen Faktoren abhängig, z.B. Trainingsdaten, Anzahl der zu lernenden Klassen, Fehlerfunktion usw… Diese Faktoren gepaart mit der Komplexität von modernen Architekturen, die mehrere Millionen Parameter zu lernen haben, ist kaum von Menschen vorhersehbar. Auch wenn der Algorithmus nur das macht, was der Entwickler ihm gesagt hat zu tun kann man in den wenigsten Fällen wirklich antizipieren was das Ergebnis sein wird. Gerade diese Ungewissheit darüber was im Inneren passiert und wie Ergebnisse zu Stande kommen ist eine große Herausforderung für das Feld der künstlichen Intelligenz. Ob man das ganze nun intelligent nennen sollte oder nicht sei mal dahingestellt. Fakt ist allerdings, dass dieses Forschungsfeld nun mal so genannt wurde. Tatsächlich gab es auch Ende der 80er eine Debatte darüber, ob man dieses Feld wirklich künstliche Intelligenz nennen sollte. Als alternativer Titel wurde Intellektik vorgeschlagen.
      Nun befinden wir uns aber im Jahr 2020 und der Begriff der künstlichen Intelligenz ist etabliert. Auch wenn das alles eine berechtigte Diskussion ist würde ich alle Kommentatoren darum Bitten sich wieder auf den Kern dieses Blogposts zu berufen. Wie können wir mehr Transparenz in diesem Forschungsfeld erreichen und was sind eigentlich die ganz persönlichen Bedürfnisse?

  16. @ Leser 23.05.2020, 12:07 Uhr

    Ein elektrisches Auto heißt „elektrisch“, weil es mit elektrischer Energie angetrieben wird, allerdings nur deswegen, weil Autos eher selten, elektrisch fahren.

    Fast alle Geräte (im Haushalt) werden elektrisch angetrieben und das ist fast selbstverständlich. Seit einiger Zeit werden auch fast alle elektronisch mittels programmierter Chips gesteuert. Der Begriff „Elektronisch“ stammt aus der Zeit als die Geräte immer mehr Funktionen ausführen konnten und das war einmal ein Fortschritt.

    Dieser Fortschritt ist noch größer geworden, die Geräte können noch mehr. Z.B. autonom fahrende Autos. Auch dafür wurde der neue Begriff „künstliche Intelligenz deklariert“. Mehrere neue Möglichkeiten und eine Art von zusätzlichem Sozialprestige ist für viele Menschen ein Grund sich ein neues derartiges „Gerät“ zuzulegen.

    Was Sie über “Eliza” schreiben, ist ehemals schon Joseph Weizenbaum aufgefallen. Manche Psychiater fanden das Programm dennoch nützlich, weil sie vermuteten, künftig ihre Gesprächstherapien schneller abwickeln zu können, wenn eine Hilfskraft oder der Patient selbst die Antworten in das System eingibt. Der Psychiater hätte schnell (nicht erst nach stundenlangen Gesprächen) einen guten Überblick über die Assoziationsketten die ein Patient nutzt, bekommen. Die sollen typisch für bestimmte psychische Defekte sein.

    Für „Intelligenz“ gibt es kaum eine wirklich befriedigende Definition.

    Ich vermute, grundlegend für „Kreativität“ ist, bestimmte irgendwann im Gehirn abgespeicherte Muster (unterbewusst) zu erkennen und, allenfalls etwas modifiziert, auf andere Sachverhalte zu übertragen.
    Die meisten Künstler wissen nicht einmal warum sie kreativ sind.
    Andere nutzen die o.a. Möglichkeiten systematisch, z.B. „Gagschreiber“ fürs Fernsehen „schaukeln“ sich gegenseitig zu Höchstleistungen auf.

    „Muster“ können in „Mustergeneratoren“ mit beliebigen Parametern (aus z.B. zufälligen „Zahlen“ oder systematischen „Zahlenfolgen“) generiert werden, oder aus Muster Vorlagen extrahiert werden. Aus der statistischen Auswertung der Koinzidenzen können Aussagen zu den Mustern gemacht werden. Dass z.b. bestimmte Muster in CT Bildern statistisch typisch für eine Krebserkrankung sind.

    Von der Koinzidenz zweier oder mehrerer Muster auf einen kausalen (ursächlichen) Zusammenhang zu schließen, stellt logisch betrachtet zwar einen Fehlschluss dar. Allerdings sind die Erfolge dieser Konzepte beachtlich. Natürlich gibt es auch „Fakes“ und „Verschwörungen“.

    Erfolgreiche Musterverarbeitung dürfte mit Intelligenz korrelieren, beim Menschen, bei Tieren und KI Systemen. Die Fähigkeit zur Musterverarbeitung wird offenbar auch bei den speziellen Intelligenztests ermittelt.

    In „Mustern“, wie auch in „Objekten“ (anders als bei „Daten“) ist das „Konzept der Verarbeitung“ (der „Programmcharakter“) enthalten.

    Dies entspricht ihrer Forderung. Zitat: „Kreativität entsteht erst, wenn ich planvoll bei dieser Veränderung vorgehe, wenn ich auch das Konzept der Verarbeitung verändern darf.“

  17. @ H.Wied 22.05.2020, 08:52 Uhr

    Für „Intelligenz“ gibt es kaum eine wirklich befriedigende Definition.

    Allerdings gibt es Intelligenztests.

    Es scheint, dass möglichst erfolgreiche „Musterverarbeitung“ (die in den Testfragen enthaltenen „Muster“ müssen erkannt und korrekt erweitert werden) mit Intelligenz korreliert. Beim Menschen und bei Tieren. Offenbar wird die Fähigkeit zur Musterverarbeitung bei den speziellen Intelligenztests gemessen.

    Damit scheint für Intelligenz eine möglichst erfolgreiche Musterverarbeitung, ob von Mensch oder Maschine, eine wichtige gemeinsame Voraussetzung zu sein.

    Teilweise dem neuronalen Netz im Gehirn „nachempfunden“, wurden künstliche neuronale Netze für Computer entwickelt, die in der Musterverarbeitung recht erfolgreich sind.

    Eigentlich genau das, worauf es bei der Intelligenz hauptsächlich ankommt. Klar dass es sich die Entwickler, besser die PR Abteilungen, nicht verkneifen können, ihre ähnlich wirkenden Systeme als „intelligent“ zu bezeichnen.

    KI Systeme dürften künftig Nutzern, z.B. Ärzten, ihre Erkenntnisse nachvollziehbar machen.

    So wie es unterschiedliche Ausprägungen der natürlichen Intelligenz beim Menschen gibt, manche Menschen sind sozial, sprachlich, oder mathematisch, …. „begabt“, so ist die künstliche Intelligenz in bestimmten Bereichen überlegen (Schach, besondere Bildanalysen….).

    So wie der Mensch selbst über viele Generationen hinweg, letztlich vielfach genetisch, epigenetisch, memetisch, …. „vorprogrammiert“ ist, so entwickeln sehr viele Programmierer Computerprogramme und bauen auf die Arbeit früherer Programmierer auf. Auch Analysedaten die sozusagen Computer selbst „erhoben“ haben, werden auch maschinell weiter entwickelt, wie natürlich auch mathematische Konzepte.

    In Computern kumuliert allmählich mehr an jederzeit abrufbarem Wissen, als es in der ganzen Menschheit vorhanden ist. Diese Wissensbasis kann in künftige Systeme eingebunden werden.

    Bei bestimmten Spielen, prüft ein Computer angeblich vor dem nächsten Zug mehr Spielzüge als von der gesamten Menschheit jemals gespielt wurden, es ist pure Rechenpower.

    Ausgehend vom potentiell „ewig“ vorhandenen „absoluten Wissenspool“ (Geist, Information, Naturgesetze, für relativ viele Menschen mit „Gott“ als absoluten Ursprung verknüpft), aus dem wurde und wird unaufhörlich „geschöpft“. Bis vor einiger Zeit waren es so etwas wie „biologische Maschinen“ (in der Natur und die Menschen), aber zunehmend „schöpfen“ Computer aus dem „Pool“ und finden neben den allgemein bekannten Sachverhalten, z.B. immer mehr Naturgesetzmäßigkeiten, bestätigen oder finden (nebenbei) mathematische Thesen, finden neue Primzahlen, mehr Stellen von PI…..

    Eigentlich geht (eher) nur wenig „Information“ tatsächlich nur von einem einzelnen bestimmten „Subjekt“ aus, was den Philosophen so wichtig ist, sondern Information „wandert“ (ausgehend vom „Informationspool“) z.B. über Gene (Viren), Meme, …. durch die biologischen Systeme auf die sie Einfluss nimmt und neuerdings „wandert“ Information verstärkt auch über technische Systeme.

  18. Elektroniker,
    Zustimmung, der Mensch als soziales Wesen ist Teil des Systems.
    Mir geht es darum, dass die begriffe “künstliche Intelligenz” und “Netzwerke” so komplex sind, dass es nur einen Sinn hat, wenn man an einem konkreten Beispiel die Möglichkeiten diskutieren kann. Das scheint mir in diesem blog (noch nicht) möglich zu sein.

    Der Titel (transparente) künstliche Intelligenz für Jedermann ist gut, weil er journalistisch gut ist. Er weckt Erwartungen. Die sollte man jetzt an einem konkreten Beispiel erfüllen.

  19. @ Elektroniker

    Ich kann Sie offensichtlich nicht zur gedanklichen Genauigkeit animieren. Schade. Lassen Sie sich so richtig von der einlullenden Werbeindustrie umgarnen. Die können das richtig gut (elektronischer Staubsauger).

    Was Sie über “Eliza” schreiben, ist ehemals schon Joseph Weizenbaum aufgefallen

    Joseph Weizenbaum hat das Programm geschrieben. Das Programm ist eigentlich sehr einfach. Es hat einen Satz von Schlüsselwörtern, auf die es mit festgelegten Antwortsätzen reagiert. Alle anderen Sätze formuliert das Programm zur Frage um. Wenn ich Eliza schreibe “Der Baum ist grün.” dann fragt Eliza “Warum denkst du, daß der Baum grün ist ?” Diese Umformulierung zur Frage ist in Folge von SPO im Englischen sehr einfach und funktioniert auch nur in der englischen Sprache so gut. Eine “Unterhaltung” auf diese Weise ist natürlich nicht sinnvoll und nicht zielführend. Mich hat damals nur beeindruckt, wie wenig Programm notwendig ist, um eine “Unterhaltung” überhaupt zu ermöglichen. Fast ohne Analyse des Inhaltes der “Unterhaltung”. Und ohne jedes Bewußtsein. Ich hoffe “Baum” war kein Schlüsselwort, da “Eliza” sonst anders reagiert hätte. “Psychoanalyse” zu dem Programm zu sagen, war auch ein Trick von Weizenbaum, um zu verhindern, das die Leute über den Inhalt der “Unterhaltung” nachdenken. Es war natürlich kein “Psychoanalyse-Programm”.

    .
    @Alexander Heimerl

    Ich bin kein Programmierer und kenne heutige Simulationsprogramme für neuronale Netze nicht. Aber man kann neuronale Netze auf zweierlei Arten programmieren :

    1. Man legt eine Struktur fest. Danach trainiert man das neuronale Netz mit Musterobjekten (deep learning) so lange, bis man der Überzeugung ist, das Netz funktioniert. Jetzt kann man die entstandene Gewichtung der Verbindung zwischen den Neuronen abspeichern und untersuchen.

    2. Man lädt die abgespeicherte Struktur und Gewichtung der Verbindungen der zwischen den Neuronen direkt in die Simulation und hat damit reproduzierbar ein neues identisches neuronales Netz erschaffen. Daran kann man auch, durch Variation einzelner Gewichtungen der Verbindungen zwischen den Neuronen, die Funktion des Netzes testen.

    Ich kenne neuronale Netze nur aus der Zeit, als man froh war, rote Blutkörperchen maschinell zählen zu können (1980ziger Jahre). Vielleicht gibt es da inzwischen neuere Entwicklungen.

  20. @ Leser 24.05.2020, 13:26 Uhr

    Ich will alles möglichst nüchtern realistisch sehen. Die Unternehmen nutzen eben jede Möglichkeit um Geschäfte zu machen, sonst gehen sie am Markt unter. Und ich bin glücklich dass ich in der heutigen Zeit leben darf.

    Natürlich haben Menschen und erst Journalisten, viel Blödsinn im Zusammenhang mit Weizenbaums Programm „Eliza“ verzapft. Ich habe mich damals auch dafür interessiert und konnte die Denke der Psychologen gut nachvollziehen, weil ich einmal in einer 68er Studenten WG zusammen mit Psychologiestudenten gewohnt und vor allem mit ihnen ausgiebig diskutiert habe.

    Weizenbaum (der kein Psychiater war), war bestürzt über die Aussagen von Psychiatern, man könnte mit dem Programm „etwas anfangen“. Den Psychiatern die an einer Vorstellung des Programms teilgenommen haben, soll es einfach gefallen haben, die immer wieder ähnlichen Fragen der Psychiater zu automatisieren und letztlich nur die Assoziationsketten auswerten zu müssen. Die sind grundsätzlich ein wichtiger Ansatzpunkt für die Psychotherapie.

    Das hat Weizenbaum, aber auch jeden anderen Menschen der nicht gerade „Insider in Psychologie“ war, bestürzt. Weiß doch ein „Herr Jedermann“ von der Straße nicht, was die Assoziationsketten die bei sehr vielen „Psychotests“ (z.B. Rorschach, Szondi…) erhoben werden, so alles aussagen. Sie sind für Psychologen so wichtig, wie das Mehl für den Bäcker.

    Die Psychologen möchten sich, wie alle Berufe, die Arbeit erleichtern und dafür sahen sie eine Möglichkeit.

    Dafür können wenige 100 Zeilen Programmcode reichen.

    Heutzutage ist man viel weiter. Z.B. kann der Word2vec Algorithmus „Worteinbettungen“ im Zusammenhang mit zweischichtigen neuronale Netzen erstellen, die darauf trainiert sind, sprachliche Kontexte von Wörtern zu rekonstruieren.

  21. Ein gutes Beispiel wo man manuelles Programmieren mit Deep Learning (an Daten trainiertes Programm) vergleichen kann, scheint mir der Bereich der Computeralgebra. Bekannte Computeralgebrasysteme sind Mathematica oder Maple. Diese Programme vereinfachen algebraische Ausdrücke, lösen Gleichungen, differenzieren und integrieren Funktionen symbolisch („Differentiation is mechanics; integration is art.”). Vor allem das Integrieren von Funktionen ist selbst für erfahrene, trainierte Mathematiker/Ingenieure sehr schwierig. Und es ist auch für die heutigen Computeralgebra-Systeme sehr schwierig und benötigt hunderte von Regeln und Heuristiken und Millionen von Zeilen Programmcode.
    Doch jetzt haben zwei bei Facebook angestellte Mathematiker Deep Learning benutzt um ein Computeralgebrasystem zu realisieren, welches für die Integration von Gleichungen mit nur einer Variablen sogar wesentlich besser abschneidet als Mathematika, also eines der manuell von hunderten von Programmierern geschriebenen Computeralgebrasysteme. Beschrieben wird das neue Computeralgebrasystem, welches auf Training eines neuronalen Netzes beruht im Quanta-Artikel Symbolic Mathematics Finally Yields to Neural Networks Anstatt hunderte von Regeln und Heuristiken zu benutzen, greift das neue, auf Training mit einem künstlichen neuronalen Netz beruhende System, auf eine Datenbank von 200 Millionen elementaren Gleichungen zusammen mit ihren Lösungen zurück. Algebraische Ausdrücke werden dabei intern in Baumform dargestellt. Daraus leitet das System dann automatisch (durch Training) Regeln ab, wie es die algebraischen Gleichungen umformen kann um schliesslich zur Lösung zu kommen. Nach dem Training war das System in der Lage 5000 Gleichungen und Ausdrücke der schwierigsten Sorte selber zu lösen indem es die Erfahrungen des Systems mit den Gleichungen der mathematischen Datenbank nutzte. Besonders beim symbolischen Integrieren legte das neue System erstaunliche Leistungen an den Tag.

    Deep Learning und künstliche neuronale Netze können also manuelles Programmieren ersetzen. Anstatt Programmcode, der hunderte von Regeln implementiert, verwendet man ein einziges Programm, nämlich das künstliche neuronale Netz und einen Berg von Trainingsbeispielen, wobei die Trainingsbeispiele zu einer Aufgabe in Form von oft sehr verrauschten Daten auch die Lösung enthalten. Nach der Trainingsphase benutzt das künstliche neuronale Netz die dabei gesehenen Umformungsregeln um sie auf neue Daten anzuwenden.

    Fazit: Für Aufgaben, wo hunderte von Regeln und Beschränkungen zu berücksichtigen sind ist Training oft die einzige realistische Lösung: Anstatt Millionen von Zeilen Programmcode, der zwangsläufig tausende von Fehlern enthält, verwendet man tausende bis Millionen von Trainingsbeispielen, aus denen das künstlich intelligente System selbst die Regeln ableitet.

  22. Zitat aus Transparente Künstliche Intelligenz für jedermann:

    Dadurch finden wir uns in einer Situation wieder, in der wir mit einem Klassifikationsergebnis konfrontiert werden und oft nicht in der Lage sind, nachzuvollziehen, wie dieses Ergebnis zustande gekommen ist.

    Genau. Und es gilt: Klassifikationen sind für uns Menschen sehr wichtig, aber viele Klassifikationen sind nicht nach rein objektiven Kriterien möglich oder aber es braucht Spezialwissen um im Einzelfall etwas richtig zu klassifizieren. Das gilt sogar für so elementare Dinge wie die Frage ob eine Person ein Mann oder eine Frau ist.
    Heute aber können nicht nur Menschen, sondern auch Programme Objekte, Personen, eine Kleidungs- oder Architekturstil oder ein Röntgenbild mit Auffälligkeiten klassifizieren. Selbst wenn sie das im Vergleich zu einer Expertengruppe sehr gut tun, heisst das noch lange nicht, dass sie “richtig” klassifizieren, denn das gute Resultat kann auch einfach auf der Auswahl der Trainings- und Validierungsdaten beruhen und später (“in the wild”) zeigt sich dann, dass unter anderen Verhältnissen das System nichts taugt.

    Menschliche Klassifizierer kann man immerhin noch fragen, aufgrund welcher Kriterien sie etwa ein Auto als einen BMW oder eine Frau als schön eingestuft haben. Künstliche neuronale Netze aber kann man das (bis jetzt) nur eingeschränkt fragen. Dabei kann es durchaus sein, dass ein künstliches neuronales Netzwerk ein Auto als BMW einschätzt, weil es bestimmte Reifen hat. Reifen, die zufälligerweise in den Trainingsdaten nur bei den gezeigten BMWs vorkommen. Warum ist das bei KNNs (künstlichen neuronalen Netzwerken) ein möglicher Fehler? Weil KNNs absolut kein Vorwissen haben. Ein KNN lernt allein aus den Trainingsdaten, es weiss nichts von Reifen, von Autos oder überhaupt von unserer Welt. Wenn es in den sagen wir 1 Million Trainingsbildern 1000 BMWs unter vielen anderen Autos hat und die 1000 BMWs sind alle mit dem Titel BMW überschrieben, dann lernt das System einen BMW anhand dieser Trainingsdaten zu erkennen. Haben zufälligerweise alle gezeigten BMWs den gleichen Autoreifen aufgezogen, alle anderen Autos aber andere Reifen, dann kann das System tatsächlich den Reifentyp als Kriterium für die Autokategorie nehmen und diejenigen, die das System anschliessend einem ausgedehnten Test unterziehen (und auch beim ausgedehnten Test haben alle BMWs die gleichen Reifen) können zum Schluss kommen, das System sei ausserordentlich gut im Erkennen von BMWs – obwohl das überhaupt nicht zutrifft.
    Schlussfolgerung: Es wäre äusserst nützlich, wenn auch ein künstliches neuronales Netz genauso wie ein Mensch sagen könnte, warum es eine bestimmte Klassifikation vornimmt.

    Künstliche neuronale Netze können nicht nur Autos oder Tiere einem Autotyp oder einer Tierart zuordnen, nein sie können auch stilistische und ästhetische Urteile fällen – und das nach genügend Training so gut, dass sie von Experten als ebenbürtig betrachtet werden. Doch hier wird es noch problematischer. Sollte sich herausstellen, dass ein künstliches neuronales Netz eine Frau als schön beurteilt, einfach weil sie schöne, weisse Alabasterhaut hat, so würde dieses künstliche neuronale Netz eine Rasse bevorzugen – etwas was heutzutage absolut nicht mehr “geht”. So etwas kann aber ohne weiteres passieren. Dann nämlich, wenn die Trainingsdaten sehr viele weisse alabasterhäutige Frauen als Beispiele für schöne Frauen enthalten.

    Klassifikationen (du bist “schön”, aber nicht “kreditwürdig”) sind in unserer Menschenwelt extrem wichtig und allgegenwärtig, aber solche Einordnungen sind zugleich potenziell oder sogar prinzipiell diskriminativ gemäss dem Spruch: “Die guten ins Töpfchen, die schlechten ins Kröpfchen”. Gerade darum muss es bis zu einem bestimmten Grad hinterfragbar, ja transparent sein, warum etwas so oder anders eingestuft wird.

    Damit sind wir nun beim Problem der Transparenz und Nachvollziehbarkeit von Entscheidungen eines künstlichen neuronalen Netzwerks. Künstliche neuronale Netzwerke sind weit besser in Klassifizierungsaufgaben als frühere Ansätze etwa zur Zeit von Expertensystemen oder von regelbasierten Systemen. Doch KNNs sind zugleich der Inbegriff einer Black Box: vielleicht gerade darum, weil sie so gut sind im klassifizieren, sind sie zugleich opak und so orakelhaft wie das Orakel von Delphi, welches den “Klienten” die Zukunft voraussagen konnte ohne dass die “Klienten” verstanden, warum sie das konnten.

    Doch inzwischen gibt es ein paar Ansätze, die die Urteile von KNNs, zu erklären vermögen oder es mindestens vorgeben.
    Bei der Entwicklung von KNN’s, die ihre Entscheidungen erklären können gibt es dabei zwei grundsätzlich verschieden Ansätze. Der erste Ansatz will an den heutigen neuronalen Netzen nichts ändern, sondern nur eine Erklärungsmöglichkeit hinzufügen, der zweite Ansatz dagegen will nichts hinzufügen, sondern die KNNs so ändern, dass ihre Entscheidungen von vornherein eine Begründungskomponente enthalten.
    Ein Beispiel für den zweiten Ansatz habe ich bereits weiter oben gegeben: Die sogenannten Neuronalen Additiven Modelle (NAMs) sind Linearkombinationen von neuronalen Netzwerken. Jedes einzelne der verwendeten KNNs erkennt nur einen Faktor und die Gesamtentscheidung des Netzwerkes gibt automatisch auch an, wie stark die einzelnen Faktoren diese Entscheidung beeinflusst haben.
    Häufiger ist jedoch der erste Ansatz bei dem die gleichen KNNs wie heute eingesetzt werden, wo aber Zusätze erklären wie es zum Entscheid kommt.
    Alexander Heimerl & Elisabeth André haben ein Beispiel für diesen ersten Ansatz (Erklärung als Zusatz zu konventionellen KNNs) gegeben (Zitat):

    So macht ein gängiger Algorithmus, der vor allem bei der Klassifikation von Bildern Anwendung findet, Teilbereiche in einem Bild kenntlich, die für die Entscheidungsfindung des Systems von besonderem Interesse waren.

    Diese Methode nennt man Layer-wise Relevance Propagation (LRP), was auf deutsch in etwa “Schicht für Schicht weitergeleitete Einflussstärke einer Schichtregion auf den abschliessenden Kategorien-Entscheid.
    Eine andere, vor allem für Abgrenzungen sehr nützliche Erklärungsmethode heisst kontrafaktische Methode (counterfactual Method). Dabei wird mit einem Gegenbeispiel erklärt warum etwas in diese und nicht eine andere Kategorie einteilt wurde. Beispiel: “Dies ist ein Zebra und kein Pferd, weil es Streifen besitzt.”
    Es gibt noch eine ganze Reihe weiterer Methoden. Doch insgesamt befindet sich das ganze Gebiet der Erklärbarkeit/Transparenz in Entwicklung und es gilt: Nichts davon ist Standard und gesichert. Wir wissen nicht wirklich wohin die Reise geht. Von eigentlicher Transparenz im Sinne von Sichtbarkeit wie die Entscheidung aufgrund von Faktenkombinationen zustande kommt, sind wir heute bei KNNs jedenfalls noch weit entfernt.

  23. Explainable AI und Visualisierungstools werden zunehmend als “Muss” empfunden für ernsthafte Anwender von KI-Systemen. In sicherheitsrelevanten Bereichen wie in der Medizin, selbstfahrenden Fahrzeugen und Beurteilungen der Kreditwürdigkeit sowieso, aber zunehmend überhaupt für Anwender von künstlich intelligenten Systemen. Denn diese wollen wissen
    1) was die aktuellen Parameterwerte für Auswirkungen auf die Klassifikation haben
    2) Welche Einflussfaktoren bewirken, dass ein Objekt in einer bestimmten Kategorie landet
    3) Was die Beziehung zwischen verwandten, nahe beeinander liegenden Kategorien ist

    Heute werden Tools für die Erstellung von KI-Awendungen zunehmend von den grossen Cloud-Diensten AWS, Microsoft und Google angeboten. Google hat nun einen Explainable AI – Offensive gestartet, denn Google erachtet Explainable AI als essentiell für alle seine AI-Anwender und es hofft mit der Bereitstellung von Tools, welche AI transparenter machen, mehr Kunden für seine Cloud-Dienste zu gewinnen. Die Google-Website Explainable AI wirbt mit folgenden Aussagen für diese neuen Dienste:

    Explainable AI umfasst eine Reihe von Tools und Frameworks, mit deren Hilfe Sie interpretierbare und integrative ML-Modelle erstellen und zuversichtlich bereitstellen können. Sie können damit Featurezuordnungen in AutoML Tables und in der AI Platform verstehen und mit dem What-If-Tool das Modellverhalten visuell darstellen. Darüber hinaus vereinfacht die Lösung die Modell-Governance durch die kontinuierliche Bewertung der Modelle mit AI Platform.

    Google’s What-If Tool dient dabei auch der Visualisierung von Klassifizierungsergebnissen und es ermöglicht Echtzeitexperimente: Man kann Werte eines einzelnen Datenpunktes manuell ändern und erhält die sich dadurch ergebende neue Klassifikation. Auch Parameter kann man ändern und sich anschliessend anzeigen lassen, welche neue Klassifzierungen sich für alle Datenpunkte ergeben. Selbst verschiedene Modellierungen lassen sich in ihren Auswirkungen auf die Klassifzierung miteinander vergleichen und wie der Name “What-If” nahelegt, lassen sich auch kontrafaktische Fragen beantworten der Art: Wie sieht der nächstgelegene Datenpunkt aus, der einer anderen Kategorie zugeordnet wird und was macht es aus, dass dieser Datenpunkt gerade in dieser Kategorie liegt.

    Beurteilung: Explainable AI wird sich in Kombination mit Klassifikations-Visualisierungen überall dort durchsetzen, wo dies ohne allzu grossen Mehraufwand möglich ist. Nicht maximale Transparenz ist das Ziel sondern eine Art einfaches Navigationstool, welches verständlich macht warum bestimmte Datenpunkte diese oder eine andere Klassifzierung erhalten und wie die Klassifzierungen zueinander in Beziehung stehen.

  24. Zitat:

    Es gibt jedoch auch Situationen, in denen wir verstehen möchten, wie ein System zu einer Entscheidung kam – insbesondere dann, wenn ein solches System in existenziellen Bereichen unseres Lebens Verwendung findet.

    Ja – und es gibt 2 Personenkreise, die verstehen wollen wie ein System zur Entscheidung kommt:
    1) die Entwickler/Trainer des Systems. die wissen wollen ob das Training sein Ziel erreicht hat und
    2) der Endanwender, der wissen will, warum eine bestimmte Entscheidung gefällt wurde.
    Beim Autonomen Fahren sind gerade auch die Passagiere daran interessiert, warum beispielsweise das Auto plötzlich abbremst, warum es zur Beinahe-Kollision kam oder warum das Auto eine andere als die erwartete Route nimmt.
    Gemäss To Explain or Not to Explain: A Study on the Necessity of Explanations for Autonomous Vehicles vertrauen (potenzielle) Benutzer von selbstfahrenden, autonomen Autos heutzutage nicht besonders in die Technologie, doch wenn sie vom Auto erfahren warum es bestimmte Entscheidungen getroffen hat, erhöht sich das Vertrauen und der Stresslevel sinkt.
    Wünschenswert wäre gemäss dieser Untersuchung eine Personalisierung der Erklärungskomponente, denn vorsichtige Autofahrer (die, die keine Geschwindikgeitsüberschreitungen machen) bevorzugen ausführlichere Erklärungen, aggressive Autofahrer dagegen wollen nicht mit Erklärungen überversorgt werden.
    Weitere Resultate sind:
    – die Erklärungen sollen vor der Entscheidung gegeben werden (z.B. “muss jetzt bremsen wegen Fussgängern” oder “verlasse Autobahn wegen Stau voraus”)
    – die Begründung ist wichtig. Die Handlung selbst (z.B.: “ich bremse jetzt”) dagegen muss nicht kommentiert werden.
    – Möglicherweise sollte der Benutzer selbst den “Warnlevel” einstellen können, denn je nach Stimmung verlangt er nach mehr oder weniger Erklärungen.

    Die Untersuchung zeigt, dass solche Erklärungen für Passagiere das Vertrauen in das System deutlich erhöhen können.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +