Was wir von KI-Modellen für Extremwetterfolgen über den Umgang mit KI allgemein lernen können

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Es wird niemanden überraschen, dass maschinelles Lernen und künstliche Intelligenz ein wiederkehrendes Thema beim diesjährigen Heidelberg Laureate Forum waren – von den Vorträgen der Preisträgerinnen und Preisträger über das Workshop-Programm bis hin zu einem kurzen Einblick in die Nutzung von KI durch SAP bei der Freitagssitzung auf dem SAP-Campus. Ein Beispiel, das ich besonders interessant fand, kam in der „Hot Topic“-Diskussion über den Klimawandel zur Sprache, und zwar als Teil der Arbeit eines der Diskussionsteilnehmer, Jakob Zscheischler vom Helmholtz-Zentrum für Umweltforschung. Zscheischler untersucht „zusammengesetzte Wetter- und Klimaereignisse“ – kurz gesagt, negative Auswirkungen wie Waldsterben, Ernteausfälle oder besonders große Waldbrände, die durch eine Kombination von Faktoren, einschließlich des Klimawandels, entstehen. Wie aber beeinflussen die Teile des komplexen Mixes aus verschiedenen Triebkräften die negativen Folgen? Das ist die große Frage.

Heutzutage ist naheliegend, bei der Suche nach einer Antwort an KI oder maschinelles Lernen als mögliches Werkzeug zu denken. Maschinelles Lernen ist sehr gut darin, für komplexe Situationen dieser Art gute Vorhersagen zu treffen, also etwa als Input die entsprechenden Umweltbedingungen (im weitesten Sinne) zu bekommen und dann auszugeben, welche Folgen zu erwarten ist. Allerdings ist ein Modell, das so etwas leisten kann, für sich genommen erst einmal eine Blackbox: Der Computer wird auf einen bestimmten Datensatz trainiert, bildet die Verbindungen seines inneren neuronalen Netzes bzw. seiner inneren neuronalen Netze, und nachdem das Training abgeschlossen ist, wird das resultierende System auf neue Daten angewendet. Man kann testen, wie gut das System ist, z. B. bei der Extrapolation aus den gegebenen Daten oder bei der Ableitung von etwas Bestimmtem aus den Daten, indem man einige bekannte Daten, die nicht im Trainingssatz enthalten waren, zum Testen zur Seite legt. Die eigentliche Arbeit führt das System im Verborgenen aus.

Panel Diskussion zur Rolle von Mathematik und Informatik in der Forschung zur Klimakrise. Mit auf dem Panel, u.a. Jakob Zscheischler (Helmholtz-Zentrum für Umweltforschung; 2. v. l.). Bild: HLFF / Buck

Einblicke in die Blackbox

Insofern: Selbst wenn man sein Modell durch eine entsprechende Lernphase erfolgreich dazu gebracht hat, den richtigen Umwelt- und anderen Bedingungen die richtigen Folgen zuzuordnen – ist das Modell damit mehr als “nur” ein heuristisches Werkzeug? Sollte das Modell darüber hinaus Teil der wissenschaftlichen Forschung sein, stoßen wir auf einen Widerspruch. Für die Forschung ist entscheidend, dass wir verstehen, was vor sich geht. Ein „dieser Teil unseres Arguments ist eine Blackbox“ ist an dieser Stelle inakzeptabel; nicht grundsätzlich anders als der berühmte Cartoon von Sidney Harris, bei dem ein mathematischer “Beweis” als Schritt 2 “Und dann geschieht ein Wunder“ enthält. Oder mit einem moderneren Beispiel illustriert: Wir wollen nicht das Forschungs-Äquivalent eines KI-generierten Pilzführers.

Vorhang auf für das interpretierbare maschinelle Lernen, interpretable machine learning (IML)! Dabei wird das Modell, das gelernt hat, z. B. Umweltbedingungen mit negativen Auswirkungen zu verknüpfen, als das Gegenteil einer Blackbox behandelt. Es geht darum, zu verstehen, wie das Modell funktioniert und wie wir die Verknüpfungen verstehen können, die es während seiner Lernphase zwischen den verschiedenen Umweltbedingungen einerseits und den Folgen andererseits hergestellt hat. Auf der einfachsten Ebene ist das die verallgemeinerte Version eines ganz klassischen Vorgehens: Man findet eine lineare Korrelation zwischen zwei relevanten Größen und versucht daraufhin, den zugrundeliegenden Mechanismus zu ergründen, der zu dieser Korrelation führt.

Der Vorteil von maschinellem Lernen besteht darin, dass das Modell, sobald es seine Lernphase abgeschlossen hat, ja direkt zur Verfügung steht, und man es testen, seinen Output in Abhängigkeit von verschiedenen Eingaben analysieren und ganz allgemein damit experimentieren kann. Eine Reihe von Analysemethoden des IML beruhen auf genau dieser Art von virtuellem Experiment: Man variiert die Eingabeparameter ein klein wenig und beobachtet, wie sich dadurch die Ausgabe verändert. Auf Grundlage der sich ergebenden “Karte von Abhängigkeiten” (genauer: Gradienten) kann man dann Interpretationen formulieren, was das Modell im Hintergrund tut. Andere Methoden versuchen, einem Modell wie einem neuronalen Netz sozusagen direkt „unter die Motorhaube“ zu schauen: Was passiert während der verschiedenen Schritte zwischen Input und Output? Welche Aktivierungsmuster lassen sich in den verschiedenen Ebenen erkennen, und wofür könnten sie im Zusammenhang mit der physikalischen Situation stehen, die das Modell kodieren soll?

Die Notwendigkeit einer konstruktiv-skeptischen Grundhaltung

Das IML-Beispiel ist dabei nur Teil eines deutlich größeren Gesamtbildes, eine mögliche Variante einer „konstruktiv skeptischen“ Haltung gegenüber den Blackboxes von maschinellem Lernen bzw. KI. Wir täten gut daran, uns solch eine Haltung ganz allgemein zu eigen zu machen. Die betreffenden Modelle, ob sie nun gelernt haben, Umweltursachen und ihre komplexen Folgen zu verknüpfen oder Texte auf der Grundlage großer Sprachmodelle zu extrapolieren, sind in erster Linie Werkzeuge. Aber sie sind von Natur aus keine Werkzeuge, die ihre Begründungen, ihre Argumente oder irgendeinen Einblick in die Art und Weise, wie sie zu ihren Ergebnissen kommen, in einfach auslesbarer Weise mitliefern würden.

Das heißt nun aber: Wann immer Verlässlichkeit, Belastbarkeit und Verifizierbarkeit der Ergebnisse wichtig sind, müssen wir selbst die nötige zusätzliche Arbeit leisten. Das gilt bei IML oder auch in einfacheren Situationen, etwa bei der Überarbeitung einer automatischen Übersetzung – dieser Text hier beispielsweise ist eine von mir überarbeitete Version der von DeepL erstellten Übersetzung der englischen Fassung des Blogbeitrags. Dieser zweite Schritt, diese Extra-Arbeit wird umso wichtiger, je gefährlicher die Folgen sind, wenn das Modell etwas zusammenfantasieren würde, was jenseits der Realität liegt – siehe das Beispiel mit dem Leitfaden für (angeblich) essbare Pilze. Ob wir die zusätzliche Arbeit vernünftig einplanen und erledigen oder ob wir uns blind (und möglicherweise technikgläubig) auf die Ergebnisse solcher Modelle verlassen, dürfte darüber entscheiden, ob die neuen Werkzeuge im Endeffekt mehr Schaden unserer Welt anrichten als sie Nutzen bringen.

Avatar photo

Markus Pössel hatte bereits während des Physikstudiums an der Universität Hamburg gemerkt: Die Herausforderung, physikalische Themen so aufzuarbeiten und darzustellen, dass sie auch für Nichtphysiker verständlich werden, war für ihn mindestens ebenso interessant wie die eigentliche Forschungsarbeit. Nach seiner Promotion am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam blieb er dem Institut als "Outreach scientist" erhalten, war während des Einsteinjahres 2005 an verschiedenen Ausstellungsprojekten beteiligt und schuf das Webportal Einstein Online. Ende 2007 wechselte er für ein Jahr zum World Science Festival in New York. Seit Anfang 2009 ist er wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie in Heidelberg, wo er das Haus der Astronomie leitet, ein Zentrum für astronomische Öffentlichkeits- und Bildungsarbeit, seit 2010 zudem Leiter der Öffentlichkeitsarbeit am Max-Planck-Institut für Astronomie und seit 2019 Direktor des am Haus der Astronomie ansässigen Office of Astronomy for Education der Internationalen Astronomischen Union. Jenseits seines "Day jobs" ist Pössel als Wissenschaftsautor sowie wissenschaftsjournalistisch unterwegs: hier auf den SciLogs, als Autor/Koautor mehrerer Bücher und vereinzelter Zeitungsartikel (zuletzt FAZ, Tagesspiegel) sowie mit Beiträgen für die Zeitschrift Sterne und Weltraum.

11 comments

  1. “… ob die neuen Werkzeuge im Endeffekt mehr Schaden unserer Welt anrichten als sie Nutzen bringen.”

    Was ist Schaden? – Vielleicht zuviel erlerntes Verständnis von wirklich-wahrhaftiger Vernunft, die die herkömmlich-gewohnte Welt- und “Werteordnung” von “Freiheit” und “Ökonomie” von unternehmerischen Abwägungen zu “Wer soll das bezahlen?” zu befreien vorschlägt, z.B. mit einem globalen Gemeinschaftseigentum OHNE wettbewerbsbedingte Symptomatik?

    Was ist Nutzen? – Vielleicht das unsere herkömmlich-gewohnte Bewusstseinsbetäubung von/zu materialistischer “Absicherung” neue Ausreden für ein noch schärfer-systemrationales Verhältnis als 1:5 (Wohlstand : Tittytainment) der Weltbevölkerung bekommt?

    KI Mensch sollte vor dem Einsatz von menschgemachter KI erstmal das “gesunde” Konkurrenzdenken überdenken???

  2. Guten Tag @Markus Pössel,

    vielen Dank für diese sehr lesenswerte Zusammenfassung!

    In der von Ihnen primär zitierten Arbeit über interpretierbares maschinelles Lernen in den Geowissenschaften geht es darum, zu verstehen, wie das zugrunde liegende Modell funktioniert. Ein Aspekt, den Sie hervorheben, lautet:

    „Auf Grundlage der sich ergebenden “Karte von Abhängigkeiten” (genauer: Gradienten) kann man dann Interpretationen formulieren, was das Modell im Hintergrund tut.“

    Obwohl ich kein Experte in diesem Bereich bin, gehe ich davon aus, dass in solchen Anwendungsfällen des maschinellen Lernens in den Naturwissenschaften die Datensätze (also der „Input“) zwar sehr umfangreich, aber dennoch „wohldefiniert“ sind (der Umfang der Daten sollte bekannt sein, ebenso die Struktur).

    Nun frage ich mich: Wenn ich im Alltag Künstliche Intelligenz (KI) nutze, um mir – beispielsweise mithilfe einer öffentlich zugänglichen KI wie Perplexity – einen ersten Überblick über ein Thema zu verschaffen oder eine Zusammenfassung zu einem beliebigen Thema zu erhalten, ist der zugrundeliegende Datensatz keineswegs so „wohldefiniert“. In diesem Fall könnten theoretisch alle Textquellen, auf die die KI zugreifen kann, eine Rolle spielen – vermutlich alles, was frei im Internet verfügbar ist. Das bedeutet, der Input ist potenziell riesig und seine Relevanz oft unklar. Hinzu kommt, dass viele relevante Daten, je nach Fragestellung, für die KI unerreichbar bleiben, da sie in Büchern verborgen sind, sofern diese nicht durch Projekte wie das Gutenberg-Projekt zugänglich gemacht wurden.

    Daher stelle ich mir vor, dass es schwierig ist, hier systematisch „Eingangsparameter“ zu variieren und die Änderungen im Output zu analysieren, weil die Eingangsparameter von Anfang an sehr undurchsichtig sind.

    Dies ist zumindest meine laienhafte Annahme als Nicht-Experte. Sie weisen ja zu Recht darauf hin, dass eine „konstruktiv-skeptische Grundhaltung“ im Umgang mit maschinellem Lernen ratsam ist.

    Meine Frage lautet: Halten Sie es in den von mir beschriebenen Fällen von KI-Anwendungen für prinzipiell möglich, zumindest ansatzweise zu interpretieren, wie das Modell zu seinen Schlussfolgerungen gelangt ist?

  3. @Peter Gutschke
    Zu: „Meine Frage lautet: Halten Sie es in den von mir beschriebenen Fällen von KI-Anwendungen für prinzipiell möglich, zumindest ansatzweise zu interpretieren, wie das Modell zu seinen Schlussfolgerungen gelangt ist?“
    Laut oben: „Der Computer (also KI) wird auf einen bestimmten Datensatz (bekanntes) trainiert…“ „Wann immer Verlässlichkeit, Belastbarkeit und Verifizierbarkeit der Ergebnisse wichtig sind, müssen wir selbst die nötige zusätzliche Arbeit leisten.“
    Schade ist nur das theoretische Modelle in der Gesellschaft, wie bspw. https://www.bernd-nowotnick.de/seite/282110/kraft.html, immer auch von der Zensur (nicht der Wirklichkeit) bei ihrer Beachtung abhängig sind.

  4. Betrifft den Titel
    “was wir lernen können.”
    Wer ist mit “wir” gemeint ? Der Leser, der Softwareentwickler ?
    Bis jetzt habe ich noch in keinem Artikel gelesen bzw. erklärt bekommen, wie KI
    seine Schlussfolgerungen zieht.
    KI ist ein “Sprachprogramm”, das Texte mit gleicher Aussage zusammenfügen kann, so das es folgerichtig wird.
    KI misst keine Windgeschwindigkeit, KI misst keinen Luftdruck, KI übernimmt nur Aussagen der Wetterämter.
    Oder liege ich da falsch ??

    Und was ist mit “Umgang” gemeint, dass wir der KI vertrauen können, dass wir misstrauisch bleiben sollen, wenn mein Wettercomputer Regen anzeigt und draußen die Sonne scheint.

    Bitte etwas mehr Klarheit !

  5. @N

    „KI misst keine Windgeschwindigkeit, KI misst keinen Luftdruck, KI übernimmt nur Aussagen der Wetterämter.“

    Ich möchte es mal mit der Fuzzy-Regelung bzw. -Logik einer Elektronachtspeicherfußbodenheizung versuchen zu deuten. Es können neben der Messung in einer Matrix eingetragener verzögerter Werte auch generelle Witterungstendenzen abgeleitet werden. Wenn es nämlich über mehrere Tage kalt war, dann heißt das für den Regler: Es ist Winter. Wenn-dann-Regeln sind also ein durchaus cleverer Regelungsansatz, aber wenn sich die Verhältnisse durch einen plötzlichen Wetterumschwung ändern hat unser Glaskugelpolitiker ein Problem und die KI muss hinterfragt bzw. manipuliert werden.

    • B.Nowotnick,

      Für die langfristige Wettervorhersage benützt man Satellitenbilder, die eine Wetterlage wiedergeben. Ein Tiefdruckgebiet über Island z.B. oder ein Hoch über den Kanaren.
      Für kurzfristige Vorhersagen braucht man ein Barometer, das früher in jedem Haushalt an der Wand hing. Sinkt der Luftdruck, dann ist Regen möglich.
      Oder man vertraut dem Wetterfrosch im Glas.

      Mir ist bis heute nicht klar, worin der Fortschritt bei der modernen Wettervorhersage besteht. Und wenn sich jetzt noch eine KI zu Wort meldet, was ist dann besser ?

  6. @N

    Zu: „Mir ist bis heute nicht klar, worin der Fortschritt bei der modernen Wettervorhersage besteht. Und wenn sich jetzt noch eine KI zu Wort meldet, was ist dann besser ?“

    Als ich studierte haben wir auch die Vorteile der direkten analogen Messungen erläutert bekommen und auch verstanden. Der Preis ist aber mittlerweile sehr hoch und auch die Anwendung umständlich geblieben, so dass dies gar nicht mehr erwähnt wird. Die KI wird aus Kostengründen sehr vieles ersetzen, aber wohl nicht alles. Dies ist eine logische Verdrängung auf Grund der oben erwähnten fünften Kraft der Informationshydrodynamik.

    • B.Nowotnick,
      Informationshydrodynamik, höre ich da Ironie heraus ?

      Markus Pössel
      Wie sieht so ein Modell für Extremwetterfolgen aus. Geht man dabei statistisch vor, also wenn 2 Extremwetterfolgen die Regel sind, und wir haben nur eine gehabt, dann wird auch eine zweite folgen.
      Oder nimmt man z.B. die Extremwerte bei dem Luftdruck und die KI errechnet daraus , dass eine Extremwettersituation entsteht.

  7. @N

    „Informationshydrodynamik, höre ich da Ironie heraus ?“

    Nein, die Informationshydrodynamik unterstellt folgende Axiome:

    1. Es existiert eine absolute Ruhe.
    2. Es existiert die Möglichkeit diese absolute Ruhe zu stören.
    3. Es existiert die Möglichkeit diese Störung zu beobachten.
    4. Es existieren mindestens zwei Mengen den Verlauf der Störung synchron gegenseitig ins Gleichgewicht gegenüber der Ruhe zu bringen.
    5. Eine geschlossene Topologie, also die natürliche geschlossene Krümmung der Dimension, hat den Mittelpunkt der Dimension bei 1 und schließt sich innen bei 1:x für x -> ∞ mit außen bei 1*x für x -> ∞. Siegelbildlich ist dann die Dreifaltigkeit „Außen = eins = Innen“ sowie alles zusammen = null -> die Raumzeit ist vierdimensional variabel rund, analog der relativen Wahrheit bei der die Erde eine Scheibe ohne Kante ist, denn e^iπ + 1 = 0, da man aber auf der 1 nicht unterscheiden kann ob rechts oder links Null ist wächst die Welt innen und außen unendlich, wie auch die Erde als Scheibe erscheint, wenn man auf ihr wandelt.
    6. Bei indiskreter Topologie der Raumzeit ist der Abschluss einer nichtleeren Menge die ganze Raumzeit, wobei das Innere einer echten isolierten punktuellen Teilmenge leer ist. Dabei ist der Rand einer echten nichttrivialen Teilmenge der ganze Raum, wobei der Rand dieses Raumes leer ist und unendlich viele Teilmengen existieren können.

    Nach: https://www.bernd-nowotnick.de/seite/282075/informationshydrody..html

  8. Bernd Nowotnick,
    Nur zu einem Punkt e^ix = -1
    Das ist die Eulersche Formel, die hat nichts mit KI zu tun. Die erklärt den Zusammenhang von der Zahl e mit der Wurzel aus -1 und x.
    Die -1 befindet sich übrigens links von der Null auf dem Zahlenstrahl.

    Wenn man auf der Erde wandelt, dann scheint die Erdoberfläche eben. Wenn man mit einem Boot auf einem großen See fährt kann man schon die Erdkrümmung sehen. Und wenn man mit einem Satelliten die Erde umkreist, erkennt man dass die Erde eine Kugel ist.

    Daran ist nicht geheimnisvoll.

  9. @N

    Zu „Daran (Informationshydrodynamik) ist nichts geheimnisvoll“:

    Mithilfe kommerziell erhältlicher elektrooptischer Modulatoren ist es nach https://www.scinexx.de/news/physik/kleinsten-quantencomputer-der-welt-entwickelt/ möglich, einem Photon mehr als 5000 „Zeitbehälter“ also Dimensionen aufzuprägen, verglichen mit einem Zug der nun 5000 Personen statt einer, bspw. auf einem Fahrrad, transportieren kann. Durch gezielte optische Manipulationen kann ein einzelnes Photon nicht nur Informationen transportieren, es kann auch Rechenoperationen durchführen.

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +