Das semantische Netzwerk des Heidelberg Laureate Forum
BLOG: Heidelberg Laureate Forum
Netzwerke sind für das Heidelberg Laureate Forum das A und O. Zum einen im zwischenmenschlichen Sinne: mit dem HLF als Chance für junge Forscher, mit Preisträgern aus ihren Fächern und untereinander zu diskutieren, Erfahrungen auszutauschen und Beziehungen zu knüpfen. Aber hinter diesem menschlichen HLF-Netzwerk liegt noch ein anderes: ein semantisches Netzwerk aus Konzepten der Informatik und der Mathematik, die in vielen verschiedenen Kontexten auftauchen und die Vorträge, Gespräche und Projekte der jungen Forscher und Preisträger verbinden.
Sicherlich ist es nicht so, dass dabei alles mit allem anderen verbunden ist. Ungeachtet der Interdisziplinarität scheint es beispielsweise eine ziemlich große Kluft zwischen einigen der abstrakteren mathematischen Vorträge und der Informatik zu geben. Aber einige der Themen scheinen das HLF wie rote Fäden zu durchziehen.
Eines davon ist maschinelles Lernen. Der diesjährige HLF begann mit einer grundlegenden Einführung von John Hopcroft, die bei den Grundlagen einfacher neuronaler Netze begann und sich bis zu neueren Entwicklungen im Deep Learning, mit hintereinandergeschalteten Schichten von Netzwerken, vorarbeitete. Aber das maschinelle Lernen kam beispielsweise auch in David Pattersons Vortrag über Computerarchitektur am Donnerstagmorgen vor – in einem ganz anderen Zusammenhang: Schließlich führten die Hardware-Anforderungen von maschinellem Lernens dazu, dass ein Unternehmen wie NVIDIA plötzlich feststellte, dass Kunden seine billigen, leistungsstarken Grafikprozessoren (GPUs) in Massen kauften und für ganz andere Dinge nutzten als ursprünglich gedacht – nicht um Grafikdaten an Bildschirme auszugeben, sondern eben um die vielen vergleichsweise einfachen Operationen auszuführen, mit denen neuronale Netze lernen und das Gelernte anwenden. Und natürlich zieht sich solch ein Thema bis in die Forschungsarbeit von einigen der 200 Doktoranden und Postdoktoranden beim HLF hinein. Ein Beispiel ist Felipe Leno da Silva, der an der Universität São Paulo in Brasilien in Informatik promoviert.
Während einer Kaffeepause erzählte er mir, was er und seine Kollegen unternehmen, damit Maschinen schneller lernen, wie man komplexe Aufgaben erledigt – beispielsweise sich auf eine Tür zubewegen und diese offen zu halten, damit ein Mensch eintreten kann. Der Schlüssel zum erfolgreichen Training liegt (wie bei Menschen!) in einer erfolgreichen Belohnungsstrategie. Wer jemals “wärmer” vs. “kälter” gespielt hat, um einen suchenden Menschen zu einem versteckten Objekt zu lotsen, kennt bereits die Grundlagen von dem, was Felipe mit seinen Maschinen anstellt. Der Schlüssel zum Erfolg liegt dabei in der Wiederverwendung von Wissen aus zuvor gelösten Aufgaben sowie darin, dass die lernenden Maschinen mit anderen Maschinen und auch mit Menschen kommunizieren, sozusagen als Erfahrungsaustausch.
Wäre es nicht cool wenn wir die vielfachen semantischen Verknüpfungen zwischen den Themen der Preisträger, der Workshops, der Vorträge, der Arbeit der Nachwuchswissenschaftler in einer geeigneten Visualisierung sehen könnten? Vielleicht trainiert ja ein/e Teilnehmer/in mal eine Maschine, die genau so eine Visualisierung erstellen kann.