Algorithmen, natürlich!

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Während die Vormittage des Heidelberg Laureate Forum inhaltlich fest in den Händen der versammelten Turing-, Fields-, und Abelpreisträger sind, stand am Montagnachmittag mit den HLF-PostDoc-Workshops ein Rollenwechsel auf dem Plan: In insgesamt sechs einstündigen Workshops wird dabei Vertretern der jüngeren akademischen Generation eine Bühne gegeben, um die jeweiligen Forschungsthemen ihrer aktuellen PostDoc- oder Juniorprofessorenphase ins Bewusstsein der HLF-Gemeinde zu bringen. Eines der diesjährigen Workshopthemen war “Algorithms in Nature”, und Saket Navlakha (Salk Institute for Biological Studies) nutzte seine sechzig Minuten für eine Einführung in das zugehörige neue Forschungsfeld am Zusammenfluss zwischen Biologie und Informatik.

Interaktion und Wechselwirkungen zwischen Informatik und Biologie gibt es seit langem: Informatiker haben Methoden und computationelle Werkzeuge für die biologische Forschung entwickelt (so etwa für die Verarbeitung und Analyse von großen Datenmengen), und Biologen haben in ihrer Arbeit natürliche Konzepte und Wirkprinzipien entdeckt, welche Entwicklungen in der Informatik beeinflusst haben (klassische Beispiele hierfür sind etwa neuronale Netze oder evolutionäre Algorithmen). Dieses Wechselspiel ist für Wissenschaftler wie Navlakha aber nicht genug—sie versuchen, die Verzahnung zwischen beiden Gebieten weiter zu treiben und eine wirkliche Synthese zu erreichen.

Diesen Bemühungen liegt eine zunächst simple, aber in ihren möglichen Auswirkungen weitreichende Beobachtung zugrunde: Informationsverarbeitung in biologischen Systemen und Computern weist heute überaus ähnliche charakteristische Eigenschaften auf. So sind in beiden Domänen Systeme und Prozesse inzwischen häufig verteilt (d.h., anstelle einer einzigen zentralen “Verarbeitungszentrale” gibt es mehrere, zumeist auch parallel arbeitende Recheneinheiten), die Systeme sind netzwerkartig strukturiert, sie können konzeptuell in einzelne Module zerlegt und dann modulweise beschrieben werden, und viele der ablaufenden Prozesse und Berechnungen sind stochastischer Natur (was, zumindest auf der Informatikseite, vor einigen Jahren noch entschieden weniger der Fall war). Und auch die jeweiligen Zielsetzungen sind vergleichbar: Sowohl in der Biologie als auch in der Informatik sind effizientes Input-Output-Verhalten, Robustheit im Angesicht von Störungen oder externen Eingriffen, und Anpassungsfähigkeit an verschiedene Umweltbedingungen, weit oben auf der Wunschliste zu finden.

Auf all diesem bauen Navlakha und seine Kollegen ihre grundsätzliche Hypothese auf, dass biologische Prozesse von Haus aus Algorithmen sind, welche die Natur entwickelt hat, um computationelle Probleme in natürlichen Umgebungen zu lösen—und welche daher auch mit Methoden der Informatik erforscht werden können, während andererseits algorithmische Fragestellungen aus der Informatik von einer neuen Betrachtung aus der Perspektive des Biologen profitieren. Das Studium dieser “natürlichen Algorithmen” kann somit dazu beitragen, beide Fachgebiete weiter zu entwickeln: In der Informatik können ungelöste Probleme mit Strategien aus der Biologie angegangen werden, und die Biologie kann sich am strikten theoretischen Sammelsurium und an Metriken zur Vorhersage von Systemverhalten aus der Informatik bedienen.

Und genau diese Vorhersagemöglichkeiten sind es auch, die dazu führen, dass mehr und mehr Wissenschaftler sich der Initiative anschließen: “Big Data” ist nicht nur ein Thema im Zusammenhang von Datenschutz und Internetservices (sowie das Thema des diesjährigen HLF Hot Topics “Brave New Data World”). In vielen Wissenschaftsgebieten ist es Dank inzwischen verfügbarer großer Datenmengen und der zugehörigen Verarbeitungsmethoden möglich, vormals nicht durchführbare Simulationen mit unerreichter Detailauflösung anzustoßen. So auch in der Biologie, wo detaillierte Messungen und Analysen von Prozessen in biologischen Systemen, sowie von deren Reaktionen auf gezielte Eingriffe, unlängst endlich in das methodische Repertoire aufgenommen werden konnten.

Aber zurück zu Navlakha und seiner Arbeit. Ausgebildet als Mechanical Engineer und Informatiker war er während seiner PostDoc-Phase auf das Problem gestoßen, synaptisches Pruning als verteilten Algorithmus zu modellieren und in einer Simulation zu analysieren. Beim synaptischen Pruning handelt es sich um einen Mechanismus im Gehirn, der den Axondschungel zwischen Neuronen ausdünnt. Synaptische Verbindungen werden dabei gekappt oder zurückgezogen, sodass von den anfänglich dicht und teilweise redundant verbundenen Zellen und Regionen (im gesunden Fall) nur noch die tatsächlich relevanten Strukturen erhalten bleiben. Allerdings kann synaptisches Pruning auch zu Problemen führen: Handelt es sich zunächst um einen normalen und notwendigen Mechanismus, welcher im Lebenszyklus eines Gehirns verschiedene wichtige Funktionen wahrnimmt, so kann überaktives oder fehlendes Pruning auch Krankheiten verursachen (es wird vermutet, dass Autismus und verschiedenen neurodegenerativen Erkrankungen ursächlich mit fehlgeleitetem Pruning in Verbindung stehen).

Navlakha ist es gelungen (nachdem er unter anderem ein Jahr darauf verwendet hatte, am Labortisch Mausmodelle zum Thema zu studieren), ein Modell für synaptisches Pruning als verteilten Algorithmus zu entwickeln. Dies hat, wie erhofft, wertvolle Beiträge sowohl zur Forschung in der Informatik, als auch in der Biologie, hervorgebracht. Durch Transfer aus der Biologie heraus können neue Algorithmen für das Design von großen, verteilten Netzwerken (wie zum Beispiel Mobilfunknetzen oder Sensornetzwerken) entwickelt werden. In Gegenzug können aus der Informatik heraus neue experimentelle Daten bezüglich der Pruningrate als vormals nicht zugänglicher Parameter in der Erzeugung und Degeneration von Gehirnnetzwerken in die biologische Forschung eingebracht werden.

Natürlich verbleiben dennoch viele offene Fragen, sowohl was synaptisches Pruning im einzelnen, als auch das geteilte Gebiet zwischen Informatik und Biologie im allgemeinen anbelangt. Ein von Navlakha genanntes Beispiel für einen nach wie vor nicht vollständig verstandenen Mechanismen der erstgenannten Kategorie läuft während des Winterschlafs von Eichhörnchen (und anderen Säugetieren) ab: Währenddessen werden zahlreiche Axonverbindungen abgebaut, und erst kurz vor Ende der Schlafphase wird das Netzwerk wieder über neue Verbindungen verdichtet. Nichtsdestotrotz scheinen Eichhörnchen wenig bis keine Erinnerungen zu verlieren. Hier ein Fachartikel zum Thema.

Tarek R. Besold

arbeitet als PostDoc zu verschiedenen Themen aus dem Dunstkreis "Künstliche Intelligenz und Künstliche Kreativität" am Institut für Kognitionswissenschaft der Universität Osnabrück. Vor seiner Promotion in Kognitionswissenschaft hatte er Mathematik mit Nebenfach Informatik studiert, und ein einjähriges Intermezzo als "Logic Year"-Gaststudent an der Universität Amsterdam verbracht. Neben seiner eigentlichen Forschungsarbeit engagiert er sich als Wissenschaftskommunikator (zweiter Gewinner des 2013er Falling Walls Lab "Young Innovator of the Year"-Preises), Mitveranstalter von Wissenschaftsevents und gelegentlicher Autor des Analogia-SciLogs-Blog tätig.

2 comments

  1. Das Geheimnis des Gehirns liegt wohl in seiner Plastizität und Dynamik und wer versteht wie sich das Gehirm vom Embryo bis zum Erwachsenen entwickelt, hat wohl das Wichtigste verstanden. Heutige vernetzte, hochgradig multitask und multithread operierende Computersysteme haben wohl mehr mit dem Gehirn zu tun als die ersten Computer. Doch sie operieren immer noch völlig anders. Das Multitasking und Multithreading, die parallele Ausführung von Programmabläufen beispielsweise ist in digitalen Computern dadurch realisiert, dass der jeweils laufende Task oder Thread die Illusion erhält allein auf dem Computer zu laufen, während im Hirn sich Millionen von Neuronen sich irgendwie synchronisieren müssen um einen Task zu realisieren.. Synchronisation gibt es zwar auch zwischen parallel laufenden Threads im Computer doch völlig anders als beim Hirn und mit anderen Problemen. Während es bei der Sychronisation von Threads im Computer Probleme wie Deadlock, Live Lock oder Starvation gibt, sind mir derartige Probem beim Hirn unbekannt, was auf eine völlig andere Art der Synchronisation von Neuronen hinweist.
    Wahrscheinlich sind viele Hirnprozesse nur mit statistischen Mitteln zu verstehen während Digitalcomputer heute noch rein deterministisch arbeitende Maschinen sind.

    • 1) Wir besitzen Erinnerungen ab dem 5. Schwangerschaftsmonat: wenn man die Arbeitsweise des Gehirns verstehen will, muss man dies berücksichtigen – wenn nicht, sind Gehirnmodelle falsch.
      2) Unser Gehirn arbeitet relativ einfach: Denken/Kreativität lässt sich mit nur 3 Regeln als simpler Mustervergleich beschreiben (siehe: DOI: 10.5281/zenodo.15525 ). Ein neuer Reiz wird in einzelne Module zerlegt, welche parallel verarbeitet werden
      3) Als Reaktion auf einen neuen Reiz wird sofort vergleichbares Wissen reaktiviert – dies ermöglicht eine schnellste Reaktion und spart Speicherplatz; da nur die für die RE-AKTIVIERUNG notwendigen Daten gebraucht werden. (dies könnte das synaptische Pruning erklären: wenn ein Reiz erst einmal als Wissen abgespeichert ist, werden für die ursprüngliche Verarbeitung notwendigen Infos nicht mehr benötigt: Ähnlich wie bei der Erstellung eines Bildes am Monitor – speichert man das fertige Bild ab, werden die Daten der graphischen Zwischenschritte nicht mehr benötigt)

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +