Das nächste „big thing“ – Teil 1

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Wir alle wissen, dass Mathematik schwierig und kompliziert sein kann. Dass das allerdings nicht zwingend so sein muss, habe ich bereits in einem meiner Beiträge diskutiert. Es gibt sogar eine Liste von sieben besonders schwierigen Problemen, auf die sich führende Mathematiker geeinigt haben, die sogenannten Millenium Probleme. Die Lösung jedes dieser Probleme ist mit einer Million US Dollar dotiert. Als der Mathematiker Grigori Jakowlewitsch Perelman 2010 eines dieser Probleme lösen konnte, wurde das weltweit als „Riesensache“ („big thing“) gefeiert.

Beim HLF habe ich nun die einmalige Gelegenheit, mit einer Auswahl der besten Mathematiker und Informatiker zu sprechen und sie nach ihrem persönlichen „big thing“ zu fragen. Dabei geht es weniger um die Erweiterung der Millenium-Problem Liste, sondern darum, was sie in den kommenden Jahren als besonders wichtig einschätzen – was also eine „Riesensache“ werden könnte. Um es vorwegzunehmen: einige der Antworten hatte man so erwartet, bei anderen war ich doch überrascht.

Als erstes konnte ich mit den beiden Turing Preisträgern Juris Hartmanis und Richard Stearns sprechen, die 1993 zusammen den Preis für ihre Arbeit auf dem Gebiet der Komplexitätstheorie erhielten. Ihrer Ansicht nach werden die nächsten Jahre vom Thema „Big Data“ beherrscht werden. Dass das keine allzu kühne Behauptung, sondern bereits Realität ist, lässt sich durch eine Anfrage bei einer gängigen Suchmaschine bestätigen. Google z.B. behauptet, zu dem Thema mehr als 2 Billionen Treffer zu haben. Das Interessante bei dem Gespräch war aber etwas anderes, nämlich welche Konsequenzen sie damit verbunden sehen.

Zunächst einmal nannten sie das „Kausalität vs. Korrelation“ Problem. Kurz gesagt, geht es um die Frage, ob ein Ereignis „A“ (oft) zusammen mit einem Ereignis „B“ beobachtet wird. Das ist Korrelation. Kausalität bedeutet, dass ein Ereignis ein anderes nach sich zieht. Da im Kontext von „Big Data“ sehr viele verschiedene Ereignisse betrachtet werden, lassen sich hier auch Korrelationen finden, die nur scheinbar echt sind. Rein aus statistischen Gründen. Gefährlich wird es nun aus zwei Gründen: erstens nehmen viele Leute diese gefundenen Korrelationen für bare Münze. Zweitens – und noch viel schlimmer – die Korrelationen (ob nun falsch oder nicht) werden als kausale Zusammenhänge interpretiert. Hier wäre z.B. der Angebliche Zusammenhang zwischen der Anzahl von Storchenpaaren und erhöhter Geburtsrate zu nennen. Als nächstes „big thing“ sehen Hartmanis und Stearns deshalb neue Verfahren, die dieses Problem lösen können.

Im gleichen Kontext nannten sie weitere Beispiele, die sie als kommende „big things“ einschätzen: ihrer Meinung nach werden die immer günstiger werdenden Rechenressourcen zu einer grundsätzlichen Veränderung unserer Datenanalysen führen. Weil immer mehr Daten in immer kürzerer Zeit analysiert werden können, werden in Zukunft viele stichproben-gestützte Verfahren durch „analysiere alles“ Methoden abgelöst. Auch hier gibt es für die Forschung noch einiges zu tun.

Ich bin gespannt, ob es wirklich darauf hinauslaufen wird: „Kausalität wird immer unwichtiger und Korrelationen immer wichtiger werden. Wir werden weniger Theorien entwickeln und mehr faktenbasiertes Wissen aufbauen.“

Posted by

studierte Bioinformatik und Computerwissenschaften an der Freien Universität Berlin und der Monash University Melbourne, Australien. Deinen PhD machte er an der „Berlin Mathematical School“. Seit 2006 ist der CEO eines kleinen Unternehmens im Bereich Lebenswissenschaften und seit 2008 Leiter der Arbeitsgruppe „Computational Proteomics“ an der FU Berlin. Er mag es über sein Fachgebiet zu kommunzieren und wurde im Jahr 2009 mit dem Klaus-Tschira-Preisträger für verständliche Wissenschaft “KlarText!” ausgezeichnet.

2 comments

  1. Ich sehe es exakt genauso und dachte mir am Anfang des Textes: “big data und Algorithmen” und ein paar Zeilen später wurde meine Vermutung ja auch bestätigt. Ich denke, dass das Verständnis für lernende Algorithmen zudem weiter steigen wird. Algorithmen, die riesige Datenmengen nach Mustern und Strukturen durchsuchen. Gewichten und Schlüsse ziehe. Das ist bereits jetzt Realität, wird aber nur die spitze des Eisberges sein.

  2. Die Tendenz, Daten und Muster in diesen Daten als Ersatz für Analyse einzusetzen, die gibt es schon. Sogar in der künstlichen Intelligenz. Es ist also denkbar, dass zukünftige autonome Fahrzeuge sich an einer Unmenge von gesampelten Fahrsitutationen orientieren anstatt an tiefgreifenden Analysen des aktuellen Verkehrsgeschehens. So wie das heute schon bei der automatischen Übersetzung zwischen natürlichen Sprachen geschieht.
    Die Ableitung von kausalen Zusammenhängen wird heute ja auch bereits angegangen in Form von Bayesschem Schliessen und Byesschen Netzwerken. Allerdings ist das kein tiefgründiges Schliessen. Aber auch die meisten Menschen ziehen in ihrem Alltag kaum tiefgründige Schlüsse.

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +