Freitag, 3. Oktober 2014

Am Ende der Naturgesetze?



aus nzz.ch, 2.10.2014, 05:30 Uhr

Conditio techno-humana
Vom Gleichungs- zum Algorithmus-Paradigma
Eduard Kaeser ⋅ Seit Galileis mathematischem Modell der Bewegung feiern die exakten Wissenschaften ihre grössten Triumphe in Gestalt von Gleichungen: Newtons Prinzipien, Maxwells Gleichungssystem, Einsteins berühmte Formel E = mc2, die Schrödingergleichung, ja, auch Heisenbergs Unschärferelation, die eigentlich eine Ungleichung ist. Physikalische Gesetze sind meist in Differenzialgleichungen gegossen. Und ein Phänomen physikalisch zu erklären, bedeutet, eine solche Gleichung zu lösen.

Ein neuer Typus von Physik

Dieses Bild ist freilich höchst unzutreffend. Dass die «analoge» Physik mit ihren Gleichungen und Funktionen der Vertracktheit der Realität nicht gewachsen ist, dämmerte den Wissenschaftern definitiv unter den dramatischen Bedingungen des 2. Weltkriegs. Für den Bau der Atombombe mussten kernphysikalische Gleichungen gelöst werden, die mit herkömmlichen Mitteln schwer zu bewältigen waren. Dazu eine Anekdote.

Stanislaw Ulam, der brillante polnische Mathematiker, der in Los Alamos am Manhattan Project arbeitete, erholte sich von einer Krankheit. Aus Langeweile heraus fragte er sich, ob man sich den Lösungen nicht auf dem Zufallsweg nähern könnte. Bekanntlich lässt sich die Zahl Pi dadurch approximativ berechnen, dass man Pfeile auf ein quadratisches Dartboard wirft, dem ein Kreis einbeschrieben ist. Man bringt einfach die Treffer innerhalb des Kreises ins Verhältnis zu den Treffern innerhalb des ganzen Quadrats. Mit zunehmender Wurfzahl lässt sich Pi immer exakter bestimmen. Warum dann nicht auch Lösungen von Gleichungen?

Ulam hatte damit den Keim der sogenannten Monte-Carlo-Methode entdeckt: Lösen durch Zählen von möglichst vielen Zufallsereignissen. Und da nichts geeigneter ist zum Zählen als Computer, musste man diese noch in den Kinderschuhen steckende Technologie weiterentwickeln. Das war die Geburtsstunde eines neuen Typus von Physik: der «digitalen» Physik. Und es war zugleich mehr: das Fanal eines neuen Paradigmas von Wissenschaft.

In den frühen 1980er Jahren machten die Physiker Stephen Wolfram, Brosl Hasslacher und andere eine äusserst kühne Voraussage: Wenn Speicher- und Rechenkapazität der Computer einmal gross genug sein würden, könnten sie jedes Phänomen eines komplexen Systems modellieren – und dies ohne Gleichungen. Stattdessen führten die Physiker kleine Rechenelemente – zelluläre Automaten – ein, die sich auf einem Spielfeld nach einfachen Regeln (nicht: physikalischen Gesetzen) bewegen lassen. Die allgemeine Idee dahinter: Man muss, um den Verlauf des Systems zu studieren, nicht Differenzialgleichungen lösen, sondern Simulationen laufen lassen.

So wird heute etwa in sogenannten agentenbasierten Simulationen die Verkehrsdynamik aus dem Verhalten der einzelnen Agenten – der Fahrzeuge – erzeugt. Dabei ist vieles, was auf Mikroebene vorgeht, nicht mehr transparent. Hauptsache, man gewinnt dadurch einen Überblick über die Makroebene des Verkehrsflusses und seiner emergenten Eigenschaften, etwa über Staus oder Stop-and-go-Wellen. Schauen, was geschieht, nicht erklären, heisst die Devise.

Zwei Kulturen

Deshalb wird das Datensammeln zunehmend wichtiger. Auch hier erwächst dem Gleichungs-Paradigma die Konkurrenz durch Algorithmen. Man beobachtet dies deutlich in der Kerndisziplin von Big Data, der Statistik. Ein führender Vertreter – Leo Breiman – sprach 2001 von «zwei Kulturen» im statistischen Modellieren von Daten. Die eine Kultur geht – kurz gesagt – mit einem bestimmten Modell an die Daten heran; die andere lässt sich von den Daten selbst ein Modell liefern. Schulbeispiel für die erste Kultur ist die sogenannte lineare Regression. Sie erlaubt uns, die Korrelation zweier Datenmengen – zum Beispiel der Geburtenzahl einer Gegend und der Storchenpopulation – auf eine Geradengleichung zu reduzieren. Natürlich zwingen wir dem Datenmaterial quasi einen linearen Zusammenhang auf, indem wir zum Beispiel Ausreisser nicht berücksichtigen. Und falls die Daten sich einem linearen Modell widersetzen, geben wir es auf und bauen ein komplizierteres mit mehr Parametern.

Allerdings werden mit zunehmender Datenmenge die Zusammenhänge uneindeutiger. Die Statistiker sprechen von der «Messiness» der Datensätze. Sie entwickeln deshalb Algorithmen, die selbständig lernen, aus einer unklassifizierten – «messy» – Datenmenge Zusammenhänge herauszufiltern. Bei diesem Vorgehen setzt man einen bestimmten Algorithmus auf eine Menge von Trainingsdaten an, aus der er selber die nötigen Parameter entnimmt, sie auf weitere Test-Datenmengen anwendet und sich dabei auch selbst korrigiert. Auf diese Weise bringt sich der Algorithmus quasi bei, gewisse Muster in den Daten eines Systems zu erkennen. Er benötigt dazu keine Modell- oder Gesetzesvorgaben.

Dabei erweist es sich bei komplexen Phänomenen als zunehmend schwieriger, klar zwischen einem Zusammenhang «in der Sache» und einem Zusammenhang «in den Zahlen» zu unterscheiden. Oder vielmehr ergibt sich heute bei komplexen Phänomenen – sprich: Datenmassiven – eine Gewichtsverlagerung im Erkenntnisinteresse: von der Kausal- zur Datenanalyse. Man begnügt sich damit, herauszufinden, wie die Dinge zusammenhängen, ohne sich zu fragen, warum sie so zusammenhängen.

Die Kunst des Fragens

Befürworter des Algorithmen-Paradigmas – wie etwa Viktor Mayer-Schönberger – versprechen sich vom Sammeln und Analysieren der Datenfülle auch neue Fragestellungen, die wir vor Beginn der Datenanalyse noch gar nicht kannten. Das mag sein. Aber vielleicht sollte man sich daran erinnern, dass Fragen nicht Daten entspringen, sondern unserer Neugier. Wissenschaft ist die Kunst des Fragens. Und diese Kunst kann durch ein Paradigma auch reguliert werden. Paradigma – vergessen wir es nicht – bedeutet Normalisierung oder Disziplinierung der Fragestellungen und -beantwortungen. Dominanz des Algorithmus-Paradigmas könnte dann lauten: alle Probleme algorithmisch lösen und Probleme zu algorithmisch lösbaren machen, die es nicht sind. Probleme aber, die nicht auf diese Weise lösbar sind, marginalisiert oder verdrängt man einfach.

Sind also Gleichungen, ist die ganze schöne Theorienarchitektur der herkömmlichen wissenschaftlichen Disziplinen nurmehr Forschungsluxus? Im Gegenteil. Heute erweist sich ein Blick als umso nötiger, der im Wandel der Forschungsmentalität die Hilfsmittel austariert; will heissen: genau analysiert, worin die Stärken des Algorithmus und worin die Stärken der Theorie – letztlich also des menschlichen Ingeniums – liegen. Das Gebot der Stunde wäre, neben den daten- und rechenintensiven «Flaggschiffen» der Forschung eine ebenso reflexionsintensive Computer-Erkenntnistheorie – eine Kritik der automatisierten Vernunft – zu fördern. Denn die neuen Werkzeuge einer Erkenntnis «ex datis» wachsen uns über den Kopf und werden in dem Masse undurchsichtig, in dem sie mächtig werden. Das könnte sich zu einer echten Zwickmühle auswachsen. Und die Computer werden kein Interesse haben, uns daraus zu befreien.


Nota.

Das ist eine der in wissenschaftstheoretischer Hinsicht bemerkenswertesten Entwicklungen der letzten Jahrhzehnte! Die Grundlegung der modernen Naturwissenschafte geschah mit Galileos Umdeutung der Plato'schen Ideen zu sogenannten Naturgesetzen - und die stellte er sich als Gleichungen vor. Der epochale Gedanke, "das Buch der Natur ist in der Sprache der Mathematik geschrieben", ist anders nicht denkbar. 

Die Algoritmisierung der Wissenschaft macht Angst wegen ihrer Fetischisierung der bloßen Daten. Aber es wäre eine Revolution der abendländischen Mentalität und eine wahre Verwissenschaftlichung des Alltags- denkens, wenn die Vorstellung Raum griffe, dass ein Fakt eben nicht mehr als ein Fakt ist und keine Gesetze in seinem Herzen trägt, die ein Gesetzgeber ihm dort eingepflanzt hätte.

Das transzendentale Denken könnte Gemeingut werden.
JE


Keine Kommentare:

Kommentar veröffentlichen