WIRKUNG
Komplexe Welt

Dynamik komplexer Systeme

Das menschliche Gehirn, das Erdklima oder lebende Organismen sind Beispiele für komplexe Systeme. Obwohl sie auf den ersten Blick hochkompliziert erscheinen, lassen sich mit den Methoden der Physik faszinierende Gesetzmäßigkeiten und grundsätzliche Eigenschaften in ihnen erkennen.

Vorabversion

Der Begriff der komplexen Systeme entzieht sich bisher trotz einiger beachtenswerter wissenschaftsphilosophischer Versuche einer in allen Aspekten allgemein akzeptierten Definiti- on. Praktisch alle einführenden Texte nennen jedoch die Wechselwirkung vieler Teilchen und die Fähigkeit, Ordnung auf makroskopischer Ebene auszubilden. Viele Autor:innen heben dazu die prominente Rolle von nichtlinearen Dynami- ken und Rückkopplung als elementare Eigenschaft hervor. Im Ergebnis bilden sich in komplexen Systemen makroskopi- sche Strukturen, die nicht durch die Systemelemente vorge- geben sind, sondern durch ihre Wechselwirkung untereinander und mit der Umgebung bei geeigneten Anfangs- und Randbedingungen entstehen (siehe auch „Nichtgleichge-wicht und Strukturbildung“ auf Seite 31).

Die Bedeutung des Gebiets wurde 2021 durch die Vergabe des Physiknobelpreises „für bahnbrechende Beiträge zum Verständnis komplexer physikalischer Systeme“ betont. Ei- ner der Preisträger, der italienische Theoretiker Giorgio Parisi, hält die Forschung zu komplexen Systemen für besonders interessant, auch weil hier viele Methoden der Physik in anderen Gebieten zum Einsatz kommen, wie z. B. bei Ökosystemen oder dynamischen Netzwerken. Darüber hinaus betont er, dass die grundlegenden Probleme komplexer Systeme häufig mit der Nichtgleichgewichtsphysik zu tun haben. Als interdisziplinäres Teilgebiet der Physik beschäftigt sich die Physik komplexer Systeme mit

Auch auf dem Gebiet der Physik komplexer Systeme ist die Verzahnung von Theorie und Beobachtung bzw. Experiment zentral. Dies umfasst Simulationen von adäquaten Modellen und die Analyse großer Datensätze. Dementsprechend kommen umfänglich computergestützte Verfahren zum Einsatz. Zu den vielen Beispielen gehören u. a. die Physik der Fluide, die biologische Physik von der Zelle bis zum Schwarmverhalten von Spezies, vernetzte Systeme einschließlich sozialer Netzwerke oder Vegetation und Klima.

Untereinander und mit der Umgebung

Im 19. Jahrhundert entstand basierend auf Arbeiten von Rudolf Clausius, Josiah Willard Gibbs und anderen die Thermodynamik als eine Theorie der makroskopischen Zustände der Materie, die in wenigen zentralen Aussagen, den thermodynamischen Hauptsätzen, zusammengefasst werden kann. Schon früh entwickelten Ludwig Boltzmann und andere sie zur statistischen Mechanik weiter. Dahinter steckt die atomistische Vorstellung von Materie, in der man es mit Systemen von miteinander wechselwirkenden Teilchen zu tun hat, die sich in ihrer Gesamtheit beschreiben lassen. So erlaubte die statistische Thermodynamik vorherzusagen, welcher Gleichgewichtszustand sich in einem geschlossenen System einstellen wird, ohne dabei Aussagen über einzelne Bestandteile des Systems machen zu müssen. Dabei wurden grundlegende Begriffe wie Temperatur, (freie) Energie und Entropie entwickelt, mit denen die Vielfalt der materiellen Phänomene untersucht und besser verstanden werden kann.

Interessante kollektive Vielteilcheneffekte sind Phasenübergänge wie Gefrieren oder Schmelzen, der Übergang vom Metallen zwischen einem nichtmagnetischen und magnetischen Zustand oder auch Perkolation. Phasenübergänge werden in der Regel mit dem (kontinuierlichen oder auch abrupten) Auftauchen eines von Null verschiedenen Ordnungsparameters verbunden und trennen demzufolge häufig eine geordnete und eine ungeordnete Phase. Bei einem sprunghaften (unstetigen) Übergang spricht man von einem Phasenübergang erster Ordnung. Geschieht der Übergang allmählich (stetig), so handelt es sich um einen Phasenübergang zweiter Ordnung. Dabei gibt es in der Regel einen kritischen Punkt, in dessen Umgebung das System stark von Fluktuationen dominiert wird. In der zweiten Hälfte des 20. Jahrhunderts wurde gezeigt, dass die Systemeigenschaften häufig nicht von den Details, sondern nur von der Symmetrie des Ordnungsparameters oder der räumlichen Dimension des Systems abhängen. Somit sind Phasenübergänge zweiter Art einigen wenigen Universalitätsklassen zuzu­ordnen und können durch entsprechende Skalierungsgesetze umfassend beschrieben werden.

In den vergangenen Jahrzehnten hat die Physik verstärkt solche Phasenübergänge im Nichtgleichgewicht untersucht. Dabei betrachtet sie offene makroskopische Systeme, die sich durch die permanente Zu- und Abfuhr von Energie, Stoffen ­und/oder Information auszeichnen.

Perkolation

(lateinisch percolatio: Durchsickerung) beschreibt das Entste-hen (oder umgekehrt das Verlorengehen) von makroskopischerVerbindungsfähigkeit in vernetzten Systemen.

Bei der klassischen Perkolation geht es z. B. um die Frage, ob sich in einem heterogenen Material leitfähige Bereiche so organisieren, dass sich eine durchgehende Verbindung durch das ganze System bildet. Dazu muss der Anteil leitfähiger Bereiche einen kritischen Wert, den sogenannten Perkolationspunkt, überschreiten, an dem die Leitfähigkeit schlagartig zunimmt – das Material hat sich dann von einem Isolator in einen Leiter verwandelt. Mit mehr und mehr Kanten, d. h. einer größeren Wahrscheinlichkeit p für Verbindungen, wachsen anfänglich kleine Gruppen von verknüpften Einheiten zu einem großen, systemweit verbundenen Netzwerk zusammen. Als Ordnungsparameter P dient die Größe der zusammenhängenden Netzwerkkomponente. Oberhalb des kritischen Perkolationspunkts pc wächst P(p) entsprechend eines Skalierungsgesetzes (p−pc)a mit dem kritischen Exponenten a an.

Bei der gerichteten Perkolation bildet sich das Netzwerk mit einer Vorzugsrichtung aus. Dies lässt sich mit einer Kaffeemaschine (englisch: coffee percolator) veranschaulichen: Während das Wasser sich seine Kanäle durch das Kaffeepulver sucht, bewegt es sich insgesamt gesehen in die Vorzugsrichtung, die durch die Gravitation bestimmt wird. Die gerichtete Perkolation ist auch ein Paradebeispiel eines Nichtgleichgewichtsphasenübergangs. Es war eine große Überraschung, dass in den 2010er-Jahren der Übergang zur Turbulenz in vielen Geometrien inklusive der einfachen Rohrströmung durch die Universalitätsklasse der gerichteten Perkolation beschrieben wurde.

Bei Strömungen zwischen parallelen ebenen Wänden, die sich zueinander bewegen (Couette-Experiment), zeigen sich raumzeitliche Muster turbulenter und laminarer Gebiete. Bei einer langsamen Strömung unterhalb der kritischen Reynolds-Zahl (U < Uc) zerfällt die Turbulenz (unten), während an der kritischen Schwelle immer einzelne turbulente Bereiche im System erhalten bleiben (Mitte und oben). An einer festen Position kann die Turbulenz verschwinden und zu späterer Zeit wieder erscheinen. Auch oberhalb von Uc bleiben kleine, nicht turbulente Bereiche bestehen, die allerdings mit zunehmender Reynolds-Zahl wieder weniger werden.

Nichtlinearität und Chaos

Im Gegensatz zu Gleichgewichtssystemen sind offene Systeme häufig durch komplexe Dynamiken gekennzeichnet, etwa durch periodische oder chaotische Oszillationen, Wellenausbreitung oder irreguläre Strukturbildung wie etwa Turbulenz. Dabei werden in vielen Fällen deterministische, nichtlineare Gleichungen als Modelle zur Beschreibung verwendet wie beispielsweise das Lorenz-Modell. Der Meteorologe Edward Lorenz hat dieses nach ihm benannte Modell als stark reduziertes Modell für thermische Konvektion abgeleitet. Für diese stellt die nichtlineare Dynamik Werkzeuge zur Charakterisierung und zum Verständnis bereit. Was in der statistischen Physik als Phasenübergang behandelt wird, stellt sich hier nun als Verzweigung oder Bifurkation dar. Das können zum Beispiel sprunghafte Änderungen eines stationären Zustands sein, wie sie im Zusammenhang mit Hysterese in bistabilen Systemen auftreten. Hier spricht man von Sattel-Knoten-Bifurkationen – auch bekannt als „Kipppunkte“, wie sie in der Diskussion um die Änderung des Erdklimas (siehe „Kippdyna-miken im Erdsystem“ auf Seite 123) oder bei den Übergangsszenarien von Vegetation in Trockengebieten verwendet werden.

Das Einsetzen von Oszillationen wird durch eine Reihe anderer Bifurkationen vermittelt (z. B. durch eine Hopf-Bifurkation, bei der ein Fixpunkt in eine periodische Dynamik übergeht). Reguläre periodische Oszillationen können wiederum auf verschiedenen Wegen in irreguläre, chaotische Oszillationen übergehen, etwa durch Periodenverdopplung.

Chaotische Systeme sind komplexe Systeme, deren zeitliches Verhalten sehr empfindlich auf unterschiedliche Anfangsbedingungen reagiert. Sie zeigen ein scheinbar zufälliges, dynamisches Verhalten, das aber durch die physikalischen Gesetze und ihre mathematischen Gleichungen, wie z. B. dem Lorenz-Modell, vollständig festgelegt, also deterministisch ist. Was uns hier als Zufall erscheint, sind fehlende Kenntnisse des Anfangszustands. Kleine Abweichungen der Anfangsbedingungen führen im Laufe der Zeit aber zu sehr unterschiedlichen Ergebnissen, weshalb eine langfristige Vorhersagen für chaotische Systeme wie etwa das Wetter unmöglich ist. Diese Sensitivität wird manchmal auch als Schmetterlingseffekt bezeichnet, was aber nicht wörtlich zu nehmen ist, da ein reales System laufend Störungen ausgesetzt ist.

Eine Oszillation kann durch deren Amplitude und Frequenz charakterisiert werden. Zur Charakterisierung von Chaos wurde das Konzept der sogenannten seltsamen Attraktoren eingeführt. Diese Attraktoren besitzen eine gebrochenzahlige Dimension, die zwischen chaotischen System variieren. Das Verständnis von Chaos hat Auswirkungen auf Bereiche wie Meteorologie und Kryptografie.

Werden neben einer zeitlichen Dynamik auch räumliche Veränderungsmöglichkeiten mit einbezogen, ergeben sich eine Reihe faszinierender Musterbildungen, zu denen verschiedene Wellenformen, stationäre Strukturen sowie raumzeitliches Chaos und voll entwickelte Turbulenz gehören.

Hysterese

(altgriechisch ὑστέρησις, hystérēsis: später) beschreibt die Abhängigkeit des Zustands eines Systems von seiner Vergangenheit.

Mit Zunahme eines Systemparameters a ändert sich der Zustand eines Systems zunächst kontinuierlich und nimmt ab einem gewissen Wert schlagartig zu (gelb). Eine direkte Umkehr dieses Sprungs ist nicht möglich. Stattdessen folgt das System bei Abnahme des Parameters a einem anderen Ast, bis es wieder auf das ursprüngliche Niveau zurückspringt. Der Zustand des Systems bei Hysterese ist damit nicht nur durch die aktuellen externen Bedingungen beschrieben, sondern hängt auch von den Zuständen des Systems in der Vergangenheit ab. Ein solches Verhalten ist z. B. aus dem Magnetismus bekannt: Die Magnetisierung eines Ferromagneten folgt bei zunehmendem und anschließend abnehmendem Magnetfeld auf dem Weg zur Umpolung unterschiedlichen Kurven.

Allgegenwärtig und hochkomplex: Turbulenz

Turbulenz begegnet uns tagtäglich als raumzeitliche chaotische Fluidbewegung mit Wirbeln – beim Rühren in der Kaffeetasse, in Bächen und Flüssen oder als Luftbewegung, sichtbar etwa bei aufsteigenden Rauchschwaden oder der Wolkenbildung. Für eine präzisere Vorhersage des Wetters und des Klimas, aber beispielsweise auch für die Konstruktion von Flügeln von Windenergieanlagen oder das Verhalten von Plasma in Fusionsreaktoren, müssen wir Turbulenz verstehen, vorhersagen oder kontrollieren können. Bis heute stellt uns Turbulenz jedoch vor große wissenschaftliche Herausforderungen.

Turbulenz tritt in vielen komplexen Systemen fernab vom thermodynamischen Gleichgewicht auf. Sie ist selbst komplex, weil schon verhältnismäßig einfache turbulente Strömungen viele Millionen Freiheitsgrade aufweisen. Turbulenz kann nur im Nichtgleichgewicht aufrechterhalten werden – durch eine ständige Energiezufuhr, die die typischen Wirbelbewegungen erzeugt. Diese offenbaren eine weitere Eigenschaft von Turbulenz: Chaos, d. h. raumzeitlich irreguläres Verhalten, das sich letztlich nur statistisch beschreiben lässt. Eine der Hauptaufgaben der Physik ist es, eine solche statistische Beschreibung zu entwickeln: Nicht die Frage, wann genau eine Windböe auf den Flügel einer Windkraftanlage trifft, ist entscheidend, sondern wie häufig und mit welcher Wucht das passiert.

In den vergangenen Jahrzehnten hat sich unser Verständnis von Turbulenz erheblich verbessert. Ausgehend von den klassischen Experimenten des britischen Physikers Osborne Reynolds aus dem späten 19. Jahrhundert haben Forschende in einer Vielzahl von Experimenten und Computersimulationen die Entstehung von Turbulenz untersucht und charakterisiert. So lässt sich in Rohrströmungen beispielsweise beobachten, wie sich turbulente Bereiche auf eine komplexe Weise ausbreiten, die der gerichteten Perkolation entspricht. Diese Art von Übergang tritt in einer Vielzahl von Systemen in der statistischen Physik auf, was Turbulenz zu einem prototypischen Problem aus dem Bereich der komplexen Systeme macht.

Auch für vollständig turbulente Strömungen sind in den vergangenen Jahrzehnten Fortschritte erzielt worden. Inzwischen lässt sich mit optischen Messtechniken die volle dreidimensionale Strömung eines Fluids sichtbar machen. So knüpfen experimentelle Messungen inzwischen nahtlos an Computersimulationen an, die durch die rasant gestiegene Computerleistung ungeahnte Einblicke in die raumzeitliche Struktur der Turbulenz liefern. Feinste Wirbelstrukturen und ihre Wechselwirkungen lassen sich damit sichtbar machen. Daher befinden wir uns in einer spannenden Phase der Turbulenzforschung, die sich durch eine enge Verzahnung von Experiment, Simulation und Theorie auszeichnet.

Die Herausforderungen der kommenden Jahre werden sowohl darin bestehen, die rapide wachsenden Datenmengen in der Turbulenzforschung als auch von zahlreichen weiteren komplexen Systemen systematisch zu analysieren. Auch hier haben neue Techniken, wie maschinelles Lernen, erfolgreich Einzug gehalten. Wie diese Entwicklungen zu verbesserten vorhersagefähigen Modellen und Theorien sowohl für Turbulenz als auch für komplexe Systeme fernab des thermischen Gleichgewichts oder gar zur Entdeckung neuer Phänomeneführen können, müssen kreative Forscher:innen in der Zukunft zeigen.

Chaotische Systeme

Die oberen zwei Abbildungen zeigen das Lorenz-Modell. Die Systemgröße z(t) in diesem Modell ist oben für zwei Simulationen gezeigt (orange und weiss). Dabei unterscheiden sich die beiden Startbedingungen nur um winzige 10−10, aber ab ca. 27 Zeiteinheiten beginnen sich die beiden Kurven stark voneinander zu unterscheiden. Diese Sensitivität gegenüber Anfangsbedingungen ist typisch für deterministisches Chaos. Der mittlere Teil zeigt die Projektion des Lorenz-Attraktors auf die Ebene der zwei Systemgrößen y und z (Größe x hier unsichtbar senkrecht dazu). Die zwei Trajektorien beginnen bei y = 0 und z = 0 und führen zunächst in das linke Auge des Attraktors. Die Kurven springen dann unregelmäßig zwischen der linken und rechten Halbebene hin und her.

Die untere Abbildung zeigt die Periodenverdopplung am Beispiel der Sinus-Abbildung xn+1 = r ⋅ sin(π ⋅ xn) mit einem Übergang von regulärem zu chaotischem Verhalten. Bei niedrigen Werten von r pendelt sich das System auf einen festen Wert x ein. Bei r ≈ 0,72 (hier links außerhalb der Skala) stellt sich eine Periodenverdopplung ein, d. h., xn schwankt nun zwischen zwei Werten. Bei einer weiteren Erhöhung von r stellen sich schrittweise weitere Verdopplungen der Periode ein, xn schwankt zwischen 4, 8 oder 16 verschiedenen Werten. Dieser Prozess der Periodenverdopplung (es dauert jeweils doppelt so lange, bis xn den gleichen Wert hat) wiederholt sich in immer kleinerem Abstand von r, bis das System in einen Zustand chaotischen, unvorhersehbaren Verhaltens übergeht, bei dem die Werte von xn sich gar nicht wiederholen (orange; im rechten Teilbild ist die Abfolge von 300 Iterationen dargestellt, im linken sind zu jedem Wert von r die 300 xn-Werte übereinandergezeichnet). Diese Kaskade von Bifurkationen ist ein Kennzeichen chaotischer Systeme und kann bei verschiedenen natürlichen Phänomenen beobachtet werden, z. B. in der Flüssigkeitsdynamik und in elektronischen Schaltkreisen. Auffällig ist hier auch, dass für bestimmte Bereiche für r etwa bei 0,94 wieder nichtchaotische periodische Folgen zwischen festen Werten auftauchen.

Die beiden komplexen Erscheinungen ergeben sich aus sehr einfachen Rechenvorschriften von nichtlinearen Gleichungen.

Markus Bär, Philipp Hövel, Michael Wilczek und Walter Zimmermann