Die Basiseinheiten lebender Informationsverarbeitung sind die Neuronen – elektrisch erregbare Zellen in unserem Gehirn, die ganz unterschiedliche Größen, Formen und Eigenschaften haben können. Ein Neuron besteht aus einem Zellkörper, der mithilfe von sehr langen biologischen „Kabeln“ (Dendriten und Axonen) elektrische Impulse von Tausenden anderen Neuronen empfängt und an andere Neuronen weitersendet. Dabei kann ein Neuron nicht nur mit seinen direkten Nachbarn interagieren, sondern seine Signale gezielt weiterleiten – über viele Zentimeter oder sogar Meter hinweg!

Aufgrund der Pionierarbeit der Biophysiker Alan Lloyd Hodgkin und Andrew Fielding Huxley sowie des Neurowissenschaftlers John Carew Eccles haben wir heute ein gutes physikalisches Verständnis davon, wie diese Neuronen elektrische Signale generieren und weiterleiten: Sie gleichen einem elektronischen Schaltkreis mit einem Widerstand und einem Kondensator, der elektrische Signale weiterleitet, sobald diese einen bestimmten Schwellenwert überschreiten. Im letzten Jahrhundert wurde viel Wissen über die Biophysik der Neuronen und Synapsen gewonnen. Dennoch bleiben viele Fragen offen, insbesondere zu den Prinzipien, die bestimmen, wie Neurone sich koordinieren und verbinden, wie das Netzwerk als Ganzes lernt, und wie dadurch kohärente Gedanken oder gar Bewusstsein entsteht.
Um dieser Frage mit Mitteln der Elektronik näher zu kommen, werden heute neuartige Computer gebaut, die neuromorphe Chips verwenden. In diesen Chips sind lebende Neuronen und deren Verbindungen und Lernprinzipien als miniaturisierte elektrische Schaltkreise nachgebaut. So können wir unter kontrollierten Bedingungen erforschen, wie lebende neuronale Netze ihre Informationsverarbeitung entwickeln, und somit die Funktionsweise unseres Gehirns besser verstehen. Möglicherweise werden in Zukunft auch spezielle Computer solche Prinzipien benutzen.
Neuronale Netzwerkaktivität messen

Die Aktivität eines einzelnen Neurons lässt sich auf verschiedene Weisen relativ genau vermessen. Wir sind aber weit davon entfernt, die Aktivität aller Neuronen eines Gehirns gleichzeitig beobachten zu können. Um trotzdem Einblicke in die Arbeitsweise des Gehirns zu erlangen, entwickeln Physiker:innen neuartige Messtechniken auf allen Längenskalen. Viele kennen die bunten Bilder, die durch Hirnscanner aufgenommen werden: vor allem die funktionelle Magnetresonanztomografie (fMRT) ermöglicht Einblicke, welche Hirnregionen an speziellen Funktionen oder Tätigkeiten beteiligt sind. Mit Magnet- und Elektroenzephalografie (MEG, EEG) lassen sich die zeitlichen Abläufe von Hirnaktivierung sehr genau darstellen. Mit diesen Methoden kann man aber nicht die Aktivität einzelner Neuronen voneinander getrennt darstellen. Hier kommen Elektroden oder auch optogenetische Methoden (Seite 137) ins Spiel, mit denen man die Aktivität von Tausenden Neuronen gleichzeitig messen und sogar gezielt Neuronen aktivieren kann. Solche groß angelegten Messungen ergaben, dass die Aktivität einzelner Neuronen zwar zufällig wirkt, das Zusammenspiel der Neuronen aber klare, großskalige Muster und Strukturen entwickelt. Um zu beantworten, was zwischen diesen Skalen passiert, werden weiterhin Theorien benötigt, die die verfügbaren Puzzleteile zu einem großen Ganzen zusammenfügen.
Kollektive Zusammenarbeit der Neuronen
Die Zusammenarbeit der Neuronen, und insbesondere die kollektive Dynamik neuronaler Netze, lässt sich mit Ansätzen der statistischen Physik und der Informationstheorie untersuchen. So findet man mit diesen Mitteln zum Beispiel Hinweise auf stabile Zustände, zu denen ein System sich auch nach einer Störung zurückbewegt. Sie erlauben dem Netzwerk, eine Gedächtnisspur vorheriger Inputs (z. B. Bilder) aufrechtzuerhalten.
Damit eine Information zügig und zuverlässig im Netzwerk weitergeleitet wird, muss dieses sehr schnell und sensitiv auf äußere Einflüsse reagieren. Gleichzeitig soll es aber nicht überaktiv werden: In solchen überaktiven „Gewitterzuständen“ liegt beispielsweise die Ursache epileptischer Anfälle. Eine Balance zwischen Sensitivität und Stabilität findet man in der Nähe von Phasenübergängen. Im Bereich dieser Übergänge reichen kleine Änderungen in der Kopplung der Neuronen aus, um das Netzwerk je nach Aufgabe sensitiver oder ruhiger zu machen.
Lernen als Selbstorganisation
Unser Gehirn lernt, indem es die Verbindungen, die Synapsen, zwischen Neuronen verstärkt oder abschwächt. Synaptische Verbindungen können auch neu erzeugt und wieder vernichtet werden. Dadurch wird das komplexe Netzwerk in unseren Köpfen ständig umgebaut. Trotzdem funktioniert es meist zuverlässig. Wie genau es seine Funktion entwickelt und erhält, steht im Fokus aktueller Forschung, sowohl in der quantitativen Neurowissenschaft, als auch in der theoretischen Physik. Zum Beispiel wissen wir, dass die externe Welt sehr geordnet in bestimmten Hirnarealen abgebildet wird. So gibt es eine Karte unserer Körperoberfläche im somatosensorischen Cortex: Neuronen, die die Finger abbilden, liegen wohlgeordnet neben denen der Handfläche. Auch ein Bild unserer Welt ist in einer Landkarte im visuellen Cortex hinterlegt. Wie solche Karten selbstorganisiert entstehen, konnte in Modellen nachvollzogen werden. Allerdings ist das nur ein kleiner Baustein der Informationsverarbeitung. Die meisten Fragen des emergenten Lernens warten noch auf ihre Lösungen, die in Zukunft das Design neuartiger Computer bestimmen könnten.
Künstliche neuronale Netze

Die Idee, biologische neuronale Netze nachzuahmen – nicht um das Gehirn zu untersuchen, sondern um Künstliche Intelligenz zu schaffen – ist etwa 80 Jahre alt. Damals hoffte man auf künstliche Systeme, die beispielsweise abgefangene Nachrichten von gegnerischen Kriegsparteien automatisch übersetzen könnten. Diese Hoffnung wurde zwar enttäuscht, trotzdem stellt das damals geschaffene sogenannte Perzeptron-Modell auch heute noch die Grundlage künstlicher neuronaler Netze dar. Für die Entwicklung solcher Modelle wurden 2024 John Hopfield und Geoffrey Hinton mit dem Nobelpreis für Physik ausgezeichnet. Das Herzstück dieser Modelle sind künstliche Neuronen, die Information immer dann weiterleiten, wenn die Eingabe einen gewissen Schwellenwert überschreitet. In einem Netzwerk zusammengeschaltet, können die künstlichen Neuronen komplexe Aufgaben lösen. Sie erhalten eine Lernregel und passen mithilfe von Trainingsdaten die Verbindungen untereinander so lange an, bis sie die gestellten Aufgaben zufriedenstellend erfüllen. So wurden tiefe neuronale Netze entwickelt, die Bilder klassifizieren oder Eingaben transformieren. Letztere können beispielsweise aus einer Aminosäuresequenz eine passende Proteinstruktur vorhersagen (Seite 133) oder Texte und Bilder aus wenigen Anweisungen generieren. Für die Physik ist besonders spannend, dass neue Entwicklungen es ermöglichen, neuronale Netze so zu trainieren, dass sie physikalische Zustände statistisch korrekt generieren können. Dies eröffnet die Möglichkeit, künstliche Netze in der Zukunft für digitale Experimente zu nutzen.
Trotzdem sind die künstlichen Netze in vielen Aspekten „Black Boxes“, und was genau beim Lernen passiert, ist nach wie vor unklar. Es ist auch Aufgabe der Physik, die Funktionsprinzipien zu entschlüsseln und zu verbessern. Zum Beispiel wissen wir, dass rekurrente, also rückgekoppelte, Netzwerke lernen können, Muster zu vervollständigen oder sogar deren zeitlichen Verlauf vorherzusagen. Obwohl wir die Funktionsweise der Netze noch nicht vollständig verstanden haben, sind ihre Leistungen in manchen Aspekten deutlich besser als die des menschlichen Gehirns – und es gibt noch viel Entwicklungspotenzial.