WIRKUNG
Globale Herausforderungen

Physik als tragende Säule der KI-Implementierung?

Physikalische Analysen, die völlig ohne menschliches Zutun auskommen und künstliche Intelligenzen, die eigenständig komplexe physikalische Theorien in einer Vielzahl von Dimensionen und mit beliebig vielen Parametern entwickeln: Ist das Zukunftsmusik oder tatsächlich bald Realität?

Vorabversion

Digitalisierung und künstliche Intelligenz (KI) haben in den letzten Jahren nicht nur den Alltag vieler Menschen verändert, sondern auch die Art und Weise, wie Wissenschaft betrieben, wie Physik gemacht wird. Maschinelles Lernen wird dabei in den unterschiedlichsten Teilbereichen eingesetzt und unter anderem zur Unterscheidung von Signal- und Hintergrundereignissen oder zur Rekonstruktion physikalisch relevanter Parameter genutzt, wie etwa bei der Bestimmung der Energie eines in einem Teilchendetektor registrierten Teilchens.

Die verwendeten Rechenverfahren sind dabei ebenso vielfältig wie die Einsatzgebiete und reichen von einfachen Entscheidungsbäumen – einer verhältnismäßig einfachen Abfolge von Ja-Nein-Entscheidungen – und deren Ensembles bis hin zu hochgradig komplexen neuronalen Netzen, denen die Idee, das menschliche Gehirn nachbilden zu wollen, zugrunde liegt.

Die Kombination von Physik und KI ist also längst Realität. Und nicht nur das: Es ist eine Erfolgsgeschichte. Immer neue Algorithmen werden entwickelt und zur Lösung immer komplexerer Probleme verwendet. Die Entdeckung von Neutrinos aus der Milchstraße ist dabei nur ein Beispiel unter vielen. Welche Rolle wird die Physik in den nächsten Jahren bei der Entwicklung von KI spielen – also bei der Weiterentwicklung einer Technologie, die ihren Ursprung in der Informatik hat?

Maschinelles Lernen und KI als Werkzeuge

Da wäre zunächst die banale Antwort, dass maschinelles Lernen und KI für Physiker:innen in erster Linie Werkzeuge sind. Werkzeuge können aber nur effizient eingesetzt werden, wenn ihre Benutzer:innen sie beherrschen. Oder um es plakativ zu sagen: Man benutzt keinen Rasenmäher, um sich die Haare zu schneiden. Jenseits solcher reißerischer Aussagen sollte man sich aber vergegenwärtigen, dass gerade im Bereich KI auch der Aspekt der Nachhaltigkeit immer stärker berücksichtigt wird. Effizient mit Ressourcen haushalten bedeutet auch effizient mit Rechenleistung umgehen.

Künstliche Intelligenz kann unter anderem bei physikalischen Großexperimenten eingesetzt werden. Diese zeichnen nie dagewesene Datenmengen auf, die häufig unter dem Schlagwort Big Data subsumiert werden („KI und Big Data verändern die physikalische Forschung“ auf Seite 155). Dabei ist aber nicht nur die schiere Menge der Daten entscheidend, sondern auch die Geschwindigkeit, mit der sie aufgezeichnet und (vor-)verarbeitet werden müssen. Mit zukünftigen Projekten wie dem Radioteleskop Square Kilometer Array (SKA) oder dem High-Luminosity-Upgrade des weltgrößten Teilchenbeschleunigers, dem Large Hadron Collider (LHC), werden die zu verarbeitenden Datenraten noch einmal deutlich ansteigen. Wahrscheinlich wird der Bedarf an praktikablen Lösungen zur Analyse dieser Daten zum technologischen Fortschritt im Bereich KI beitragen.

Clevere Analysealgorithmen sind für den Betrieb physikalischer Großexperimente aber längst nicht ausreichend. Neben der eigentlichen Analyse müssen die einzelnen Komponenten des Experiments und deren Zusammenspiel aufwendig simuliert werden. Um den Bedarf an Ressourcen zu senken, können komplexe Simulationsketten durch sogenannte Generative Adverserial Networks (GAN) abgebildet werden, die häufig nur einen Bruchteil der Ressourcen der seit Jahrzehnten etablierten Monte-Carlo-Methoden benötigen. Der Einsatz von GANs ist ein außerordentlich aktives Forschungsfeld innerhalb der Physik, bei dem es neben dem Beantworten von konkreten physikalischen Fragestellungen auch darum geht, die von Großexperimenten benötigten Ressourcen mit der gesellschaftlich drängenden Frage der Nachhaltigkeit in Einklang zu bringen, also etwa bei der Energieerzeugung entstehende Treibhausgase einzusparen.

Training der KI-Algorithmen

Der Einsatz von KI-Methoden setzt unabhängig von deren Zweck voraus, dass die Algorithmen mit entsprechenden Messdaten trainiert und validiert werden. Nur mit qualitativ hochwertigen Daten lassen sich qualitativ hochwertige Modelle schaffen. Dieser Umstand wird häufig etwas flapsig, aber durchaus gerechtfertigt, mit garbage in, garbage out (auf Deutsch: Müll rein, Müll raus) beschrieben. Je sensibler oder regulierter dabei der Einsatzbereich des KI-Modells ist, desto höher muss auch die Qualität der Eingangsdaten sein – etwa bei der Energie- und Wasserversorgung, Medizinprodukten und beim autonomen Fahren.

Darüber hinaus kann es sich als hilfreich erweisen, physikalische Gesetzmäßigkeiten durch sogenanntes physics informed learning (zu Deutsch etwa: durch die Physik informiertes Lernen) direkt zu implementieren. Ein so verstärktes KI-System kommt nicht versehentlich auf physikalisch unsinnige Fehlschlüsse, sondern kennt die Naturgesetze schon vor dem Lernvorgang.

Aber nicht nur die Menge und die Qualität der Daten sind relevant, sondern auch deren Nachvollziehbarkeit, insbesondere nach deren Aufbereitung in Analysen. Die Messdaten wissenschaftlicher Experimente sollen der wissenschaftlichen Gemeinschaft zugänglich gemacht werden. Dabei wird es in Zukunft zunehmend darauf ankommen, nicht nur die Daten selbst, sondern auch die Analyseskripte als Datenprodukte verfügbar zu machen und die Reproduzierbarkeit von Analysen in einem äußerst dynamischen Umfeld und über einen langen Zeitraum zu gewährleisten.

KI als Teil der Ausbildung

Nimmt man alle diese Aspekte zusammen, ergibt sich für die Physik, dass Kenntnisse über maschinelles Lernen Teil der Ausbildung werden müssen. Dies gilt insbesondere für Physiker:innen, die nach dem Studium bzw. der Promotion eine Anstellung in der Industrie finden möchten. Auch in diesem Bereich sind KI und deren Einsatz längst gelebte Realität. Ob die Ausbildung im Bereich KI universitär oder außeruniversitär stattfindet, ist zweitrangig.

Die Architektur künstlicher neuronaler Netze ist durch das menschliche Gehirn inspiriert. Dieses Bild wurde mit der KI Stable Diffusion mit dem Prompt „Artificial neural network in the form of a human brain with input and output nodes highlighted“ erstellt.

Jenseits einer eher allgemeinen Ausbildung im Bereich KI bietet die Physik aber auch hervorragende Möglichkeiten, sich in einem bestimmten Bereich des maschinellen Lernens zu spezialisieren, z. B. im Rahmen einer Masterarbeit oder der Promotion. Physikalische Analysen sind in ihren Details häufig so komplex, dass diese auch von erfahrenen KI-Ex­pert:in­nen nicht ohne Weiteres gelöst werden können. Weil es häufig eben nicht ausreicht, ein beliebiges neuronales Netz zu trainieren, müssen physikalisches und algorithmisches Wissen ineinandergreifen. Wer einen Algorithmus anpasst oder erweitert, um ein spezifisches physikalisches Problem zu lösen, gewinnt beinahe automatisch an Expertise.

Die Komplexität physikalischer Fragestellungen sorgt aber nicht nur für die Ausbildung von Expert:innen, sondern macht auch die interdisziplinäre Zusammenarbeit mit In­for­ma­tiker:innen attraktiv.

Jeder neue KI-Algorithmus stellt ein weiteres und gegebenenfalls hochspezialisiertes Werkzeug im Werkzeugkasten der Physik dar, das möglicherweise auch in anderen Fachgebieten genutzt werden kann, um Lösungen für drängende Probleme der Zukunft zu finden. Dabei ist es außerordentlich wichtig, den Dialog mit anderen Wissenschaften aufrechtzuerhalten beziehungsweise aktiv zu suchen. Neben der Informatik sind hier die anderen Naturwissenschaften sowie Ethik, Philosophie, Psychologie und Politik zu berücksichtigen. Der Einsatz von KI zum Wohle aller muss auf möglichst vielen Säulen ruhen.

Die Physik ist nur eine dieser Säulen, aber eine, die auf eine lange Tradition im Bereich Technikfolgenabschätzung blickt (siehe „Technikfolgen und Gesellschaft“ auf Seite 319). Mit diesen Erfahrungen im Rücken und der Bereitschaft, eine führende Rolle nicht nur in der Entwicklung von, sondern auch im öffentlichen Diskurs über KI einzunehmen, kann die Physik neben der Informatik zu einer tragenden Säule der digitalen Transformation werden.

Tim Ruhe