Immer größer werdende Datenmengen schnell verarbeiten zu können gewinnt mehr und mehr an Bedeutung – egal ob bei der Klima- oder Wettervorhersage, in der Astrophysik, Genetik oder Strömungssimulation. Wo herkömmliche Computer an ihre Grenzen stoßen, kommen Hochleistungsrechner zum Einsatz – man spricht auch von „High Performance Computing“ (HPC). Zudem erlauben Methoden der künstlichen Intelligenz (KI), Maschinen mit Aufgaben zu betrauen, die ursprünglich nur Menschen lösen konnten: Beispielsweise mit der Erkennung von Mustern oder dem Lernen anhand von Beispielen. Die Art, wie KI mit großen Datenmengen umgeht, ist dabei völlig anders als bei klassischer Datenanalyse großer Datenmengen (siehe .„KI und Big Data verändern die phy-sikalische Forschung“ auf Seite 155).
HPC und KI haben sich in den vergangenen Jahren enorm weiterentwickelt und sind in unserer modernen Welt eng miteinander verknüpft beziehungsweise bedingen einander sogar: Einerseits wird zur Erforschung und Ausführung von KI in vielen kritischen Anwendungen HPC als Computing-Plattform benötigt. KI ist im technischen Sinne nämlich zunächst einmal ein Algorithmus, der auf Großrechnern, also auf HPC-Plattformen, abgearbeitet wird. Andererseits kann KI die Performance des HPC bei bestimmten Anwendungen wesentlich erhöhen – zukünftig voraussichtlich noch viel stärker als heute.
Die Kombination aus KI und HPC soll in Zukunft in bedeutenden Anwendungsfelder eingesetzt werden, darunter im Bereich der Kommunikation, der Energieversorgung, in Industrie, Robotik und Medizin. Ihr Einsatzgebiet umfasst dabei unter Anderem
- den Aufbau und die Optimierung zukünftiger Kommunikationssysteme wie z.B. 6G,
- die Optimierung von Energie- und Versorgungsnetzen,
- das Finden und Optimieren von neuen Medikamenten, das Diagnostizieren von Krankheiten und ihre Behandlung durch Erforschung entsprechender Wirkstoffe,
- das Finden und Erforschen von neuen Materialien und Rohstoffen,
- das Design und die Optimierung der Industrieproduktion.
Man sieht aus dieser Auflistung schon, dass KI besonders in den Bereichen eingesetzt wird, wo eine bessere Nutzung vorhandener Ressourcen als bisher das Ziel ist: in der Optimierung.

Vorbehalte und rechtliche Erwägungen
Es gibt jedoch auch einige Vorbehalte beim HPC und bei der KI. Insbesondere im Fall von KI ging die rasante Entwicklung auch auf Kosten der Vertrauenswürdigkeit. Ein aktuelles Beispiel dafür ist das „Halluzinieren“ von generativen Modellen. So macht der Chatbot ChatGPT manchmal falsche oder widersprüchliche Aussagen und bildgenerierende KIs wie Dall-E lassen zuweilen Körperteile sprießen, wo keine hingehören.
Nun muss eine Schwachstelle einer Technologie nicht grundsätzlich ihren Einsatz verhindern. Viele der zuvor genannten Einsatzgebiete greifen allerdings in die kritische Infrastruktur der modernen Gesellschaft ein (Energie und Infrastruktur) und/oder beeinflussen zentrale, individuelle menschliche Anliegen (Medizin). Daher kann man argumentieren, dass diese Anwendungen vertrauenswürdige und verlässlich arbeitende Werkzeuge benötigen, die technischen und gesetzlichen Regelungen unterliegen.
In der Tat wird dieser Ansatz auch auf europäischer Ebene mit der Verabschiedung des EU AI Act im Jahr 2024 verfolgt, in dem Richtlinien für den Einsatz von KI-Techniken ausformuliert sind. Die technischen Details der Richtlinien werden weiterhin intensiv diskutiert, man könnte ihre Zielsetzung in Hinblick auf Vertrauenswürdigkeit und zum Schutz von (Grund)rechten jedoch grob unter den folgenden Gesichtspunkten zusammenfassen:
- Algorithmische Transparenz (AT): Die Faktoren, die das Ergebnis des Algorithmus bestimmen, müssen für die Gesetzgebung und Nutzende sichtbar sein.
- Recht auf Erklärung (RE): Personen, die von einer automatisierten Entscheidungsfindung betroffen sind, können eine eindeutige Erklärung der Gründe für die Entscheidung verlangen.
- Algorithmische Verantwortlichkeit (AV): Die Betreiber:innen von automatisierten Entscheidungsprozessen können für die getroffenen Entscheidungen verantwortlich gemacht werden.
Es ist nun eine wesentliche Aufgabe, diese rechtlichen und juristischen Richtlinien in mathematischer Weise zu formalisieren, um exakte technische Anforderungen erstellen und gewährleisten zu können. Im Fall von HPC und KI spielt die Hardwareplattform eine entscheidende Rolle. Die Computing-Theorie untersucht deshalb präzise die Performance von Hardwareplattformen mithilfe mathematischer Beschreibungen. Dabei ist eine grundsätzliche Unterscheidung zwischen digitaler, analoger, neuromorpher und Quanten-Hardware sinnvoll, aber es sei angemerkt, dass die einzelnen Kategorien auch überlappen können.
Hardware in vier Varianten
Digitale Hardware: Information ist binär. Berechnungen werden in Schritte aufgeteilt und nacheinander durchgeführt.
Analoge Hardware: Information ist kontinuierlich (z. B. die Amplitude einer Schwingung). Ein wissenschaftliches Problem wird mithilfe eines analogen Modells nachgebaut und simuliert.
Neuromorphe Hardware: Neuromorphe Chips spiegeln die Vernetzung in unserem Gehirn wider. Berechnungen laufen parallel und vernetzt ab.
Quantenhardware: In Quantencomputern sind die einzelnen Informationseinheiten nicht binär, sondern können alle Zustände gleichzeitig annehmen. Damit sind für bestimmte Aufgaben schnellere Rechnungen möglich.
Prinzipielle Leistungsgrenzen
HPC-Simulationen und KI-Systeme werden gegenwärtig fast ausschließlich auf digitaler Hardware durchgeführt. Diese wird durch das mathematische Modell der Turing-Maschine exakt erfasst. Trotz seines allgegenwärtigen Einsatzes und unbestreitbaren Erfolges hat digitales Computing eine prinzipielle Problematik: Nahezu alle physikalischen Prozesse können auf digitaler Hardware nicht exakt, sondern nur durch Näherung berechnet werden (siehe auch „Big Data, Simulation und Numerik“ auf Seite 19). Das verlangt nach einer Kontrolle des Fehlers der durchgeführten Rechnung zur tatsächlichen, physikalisch exakten Lösung – so könnte man beispielsweise verlangen, dass eine fest vorgegebene maximal zulässige Abweichung nicht überschritten wird.
In jüngster Zeit hat die Computing-Theorie sowohl für zentrale Anwendungsfelder in für KI-Einsätze gut geeigneten Sektoren als auch für physikalische Simulationen gezeigt, dass die geforderte Fehlerkontrolle mit digitaler Hardware prinzipiell nicht möglich ist. Mathematisch ausgedrückt ist die gestellte Aufgabe nicht Turing-berechenbar. Ohne Turing-Berechenbarkeit können aber weder Performance-Garantien noch die bereits genannten rechtlichen Anforderungen wie AT, RE und AV (in vollem Umfang) erfüllt werden.
Und selbst wenn ein Problem Turing-berechenbar ist, heißt das noch nicht, dass es mit digitaler Hardware auch tatsächlich praktisch lösbar ist. Bei einigen Problemen, wie beispielsweise die Simulation von Diffusionsprozessen und das Lösen von Differentialgleichungen, wächst in Abhängigkeit von der gewünschten Präzision die Anzahl der notwendigen Rechenschritte zu stark an, um praktisch akzeptabel zu sein: Selbst auf den schnellsten Computern dauert die Rechnung zu lang.
Energiebedarf
Mit der Anzahl der notwendigen Rechenschritte steigt auch der Gesamtenergieverbrauch des Berechnungsprozesses enorm an. Das unterstreicht eine zweite grundlegende Problematik des digitalen Computings: Rechenleistung und Energieverbrauch können nicht voneinander entkoppelt werden, da die minimal aufzuwendende Energie pro Rechenschritt eine untere physikalische Grenze besitzt – die sogenannte Landauer-Grenze. Will man den Gesamtenergieverbrauch reduzieren, so muss man andere Informationsverarbeitungstechniken heranziehen.
Landauer-Grenze
In den vergangenen Jahrzehnten stand einem exponentiellen Anstieg der Datenmengen in der Informationsverarbeitung ein ebensolcher Anstieg der Rechenleistung entgegen. Bekannt ist in diesem Zusammenhang das Mooresche Gesetz, das ein exponentielles Wachstum der Leistungsfähigkeit von Computerchips basierend auf der Erhöhung der Transistorendichte prognostiziert (Seite 177). Ein Ende dieser Entwicklung scheint sich abzuzeichnen, jedoch ist die Nachfrage nach immer größerer Rechenleistung ungebrochen. Eine Problematik in diesem Zusammenhang ist der mit der zunehmenden Leistung verknüpfte stetige Anstieg des Energieverbrauchs von Mikrochips. Ist eine Trennung dieser beiden Komponenten, d. h. Leistung und Energieverbrauch, prinzipiell möglich? 1961 formulierte Rolf Landauer eine Hypothese, die die nötige Energie für das Löschen eines Bits an Information aus der Thermodynamik ableitet. Sollte die Landauer-Hypothese zutreffen, die allgemein anerkannt wird, führt sie eine theoretische Untergrenze bei digitalen Computern für die Verlustleistung pro Rechenschritt ein, die, soviel sei angemerkt, mehrere Größenordnungen unter der momentan erreichten praktischen Verlustleistung liegt. Jedoch stellt sie eine prinzipiell untrennbare Kopplung von digitaler Rechenleistung und Energieverbrauch her, die auch mit zukünftigen digitalen Technologien nicht zu umgehen ist. Weiterhin beschreibt die Landauer-Grenze aber auch eine Schranke für die Verkleinerung von Bauelementen in der digitalen Mikroelektronik. Diese Verkleinerung der Bauelemente war bis zum heutigen Tag eine treibende Kraft zur Verlängerung des Moorschen Gesetzes.
Solche Techniken sind analoges und neuromorphes Computing sowie voraussichtlich Quantencomputing. Sie dürften als Hardwareplattformen zukünftig wesentlich an Bedeutung gewinnen, denn sie bieten einerseits einen potenziellen Ausweg aus der prinzipiellen Nicht-Lösbarkeit einer Aufgabenstellung auf digitaler Hardware (Nicht-Turing-Berechenbarkeit). Zudem ermöglichen neuromorphes Computing, analoges Computing und Quantencomputing den enormen Energieverbrauch, der durch KI und Computing verursacht wird, viel besser zu kontrollieren. Der zur Zeit beobachtete Anstieg des Energieaufwands könnte durch diese Techniken gebremst und langfristig reduziert werden. Aufgrund der physikalischen Landauer-Schranke für den minimalen Energieverbrauch pro digitalen Rechenschritt lässt sich das nur dadurch erreichen, dass der Anteil der digitalen Hardware an HPC und KI sinkt. Damit das Potenzial und die damit verbundenen Versprechen der alternativen, nicht-digitalen Hardwareplattformen realisiert werden können, braucht es jedoch zuerst beträchtliche theoretische Fortschritte. Dazu gehören insbesondere Weiterentwicklungen bei der Computing-Theorie für verschiedene Hardwaresysteme und bei geeigneten Maschinensystemen für neuromorphes Computing, analoges Computing (auch in Form von biologischem Computing) und Quantencomputing. Zudem sind auch die physikalischen Grundlagen der Computing-Theorie weiter zu erforschen und auszubauen.
