WIRKUNG
Quantenwelt

Quantencomputer

Bei besonders anspruchsvollen Rechenaufgaben stoßen auch Supercomputer an ihre Kapazitätsgrenzen. Hier könnte die Quantencomputing-Technologie eine Revolution auslösen. Anstatt nur digitale Werte in Form von Bits zu verarbeiten, nutzt der Quantencomputer die speziellen Eigenschaften der Quantenmechanik, wie Superposition und Verschränkung, um Berechnungen auf eine völlig neue Weise durchzuführen.

Vorabversion

Will man die Rechenleistung eines herkömmlichen Computers verdoppeln, so muss man – etwas vereinfacht – die Anzahl der Recheneinheiten verdoppeln. Moderne Rechner besitzen daher viele Rechenkerne und Großrechenanlagen bringen es dabei auf etliche Millionen von parallel arbeitenden Kernen. Der Rekord im Juni 2024 liegt bei knapp zehn Millionen Kernen, die dann die exorbitante Rechenleistung von 1018 Operationen pro Sekunde erlauben. Sie benötigen dazu aber auch ca. 20 Megawatt an elektrischer Leistung, die von etwa zehn Windrädern erbracht werden kann. Schon jetzt führen diese erheblichen Ressourcen an Hardware und Betriebskosten dazu, dass die Rechenleistung nicht mehr so ansteigt wie es komplexe Probleme eigentlich verlangen: Zum Beispiel möchte man die chemischen Reaktionen zwischen Molekülen simulieren können, um neue Katalysatoren mit effizienteren Reaktionen zu entwickeln. Könnte man sogar biologisch oder pharmazeutisch interessante Reaktionen im Computer ablaufen lassen, wäre das ein Durchbruch bei der Herstellung von medizinischen Wirkstoffen. Allerdings sind selbst die schnellsten aktuellen Großrechner dazu bei Weitem nicht in der Lage.

Die grundsätzlich unterschiedliche Art der Informationsspeicherung und Verarbeitung in einem Quantenrechner könnte diese Situation komplett ändern. Statt wie in einem herkömmlichen Rechner, der digitale Werte des Bits von entweder Null oder Eins benutzt, verwendet ein Quantenrechner alle Superpositionszustände von Null und Eins für ein Quantenbit (siehe auch „Quantenbits erzeugen und kontrollieren“ auf Sei-te 199). Durch die Verwendung der nur quantenphysikalisch erklärbaren Eigenschaften – Superpositionen, Interferenz und Verschränkung – ergeben sich neuartige Rechenmöglichkeiten, die eine effiziente Bearbeitung möglich machen, wo klassische Rechenverfahren an ihre Grenze stoßen. Mit jedem hinzugefügten Quantenbit (Qubit) verdoppelt sich dabei die verfügbare Rechenleistung, während die Komplexität der Maschine nur wenig ansteigt. Solch ein mit der Anzahl der Qubits exponentiell ansteigender Zuwachs an Rechenleistung wird daher ohne wesentliche Vergrößerung der verwendeten Ressourcen oder der benötigten Energie erreicht.

Jeder Rechenprozess auf einem Quantencomputer verwendet Qubits. Deren Kontrolle geschieht nach ähnlichen Prinzipen wie bei einem herkömmlichen klassischen Rechner durch logische Gatteroperationen. Der komplette Rechenvorgang, also der Algorithmus zur Lösung des Problems, wird in einer Schaltkreissequenz von Operationen an einzelnen oder mehreren Qubits ausgeführt. In der letzten Dekade haben sich eine Reihe von vorteilhaften technischen Plattformen für die Realisierung eines Quantencomputers herauskristallisiert. Alle verfügen grundsätzlich über einen ähnlichen Aufbau, der der klassischen Eingabe–Verarbeitung–Ausgabe-Struktur herkömmlicher Computer folgt.

Die aktuelle Forschung und technologische Entwicklung zielt darauf ab, eine immer größere Zahl von identischen und verknüpften Qubits zu realisieren. Aktuell erreichen alle Plattformen eine Verschränkung von etwa 50 Qubits. Ebenso wichtig ist es, die Gatteroperation zu verbessern. Diese Qualität liegt im Bereich von bis zu etwa 99,9%.

Wie geht es weiter? Die Entwicklung ist hochdynamisch zwischen Interessen von Nationen, Universitäten, Forschungsinstituten, neu gegründeten und etablierten großen Firmen. Klar ist: Quantencomputer haben das Potenzial, zentrale Werkzeuge für die Bearbeitung wichtiger Fragen in Wissenschaft, Technologie und Wirtschaft zu werden. Aber obwohl keine fundamentalen physikalischen Gesetze den Bau eines Quantencomputers verbieten, ist es doch ein schwieriges Problem, eine ausreichend hohe Anzahl von Qubits ausreichend gut zu kontrollieren damit hochverschränkte Quantenzustände zu erzeugen. In gemeinsamer Forschungs- und Entwicklungsarbeit an Universitäten und Unternehmen werden diese unterschiedlichen Hürden genommen. Erste Quantencomputer-Prototypen regen schon jetzt dazu an, neuartige Software, neue Algorithmen zur Lösung weiterer Fragen und Anwendungsfälle im Industrieumfeld zu entwickeln und zu optimieren.

Quantenalgorithmen

Beim Multiplizieren mit Papier und Bleistift Zahlen, folgt man einer Rechenvorschrift – also einem Algorithmus. Ein Algorithmus gibt einen Lösungsweg für eine Klasse von Problemen vor. Quantenalgorithmen liefern gewissermaßen die Rechenvorschriften und damit die Software für Quantencomputer.

Der historisch erste Quantenalgorithmus mit Überlegenheit gibt einen Lösungsweg für folgendes Problem vor: Man möchte wissen, ob eine Funktion konstant ist oder je nach Eingabewert unterschiedliche Ergebnisse ausgibt. Dazu ließe sich die Funktion natürlich einfach für unterschiedliche Werte auswerten. Wenn jedoch jede Auswertung sehr kostspielig wäre, so liegen die Vorteile klar auf der Hand, wenn man die Funktion nur ein einziges Mal auswerten müsste. Dieser sogenannte Deutsch-Jozsa-Algorithmus zeigt, dass sich das Problem dank der quantenphysikalischen Überlagerung von Zuständen mit einem einzigen Funktionsaufruf lösen lässt. Die technische Möglichkeit, Qubits in einem solchen Überlagerungszustand herzustellen, hat also erstaunliche rechnerische Implikationen.

Der Ansatz von David Deutsch inspirierte auch eine Reihe von fortgeschrittenen Quantenalgorithmen. Darunter gibt es zum Beispiel ein effizientes Verfahren, Zahlen in ihre Primfaktoren zu zerlegen. Dieser Shor-Algorithmus widmet sich damit einem praktisch wichtigen Problem, das bei Datenverschlüsselung eine Rolle spielt.

Andere mathematische Probleme, die sich mit Quantenalgorithmen lösen lassen, sind lineare Gleichungssysteme. Viele gängige Probleme in Wissenschaft und Technik lassen sich so formulieren. Der Harrow-Hassidim-Lloyd-Algorithmus liefert dafür nun einen Weg, der in Zukunft viel schneller Lösungen produzieren könnte, als das mit klassischen Computern möglich ist.

Es ist gut möglich, dass in der nahen Zukunft Anwendungen der Quantensimulation stark korrelierter Quantensysteme am naheliegendsten sind. Derzeit werden Anwendungen im kombinatorischen Optimieren und im Maschinenlernen viel diskutiert. Wohin die Reise geht, ist nicht ganz klar, allerdings ist nun schon offensichtlich, dass sich das Jahrhundertprojekt Quantenrechner nur dann lohnt, wenn man auch zeitgleich Algorithmen entwickelt – und auch deren Grenzen kennt –, um dieses erhebliche rechnerische Potenzial konzeptuell, wissenschaftlich und wirtschaftlich relevant anzuwenden.

Jens Eisert

Quantencomputer und Schwarze Löcher

In der theoretischen Physik gibt es neue Verbindungen zwischen Teilgebieten, die auf den ersten Blick nicht verwandt sind. Insbesondere können Schwarze Löcher mit Methoden aus der Quantenphysik beschrieben werden, die für das Verständnis von Quantencomputern entwickelt wurden.

Schwarze Löcher haben eine Reihe von faszinierenden Eigenschaften (siehe „Schwarze Löcher und Pulsare“ auf Seite 61). Vor wenigen Jahren wurden sie zum ersten Mal direkt im Universum nachgewiesen und beobachtet. Sie haben eine so hohe Anziehungskraft, dass Licht und Materie, die sich einem schwarzen Loch über eine bestimmte Grenze hinaus nähern, von diesem verschluckt werden. Die Grenze, bei der dies geschieht, heisst Schwarzschild-Horizont. Darüber hinaus sagt die theoretische Physik weitere ungewöhnliche Eigenschaften der schwarzen Löcher voraus. Schon der berühmte Physiker Stephen Hawking schrieb ihnen interessante Quanten­eigen­schaften zu: Die verschluckte Materie wird demnach als Wärmestrahlung, die sogenannte Hawking-Strahlung, wieder abgestrahlt. Ein ungeklärte Frage ist, was mit der in der verschluckten Materie enthaltenen Information passiert, denn diese findet sich in der gleichförmigen Strahlung nicht mehr wieder. Dies ist das Informationsparadoxon.

Hier gibt es nun einen unerwarteten Zusammenhang mit Quantencomputern: Neue Forschungsideen nutzen Methoden aus der Quanteninformationstheorie, um damit die Quanteneigenschaften Schwarzer Löcher zu verstehen. Insbesondere spielt die Quantenverschränkung eine große Rolle, also Überlagerungen von sich eigentlich ausschliessenden Zuständen wie bei Schrödingers Katze. Dazu nutzen Forscherinnen und Forscher sogenannte Dualitäten. Diese bilden Theorien aus unterschiedlichen Gebieten der Physik wie bei einem Lexikon aufeinander ab.

Bekanntestes Beispiel für eine Dualität zwischen Gravitation und Quantenphysik ist die AdS-CFT-Dualität des argentinischen Physikers Juan Maldacena, wobei AdS für eine bestimmte Gravitationstheorie und CFT für eine Quantentheorie steht. Diese Dualität wird auch in Fällen, in denen herkömmliche Methoden nicht anwendbar sind, für die Berechnung von Leitfähigkeiten oder Massen in Festkörper und Elementarteilchenphysik verwendet. Insbesondere wurde damit die Scher-Viskosität von besonders zähen Flüssigkeiten vorhergesagt und sowohl in teilchenphysikalischen Experimenten mit Schwer­ion­en als auch in der Atomphysik experimentell überprüft. Dies unterstreicht die Tatsache, dass die gleichen physikalischen Phänomene in sehr unterschiedlichen Zusammenhängen vorkommen.

Johanna Erdmenger

Ferdinand Schmidt-Kaler