WIRKUNG
Globale Herausforderungen

Quantencomputing

Informatik muss auch als Teilgebiet der Physik gedacht werden. Dabei geht es nicht nur um das „Womit“, sondern auch das „Wie“ des computerbasierten Rechnens. Die Quantenphysik erlaubt das Umsetzen völlig neuer und vielversprechender Rechenprinzipien – mit viel Potenzial, allerdings bisher nur für sehr spezielle Probleme.

Vorabversion

Zu Beginn des 20. Jahrhunderts konnten dank der Quantenmechanik erstmals atomare Phänomene widerspruchsfrei beschrieben werden: die diskreten Spektrallinien von Atomen, die Stabilität der Materie oder das Verhalten von Festkörpern. Trotz dieser unbestreitbaren Erfolge wurde die Theorie kontrovers diskutiert. Ein Grund dafür war, dass in quantenmechanischen Berechnungen Objekte auftauchen, deren Bedeutung nicht unmittelbar klar ist. Das wichtigste Beispiel sind Überlagerungszustände: Wenn ein Teilchen an den Orten A und B existieren kann, dann beschreibt die Quantenmechanik auch Zustände, in denen das Teilchen gleichzeitig über beide Orte verteilt ist. Einige der führenden Köpfe der Zeit wie Albert Einstein hielten dies für ein mathematisches Artefakt, das keine Entsprechung in der Wirklichkeit hat. Andere, darunter Niels Bohr, argumentierten, dass mikroskopische Teilchen sich tatsächlich völlig anders verhalten als die unseren Sinnen direkt zugängliche Welt. Geklärt werden konnte die Frage damals nicht. Dessen ungeachtet wurde die Quantentheorie vielfach experimentell bestätigt und brachte wichtige Technologien wie den Laser hervor.

Die derzeit vielleicht vielversprechendste mögliche neue Anwendung der Quantentechnologie ist die Konstruktion von Rechenmaschinen, die klassischen Computern in bestimmten Bereichen fundamental überlegen sind.

Eine ganz andere Art der Berechnung

Moderne Mikroprozessoren enthalten Milliarden von Schalteinheiten, die jeweils Milliarden Male pro Sekunde ihren Zustand wechseln können. Damit sind sie zwar menschlichen „Computern“, wie man Berechnungen ausführende Personen bis ins 20. Jahrhundert nannte, weit überlegen, die Rechenprinzipien sind jedoch die gleichen. In dieser Sichtweise waren alle Fortschritte der vergangenen Jahrzehnte lediglich quantitativ, nicht qualitativ. Gibt man einem Menschen einen Stapel Papier und viel Zeit, so kann er jeden Rechenschritt eines klassischen Computers nachvollziehen und wird am Ende zum gleichen Ergebnis gelangen. Diese Beobachtung wurde in der Informatik unter dem Namen starke Church-Turing-Hypothese zum Prinzip erhoben. Jahrzehntelang (für die junge Informatik eine Ewigkeit!) stellte die These von Alonzo Church und Alan Turing ein Fundament der Informatik dar. Dann kam die Quanteninformation. Sie nutzt geschickte quantenphysikalische Überlagerungen – eben jene Quantenzustände, über deren Interpretation einst gestritten wurde.

Nehmen wir an, ein Computer kodiert ein Bit durch den Aufenthaltsort eines Elektrons. Sagen wir, zunächst klassisch, dass zwei Speicherzellen zur Verfügung stehen. Ist das Elektron in der linken Zelle, entspricht dies einer logischen „0“, die rechte Zelle einer „1“. Die Quantenmechanik besagt nun, dass es ebenfalls einen Zustand gibt, in dem das Bit in Überlagerung auf beide Zellen verteilt ist. Wirklich interessant wird das, wenn wir mehrere Bits auf einmal betrachten. Denn zwei klassische Bits haben schon vier mögliche Zustände: 00, 01, 10 und 11. Drei Bits kommen auf acht: 000, 001, 010, 011, 100, 101, 110, 111; für vier Bits sind es 16, die auszuschreiben schon unübersichtlich würde, und ab ca. 300 Bits gibt es bereits mehr Möglichkeiten als Atome im Universum! Ein quantenmechanisches System kann vergleichsweise leicht in eine Überlagerung aller dieser Zustände gebracht werden.

Statt sich mit dem vagen Problem aufzuhalten, was diese Überlagerungen bedeuten, stellte man sich ab den 1990er- Jahren die pragmatischere Frage, ob man aus der astronomischen Zahl von Möglichkeiten einen Vorteil für Berechnungen ziehen kann. Dafür sprach die sogenannte Linearität der Quantenmechanik. Diese macht folgende Vorhersage: Bringt man das Eingaberegister eines Computers in einen Über­lagerungs­zustand und wendet dann eine Rechenoperation an, so werden die Rechenwege für alle möglichen Eingaben gleichzeitig durchschritten. Selbst ein kleiner quantenmechanischer Computer kann also mehr Rechenwege auf einmal bearbeiten, als Atome im Universum existieren – dieser Effekt heißt Quantenparallelismus.

Ein wichtiges Problem musste aber noch gelöst werden: Am Ende der Rechnung befindet sich das Ausgaberegister ebenfalls in einem Überlagerungszustand – nämlich über alle möglichen Antworten. Es ist nicht offensichtlich, wie man daraus nützliche Informationen ziehen kann.

Eine erste Methode dafür wurde 1992 durch den britischen Physiker David Deutsch und den australischen Mathematiker Richard Jozsa entwickelt. Ihre Lösung beruht darauf, dass quantenmechanische Systeme Welleneigenschaften zeigen. Wenn zwei Wellen auf einer Wasseroberfläche ineinander­laufen, entstehen Regionen, in denen sich die Auslenkungen verstärken („konstruktive Interferenz“) und Regionen, in denen sie sich gegenseitig kompensieren („destruktive Interferenz“). In ihrem Algorithmus bringen Deutsch und Jozsa nicht Auslenkungen von Wasser, sondern verschiedene Rechenwege quantenmechanisch miteinander in Interferenz. Sie zeigten, zunächst für ein einfaches Beispielproblem, wie man alle Lösungen konstruktiv und alle uninteressanten Rechenwege destruktiv interferieren lassen kann. Eine Messung am Ausgaberegister liefert dann eine Lösung des Problems.

Aus der Perspektive der theoretischen Informatik stellt dies ein sensationelles Resultat dar. Die Kombination aus Quantenparallelismus und Quanteninterferenz beschrieb erstmalig einen Rechenprozess, der sich nicht auf eine Abfolge einfacher Operationen reduzieren ließ. Die starke Church-Turing-Hypothese, eine Grundannahme der theoretischen Informatik, geriet ins Wanken. Es zeigte sich also, dass Informatik nicht unabhängig von Physik gedacht werden kann.

Von der Entschlüsselung bis zur Materialforschung

Die weitreichenden Folgen dieser theoretischen Entwicklungen wurden zunächst kaum wahrgenommen – wohl auch, weil das von Deutsch und Jozsa betrachtete Rechenproblem keine bekannte praktische Anwendung besitzt. Dies änderte sich zwei Jahre später, als der US-amerikanische Mathematiker Peter Shor den nach ihm benannten Quantenalgorithmus vorstellte. Shor zeigte, dass ein Quantencomputer mit einigen Tausend Qubits die Verschlüsselungstechniken knacken könnte, die Textnachrichten, Suchanfragen und Bankgeschäfte im Internet vor unbefugten Zugriffen schützen. Krypto­graf:innen bezeichnen den Tag, an dem der erste hochskalierte Quantencomputer verfügbar sein wird, daher manchmal als Kryptogeddon. Quantencomputing ist seitdem nicht mehr nur ein akademisches Thema.

Seit den theoretischen Durchbrüchen der 1990er-Jahre sind Hunderte weitere Quantenalgorithmen beschrieben worden. Besonders praktisch relevant sind Anwendungen für die Materialwissenschaften. Die Eigenschaften von Festkörpern werden durch die Quantenmechanik bestimmt und es ist daher nicht überraschend, dass Quantencomputer diese effizienter simulieren können als klassische Rechenmaschinen.

Viel Aufmerksamkeit wurde auch investiert, um solche Quantenvorteile für kombinatorische Optimierungsprobleme zu finden: Auf welche Route kann ein Lieferant alle Kunden am effizientesten bedienen? Wie können teure Maschinen optimal für die Produktion genutzt werden? Unter welchen Bedingungen Quantencomputing in diesem Bereich sinnvoll ist, bleibt aber weiterhin eine offene Frage. Theoretische Methoden sind noch nicht stark genug und experimentelle Testläufe – sogenannte Benchmarks – sind schwierig, solange entsprechende Quantenhardware nicht verfügbar ist.

Auch wenn es in der öffentlichen Diskussion manchmal vereinfachend so dargestellt wird, sieht es derzeit nicht so aus, als ob Quantencomputing für allgemeine Rechenaufgaben eine Beschleunigung erreichen kann – erst recht nicht für bestehende Software. Auf Quantencomputern wird keine Textverarbeitung und kein Computerspiel laufen. Es ist daher eben nicht mit vergangenen Entwicklungen wie der Erhöhung der Taktfrequenz von Prozessoren oder der Anzahl der Rechenkerne zu vergleichen.

Die Hardware

Quantencomputer praktisch zu bauen, bleibt eine enorme Herausforderung. Der Grund liegt darin, dass Quanteneffekte extrem fragil sind: Kleinste Störungen lassen die Überlagerungszustände kollabieren. Aus diesem Grund müssen Qubits vor unkontrollierten Umgebungseinflüssen streng abgeschirmt werden. Gleichzeitig müssen sie aber für Steuerungssignale gut erreichbar bleiben. Es liegt auf der Hand, dass diese beiden Ansprüche – strenge Abschirmung und gute Kontrollierbarkeit – nur schwer gleichzeitig zu realisieren sind.

Derzeit werden eine Vielzahl von Plattformen auf ihre Tauglichkeit als skalierbarer Träger von Quanteninformation untersucht: Festkörperqubits (können auf den technologischen Erfahrungen der Mikroelektronik aufbauen), gefangene Ionen (leichter anzusteuern, aber sehr viel langsamer als Festkörperqubits), Photonen (fast ganz immun gegen äußere Störungen, aber sehr schwierig miteinander in Wechselwirkung zu bringen), Atome (gut zu kontrollieren und zu verschieben, aber eher langsam auszulesen) und viele mehr. Trotz massiver Fortschritte gibt es weiterhin keinen klaren Favoriten.

Stand 2023 ist noch kein praktisch relevantes Problem auf einem Quantencomputer gelöst worden, für das es nicht bessere klassische Ansätze gibt. Der Vorsprung klassischer Maschinen scheint in den letzten Jahren aber stark geschrumpft zu sein. Ob die Entwicklung eher dem Moorschen Gesetz folgt (der Beobachtung, dass klassische Computer ihre Leistungsfähigkeit in regelmäßigen Abständen verdoppeln, siehe „Mikrochips: immer kleinere Strukturen“ auf Seite 177) oder der Entwicklung praktischer Fusionsreaktoren (im Prinzip möglich, aber praktisch immer einige Jahrzehnte in der Zukunft, siehe auch „Energie aus Kernfusion“ auf Seite 193) bleibt eine offene und spannende Frage.

Zum Thema siehe auch „Quantencomputer – Anwendungen und Reali-sierungen“ auf Seite 187 und „Quantenbits erzeugen und kontrollieren“ auf Seite 199 und die dort folgenden Artikel.

David Gross