Ein Schlüsselkonzept zum Verständnis von Quantencomputern ist das der quantenmechanische Überlagerung (Superposition). Klassische Computer speichern Informationen als Folgen der Ziffern 0 und 1 in sogenannten Bits. Ein Quantencomputer startet und endet ebenfalls mit solchen Binärwerten. Dazwischen – während der Berechnung – kann er aber mit mehreren Binärwerten in Überlagerung gleichzeitig arbeiten. Dies nennt man Quantenparallelismus – es werden mithilfe von Wahrscheinlichkeitswellen mehrere Rechenwege abgetastet. Würden wir in einem solchen Moment das Ergebnis abfragen, käme ein zufälliges Ergebnis aus einem der Rechenwege heraus. Demzufolge besteht die Herausforderung darin, den Computer mit den Überlagerungen so rechnen zu lassen, dass am Ende das Ergebnis eindeutig – oder wenigstens auf eine aussagekräftige Wahrscheinlichkeitsverteilung reduziert – herauskommt. Quantenalgorithmen setzen das über die geschickte Auslöschung (destruktive Interferenz) von Wahrscheinlichkeitswellen um. Dass diese Algorithmen funktionieren, wurde schon für verschiedene Aufgaben mathematisch gezeigt: für den Grover-Algorithmus (formuliert als schnelle Datenbankabfrage – allgemeiner das quantenparallele Testen von unbekannten Funktionen), für Auswertungen der schnellen Fourieranalyse wie z. B. bei der Primfaktorzerlegung von Ganzzahlen, für lineare Algebra und für verschiedene Optimierungsaufgaben. Diese Algorithmen sind dabei zunächst sehr abstrakt. Dies ist allerdings vergleichbar damit, dass die Programme in klassischen Computern auch oft auf abstrakten Algorithmen basieren, etwa zum Sortieren, zum Addieren oder Vergleichen. Fragestellungen mit relevanten Anwendungen aus den Algorithmen zusammenzubauen macht einen großen Teil der Entwicklung von Quantensoftware aus.
Obwohl sich das Rechnen für bestimmte Fragestellungen durch die quantenphysikalische Überlagerung deutlich beschleunigen lässt, profitieren die heute üblichsten Computeranwendungen davon nicht. Grafische Benutzungsoberflächen, Chats, Textverarbeitung und Spiele werden in absehbarer Zukunft kein typischer Anwendungsfall von Quantencomputern werden.
Der Quantenvorteil
Klassische und Quantencomputer lösen prinzipiell dieselben Probleme – auf die Effizienz kommt es an. Diese wird in der Informatik damit gemessen, wie sehr der Rechenaufwand (Zahl der notwendigen Rechenoperationen oder Platz) mit der Problemgröße wächst – ob exponentiell oder als Potenzgesetz (und wenn ja, mit welchem Exponenten). Das Rechnen auf einem Quantencomputer kann dann überlegen sein, wenn dort der Rechenaufwand weniger stark mit der Problemgröße wächst als auf einem klassischen Computer. Das typische Beispiel hierfür ist die Zerlegung großer Zahlen in ihre Primfaktoren, was für das Knacken von Verschlüsselungsverfahren eine zentrale Rolle spielt. Für klassische Computer ist keine Methode bekannt, deren Aufwand bei steigenden Zahlen „nur“ mit einem Potenzgesetz steigt. Der Shor-Algorithmus für Quantencomputer jedoch folgt einem solchen Potenzgesetz, was für die Aufgabe der Faktorisierung einen Quantenvorteil ergibt, sobald ausreichend große Quantencomputer existieren.
Fundamental und akademisch wurde ein Quantenvorteil gegenüber aktuellen Hochleistungsrechnern durch die Präparation eines Zustands bereits gezeigt, der so umfangreich ist, dass er nicht mehr im klassischen Arbeitsspeicher aktueller Supercomputer gehalten werden kann. Um 50 Qubits in einem klassischen Arbeitsspeicher abzubilden, wären 250 komplexe Fließkommazahlen notwendig. Eine Arbeitsgruppe von Google hat all dies 2019 in einem Test an einem 53-Qubit Chip verifiziert, die Ergebnisse wurden jedoch kontrovers diskutiert. Größere Chips auch in anderen Laboren folgten. Die Aufgabe war das Abarbeiten eines geeigneten zufälligen Algorithmus, der durch eine Fragestellung aus der Quantenphysik chaotischer Systeme motiviert war.

Dies ist – bei aller Diskussion in der Fachgemeinschaft – eine technologische Meisterleistung. Es ist aber noch sehr weit von gesellschaftlichem Quantenvorteil entfernt: Quantenalgorithmen mit relevanten Anwendungen benötigen viele und vor allen Dingen fehlerarme Qubits. Denn die Überlagerungen können durch Wechselwirkungen mit der Umgebung zusammenbrechen. Man bezeichnet daher die aktuelle Phase der Entwicklung von Quantencomputern als NISQ-Ära (Noisy Intermediate-Scale Quantum Technologies, auf Deutsch etwa: fehlerbehaftete, mittelgroße Quantentechnologien). Quantenrechner in dieser NISQ-Ära sind im besten Sinn wissenschaftliche Großgeräte: Weil sie nicht mehr simulierbar sind, sind sie wichtige Zutaten des Forschungsprozesses, und weil sie noch nicht ausgefeilte Geräte für die Endnutzung sind, ist ihre Heimat in wissenschaftlichen Einrichtungen und Rechenzentren.
Quantenbits und Resonanz
Qubits werden mit dem physikalischen Prinzip der Resonanz gesteuert, also der Beobachtung, dass wir physikalische Systeme dann besonders gut antreiben können, wenn die Antriebsfrequenz der natürlichen Frequenz entspricht. In der Quantenphysik können wir die Energie und die Frequenz mittels E = hf übersetzen, wobei h das Plancksche Wirkungsquantum ist.
Bei supraleitenden Stromkreisen kommt uns da zunächst mal der einfache LC-Schwingkreis in den Sinn, der eine einzige Resonanzfrequenz hat. Das wird aber zum Problem: Wir wollen ja genau zwei Zustände 0 und 1 aus dem Energiespektrum des Quantensystems herausschneiden. Beim harmonischen Quanten-Oszillator gibt es aber unendlich viele Energieniveaus, und diese haben alle den gleichen Abstand. Wenn wir also per Resonanz von 0 nach 1 anregen wollen, dann geht es gleich weiter nach 2 und nach 3. Wir benötigen also einen Oszillator, dessen Energieabstand nicht konstant ist.
Hier kommt der Josephson-Kontakt zu Hilfe, der in supraleitenden Quantencomputern eine ähnliche Rolle hat wie der Transistor in klassischen Computern. Er wirkt wie eine nichtlineare Induktivität, was zur Folge hat, dass die Übergangsfrequenzen immer kleiner werden – d. h. 0 ↔︎ 1 hat eine höhere Resonanzfrequenz als 1 ↔︎ 2 usw. Damit kann mit Resonanzmethoden das Qubit angetrieben und Quantenlogik implementiert werden.
Generell bestimmen sich die Energien eines Qubits, die für die Steuerung genutzte Strahlung und die Betriebstemperatur T = E/kB gegenseitig (mit der Boltzmann-Konstante kB). Optisch adressierte Qubits können, anders als supraleitende Qubits, auch bei Zimmertemperatur betrieben werden.
Plattformen für Quantencomputer
Qubits können durch Quantensysteme physikalisch realisiert werden. Dazu zählen Atome, Moleküle und Elementarteilchen. Gerade weil sie klein sind und gut isoliert werden können, versprechen sie exzellente Quantenkohärenz – also die Fähigkeit, ihren Quantenzustand zuverlässig beizubehalten. Sie zu fangen, zu steuern und in großer Zahl aneinanderzukoppeln, sind die hauptsächlichen Herausforderungen. Ein viel beschrittener Weg ist es, atomare Ionen in elektrischen Feldern zu fangen und sie mit Lasern oder Mikrowellensignalen zu steuern. Über gemeinsame Vibrationen können die gefangenen Ionen miteinander in Wechselwirkung treten. In den letzten Jahren haben sich auch neutrale Atome als starke Plattform herauskristallisiert, zunächst in der Quantensimulation, jetzt auch im Quantencomputing.
Ein anderer Ansatz startet bei integrierten Schaltkreisen – im weiteren Sinne also mit Computerchips – und versucht, sie so zu konstruieren, dass die Bauelemente Quanteneigenschaften haben. Ein gängiger Weg nutzt supraleitende Bauelemente, die sich im Schaltkreis so verhalten, als wären sie ein einziges großes Quantenteilchen. Damit können durch Nutzung von Induktivitäten, Kapazitäten und einem nichtlinearen Bauelement – dem Josephson-Kontakt – Quantenschaltkreise gebaut werden.
Eine Zwischenrolle zwischen diesen beiden Arten von Plattformen sind die Spin-Qubits in Halbleitern und die Störstellen in Diamant. Sie nutzen mikroskopische Freiheitsgrade (einzelne Elektronen oder Ionen), die aber in einer Festkörpermatrix eingefangen sind – was ihre Skalierung praktischer machen sollte und neue Methoden der Steuerung eröffnet.
Quantencomputing kombiniert eine möglicherweise disruptive Technologie mit der faszinierenden Aufgabe, eine komplexe und doch kohärente Quantenmaschine zu bauen und den Übergang zwischen Quanten- und klassischer Physik zu verstehen. Erste Prototypen existieren und im akademischen Sinn wurde ein Quantenvorteil erzielt. Kommerziell disruptive Maschinen sind jedoch noch Zukunftsmusik. Es bedarf weiterhin der Grundlagenforschung in breiter Kooperation, um Quantencomputer weiterzuentwickeln.