WIRKUNG
Quantenwelt

Information

Wir leben im Informationszeitalter. Die Aufgabe der Informationstechnik ist es, Technologien zur Verfügung zu stellen, in denen Information sicher und schnell verarbeitet und übertragen werden können. Jedoch ist es immer noch ein Gegenstand aktueller Forschung, die physikalischen Ressourcen zu verstehen, die für das Verarbeiten der Information notwendig sind.

Vorabversion

Dass Information nichts Abstraktes ist, sondern eine physikalische Grundlage haben muss, erkannte vor dreißig Jahren der deutsch-amerikanische Physiker Rolf Landauer: „Information is physical“ („Information ist physikalisch“). Tatsächlich ist Information in physikalischen Systemen wie Festplatten gespeichert, wird mittels physikalischer Signale, etwa durch elektrische und optische Wellen, übertragen und in physikalischen Geräten – Computern – verarbeitet.

Betrachten wir den einfachsten möglichen Informationsspeicher: ein System mit zwei unterschiedlichen Zuständen – etwa eine Münze, die entweder mit Kopf oder Zahl nach oben auf einem Tisch liegt. Wenn wir mit Sicherheit wissen, wie herum die Münze liegt, können wir durch die Beobachtung keine neue Information gewinnen. Wenn hingegen beide Zustände mit gleicher Wahrscheinlichkeit auftreten können, etwa nach dem Wurf der Münze, ist der tatsächliche Zustand zunächst unbestimmt und erst der Blick auf die Münze liefert Information.

Information und Entropie

Mathematisch lässt sich der Informationsgehalt eines Systems durch die sogenannte Informationsentropie quantifizieren, die 1948 von Claude Shannon eingeführt wurde. Je größer die Informationsentropie ist, desto größer ist der Informationsgehalt. Im ersten Fall, in dem der Zustand des Systems bekannt ist, ist die Informationsentropie gleich Null. Im zweiten Fall der binären Zufallsentscheidung ist die Informationsentropie gleich dem natürlichen Logarithmus von 2. Dies ist der Shannonsche Informationsgehalt eines Bits. Ein System mit zwei Zuständen in der klassischen Physik kann also bis zu einem Bit an Information speichern.

Die Informationsentropie quantifiziert beispielsweise die Information, die in einer gespeicherten Bild- oder Musikdatei oder in einer gesendeten Textnachricht enthalten ist. Sie spielt daher sowohl in der Kommunikationstheorie als auch in der Informatik eine zentrale Rolle.

Die Shannon-Entropie hat denselben mathematischen Ausdruck wie die statistische thermodynamische Entropie, die Josiah Willard Gibbs 1878 eingeführt hat. Dies ist kein Zufall: Die thermodynamische Entropie gibt die Menge an Informationen an, die verloren geht, wenn ein System anhand seiner makroskopischen Variablen wie Druck, Volumen und Temperatur anstatt der vollständigen mikroskopischen Positionen und Geschwindigkeiten seiner Teilchen beschrieben wird. Dies deutet auf eine enge Verbindung zwischen Informationstheorie und Thermodynamik hin, die durch das Landauer-Prinzip quantifiziert ist. Landauer wies 1961 nach, dass die Löschung eines Bits an Information zwangsläufig mit der Freisetzung einer Wärmemenge einhergeht, die proportional zur Temperatur und zum Informationsgehalt ist. Dieses Ergebnis gilt allgemein für die meisten logischen Operationen in einem modernen Computer – und zeigt bei deren Wei­ter­ent­wick­lung gleichzeitig eine physikalische Grenze auf: Die unvermeidliche Wärmeabgabe stellt ein Haupthindernis für die weitere Miniaturisierung von Computerchips und die Erhöhung der Transistorendichte dar. Die Existenz einer fundamentalen physikalischen Grenze wurde erst 2012 in einem klassischen Speicher und 2018 in einem Quantenspeicher aus einem molekularen Nanomagneten experimentell nachgewiesen und dürfte in den kommenden Jahrzehnten in der Praxis erreicht werden.

Die Schaltenergie nähert sich immer mehr dem theoretischen Grenzwert von ca. 4,2⋅10−21 J bei Raumtemperatur an.

Dass Information nichts Abstraktes ist, sondern eine physikalische Grundlage haben muss, erkannte vor dreißig Jahren der deutsch-amerikanische Physiker Rolf Landauer: „Information is physical“ („Information ist physikalisch“). Tatsächlich ist Information in physikalischen Systemen wie Festplatten gespeichert, wird mittels physikalischer Signale, etwa durch elektrische und optische Wellen, übertragen und in physikalischen Geräten – Computern – verarbeitet.

Betrachten wir den einfachsten möglichen Informationsspeicher: ein System mit zwei unterschiedlichen Zuständen – etwa eine Münze, die entweder mit Kopf oder Zahl nach oben auf einem Tisch liegt. Wenn wir mit Sicherheit wissen, wie herum die Münze liegt, können wir durch die Beobachtung keine neue Information gewinnen. Wenn hingegen beide Zustände mit gleicher Wahrscheinlichkeit auftreten können, etwa nach dem Wurf der Münze, ist der tatsächliche Zustand zunächst unbestimmt und erst der Blick auf die Münze liefert Information.

Information und Entropie

Mathematisch lässt sich der Informationsgehalt eines Systems durch die sogenannte Informationsentropie quantifizieren, die 1948 von Claude Shannon eingeführt wurde. Je größer die Informationsentropie ist, desto größer ist der Informationsgehalt. Im ersten Fall, in dem der Zustand des Systems bekannt ist, ist die Informationsentropie gleich Null. Im zweiten Fall der binären Zufallsentscheidung ist die Informationsentropie gleich dem natürlichen Logarithmus von 2. Dies ist der Shannonsche Informationsgehalt eines Bits. Ein System mit zwei Zuständen in der klassischen Physik kann also bis zu einem Bit an Information speichern.

Die Informationsentropie quantifiziert beispielsweise die Information, die in einer gespeicherten Bild- oder Musikdatei oder in einer gesendeten Textnachricht enthalten ist. Sie spielt daher sowohl in der Kommunikationstheorie als auch in der Informatik eine zentrale Rolle.

Die Shannon-Entropie hat denselben mathematischen Ausdruck wie die statistische thermodynamische Entropie, die Josiah Willard Gibbs 1878 eingeführt hat. Dies ist kein Zufall: Die thermodynamische Entropie gibt die Menge an Informationen an, die verloren geht, wenn ein System anhand seiner makroskopischen Variablen wie Druck, Volumen und Temperatur anstatt der vollständigen mikroskopischen Positionen und Geschwindigkeiten seiner Teilchen beschrieben wird. Dies deutet auf eine enge Verbindung zwischen Informationstheorie und Thermodynamik hin, die durch das Landauer-Prinzip quantifiziert ist. Landauer wies 1961 nach, dass die Löschung eines Bits an Information zwangsläufig mit der Freisetzung einer Wärmemenge einhergeht, die proportional zur Temperatur und zum Informationsgehalt ist. Dieses Ergebnis gilt allgemein für die meisten logischen Operationen in einem modernen Computer – und zeigt bei deren Wei­ter­ent­wick­lung gleichzeitig eine physikalische Grenze auf: Die unvermeidliche Wärmeabgabe stellt ein Haupthindernis für die weitere Miniaturisierung von Computerchips und die Erhöhung der Transistorendichte dar. Die Existenz einer fundamentalen physikalischen Grenze wurde erst 2012 in einem klassischen Speicher und 2018 in einem Quantenspeicher aus einem molekularen Nanomagneten experimentell nachgewiesen und dürfte in den kommenden Jahrzehnten in der Praxis erreicht werden.

Was ist Information?

Eine einfache und intuitive Antwort auf diese Frage lautet: „Das, was Sie noch nicht wissen.“ Wenn Ihnen jemand sagt, dass die Erde kugelförmig ist, wäre dies vermutlich nichts Neues für Sie. Diese Nachricht hat demnach für Sie einen geringen Informationsgehalt. Wenn man Ihnen jedoch sagt, dass es morgen regnen wird, dann würden Sie – vorausgesetzt, die Aussage ist wahr – viel lernen. Diese Nachricht hat daher einen hohen Informationsgehalt. Das Verarbeiten, Kommunizieren und Sammeln von Information sind zu einem der größten Wirtschaftsfaktoren geworden.


Ursprung

Der Begriff Information leitet sich vom lateinischen „informatio“ ab, was so viel wie Idee oder Konzept bedeutet. Als abstraktes Konzept wurde die Information zum ersten Mal im 14. Jahrhundert beschrieben. Als Ursprung der mathematisch exakten Beschreibung können die Arbeiten von Claude Shannon gelten (1948).


Einheiten der Information

Das Bit ist eine binäre Einheit, wobei ein Bit der Menge der Information entspricht, die in einer Auswahl aus zwei gleich wahrscheinlichen Möglichkeiten enthalten ist. Das Bit wurde im 18. Jahrhundert von Basile Bouchon und Jean-Baptiste Falcon erfunden.

Das Qubit ist die quantenmechanische Variante des klassischen Bits. Der Begriff wurde in den frühen 1990er-Jahren in einem Gespräch zwischen Ben Schumacher und Bill Wootters geprägt.


Verwandte Begriffe:

Die Nachricht ist der „Träger von Information“, nicht die Information selbst.

Kommunikation ist die Übertragung von Information. Die Kommunizierbarkeit gilt als eine wesentliche Eigenschaft von Information, und jegliche Kommunikation setzt Information voraus.

Daten sind Angaben über Sachverhalte und Vorgänge, die in der Form bestimmter Zeichen/Symbole auf Datenträgern existieren. Aus ihnen kann zweckbezogenes Wissen und in diesem Sinne „Information“ werden.

Wissen ist ein für Personen oder Gruppen verfügbarer Bestand von Fakten, Theorien und Regeln, von deren Gültigkeit bzw. Wahrheit ausgegangen wird.

Ein klassisches Bit (links) hat zwei mögliche Zustände: oben und unten, +1 und −1 usw., ein Qubit (rechts, sogenannte Bloch-Kugel) kann in Superpositionen von klassischen Zuständen existieren.

Information und Quantenphysik

Quantencomputer besitzen das Potenzial, manche Rechenaufgaben mit exponentiell weniger „Ressourcen“ zu bewerkstelligen als klassische Computer. Mit Ressourcen meint man hierbei typischerweise einzelne Qubits. Diese können dabei nicht nur zwei, sondern alle möglichen Zustände auf einer Einheitskugel annehmen und damit potenziell viel mehr Information enthalten. In der Quantenmechanik tritt daher die von-Neumann-Entropie (bereits 1927 von John von Neumann definiert) an die Stelle der Shannon-Entropie.

Dieser grundlegende Unterschied zwischen einem Bit und einem Qubit (und der daraus resultierende Unterschied zwischen den entsprechenden Informationsentropien) hat in den letzten drei Jahrzehnten zur Entwicklung neuartiger Quanteninformationstechniken geführt, die in der klassischen Physik nicht möglich sind. Beispiele hierfür sind die Quantenkryptografie, eine Methode zur geheimen Kommunikation über große Entfernungen, die superdichte Codierung, die es ermöglicht, bis zur doppelten Menge an klassischer Information zu kommunizieren, und der Shor-Algorithmus, mit dem sich Zahlen exponentiell schneller in ihre Primzahlfaktoren zerlegen lassen.

Ein klassisches Bit (links) hat zwei mögliche Zustände: oben und unten, +1 und −1 usw., ein Qubit (rechts, sogenannte Bloch-Kugel) kann in Superpositionen von klassischen Zuständen existieren.

Allerdings sind auch Quantencomputer nicht vor der Landauer-Grenze gefeit: Die Quanteninformationsverarbeitung basiert oft auf supraleitenden Materialien, und damit spielen auch hier fundamentale thermodynamische Grenzen eine Rolle. Allerdings stellt sich die Frage, wie genau das Landauer-Prinzip auf Quantencomputer anzuwenden ist. Ein Quantencomputer hat Zugriff auf exponentiell mehr Zustände und kann daher exponentiell mehr Information verarbeiten. Heißt das dann aber auch, dass exponentiell mehr Energie verbraucht werden muss? Erste Ergebnisse aus der Quantenthermodynamik scheinen darauf hinzuweisen, dass das nicht der Fall ist. Zum Beispiel gibt es interessante Anwendungen, die es erlauben, mehr Arbeit aus einer Quantenmaschine zu gewinnen als klassisch möglich wäre. Daher ist weitere Forschung dringend nötig, um dieser Frage sicher auf den Grund zu gehen.

Sebastian Deffner und Eric Lutz