Quantencomputer – Die nächste Revolution in der Informationstechnologie des 21. Jahrhunderts?
Ein Begriff, der den meisten Menschen so unheimlich-bizarr wie aufregend-futuristisch vorkommen muss, drängt zunehmend in die Sphäre der öffentlichen Aufmerksamkeit. In ihm kombiniert sich die scheinbare technologische Allmacht des digitalen Rechnens mit der ehrfurchteinflössenden Komplexität und Abstraktheit der bedeutendsten physikalischen Theorie des 20. Jahrhunderts. Es handelt sich um den „Quantencomputer“. Dahinter verbergen sich keineswegs esoterische Träume von Wunderheilungen und Seelenreinigungen („Quantenheilung“), spirituellen Wohnungseinrichtungen („Quanten-Feng-Shui“), universell-perfekten Liebesbeziehungen („Quanten-Resonanz“) oder sonstiger Unsinn, den Esoteriker gerne mit „Quanten“ assoziieren, sondern eine mögliche technologische Revolution, die das 21. Jahrhundert ähnlich bedeutend prägen könnte, wie die Entwicklung digitaler Schaltkreise das 20. Jahrhundert geformt hat.
Vor wenigen Tagen kündigte der IT-Konzern IBM an, dass er der Öffentlichkeit seine Quantencomputer-Technik als Cloud-Service zur Verfügung stellen wird. Interessenten könnten im Rahmen der „IBM Quantum Experience“ über das Internet auf einen 5-Qubit-Quantencomputer zugreifen und darauf mittels einer bereitgestellten Programmierschnittstelle und Benutzeroberfläche Programme erstellen und ausführen. IBM verspricht sich mit diesem Schritt, die Entwicklung von Quantencomputern zu beschleunigen. Und vor ca. fünf Monaten gab Google bekannt, dass sie einen Quantencomputer der Firma „D-Wave“ erworben haben, mit dem sie weitere Forschungsarbeiten durchführen wollen. Firmen wie IBM, Google und Microsoft erkennen in Quantencomputern eine mögliche Grundlage für die nächste Generation von Supercomputern und behaupten, in der jüngeren Vergangenheit einige bedeutende Fortschritte in Richtung ihrer Entwicklung erzielt zu haben.
Was macht einen Quantencomputer so besonders? Beruhen nicht bereits die Bausteine herkömmlicher Computer massgeblich auf quantenmechanischen Gesetzmässigkeiten (wie beispielsweise dem Transistoreffekt)? Tatsächlich wäre die digitale Revolution des 20. Jahrhunderts ohne die Quantenphysik gar nicht möglich gewesen. Nichtsdestotrotz sind Aufbau und Funktionalität konventioneller Computer (die so genannte „Von-Neumann-Architektur“) prinzipiell auch ohne quantenphysikalische Effekte möglich (so bestanden die ersten Computer in den 1940er Jahren noch aus Röhren und Kondensatoren). Erst für ihre extreme Miniaturisierung wurde Quantenphysik benötigt, was zuletzt ihre heutige Leistungsfähigkeit ermöglichte. Quantencomputer besitzen dagegen eine grundlegend andere Architektur und Funktionsweise, die bereits in ihrem Kern auf den bizarren Eigenschaften der Quantentheorie beruht. Sie verwenden zur Datenspeicherung und –verarbeitung direkt subatomare Partikel und nutzen deren Quanteneigenschaften aus. Dies ermöglicht Quantencomputern potentiell eine im Vergleich zu gängigen Computern unvorstellbar höhere Rechengeschwindigkeit und könnte sie Komplexitäten beherrschen lassen, die uns aufgrund ihrer Unvorhersagbarkeit und Unkontrollierbarkeit heute noch ehrfürchtig erschaudern lassen. So könnte ein Quanten-Computer ohne weiteres herkömmliche Verschlüsselungsmethoden für digitale Daten knacken, blitzschnell gigantische Datenmengen durchforsten und komplexe Optimierungsaufgaben lösen, was einem herkömmlichen Supercomputer in realistischer Zeitspanne nicht gelingen wird. Damit könnten Quantencomputer die globale Datensicherheit bedrohen, was sie nicht nur für das Militär interessant und bedrohlich zugleich sein lässt. Aber sie könnten auch dafür eingesetzt werden, bisher nicht lösbare Problemstellungen in der Physik oder Quantenchemie zu bearbeiten oder in anderen Gebieten wie der Materialforschung oder Medikamentenentwicklung völlig neuen Wegen zu folgen. Allerdings ist all dies bis jetzt rein theoretischer Natur, denn noch existiert kein funktionierender universeller Quantencomputer.
Doch wie genau funktioniert ein Quantencomputer? Im Gegensatz zu den Informationseinheiten, mit denen ein herkömmlicher Computer arbeitet, den „Bits“, die entweder den Zustand 1 oder 0 haben (also zwei Werte annehmen können, daher der Begriff „digital“), können die Informationseinheiten in einem Quantencomputer, die so genannten „Quantenbit“ (kurz „Qubit“), beide Zustände und alle Zwischenwerte simultan annehmen. Dies liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“, Zustandsüberlagerungen sich klassisch gegenseitig ausschliessender Zustände, zu existieren. Diese bizarre Eigenschaft von Quantenteilchen war einst Auslöser hitziger Diskussionen unter den Vätern der Quantenphysik, welche ihren Ausdruck zuletzt in dem bekannten Gedankenexperiment von der „Schrödinger‘schen Katze“ fanden. Dazu kommt noch, dass sich verschiedene Quantenteilchen in so genannte „verschränke Zustände“ bringen lassen. Quantenmechanische Verschränkung beschreibt eine Verknüpfung einzelner Teilchen zu einem nicht-separierbaren Ganzen. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Über eine „spukhafte Fernbeziehung“ stehen sie sozusagen allesamt direkt in Kontakt miteinander, und jedes Quantenbit weiss, was die anderen gerade treiben. Damit, so erhoffen sich die Physiker, können Qubits sozusagen gleichzeitig auf allen Zuständen operieren, was eine hochgradige Parallelisierung der Operationen ermöglichen und die Rechenleistung des Computers exponentiell mit der Anzahl der Qubits erhöhen würde – gegenüber einer mit der Anzahl der verfügbaren Rechenbausteinen nur linear ansteigenden Rechenleitung in einem klassischen („von Neumann“) Computer mit sequentieller Datenverarbeitung.
IBMs „Quantum Experience“ beruht auf einem Prozessor mit fünf Qubits, die auf einem Siliziumchip implementiert sind. Dieser muss auf ca. minus 270 Grad Celsius herunterkühlt werden, da die in den quantenmechanisch verschränkten Qubits gespeicherten Daten extrem empfindlich sind und durch Wärme oder Strahlung sehr leicht beschädigt werden können. Dahinter steckt ein generelles Problem von Quantencomputern: Verschränkte Quantenzustände zerfallen im Allgemeinen sehr schnell wieder, oft zu schnell, um die gewünschten Operationen fehlerfrei durchzuführen. Mit Hilfe eines Ultratiefsttemperatur-Kühlschranks vermögen die Physiker dem Einhalt zu gebieten. Unterdessen haben die Forscher auch Methoden entwickelt, um fehlerhafte Qubits zu korrigieren. Nach Einschätzung von IBM wird es innerhalb eines Jahrzehnts Quantenprozessoren geben, die aus 50 bis 100 Qubits bestehen. Bereits ein System mit ca. 50 Qubits würde wohl die Rechenkapazität eines jeden heutigen Superrechners übertreffen (zumindest für einige sehr wichtige Rechenprobleme).
Auch der US-Geheimdienst NSA arbeitet an der Entwicklung eines Quanten-Computers. Mit einem solchen könnte sich der Geheimdienst Zugriff auf die umfangreichen vertraulichen Daten aus dem Banken und Finanzsektor, dem Gesundheitsbereich, diversen Regierungsaktivitäten, der verarbeitenden Industrie und zahlreichen anderen Bereichen verschaffen. Das Forschungsprojekt an Quanten-Computern sei Teil eines rund 80 Millionen Dollar schweren Forschungsprogramms der NSA, berichtete die „Washington Post“ und beruft sich auf Dokumente von Edward Snowden. Uns bleibt nur zu spekulieren, wie weit das Programm bereits gediehen ist. Weite Teile des Forschungsprogramms seien geheim, heisst es, und es gibt Mutmassungen, dass der Geheimdienst bedeutend weiter sein könne als zivile Labors.
Die Tatsache, dass Firmen wie IBM oder Google mit ihren Quantencomputer-Plänen nun an die Öffentlichkeit gehen, könnte ein Zeichen dafür sein, dass die Technologie langsam reif wird für Anwendungen auf reale Probleme. Noch sind Quantencomputer einer breiten Öffentlichkeit wenig bekannt. Doch entfaltetet sich mit ihnen ein gewaltiges technologisches und gesellschaftliches Entwicklungspotenzial, welches sich uns bereits in einigen Jahren offenbaren könnte. War Nicht-Physikern in den 40er Jahren nicht auch der ‚Transistoreffekt‘ kaum ein Begriff? Quantencomputer könnten einer der bedeutendsten Technologietreiber des 21. Jahrhunderts werden, so wie es „von Neumann –Prozessoren“ für das 20. Jahrhundert waren.