Inhalt
Richard Feynmans Vision
Der Weg zu den ersten Quantencomputern war sehr, sehr steil und glich eher der Erstbesteigung des Mount Everest oder dem Wettlauf zur ersten Mondlandung.
Die Idee wurde zum ersten Mal in den 1970er Jahren erwähnt. Als Urvater des Quantencomputers wird allerdings meistens der legendäre amerikanische Physiker und Nobelpreisträger Richard Feynman genannt. Feynman war einer der bedeutendsten Physiker des 20. Jahrhunderts und seine Ideen hatten viel Gewicht. Unter anderem gab er mit einem berühmten Vortrag „There’s Plenty of Room at the Bottom“ auch den Startschuss für die Nanotechnologie. Seinen Nobelpreis bekam er allerdings für seine Beiträge zur Theorie der Elementarteilchen.
Er schlug im Jahr 1982 vor, eine neue Art von Computer zu entwickeln, die sich die Besonderheiten der Quantenmechanik zu nutzen macht. Ein Quantencomputer. Erst dann wäre man in der Lage, so Feynman, die atomare Welt und somit letztendlich die Natur, erfolgreich zu simulieren und zu berechnen. Zu dem Zeitpunkt erschien die Idee allerdings so absolut aussichtslos, dass sie nicht wirklich weiterverfolgt wurde. In den vorangegangenen Jahrzehnten hatte die Forschung nämlich sämtliche experimentelle Untersuchungen der Quantenphysik durchgeführt, indem sie riesige Massen von Elektronen oder Lichtteilchen untersucht hatte. Die Vorstellung kontrollierte Systeme aus einer handvoll Quantenbausteinen zu erstellen, die darüber hinaus stabil genug wären, um damit exakte Rechnungen durchzuführen, galt den meisten Forschern noch als absolut abwegig.
Warum ist das so schwer?
Die Dekohärenz, der Schrecken der Quantenwelt
Ein wichtiger Grund ist Folgender: Ein Quantencomputer verhält sich nur dann wie ein Quantensystem, wenn er perfekt von seiner Umgebung isoliert ist. Wenn er das nicht ist, passiert nach und nach genau das, was bei der Messung des Endergebnisses eines Quantenprogramms passiert: Das System verliert seine Quanteneigenschaften. Jede kleine Interaktion mit der Umgebung ist wie eine kleine Messung. Das Phänomen bezeichnet man „Dekohärenz“. Die Tatsache, dass es die Dekohärenz gibt ist eine grundlegende Eigenschaft der Quantenmechanik. Dahinter steckt das große Rätsel: Warum sehen wir in unsere Alltagswelt keine Quanteneffekte? Am Ende besteht doch schließlich alles aus Atomen, also Quanten. Aus der Frage haben sich verschiedene Interpretationen der Quantenmechanik entwickelt, und sie ist auch noch fast 100 Jahren später immer noch Gegenstand der aktuellen Forschung i ii. Die bekanntesten Interpretationen heißen „Kopenhagener Deutung“, die um die Gruppe des dänischen Physikers Niels Bohr sehr nachhaltig vertreten wurde und lange Zeit die führende Interpretation in der Physik war. Die zweite oft vertretene Interpretation heißt die „Viele-Welten-Hypothese“ die von der Existenz von Paralleluniversen handelt.
Für die Entwicklung eines Quantencomputers ist es natürlich sehr schade, dass es die Dekohärenz gibt. Auf der anderen Seite können wir froh sein, dass es sie gibt. Denn ansonsten wäre unsere Welt, also die makroskopische Welt, auch eine Quantenwelt und somit ein sehr sehr schräger Platz zum leben.
Quanten-Fehlerkorrektur
Um die letztendlich unvermeidbare Dekohärenz nachhaltig gering zu halten und lange Quantenprogramme überhaupt erst zu ermöglichen, hat sich in den letzten 20 Jahren ein weiterer Forschungszweig in der Quanteninformation herauskristallisiert: Die Quanten-Fehlerkorrektur. Sie wird aus praktischen Gründen noch auf viele Jahre nicht für aktuelle Quantencomputer verfügbar sein. Dennoch wird die Quanten-Fehlerkorrektur ein Herzstück für zukünftige Quantencomputer sein, sobald sie leistungsstark genug dafür sind.
Ziel der Quanten-Fehlerkorrektur ist es Qubits so geschickt anzuordnen, dass Fehler automatisch bereinigt werden können. Bei herkömmlichen Computern ist diese Aufgabe relativ einfach. Dazu müssen Bits lediglich kopiert werden. Dieser Kopiervorgang ist in der Quantenmechanik schlicht und einfach unmöglich. Dies wurde 1982 durch das „No Cloning Theorem“ ausgeschlossen. Ziel der Quantenfehlerkorrektur ist es deshalb aus mehreren echten Qubits ein einzelnes logisches Qubit zu bilden. Im Verbund verhalten sich diese echten Qubits dann wie ein einzelnes Qubit. Ein Fehler in einem physischen Qubit, das zu diesem Verbund gehört, kann dann durch die anderen Qubits des Verbundes korrigiert werden. Das Interessante dabei ist, dass der gesamte Vorgang der Fehlererkennung und Fehlerkorrektur durchgeführt wird, ohne dass ein Qubit tatsächlich gemessen werden muss.
Das bekannteste Quantenprogramm zur Fehlerkorrektur ist der sogenannte topologische Surface-Code von Alexei Kitaev und verbindet in überraschenderweise ein äußerst abstraktes Teilgebiet der Mathematik mit der Quantenmechanik: Die algebraische Topologie iii.
John Preskill vom California Institute of Technology (Caltech), verriet einmal in einem Vortrag: „Der Tag an dem ich Kitaevs Vortrag hörte, war einer der aufregendsten Tage meiner Karriere“ iv. Und das muss schon was heißen: Sie erinnern sich vielleicht an meinen Beitrag über die Quanten-Überlegenheit, wie Preskill die Wette gegen Stephen Hawking gewonnen hatte. Mittlerweile arbeitet Kitaev selbst am Caltech …
Die Quantenfehlerkorrektur sieht auf den ersten Blick vielleicht wie eine besonders knifflige technische Fleißarbeit aus. Auf der einen Seite ist sie das auch. Auf der anderen Seite führt sie uns auf eine Frage die grundlegender nicht sein könnte: Was sind eigentlich Raum und Zeit?
Quantengravitation: Was sind eigentlich Raum und Zeit?
Hinter dem „Klebstoff“ der einen Verbund von physischen Qubits für die Quantenfehlerkorrektur zusammenhält, verbirgt sich nichts anderes als das vielleicht größte Zauberwort der Quantenmechanik. Dem „Entanglement“ oder auf deutsch „Verschränkung“, wie sie früher von Erwin Schrödinger, einem der Gründerväter der Quantenmechanik, bezeichnet wurde.
Albert Einstein bezeichnete sie als „spukhafte Fernwirkung“.
Vor etwa 10 Jahren erkannten Forscher, dass besonders interessante Programme für die Quantenfehlerkorrektur dieselbe Struktur haben, wie eine junge, sehr berühmte Theorie, die aus der Superstring-Theorie hervorgegangen ist, und die die Physiker aktuell so enthusiastisch erforschen wie kaum eine andere: Die „Holographische Dualität“, die möglicherweise erste Quantentheorie für die Gravitation- bzw. die Schwerkraft. Demnach ist die Beziehung von physischen Qubits zu logischen Qubits in einem Quantencomputer dieselbe die auch für die Quantengravitation entscheidend ist v vi.
Seit Albert Einsteins Relativitätstheorie wissen wir, dass die Gravitation nichts anderes ist als eine Krümmung der Raumzeit. Das Lieblings-Anschauungsobjekt in der Relativitätstheorie ist zum Beispiel ein „Schwarzes Loch“, dass jede Art von Materie auf Nimmerwiedersehen aufsaugt, selbst das Licht. Die Krümmung ist in einem Schwarzen Loch besonders drastisch: Am Rand eines Schwarzen Loches ist die Raumzeit so gekrümmt, dass ein hineinfallender Beobachter zunächst nichts merkt vii. Ein anderer Beobachter, der sich in einer festen Umlaufbahn um das Schwarze Loch befindet und die hineinfallenden Person beobachtet, sieht etwas völlig anderes: Am Rand dehnt die Raumzeitkrümmung die Zeit immer mehr. Die hineinfallende Person erscheint deshalb immer mehr abzustoppen und überquert den Rand des Schwarzen Loches tatsächlich nie. Wie ein Filmprojektor, der sich immer langsamer dreht und am Ende den Film ganz stoppt viii.
In den 1960er Jahren wurde erkannt, dass Einsteins Krümmungsgleichungen Ähnlichkeiten mit der Strömungslehre von Flüssigkeiten haben. Seitdem wird vermutet, dass die Raumzeitkrümmung, genauso wie die Strömungslehre, nur eine Vogelperspektive von etwas noch viel Grundlegenderem ist. In der Quantengravitation versuchen die Theoretiker deshalb in die Raumzeitkrümmung „hineinzuzoomen“ und die Quantentheorie dahinter zu entdecken. Lange Zeit ohne Erfolg, bis vor zwanzig Jahren dann die so faszinierende Holographische Dualität entdeckt wurde ix.
Hinter der Quantengravitation steckt also nichts Geringeres als die Frage:
Was sind eigentlich Raum und Zeit?
Es wird vermutet das dieselben netzartigen Quanten-Verschränkungen dabei eine zentrale Rolle spielen, die auch die Quantenfehlerkorrektur möglich machen x.
Erinnern Sie sich an meine Anspielung auf den Film „Die Matrix“ am Ende meiner Einleitung? Ich finde, die Quantengravitation ist so „Matix-mäßig“ wie nur etwas. Ich frage mich dann: Kann es sein, dass unser Eindruck von den vielleicht selbstverständlichsten Größen Raum und Zeit nur ein Resultat der Quantenkomplexität ist? So in etwa wie die thermischen Teilchenbewegungen für uns einen Eindruck von Temperatur entstehen lassen?
Die Quantenfehlerkorrektur ist das endgültige Heilmittel gegen die Dekohärenz in den Quantencomputern. Sie hat allerdings einen großen Haken: Die Fehlerkorrektur erfordert so viele zusätzliche physische Qubits, dass die Quantencomputer der nächsten Jahre ohne sie auskommen werden müssen. Entsprechend kurz müssen die Quantenprogramme sein, die auf ihnen ausgeführt werden.
Die ersten Quantencomputer
Der Shor-Algorithmus schlug also ein wie eine Bombe und löste einen regelrechten Boom in der Quantencomputer-Szene aus. Bis ins Jahr 2010 gelang es der Forschung kleine Quantensysteme immer besser und immer genauer zu isolieren und damit erste experimentelle Quantencomputer zu konstruieren.
2001 erstellte IBM zum ersten Mal ein Quantensystem mithilfe des Effekts der Kernspinresonanz, den Sie übrigens auch als „Kernspin-Röhre“ in der Medizin kennen.
Der Quantencomputer von IBM war in der Lage gezielt den Shor-Algorithmus auszuführen, in dem er die Zahl „15“ in die Primfaktoren „3*5“ zerlegte …
Nein, das soll kein Witz sein.
Was sich zunächst lächerlich anhört, war tatsächlich ein Meilenstein in der Forschung. Er bewies, dass ein Quantencomputer prinzipiell gebaut werden kann und zudem in der Lage ist, das zu jener Zeit vielversprechendste Quantenprogramm auszuführen xi.
Die Kernspinresonanz erwies sich jedoch als Sackgasse für die Entwicklung des ersten Quantencomputers und es wurde später sogar in Frage gestellt, ob die Kernspin-Quantencomputer echte Quantencomputer wären.
Im Jahr 2008 gelang es Innsbrucker Forschern einen Verbund von 8 kontrollierten Qubits über eine sogenannte „Ionenfalle“ zu erzeugen. Dieselbe Forschungsgruppe ist übrigens auch im Bereich der Quantenteleportation aktiv, einem weiteren Gebiet der Quanteninformationstheorie xii.
2011 kam dann die große Nachricht: Die bis dahin eher unbekannte kanadische Firma „D-Wave-Systems“ bietet den ersten kommerziellen Quantencomputer an.
D-Wave-Systems benannte die Anzahl der Qubits in ihrem Quantencomputer mit sage-und-schreibe 128 Qubits! Wenn Sie sich jetzt nochmal die Liste in meinem vorletzten Beitrag über den Vergleich von Qubits und herkömmlichen Bits anschauen:
- 1 Qubit entspricht 2 herkömmlichen Bits
- 2 Qubits entsprechen 4 herkömmlichen Bits
- 10 Qubits entsprechen 16 herkömmlichen Kilo-Byte
- 20 Qubits entsprechen 16 herkömmlichen Mega-Byte
- 30 Qubits entsprechen 16 herkömmlichen Giga-Byte
- 31 Qubits entsprechen 32 herkömmlichen Giga-Byte (jedes weitere Qubit verdoppelt also die Speichergröße)
- 45 Qubits entsprechen in etwa der Speichergröße des größten aktuellen, herkömmlichen Supercomputers
- 50 Qubits, die „Quanten-Überlegenheit“-Grenze
Die Nachricht über D-Waves Quantencomputer sah also auf den ersten Blick so aus, als wäre damit der Durchbruch erzielt worden. Es kam noch besser: Im Jahr 2013 kauften Google und die NASA für mehrere Millionen Dollar ein Nachfolgemodell von D-Wave mit sagenhaften 512 Qubits!
Die Ära der Quantencomputer hatte also mit Pauken und Trompeten begonnen.
Oder nicht?
Referenzen
i https://arxiv.org/abs/quant-ph/0105127: wissenschaftliche Arbeit von Wojciech H. Zurek „Decoherence, einselection, and the quantum origins of the classical“. Zurek ist wohl die wissenschaftliche Instanz für die Frage über die Verbindung zwischen der Quantenmechanik und unserer makroskopischen Welt.
ii https://arxiv.org/abs/0903.5082: wissenschaftliche Arbeit von Wojciech H. Zurek „Quantum Darwinism“
iii https://arxiv.org/abs/1311.0277: Aufsatz von H. Bombin „An Introduction to Topological Quantum Codes“
iv https://www.youtube.com/watch?v=bPNlWTPLeqo: Vortrag von John Preskill “Quantum Computing and the Entanglement Frontier”
v https://www.youtube.com/watch?v=x3qGycr2uYk: Vortrag von Patrick Hayden „Spacetime, Entropy, and Quantum Information“
vi https://motls.blogspot.de/2015/05/adsmera-tensor-networks-and-string.html: Blog-Beitrag von Lubos Motl
vii Dabei ignorieren wir gerade mal aktuelle Diskussionen zu dem Thema, die genau das in Frage stellen. Nämlich die „Firewall-Theorie“ für Schwarze Löcher.
viii https://www.youtube.com/watch?v=BdYtfYkdGDk: Videomitschnitt von Leonard Susskinds Vorlesung „General Relativity Lecture 7“
ix https://ocw.mit.edu/courses/physics/8-821-string-theory-and-holographic-duality-fall-2014/index.htm: Die Vorlesungsreihe „String Theory and Holographic Duality“ am MIT inkl. Videomitschnitten und Vorlesungsfolien. Es war die Vorgängerveranstaltung dieser Vorlesung, an der der damalige Physikstudent Brian Swingle teilnahm und die AdS/MERA-Dualität vorschlug.
x https://www.quantamagazine.org/tensor-networks-and-entanglement-20150428/: Einer von vielen sehr schönen und allgemeinverständlichen Artikeln auf Quantamagazine. https://arxiv.org/pdf/1005.3035: Die Original-Arbeit „Building up spacetime with quantum entanglement“ von Marc Van Raamsdonk, die erstmals eine Verbindung zwischen der Raumzeit und den Quanten-Verschränkungen nahelegte. Die Idee von Van Raamsdonk hat mittlerweile eine große Gemeinde von Quantentheoretikern elektrisiert. Einer der führenden Köpfe zu dem Thema ist Altmeister Leonard Susskind https://www.youtube.com/watch?v=9crggox5rbc