Was können wir von Quantencomputern in den kommenden Jahren erwarten?


<<     >>

Die Andersartigkeit der neuen Rechenwege

Bevor wir uns die ersten praktischen Anwendungsgebiete für Quantencomputer anschauen, sollten wir uns eine generelle Frage stellen.

Ich hatte schon mehrfach betont, dass Quantencomputer in ihrer Andersartigkeit ganz neue Rechenwege ermöglichen werden. Die Frage ist jetzt: Kann man dies präzisieren?

Die Antwort ist: In der theoretischen Informatik beginnt man damit genau dies zu tun.

Vor einem halbem Jahrhundert begannen Computerwissenschaflter damit, Probleme in Klassen zu unterteilen, je nachdem wie schwierig es ist eine Lösung zu finden. Probleme, die herkömmliche Computer mit verhältnismäßig wenig Rechenaufwand lösen können werden beispielsweise $ P $-Probleme genannt. Daneben gibt es Probleme, die nur mit sehr viel Rechenaufwand gelöst werden können, deren Lösungen aber mit wenig Rechenaufwand überprüft werden können. Diese Probleme werden $ NP $-Probleme genannt. Ein Beispiel hierfür ist die Zerlegung in Primfaktoren: Wenn man einmal die gesuchten Primfaktoren $ p $ und $ q $ einer Zahl $ n $ gefunden hat, ist die Überprüfung der Lösung kinderleicht, nämlich gerade $ p*q = n $. Die $ PSPACE $ -Probleme wiederum sind solche Probleme, deren Lösungweg man noch in einem herkömmlichen Computer programmieren kann, eventuell endet das Programm aber nie!

 

 

 

 

(Quelle: https://en.wikipedia.org/wiki/File:BQP_complexity_class_diagram.svg)

Sie können sich vorstellen, dass diese Themen ungemein tiefgreifend sind. Sie präzisieren, was wir uns unter „Berechenbarkeit“ und „Komplexität“ vorstellen müssen.

In diese Thematik passt unsere Frage über die Andersartigkeit der Quantencomputer ideal hinein:

Deshalb haben Wissenschaftler für Quantencomputer vor 30 Jahren eine neue Klasse eingeführt: $ BQP $ sind die Probleme, die ein Quantencomputer mit verhältnismäßig wenig Rechenaufwand lösen kann. Das Diagramm oben zeigt die Zusammenhänge zwischen den Problemklassen $ P $, $ NP $ und $ BQP $, die die meisten Wissenschaftler vermuten i. Sie können also erkennen, dass Quantencomputer wahrscheinlich viel mehr Probleme effizient lösen können als herkömmliche Computer, insbesondere einige der „Mega-Probleme“ in PSPACE. Sie erkennen aber auch, dass selbst Quantencomputer vermutlich ihre Grenzen haben werden.

Eine wichtige Tatsache wird in diesem Diagramm allerdings nicht deutlich: Probleme die ein Quantencomputer nur mit viel Aufwand lösen kann, die also nicht in BQP liegen, sind auf herkömmlichen Computern noch wesentlich aufwendiger zu lösen. D.h. selbst bei den schwierigen NP-Problemen haben die Quantencomputer einen Geschwindigkeitsvorteil. Den Quanten-Algorithmus hierfür nennt man „Grover-Algorithmus“. Ihn werde in einem eigenen Beitrag im Detail vorstellen. Dann kommen wir auch wieder auf das Diagramm oben zu sprechen.

So, genug der Theorie. Kommen wir zu konkreten Problemen und konkreten Quantenprogrammen.

Ein goldenes Zeitalter für Quantencomputer

Glaubt man Seth Lloyd vom Massachusetts Institute of Technology / MIT, erlebt die Quantencomputer-Szene gerade so etwas wie ein goldenes Zeitalter. Seth Lloyd bezeichnet sich selbst als „Quantum Mechanic“, ist einer der Gründerväter der Szene und seit über 25 Jahren ein führender Theoretiker in dem Bereich. Nebenbei sind seine Vorlesungen und Vorträge einfach ziemlich witzig. So gibt er gerne die Legende zum besten, dass der Finanzcrash von 2009 durch die verkopften Transaktions-Algorithmen von einem Haufen arbeitsloser Physiker für Superstring-Theorie verursacht wurde. Augenzwinkernd fügt er dann hinzu, dass die Quanten-Informationstheoretiker dadurch angespornt sind die Sache mit der Weltwirtschaft jetzt zu Ende zu bringen. Mit noch fieseren Algorithmen ii.

Lloyd erzählt, dass die Forschung an Quantencomputern gerade mal mit einer handvoll Wissenschaftlern begann. Heute sind es Zehntausende, die die Entwicklung in dem Bereich regelrecht beflügeln. Im Jahr 1985 wurde das erste Quantenprogramm von David Deutsch vorgestellt, das für eine spezielle Aufgabe weniger Rechenschritte benötigte, als ein herkömmlicher Computer. In den Jahrzehnten seitdem wurde eine Vielzahl an faszinierenden Quantenalgorithmen entwickelt, die die herkömmlichen Programme für dieselbe Aufgabe meilenweit hinter sich lassen und exponentielle Rechenbeschleunigungen erzielen können.

Was bislang fehlte war die zugehörige Hardware.

Diese ist langsam verfügbar. Die Tech-Riesen arbeiten an Cloud-Angeboten für ihre Quantencomputer. Zahlreiche Startup-Firmen entwickeln Quantencomputern mit Dutzenden von Qubits. An öffentlichen Einrichtungen wird die Forschung an größeren und verlässlicheren Quantencomputern ebenfalls weiter vorangetrieben.

Lloyd vergleicht die aktuelle Entwicklung mit der Gründerzeit der ersten Digitalcomputer. Das Konzept für die herkömmlichen Digitalcomputer wurde in den 1930er Jahren von Claude Shannon in seiner Masterarbeit, ebenfalls am MIT, vorgestellt. Die Arbeit von Shannon wurde später als die „einflussreichste Masterarbeit des 20. Jahrhunderts“ bezeichnet. Das Hauptwerk von Shannon sollte später allerdings die moderne Informationstheorie werden, die er im Alleingang entwickelte und die auch die Vorlage für die Quanten-Informationstheorie wurde. Claude Shannon war ohne Zweifel einer der prägendsten Wissenschaftlern des 20. Jahrhunderts. Konrad Zuse entwickelte während des 2. Weltkriegs erste Prototypen. Bis in die 1950er Jahre waren mehrere erste Computermodelle verfügbar. Diese waren sehr limitiert, riesengroß und fehleranfällig, Aber allein diese Verfügbarkeit legte den Grundstein für die Entwicklung einer Vielzahl von grundlegenden Algorithmen, die auch heute noch verwendet werden. Die Informatikgeschichte ist voll von Beispielen über Algorithmen, die praktisch sehr erfolgreich waren (oder noch erfolgreich sind), ohne dass man zunächst den Grund für den Erfolg theoretisch begründen konnte. Das „Simplex-Verfahren“ ist so ein Beispiel. Und sehr aktuell gilt dies auch für die „Deep-Learning Netze“, die das Herzstück der künstlichen Intelligenz bei Google, Amazon, den autonomen Autos & Co bilden.

Die Situation mit den ersten Quantencomputern ist heute sehr ähnlich. Sie sind aufwendig im Betrieb, besitzen nur wenige Dutzend Qubits und sind besonders noch sehr fehleranfällig. Aktuell sind alle Quantencomputer den herkömmlichen Computern in ihrer Rechengeschwindigkeit weit unterlegen. Überhaupt werden die herkömmlichen Computer selbst in der Quantencomputer-Ära weiterhin für die normale Rechenarbeit benötigt. Quantencomputer werden vermutlich nur für besonders rechenintensive Probleme eingesetzt werden, deren Lösungen aber besonders wertvoll sein werden. Viele interessante Quanten-Algorithmen dafür können allerdings nur unzureichend auf der aktuellen Hardware umgesetzt werden iii. Dieses Bild ändert sich aber laufend:

Im Laufe dieses Jahres werden wohl die ersten Quantencomputer verfügbar sein, die die Grenze von 50 Qubits, der Grenze der Quanten-Überlegenheit, durchbrechen werden. Und in der nächste Phase der Entwicklung werden Quantencomputer konstruiert werden, die 50 Qubits bis zu wenigen hundert Qubits leistungsstark sind. Diese werden noch nicht in der Lage sein umfangreiche Quantenprogramme auszuführen, da mit dieser Anzahl von Qubits noch keine Quanten-Fehlerkorrekturen möglich sind. Aber wenn die Fehleranfälligkeit der einzelnen Rechenschritte in heutigen Größenordnungen bleibt, dürften die Quantenprogramme bis zu mehrere hundert Rechenschritte mit tolerierbaren Fehlerraten durchführen können. Und mit solchen Quantencomputern sollten wir in der Lage sein bereits außergewöhnliche Dinge berechnen zu können.

Erste Anwendungsgebiete zeichnen sich ab

Den Shor-Algorithmus werden wir sicherlich noch eine längere Zeit nicht für Zahlen von interessanter Größe ausführen können, da hierfür die Quanten-Fehlerkorrektur und eher viele tausend Qubits und Millionen von Quantengattern notwendig wären. Es gibt aber andere leistungsstarke Quantenalgorithmen, die bereits in der Generation von Quantencomputern mit bis zu wenigen hundert Qubits einsatzfähig sind.

Folgende zentrale Einsatzfelder und Business Cases zeichnen sich für die Quantencomputern der nächsten Jahren ab: iv v vi

 

  • Grundlagenforschung in der Physik
  • Materialforschung- und -entwicklung
  • Chemische Forschung, Quantenchemie
    • Pharmazeutische Forschung
  • Bigdata (z.B. Google, Amazon, Netflix)
  • Künstliche Intelligenz und Maschinenlernen
  • Finanzwirtschaft
  • Logistik
  • Assistentensysteme (z.B. Kranheitsdiagnose)
  • Simulationen von Quantensystemen
  • Energieeinsparung
  • IT-Beratung zur Quantencomputer-Technologie für Kunden

In den nächsten Abschnitten werden Sie mehr über die Quanten-Algorithmen zu diesen Einsatzfeldern erfahren.

Optimierungsaufgaben: Quantum Variational Eigensolver

Materialforschung, chemische Forschung, Logistik, Finanzwirtschaft, IT-Beratung

Für die kommende Generation der Quantencomputer, der Quanten-Überlegenheit-Computer, zeichnet sich ein Lösungsverfahren für Optimierungsaufgaben ab, dass teilweise Quantencomputer und teilweise herkömmliche Computer verwendet. Das Verfahren hat den Vorteil, dass die praktischen Einschränkungen der jungen Quantencomputer ausdrücklich berücksichtigt werden. Unter anderem scheint es immun gegenüber Rechenfehlern der Quantencomputern zu sein.

Das Verfahren kann auch zur Simulation von Quantensystemen in der Chemie und Materialforschung verwendet werden und ist dort unter dem Namen „Quantum Variational Eigensolver (QVE)“ bekannt vii.

Jarrod McClean, einer der Entwickler des Quantum Variational Eigensolver – Algorithmus, zitiert hierfür z.B. folgendes interessante Anwendungsbeispiel viii: Im Jahr 1913 wurde das Haber-Bosch-Verfahren zur Synthetisierung von Ammoniak zum ersten Mal großindustriell eingeführt. Seitdem ist es das weltweit dominierende Verfahren für die Herstellung von Düngemitteln. Es benötigt allerdings eine Hitze von 400° Celsius und einen Druck von 200 Bar. Etwa 1-2% des weltweiten Energiebedarfs wird jährlich nur in das Haber-Bosch-Verfahren gesteckt.

Pflanzen und Pilze hingegen synthetisieren Ammoniak bei 20° Celsius und einem Druck von 1 Bar, dem Atmosphärendruck. Forscher konnten die zentralen Reaktionen hierfür zwar lokalisieren allerdings nicht detailliert verstehen. Die notwendigen Quantensimulationen sind schlichtweg zu komplex, als das sie von einem herkömmlichen Supercomputer berechnet werden könnten.

Quantencomputer wären dazu allerdings in der Lage ix. Dafür ist McClean maßgeblich für Google an der Entwicklung des OpenSource-Frameworks „OpenFermion“ beteiligt x. Ziel von OpenFermion ist es Molekül-Eigenschaften zu berechnen, in dem es ein chemisches Problem in die Welt der Quantencomputer übersetzt. Der Anwender braucht im Prinzip also keine Kenntnisse in der Quantenprogrammierung.

IT-Beratung für Quantencomputer

McClean ist übrigens mittlerweile angestellt beim Google Quantum AI Lab. Es zeigt sich das Tech-Riesen wie Google und Microsoft gezielt auch die theoretischen Wissenschaftler aus der öffentlichen Forschung anheuern, die sich durch Anwendungsmöglichkeiten der nächsten Quantencomputer-Generation hervorgetan haben. Dies kann zum einen mit dem Nachweis der Quanten-Überlegenheit zusammenhängen: Um sie nachzuweisen benötigt man sowohl die Quantencomputer-Hardware als auch einen geeigneten Quanten-Algorithmus.

Zum anderen bauen die Konzerne damit auch spezialisierte und hochkarätige Knowhow-Einheiten auf, die in Zukunft als Schnittstelle zwischen Kunden und der neuen Technologie dienen können. Erste Beispiele solcher Kooperationen gibt es bereits xi.

Diesen Business Case im Umfeld der der nächsten Quantencomputer erwähnt das Google Quantum AI Lab übrigens selbst ausdrücklich. xii

Lineare Algebra: QRAM, Matrix Inversion, Quantum principal component analysis

Materialforschung, chemische Forschung, Logistik, Finanzwirtschaft, Maschinenlernen, Bigdata

Der Shor-Algorithmus ist das bekannteste und ein leicht verständliches Beispiel, wie ein Quantenprogramm unsere Gesellschaft verändern kann. Der wirtschaftliche Nutzen für Unternehmen durch den Shor-Algorithmus sähe allerdings wahrscheinlich eher bescheiden aus.

Ganz anders ist das im Falle der „Linearen Algebra“. Sie ist vielleicht das Grundwerkzeug der Mathematik. So unglaublich viele Probleme und Aufgaben in der Forschung, Wirtschaft und Industrie lassen sich mit ihrer Hilfe lösen. Die Quantenmechanik selbst ist zum Beispiel ein riesiges Lineare-Algebra-Problem.

Seth Lloyd und andere haben mittlerweile Quantenalgorithmen für die Lineare Algebra entwickelt, die ein gigantisches Verbesserungspotential gegenüber herkömmlichen Methoden besitzen (QRAM xiii, Matrix Inversion xiv).

Sie könnten vielleicht zu dem „Killer-Feature“ der Quantencomputer werden.

Ein Beispiel hierzu: Netflix verwendet für die Film-Empfehlungen an seine Kunden einen Algorithmus der auf der sogenannten „Principal Component Analysis“ der künstlichen Intelligenz basiert. Diese erweitert des Prinzips des „Starren Körpers“ aus der klassischen Mechanik auf beliebige Datenstrukturen. In der Mechanik betrachtet man einen festen Körpern von beliebiger Form als Ansammlung von sehr, sehr vielen einzelnen Massepunkten. Das Prinzip des „Starren Körpers“ besagt, dass dieser Körper in Summe dann immer drei feste Drehachsen besitzt. Dreht sich der Körper um eine dieser Achsen, gibt es keine Umwucht und die Drehung sieht wie beim Kreisel immer gleichmäßig aus. Der Ort jedes einzelnen Massepunktes lässt sich dann durch seine Drehachsen-Anteile beschreiben. Die Drehachsen selbst lassen sich mithilfe der Linearen Algebra aus der Statistik aller Punkte berechnen.

Die Principal Component Analysis übersetzt dieses Prinzip in die Datenstrukturen des Big Datas. Aus den Nutzungsdaten aller Netflixkunden kann eine Art Starrer Körper berechnet werden. Dieser Datenkörper ist nun nicht mehr dreidimensional, sondern lebt in einem hochdimensionalen Datenraum. Der starre Datenkörper besitzt auch feste „Drehachsen“, den „Components“. Das Nutzungsverhalten eines einzelnen Kunden lässt sich wiederum vollständig durch die Components beschreiben. Die Components, die den größten Anteil am Nutzungsverhalten eines einzelnen Kunden haben, sind dann die „Principal Components“ des Kunden. Dieser erhält dann die entsprechenden Empfehlungen (z.B. „Komödien aus den 1990er Jahren“).

Die Berechnungen müssen riesige Datenmengen in einem hochdimensionalen Datenraum bewältigen. Netflix braucht dafür einen vollen Tag.

Die Principal Component Analysis könnte durch einen Quantencomputer exponentiell beschleunigt werden.

Es könnte sein, dass die neuen Algorithmen von Seth Lloyd und anderen noch zu anspruchsvoll für die kommende Generation von Quantencomputern sind. Aber wie John Preskill in seiner Keynote für die Konferenz „Quantum to Business“ im Dezember 2017 erklärte: „Wir werden es ausprobieren und herausfinden“. Mit den kommenden Quantencomputern werden wir die ersten ernsthaften Gehversuche mit den Quantenalgorithmen machen. Unsere Erfahrungen mit den herkömmlichen Digitalcomputern haben gezeigt: Es ist wahrscheinlich, dass wir ganz neue Wege finden werden, die theoretisch jetzt noch nicht absehbar sind.

Fußnoten

i Tatsächlich ist das Diagramm über die Zusammenhänge zwischen P, NP, BQP und PSPACE fast komplett unbewiesen. Selbst der Zusammenhang zwischen NP und P gilt als eines der grundlegendsten offenen Fragen der theoretischen Informatik. Wirklich bewiesen wurde zuletzt allerdings die Vermutung, dass es BQP-Probleme gibt, die weder in P noch in NP liegen. Nebenbei wurde damit auch bewiesen, dass PSPACE und NP nicht gleich sind. Lesen Sie hierzu auch den Artikel auf Quantamagazine https://www.quantamagazine.org/finally-a-problem-that-only-quantum-computers-will-ever-be-able-to-solve-20180621/

ii https://www.youtube.com/watch?v=5xW49CzjhgI: Vortrag von Seth Lloyd „The Future of Quantum Computing“

iii https://arxiv.org/abs/1804.03719: Der Fachartikel „Quantum Algorithm Implementations for Beginners“ von diversen Autoren gibt eine kurze Einführung in eine ganze Liste von bekannten Quanten-Algorithmen mit viel Potential. Zusätzlich wird versucht diese Algorithmen auf einem 5 Qubit-Quantencomputer von IBM umzusetzen. Die Resultate sind etwas ernüchternd. Natürlich sollte man von einem 5 Qubit-Quantencomputer nicht allzu viel erwarten.

iv https://research.google.com/pubs/pub45919.html: Nature-Artikel von Google „Commercialize Quantum Technologies in Five Years“

v http://www.theory.caltech.edu/~preskill/talks/Q2B_2017_Keynote_Preskill.pdf: Folien zum Keynote-Vortrag von John Preskill zur Konferenz „Quantum for Business“

vi https://arxiv.org/abs/1801.00862: Artikel von John-Preskill „Quantum Computing in the NISQ era and beyond“

vii http://arxiv.org/abs/1509.04279: wissenschaftliche Arbeit von Jarrod R. McClean u.a. „The theory of variational hybrid quantum-classical algorithms“

viii https://www.youtube.com/watch?v=w7398u8G588: Vortrag von Jarrod McClean: „Quantum Computation for the Discovery of New Materials and […]“

ix http://www.pnas.org/content/early/2017/06/30/1619152114: Wissenschaftlicher Artikel u.a. von Krysta Svore, Matthias Troyer (Microsoft) „Elucidating reaction mechanisms on quantum computers“

x https://github.com/quantumlib/OpenFermion: OpenSource-Framework u.a. für Quanten-Chemie, das von Google federführend entwickelt wird.

xi https://www.volkswagenag.com/de/news/2017/11/quantum-computing.html: Presseerklärung von VW „Volkswagen Konzern und Google arbeiten gemeinsam auf Quantencomputern“. Daneben kooperiert Volkswagen auch mit D-Wave um erste Probleme aus dem realen Leben auf D-Waves Quantenrechner abzubilden https://arxiv.org/abs/1708.01625: Artikel von Volkswagen und D-Wave „Traffic flow optimization using a quantum annealer“.

xii https://research.google.com/pubs/pub45919.html: Nature-Artikel von Google „Commercialize Quantum Technologies in Five Years“

xiii https://arxiv.org/abs/0708.1879: wissenschaftliche Arbeit von Seth Lloyd u.a. „Quantum random access memory“

xiv https://arxiv.org/abs/0811.3171: wissenschaftliche Arbeit von Seth Lloyd u.a. „Quantum algorithm for solving linear systems of equations“

Der sehr, sehr steile Weg zum ersten Quantencomputer

<<     >>

Richard Feynmans Vision

Der Weg zu den ersten Quantencomputern war sehr, sehr steil und glich eher der Erstbesteigung des Mount Everest oder dem Wettlauf zur ersten Mondlandung.

Die Idee wurde zum ersten Mal in den 1970er Jahren erwähnt. Als Urvater des Quantencomputers wird allerdings meistens der legendäre amerikanische Physiker und Nobelpreisträger Richard Feynman genannt. Feynman war einer der bedeutendsten Physiker des 20. Jahrhunderts und seine Ideen hatten viel Gewicht. Unter anderem gab er mit einem berühmten Vortrag „There’s Plenty of Room at the Bottom“ auch den Startschuss für die Nanotechnologie. Seinen Nobelpreis bekam er allerdings für seine Beiträge zur Theorie der Elementarteilchen.

Er schlug im Jahr 1982 vor, eine neue Art von Computer zu entwickeln, die sich die Besonderheiten der Quantenmechanik zu nutzen macht. Ein Quantencomputer. Erst dann wäre man in der Lage, so Feynman, die atomare Welt und somit letztendlich die Natur, erfolgreich zu simulieren und zu berechnen. Zu dem Zeitpunkt erschien die Idee allerdings so absolut aussichtslos, dass sie nicht wirklich weiterverfolgt wurde. In den vorangegangenen Jahrzehnten hatte die Forschung nämlich sämtliche experimentelle Untersuchungen der Quantenphysik durchgeführt, indem sie riesige Massen von Elektronen oder Lichtteilchen untersucht hatte. Die Vorstellung kontrollierte Systeme aus einer handvoll Quantenbausteinen zu erstellen, die darüber hinaus stabil genug wären, um damit exakte Rechnungen durchzuführen, galt den meisten Forschern noch als absolut abwegig.

Warum ist das so schwer?

Die Dekohärenz, der Schrecken der Quantenwelt

Ein wichtiger Grund ist Folgender: Ein Quantencomputer verhält sich nur dann wie ein Quantensystem, wenn er perfekt von seiner Umgebung isoliert ist. Wenn er das nicht ist, passiert nach und nach genau das, was bei der Messung des Endergebnisses eines Quantenprogramms passiert: Das System verliert seine Quanteneigenschaften. Jede kleine Interaktion mit der Umgebung ist wie eine kleine Messung. Das Phänomen bezeichnet man „Dekohärenz“. Die Tatsache, dass es die Dekohärenz gibt ist eine grundlegende Eigenschaft der Quantenmechanik. Dahinter steckt das große Rätsel: Warum sehen wir in unsere Alltagswelt keine Quanteneffekte? Am Ende besteht doch schließlich alles aus Atomen, also Quanten. Aus der Frage haben sich verschiedene Interpretationen der Quantenmechanik entwickelt, und sie ist auch noch fast 100 Jahren später immer noch Gegenstand der aktuellen Forschung i ii. Die bekanntesten Interpretationen heißen „Kopenhagener Deutung“, die um die Gruppe des dänischen Physikers Niels Bohr sehr nachhaltig vertreten wurde und lange Zeit die führende Interpretation in der Physik war. Die zweite oft vertretene Interpretation heißt die „Viele-Welten-Hypothese“ die von der Existenz von Paralleluniversen handelt.

Für die Entwicklung eines Quantencomputers ist es natürlich sehr schade, dass es die Dekohärenz gibt. Auf der anderen Seite können wir froh sein, dass es sie gibt. Denn ansonsten wäre unsere Welt, also die makroskopische Welt, auch eine Quantenwelt und somit ein sehr sehr schräger Platz zum leben.

Quanten-Fehlerkorrektur

Um die letztendlich unvermeidbare Dekohärenz nachhaltig gering zu halten und lange Quantenprogramme überhaupt erst zu ermöglichen, hat sich in den letzten 20 Jahren ein weiterer Forschungszweig in der Quanteninformation herauskristallisiert: Die Quanten-Fehlerkorrektur. Sie wird aus praktischen Gründen noch auf viele Jahre nicht für aktuelle Quantencomputer verfügbar sein. Dennoch wird die Quanten-Fehlerkorrektur ein Herzstück für zukünftige Quantencomputer sein, sobald sie leistungsstark genug dafür sind.

Ziel der Quanten-Fehlerkorrektur ist es Qubits so geschickt anzuordnen, dass Fehler automatisch bereinigt werden können. Bei herkömmlichen Computern ist diese Aufgabe relativ einfach. Dazu müssen Bits lediglich kopiert werden. Dieser Kopiervorgang ist in der Quantenmechanik schlicht und einfach unmöglich. Dies wurde 1982 durch das „No Cloning Theorem“ ausgeschlossen. Ziel der Quantenfehlerkorrektur ist es deshalb aus mehreren echten Qubits ein einzelnes logisches Qubit zu bilden. Im Verbund verhalten sich diese echten Qubits dann wie ein einzelnes Qubit. Ein Fehler in einem physischen Qubit, das zu diesem Verbund gehört, kann dann durch die anderen Qubits des Verbundes korrigiert werden. Das Interessante dabei ist, dass der gesamte Vorgang der Fehlererkennung und Fehlerkorrektur durchgeführt wird, ohne dass ein Qubit tatsächlich gemessen werden muss.

Das bekannteste Quantenprogramm zur Fehlerkorrektur ist der sogenannte topologische Surface-Code von Alexei Kitaev und verbindet in überraschenderweise ein äußerst abstraktes Teilgebiet der Mathematik mit der Quantenmechanik: Die algebraische Topologie iii.

John Preskill vom California Institute of Technology (Caltech), verriet einmal in einem Vortrag: „Der Tag an dem ich Kitaevs Vortrag hörte, war einer der aufregendsten Tage meiner Karriere“ iv. Und das muss schon was heißen: Sie erinnern sich vielleicht an meinen Beitrag über die Quanten-Überlegenheit, wie Preskill die Wette gegen Stephen Hawking gewonnen hatte. Mittlerweile arbeitet Kitaev selbst am Caltech …

Die Quantenfehlerkorrektur sieht auf den ersten Blick vielleicht wie eine besonders knifflige technische Fleißarbeit aus. Auf der einen Seite ist sie das auch. Auf der anderen Seite führt sie uns auf eine Frage die grundlegender nicht sein könnte: Was sind eigentlich Raum und Zeit?

Quantengravitation: Was sind eigentlich Raum und Zeit?

Hinter dem „Klebstoff“ der einen Verbund von physischen Qubits für die Quantenfehlerkorrektur zusammenhält, verbirgt sich nichts anderes als das vielleicht größte Zauberwort der Quantenmechanik. Dem „Entanglement“ oder auf deutsch „Verschränkung“, wie sie früher von Erwin Schrödinger, einem der Gründerväter der Quantenmechanik, bezeichnet wurde.

Albert Einstein bezeichnete sie als „spukhafte Fernwirkung“.

Vor etwa 10 Jahren erkannten Forscher, dass besonders interessante Programme für die Quantenfehlerkorrektur dieselbe Struktur haben, wie eine junge, sehr berühmte Theorie, die aus der Superstring-Theorie hervorgegangen ist, und die die Physiker aktuell so enthusiastisch erforschen wie kaum eine andere: Die „Holographische Dualität“, die möglicherweise erste Quantentheorie für die Gravitation- bzw. die Schwerkraft. Demnach ist die Beziehung von physischen Qubits zu logischen Qubits in einem Quantencomputer dieselbe die auch für die Quantengravitation entscheidend ist v vi.

Seit Albert Einsteins Relativitätstheorie wissen wir, dass die Gravitation nichts anderes ist als eine Krümmung der Raumzeit. Das Lieblings-Anschauungsobjekt in der Relativitätstheorie ist zum Beispiel ein „Schwarzes Loch“, dass jede Art von Materie auf Nimmerwiedersehen aufsaugt, selbst das Licht. Die Krümmung ist in einem Schwarzen Loch besonders drastisch: Am Rand eines Schwarzen Loches ist die Raumzeit so gekrümmt, dass ein hineinfallender Beobachter zunächst nichts merkt vii. Ein anderer Beobachter, der sich in einer festen Umlaufbahn um das Schwarze Loch befindet und die hineinfallenden Person beobachtet, sieht etwas völlig anderes: Am Rand dehnt die Raumzeitkrümmung die Zeit immer mehr. Die hineinfallende Person erscheint deshalb immer mehr abzustoppen und überquert den Rand des Schwarzen Loches tatsächlich nie. Wie ein Filmprojektor, der sich immer langsamer dreht und am Ende den Film ganz stoppt viii.

In den 1960er Jahren wurde erkannt, dass Einsteins Krümmungsgleichungen Ähnlichkeiten mit der Strömungslehre von Flüssigkeiten haben. Seitdem wird vermutet, dass die Raumzeitkrümmung, genauso wie die Strömungslehre, nur eine Vogelperspektive von etwas noch viel Grundlegenderem ist. In der Quantengravitation versuchen die Theoretiker deshalb in die Raumzeitkrümmung „hineinzuzoomen“ und die Quantentheorie dahinter zu entdecken. Lange Zeit ohne Erfolg, bis vor zwanzig Jahren dann die so faszinierende Holographische Dualität entdeckt wurde ix.

Hinter der Quantengravitation steckt also nichts Geringeres als die Frage:

Was sind eigentlich Raum und Zeit?

Es wird vermutet das dieselben netzartigen Quanten-Verschränkungen dabei eine zentrale Rolle spielen, die auch die Quantenfehlerkorrektur möglich machen x.

Erinnern Sie sich an meine Anspielung auf den Film „Die Matrix“ am Ende meiner Einleitung? Ich finde, die Quantengravitation ist so „Matix-mäßig“ wie nur etwas. Ich frage mich dann: Kann es sein, dass unser Eindruck von den vielleicht selbstverständlichsten Größen Raum und Zeit nur ein Resultat der Quantenkomplexität ist? So in etwa wie die thermischen Teilchenbewegungen für uns einen Eindruck von Temperatur entstehen lassen?

Die Quantenfehlerkorrektur ist das endgültige Heilmittel gegen die Dekohärenz in den Quantencomputern. Sie hat allerdings einen großen Haken: Die Fehlerkorrektur erfordert so viele zusätzliche physische Qubits, dass die Quantencomputer der nächsten Jahre ohne sie auskommen werden müssen. Entsprechend kurz müssen die Quantenprogramme sein, die auf ihnen ausgeführt werden.

Die ersten Quantencomputer

Der Shor-Algorithmus schlug also ein wie eine Bombe und löste einen regelrechten Boom in der Quantencomputer-Szene aus. Bis ins Jahr 2010 gelang es der Forschung kleine Quantensysteme immer besser und immer genauer zu isolieren und damit erste experimentelle Quantencomputer zu konstruieren.

2001 erstellte IBM zum ersten Mal ein Quantensystem mithilfe des Effekts der Kernspinresonanz, den Sie übrigens auch als „Kernspin-Röhre“ in der Medizin kennen.

Der Quantencomputer von IBM war in der Lage gezielt den Shor-Algorithmus auszuführen, in dem er die Zahl „15“ in die Primfaktoren „3*5“ zerlegte …

Nein, das soll kein Witz sein.

Was sich zunächst lächerlich anhört, war tatsächlich ein Meilenstein in der Forschung. Er bewies, dass ein Quantencomputer prinzipiell gebaut werden kann und zudem in der Lage ist, das zu jener Zeit vielversprechendste Quantenprogramm auszuführen xi.

Die Kernspinresonanz erwies sich jedoch als Sackgasse für die Entwicklung des ersten Quantencomputers und es wurde später sogar in Frage gestellt, ob die Kernspin-Quantencomputer echte Quantencomputer wären.

Im Jahr 2008 gelang es Innsbrucker Forschern einen Verbund von 8 kontrollierten Qubits über eine sogenannte „Ionenfalle“ zu erzeugen. Dieselbe Forschungsgruppe ist übrigens auch im Bereich der Quantenteleportation aktiv, einem weiteren Gebiet der Quanteninformationstheorie xii.

2011 kam dann die große Nachricht: Die bis dahin eher unbekannte kanadische Firma „D-Wave-Systems“ bietet den ersten kommerziellen Quantencomputer an.

D-Wave-Systems benannte die Anzahl der Qubits in ihrem Quantencomputer mit sage-und-schreibe 128 Qubits! Wenn Sie sich jetzt nochmal die Liste in meinem vorletzten Beitrag über den Vergleich von Qubits und herkömmlichen Bits anschauen:

  • 1 Qubit entspricht 2 herkömmlichen Bits
  • 2 Qubits entsprechen 4 herkömmlichen Bits
  • 10 Qubits entsprechen 16 herkömmlichen Kilo-Byte
  • 20 Qubits entsprechen 16 herkömmlichen Mega-Byte
  • 30 Qubits entsprechen 16 herkömmlichen Giga-Byte
  • 31 Qubits entsprechen 32 herkömmlichen Giga-Byte (jedes weitere Qubit verdoppelt also die Speichergröße)
  • 45 Qubits entsprechen in etwa der Speichergröße des größten aktuellen, herkömmlichen Supercomputers
  • 50 Qubits, die „Quanten-Überlegenheit“-Grenze

Die Nachricht über D-Waves Quantencomputer sah also auf den ersten Blick so aus, als wäre damit der Durchbruch erzielt worden. Es kam noch besser: Im Jahr 2013 kauften Google und die NASA für mehrere Millionen Dollar ein Nachfolgemodell von D-Wave mit sagenhaften 512 Qubits!

Die Ära der Quantencomputer hatte also mit Pauken und Trompeten begonnen.

Oder nicht?

Referenzen

i https://arxiv.org/abs/quant-ph/0105127: wissenschaftliche Arbeit von Wojciech H. Zurek „Decoherence, einselection, and the quantum origins of the classical“. Zurek ist wohl die wissenschaftliche Instanz für die Frage über die Verbindung zwischen der Quantenmechanik und unserer makroskopischen Welt.

ii https://arxiv.org/abs/0903.5082: wissenschaftliche Arbeit von Wojciech H. Zurek „Quantum Darwinism“

iii https://arxiv.org/abs/1311.0277: Aufsatz von H. Bombin „An Introduction to Topological Quantum Codes“

iv https://www.youtube.com/watch?v=bPNlWTPLeqo: Vortrag von John Preskill “Quantum Computing and the Entanglement Frontier”

v https://www.youtube.com/watch?v=x3qGycr2uYk: Vortrag von Patrick Hayden „Spacetime, Entropy, and Quantum Information“

vii Dabei ignorieren wir gerade mal aktuelle Diskussionen zu dem Thema, die genau das in Frage stellen. Nämlich die „Firewall-Theorie“ für Schwarze Löcher.

viii https://www.youtube.com/watch?v=BdYtfYkdGDk: Videomitschnitt von Leonard Susskinds Vorlesung „General Relativity Lecture 7“

ix https://ocw.mit.edu/courses/physics/8-821-string-theory-and-holographic-duality-fall-2014/index.htm: Die Vorlesungsreihe „String Theory and Holographic Duality“ am MIT inkl. Videomitschnitten und Vorlesungsfolien. Es war die Vorgängerveranstaltung dieser Vorlesung, an der der damalige Physikstudent Brian Swingle teilnahm und die AdS/MERA-Dualität vorschlug.

x https://www.quantamagazine.org/tensor-networks-and-entanglement-20150428/: Einer von vielen sehr schönen und allgemeinverständlichen Artikeln auf Quantamagazine. https://arxiv.org/pdf/1005.3035: Die Original-Arbeit „Building up spacetime with quantum entanglement“ von Marc Van Raamsdonk, die erstmals eine Verbindung zwischen der Raumzeit und den Quanten-Verschränkungen nahelegte. Die Idee von Van Raamsdonk hat mittlerweile eine große Gemeinde von Quantentheoretikern elektrisiert. Einer der führenden Köpfe zu dem Thema ist Altmeister Leonard Susskind https://www.youtube.com/watch?v=9crggox5rbc

Was ist ein Quantencomputer?

<<     >>

Durch Quantencomputer wird die rätselhafte Quantenmechanik dafür genutzt, um völlig neuartige berechnende Systeme bereit zustellen. Deshalb besitzen Quantencomputer Eigenschaften die schier unglaublich wirken: So steigert sich die Leistungsfähigkeit eines Quantencomputers zum Beispiel „exponentiell“, also explosionsartig, mit zunehmender Größe. Schon sehr bald wird die Grenze der „Quanten-Überlegenheit“ überschritten werden. Die ersten Quantencomputer werden dann für bestimmte Berechnungen jeden herkömmlichen Supercomputer überflügeln. Und das soll erst der Anfang sein.

Der Paukenschlag: Der Shor-Algorithmus

Im Jahr 1994 hatte der Mathematiker Peter Shor vom renommierten Massachusetts Institute of Technology / MIT die Idee seines Lebens. Eine Idee, die eine neue Ära einleiten würde.

Shor untersuchte ein neues Verfahren, um eine ganze Zahl in Primzahlen zu zerlegen. Diese Primzahlfaktorisierung ist eine extrem aufwendige Angelegenheit. Um sehr großen Zahlen in Primzahlen zu zerlegen, brauchen selbst sehr leistungsstarke Supercomputer mehrere Jahre. i

Unter anderem deshalb wird sie für die sichere Datenverschlüsselung im Internet verwendet. Es ist zwar sehr einfach selbst große Zahlen aus bekannten Primzahlen zusammenzusetzen (z.B. 7×13×13×17×53 = 1065883). Da die Umkehrung aber nahezu unmöglich ist, ist die Verschlüsselung im Internet bombensicher.

Eigentlich!

Shor fragte sich, ob man das neue Verfahren nutzen könnte, um neue Algorithmen für die Primzahlzerlegung zu erstellen. Irgendwann erinnerte er sich an eine Pflichtvorlesung über Quantenmechanik, die er seinerzeit als Mathematik-Student noch am California Institute of Technology (Caltech), hatte hören müssen. Ihm kam die grandiose Idee, dass das Verfahren ungleich schneller zum Ziel führen könnte, wenn man zur Berechnung nicht einen herkömmlichen Computer, sondern einen Quantencomputer verwenden würde. Er tüfftelte ein Jahr an seinem Quantenalgorithmus und kam am Ende tatsächlich zu dem gewünschten Ergebnis ii.

Shors Algorithmus schlug ein wie eine Bombe. Bis zu diesem Zeipunkt, war es noch niemanden gelungen einen Quantencomputer zu konstruieren. Der Shor-Algorithmus war aber der erste Beweis, wie ungeheuer leistungsstark ein Quantencomputer sein und welche gesellschaftlichen Auswirkungen er haben würde. Shors Algorithmus löste einen regelrechten Boom in den Quantencomputer-Szene aus.

Ein Quantencomputer macht sich die außergewöhnlichen Eigenschaften der atomaren Welt zu nutze, um über spezielle Quantenprogrammen, den Quantenalgorithmen, ganz neue Dimensionen in der Rechengeschwindigkeit zu erzielen. Das Wort „außergewöhnlich“ ist hierbei wohl noch untertrieben. Die Quantenwelt ist eine rätselhafte Welt mit schon fast magischen Eigenschaften.

Um einen Eindruck davon zu bekommen, was das Besondere an einem Quantencomputer ist, müssen wir uns erst einmal anschauen, wie ein herkömmlicher Computer funktioniert.

Wie funktioniert eigentlich ein herkömmlicher Computer?

Nehmen wir Ihren Computer, mit dem Sie diese Zeilen lesen. Er steuert Informationen in Form von Nullen und Einsen über Bits bzw. Bytes an. Die Zahl „71“ wird z.B. durch die Bit-Reihe „0100 0111“ dargestellt und der Buchstabe „J“, per Konvention, durch die Bit-Reihe „100 1010“. Ihr Computer merkt sich, ob eine Bit-Reihe eine Zahl, einen Buchstaben, ein Bild oder Musik darstellt. Die Bits selbst existieren in Form von Milliarden elektrischer An / Aus – Schalter, den Transistoren. Zusammen bilden sie den Arbeitsspeicher Ihres Computers. Ein guter herkömmlicher Computer besitzt etwa 16 * 8 Milliarden Bits oder anders ausgedrückt: 16 Gigabyte. Ein Computerprogramm manipuliert diese Bits in einzelnen Rechenschritten über die elementarsten Bausteine der menschlichen Logik: UND-Verknüpfungen, ODER-Verknüpfungen, NICHT-Verknüpfungen. Diese Verknüpfungen werden auch „Gatter“ genannt (englisch gates). Eine NICHT-Verknüpfung kehrt ein einzelnes Bit z.B. in sein Gegenteil um: NICHT 0 = 1, NICHT 1 = 0 .

Über geschickte elektrische Schaltungen, dem Datenbus, ist Ihr Computer in der Lage jedes der unzähligen Bits im Arbeitsspeicher gezielt anzusteuern, auszulesen oder mit neuen Werten zu überschreiben. Ein Rechenschritt sieht dann zum Beispiel so aus:

„Lese den Wert des Bits mit der Adress-Nummer 1543216 und den Wert des Bits mit der Adress-Nummer 6543 aus und verknüpfe beide Werte mit einem UND-Befehl. Speicher das Ergebnis im Bit mit der Adress-Nummer 789874“. Durch eine geschickte Hintereinanderreihung dieser elementaren UND-, ODER-, NICHT-Verknüpfungen ist Ihr Computer zum Beispiel in der Lage zwei Zahlen miteinander malzunehmen. Nach jedem einzelnen dieser Rechenschritte schreibt Ihr Computer die Zwischenergebnisse wieder in den Arbeitsspeicher hinein und ruft sie von dort wieder für den nächsten Rechenschritt auf. Das Programm für das Mal-Nehmen sieht unnötig umständlich und mechanisch stupide aus. Da Ihr Computer aber in der Lage ist Milliarden von Rechenschritten pro Sekunde auszuführen ist er jedem Menschen am Ende in solchen Aufgaben gigantisch überlegen.

Nun zum Quantencomputer: Die Qubits

Ein Quantencomputer steuert im Gegensatz dazu die Informationen nicht über einfache An / Aus-Schalter an, also den herkömmlichen Bits, sondern über sogenannte „Qubits“ (für Quanten-Bits). In einem Qubit sind die Werte 0 / 1 bzw. An / Aus gleichzeitig in einer überlagerten Form vorhanden. Das sieht auf den ersten Blick vielleicht harmlos aus. Tatsächlich ist diese Überlagerung eines der großen Rätsel der Quantenmechanik.

Die zweite so außergewöhnliche Eigenschaft von Qubits ist die Folgende. Selbst kleinste Mengen an Qubits in einem Quantencomputer können eine riesige Anzahl von Informationen gleichzeitig aufnehmen und verarbeiten: iii

  • 1 Qubit entspricht 2 herkömmlichen Bits
  • 2 Qubits entsprechen 4 herkömmlichen Bits
  • 10 Qubits entsprechen 16 herkömmlichen kilo-Byte
  • 20 Qubits entsprechen 16 herkömmlichen Mega-Byte
  • 30 Qubits entsprechen 16 herkömmlichen Giga-Byte
  • 31 Qubits entsprechen 32 herkömmlichen Giga-Byte

Jedes weitere Qubit verdoppelt also die Anzahl von gleichzeitig verwendbaren Informationen! Die Leistungsfähigkeit eines Quantencomputers steigt also exponentiell! Und so geht’s weiter:

  • 45 Qubits entsprechen in etwa der Speichergröße des größten aktuellen, herkömmlichen Supercomputers
  • 50 Qubits, die „Quanten-Überlegenheit“-Grenze: Die, zumindest theoretische, Grenze an dem ein Quantencomputer gewisse Berechnungen durchführen kann, die mit keinem der aktuellen Supercomputern durchführbar wären. iv Die Tech-Riesen liefern sich um genau diese Grenze gerade das große Wettrennen.
  • 250 Qubits: Die absolute Grenze die überhaupt machbar wäre für herkömmliche Computer. Um die Speichergröße eines 250 Qubit-Quantencomputers zu erreichen, müsste ein herkömmlicher Computer jedes Atom im Universum als herkömmliches Bit verwenden.

Das wirkt unglaublich. Ist es auch!

Und nun bedenken Sie mal, dass die Quantencomputer-Branche das Ziel hat irgendwann einmal Quantencomputer mit Millionen von Qubits zu bauen!

Quantenparallelismus: Die Superposition

Der Clou bei diesen ungeheuren Zahlen ist aber tatsächlich Folgender: Nehmen wir nochmal das Beispiel mit dem Mal-Nehmen. Ihr herkömmlicher Computer nimmt zwei Zahlen, in Form von zwei Bit-Reihen im Arbeitsspeicher, führt das festgelegte Programm von einzelnen Rechenschritten aus und erhält am Ende eine Zahl in Form von einer Bit-Reihe.

Ein Quantencomputer nimmt im Gegensatz dazu für eine Aufgabe zwei Qubit-Reihen, speichert die Zwischenergebnisse wieder in Qubits und erhält am Ende das Ergebnis in Form einer Qubit-Reihe v. Da in einer Qubit-Reihe aber riesige Mengen von Informationen gleichzeitig enthalten sein können (s.o.), kann der Quantencomputer das Programm letztendlich gleichzeitig mit einer riesigen Menge von Zahlen ausführen. Dies ist der Quantenparallelismus. Normalerweise spricht man aber von der „Superposition“. Tatsächlich gibt diese Form von Überlagerung öfter in der Natur und nicht nur in der Quantenmechanik vi. Was den Quantenparallelismus so besonders macht ist die Tatsache, dass nur wenige Qubits so unvorstellbar große Datenmengen überlagern können. Die Qubits werden nämlich nicht nur einzeln überlagert, sondern der gesamte Verbund an Qubits. Und gerade dabei erhöht sich die Anzahl von möglichen Kombination so rasant. Für drei Qubits werden also z.B. bis zu acht mögliche Bit-Zustände gleichzeitig verwendet (das entspricht 2³): Nämlich 000, 100, 001, 101, 011, 111, 010 und 110.

Einsteins spukhafte Verschränkung

Das vorangegangene Beispiel hat eine bizarre Konsequenz. Albert Einstein höchstpersönlich sagte sie 1935 in einem berühmten Aufsatz voraus: Die „Quanten-Verschränkung“ (engl. „entanglement“, er selbst bezeichnete das Phänomen auch „spukhafte Fernwirkung“). Wir können zwei Qubits (oder auch mehrere Qubits) derart überlagern, dass wir sie nicht mehr als einzelne Qubits erkennen können. Stattdessen bilden sie eine völlig neuartige, einheitliche Zustandsform. Sie erscheinen „verschränkt“: Eine Messung am ersten Qubit hat sofort Auswirkungen auf das zweite Qubit.

Ziel von Einsteins Arbeit war es tatsächlich, der Quantenmechanik einen grundlegenden Denkfehler nachzuweisen. Laut Einstein müsste diese Einheit bestehen bleiben, selbst wenn die beiden Qubits Lichtjahre voneinander entfernt wären. Deshalb sprach er von Fernwirkung. Das Verrückte dabei ist: Alle Experimente deuten daraufhin, dass es genauso ist. Die Fernwirkung ist real in der Quantenwelt.

Solche verschränkte Zustandsformen gibt es nirgendwo sonst in den Naturwissenschaften. Vielleicht bis auf eine Ausnahme: Ein sogenanntes astronomisches „Wurmloch“, das zwei schwarze Löcher über eine Distanz von vielen Lichtjahren miteinander verbinden kann, als eine Art Hyper-Schnellstraße. Inwiefern diese beiden Phänomen zusammenhängen werde ich in einem späteren Beitrag erläutern.

Aber: Jede Messung zerstört die Quanteneigenschaften

Die enorme parallele Rechenleistung eines Quantencomputers hat leider einen großen Haken: Sie funktioniert nur solange der Quantencomputer perfekt von seiner Umgebung isoliert ist und die höchst fragilen Qubits ungestört sind. Indem wir am Ende allerdings das Ergebnis des Quantenprogramms aus den Qubits auslesen, tun wir aber genau das. In diesem Moment „zerfallen“ die gleichzeitig vorhandenen Werte und übrig bleibt nur ein einziger Wert der darüber hinaus auch noch zufällig gewählt wird. Dieser Zerfall ist als „Kollaps der Wellenfunktion“ bekannt und ist noch so ein Mysterium der Quantenwelt. Er war der Grund, warum manche Physiker, unter ihnen selbst Albert Einstein, die Quantentheorie zwar schätzten und vorantrieben aber im Grunde ablehnten: „Gott würfelt nicht“.

Und jetzt? Was ist überhaupt gewonnen, wenn am Ende doch nur alles vom Zufall abhängt?

Jetzt kommt das Aber: Die Wahrscheinlichkeiten, mit denen die verschiedenen Werte am Ende ausgelesen bzw. gemessen werden, können wir beeinflussen. Die Kunst eines Quantenprogramms besteht unter anderem darin, die Qubits so zu manipulieren, dass das gesuchte Ergebnis am Ende am Wahrscheinlichsten gemessen wird. Bis dahin, also während er noch von seiner Umgebung isoliert ist, kann dann die enorme Rechenkraft des ungestörten Quantencomputers genutzt werden.

Quantengatter: Die Bausteine der Quantenprogramme

In einem Quantenprogramm verwendet der Quantencomputer in jedem Rechenschritt übrigens ebenfalls elementare Logik-Bausteine, den „Quantengattern“ (engl. quantum gates). Diese spiegeln allerdings nicht unsere normale, Alltags-Logik wieder, sondern die Quantenlogik: Somit heißen die elementaren Bausteine nicht mehr UND, ODER oder NICHT. Stattdessen verwendet ein Quantencomputer Logik-Bausteine die z.B. Hadamard, X, Y, Z, CNOT und CZ heißen. Dies ist unter anderem der Grund, warum ein Quantenprogramm nur für Kenner für Quantenalgorithmen entziffert und verstanden werden kann.

Für alle Darstellungen von Quantengattern verwende ich auf „quantencomputer-info“ den exzellenten Quantencomputer-Simulator „Quirk“:

http://algassert.com/quirk

Quirk ist öffentlich erreichbar und kann direkt im Browser ausprobiert werden.

Folgendes Beispiel zeigt den Grover-Algorithmus für zwei Qubits, den ich Ihnen in einem späteren Beitrag im Detail vorstellen werde:

In jedem Bereich der herkömmlichen Programmierung existiert eine lebhafte IT-Szene im Internet, die die weitere Entwicklung stark beeinflusst: Seien es Server, Netzwerke. Datenbanken, Internet, Programmierung, … Die IT-Szene für Quantenprogrammierung sitzt hauptsächlich noch in den Forschungseinrichtungen von Universitäten und hauptsächlich in den Spezialabteilungen von Google, IBM, Microsoft & Co und einigen Startups für Quantencomputer. Seit dem Frühjahr 2018 gibt es zwar das neue Diskussionsforum „Quantum Computing Stack Exchange“ vii, dass sich sehr lebhaft und inhaltlich hochwertig entwickelt. Wichtige Ergebnisse werden trotzdem weiterhin über komplizierte wissenschaftliche Arbeiten veröffentlicht.

Die wohl folgenreichste dieser Veröffentlichung war gerade der Algorithmus von Peter Shor aus dem Jahr 1994, der in der Lage ist, die als sicher geglaubte Datenverschlüsselung im Internet zu knacken. Mittlerweile wurden andere, rasend schnelle und vermutlich auch interessantere Quantenalgorithmen konstruiert.

Beispiel von der Quirk-Homepage: Schematischer Aufbau des Shor-Algorithmus

An den beiden Beispielen erkennen wir übrigens auch, wie sehr die Quanten-Programmierung noch in den Kinderschuhen steckt. Alle Programme werden aktuell noch in einer Art „Maschinencode für Quantencomputer“ beschrieben und sind entsprechend schwer zu entziffern. In den kommenden Jahren und Jahrzehnten wird sich die Quanten-Programmierung also auch in dieser Hinsicht weiterentwickeln müssen. Die Softwareentwicklung für herkömmliche Digitalcomputer hat es uns vorgemacht. So sind im Laufe der Zeit immer intuitivere Programmiersprachen entstanden, die den eigentlichen Maschinencode immer besser abstrahieren.

Fußnoten

ii https://www.scottaaronson.com/blog/?p=208: Eine allgemeinverständliche Beschreibung des Shor-Algorithmus auf Scott Aaronsons Blog. Scott Aaronson ist einer von mehreren namhaften Computerwissenschafltern, die mittlerweile im Bereich der Quantencomputer forschen.

iii https://www.youtube.com/watch?v=O_RlktWkSdg: Vortrag von Matthias Troyer (mittlerweile bei Microsoft angestellt) u.a. „Transforming Machine Learning and Optimization through Quantum Computing“

iv https://arxiv.org/abs/1203.5813: wissenschaftliche Arbeit von John Preskill „Quantum computing and the entanglement frontier“

v http://cds.cern.ch/record/722038/files/0403048.pdf: Aufsatz von G. Florio, D. Picca „Quantum implementation of elementary arithmetic operations“. Falls Sie sich den Aufsatz ansehen erkennen Sie auch direkt wie absolut anders ein Quantenalgorithmus aussieht. Das liegt u.a. an den Quantengattern.

vi Tatsächlich gilt das Superpositionsprinzip auch in der Elektrodynamik und somit auch in der Elektronik. In den herkömmlichen Computern wird dies aber gerade gewollt ausgehebelt, um das digitale Verhalten der herkömmlichen Computer überhaupt erst zu ermöglichen. Möglich machen dies ausgerechnet die nichtlinearen An/Aus-Schaltelemente auf Basis der Quantentechnologie: Die Transistoren. Diese sind tatsächlich nur in einem reinen Quantensystem linear.