Anwendungen für Quantencomputer

<< >>

Erste Quantencomputer Anwendungen: Ein goldenes Zeitalter?

Glaubt man Seth Lloyd vom Massachusetts Institute of Technology / MIT, steht die Quantencomputer-Szene gerade kurz vor einem goldenen Zeitalter. Seth Lloyd bezeichnet sich selbst als „Quantum Mechanic“, ist einer der Gründerväter der Quantencomputer-Forschung und seit über 25 Jahren ein führender Theoretiker in dem Bereich. Nebenbei sind seine Vorlesungen und Vorträge einfach immer sehr unterhaltsam i (Gerne gibt Lloyd z.B. die steile These zum besten, dass der Finanzcrash von 2009 durch die verkopften Transaktions-Algorithmen von einem Haufen arbeitsloser Superstring-Theoretikern verursacht wurde, und dass dass die Forscher für Quantencomputer die Sache mit der Weltwirtschaft jetzt zu Ende zu bringen werden).

Lloyd erzählt, dass die Forschung an Quantencomputern gerade mal mit einer handvoll Wissenschaftlern begann. Heute sind es Zehntausende, die die Entwicklung in dem Bereich regelrecht beflügeln. Im Jahr 1985 wurde der erste Quanten-Algorithmus von David Deutsch vorgestellt, der für eine spezielle Aufgabe weniger Rechenschritte benötigte, als ein herkömmlicher Computer. In den Jahrzehnten seitdem wurde eine Vielzahl an faszinierenden Quanten-Algorithmen für viele Anwendungen entwickelt, die die herkömmlichen Programme für dieselbe Anwendung meilenweit hinter sich lassen und exponentielle Rechenbeschleunigungen erzielen können.

Diese existieren aber bislang nur auf dem Papier. Was bislang fehlte war die zugehörige Hardware.

Letztere ist langsam verfügbar. Diverse Tech-Firmen arbeiten an Cloud-Angeboten für ihre Quantencomputer. An öffentlichen Einrichtungen wird die Forschung an größere und verlässlicheren Quantencomputern ebenfalls weiter vorangetrieben.

Lloyd vergleicht die aktuelle Entwicklung mit der Gründerzeit der ersten Digitalcomputer. Das Konzept für die herkömmlichen Digitalcomputer wurde in den 1930er Jahren von Claude Shannon in seiner Masterarbeit, ebenfalls am MIT, vorgestellt (die Arbeit von Shannon wurde später als die „einflussreichste Masterarbeit des 20. Jahrhunderts“ bezeichnet ii).

Konrad Zuse entwickelte während des 2. Weltkriegs erste Prototypen. Bis in die 1950er Jahre waren mehrere erste Computermodelle verfügbar. Diese waren sehr limitiert, riesengroß und fehleranfällig, Aber allein diese Verfügbarkeit legte den Grundstein für die Entwicklung einer Vielzahl von grundlegenden Algorithmen, die auch heute noch verwendet werden.

Laut Seth Lloyd ist die Situation mit den ersten Quantencomputern heute sehr ähnlich. Sie sind aufwendig im Betrieb, besitzen nur wenige Dutzend Qubits und sind besonders noch sehr fehleranfällig. Aber sie können genutzt werden. Das öffnet die Tür erstmals praktische Erfahrungen mit der neuen Technologie zu sammeln.

Viele Algorithmen und Anwendungen für herkömmliche Computer wurden eben über solche Erfahrungen entwickelt. Wir können erwarten, dass dies für Quantencomputer auch zutreffen wird. Erste Kandidaten für solche heuristische Methoden gibt es bereits.

NISQ: Die ersten Generationen von Quantencomputern

Anlässlich seiner Keynote-Rede zu der Konferenz „Quantum Computing For Business 2017“ fand John Preskill vom California Institute of Technology (Caltech) einen passenden Begriff für die erste Ära von Quantencomputern: „Noisy intermediate scale quantum computer“ NISQ iii. John Preskill ist einer der führenden Kopfe hinter der Quantencomputer-Entwicklung und trifft in seinen Vorträgen oft den Nagel auf den Kopf: „Fehleranfällige, mäßig skalierte Quantencomputer“.

Damit meint Preskill Quantencomputer mit etwa 50 – wenigen 100 Qubits. Insbesondere sind die Quantencomputer der NISQ-Ära nicht in der Lage eines der Kernkonzepte für Quantencomputer umzusetzen: Die Quanten-Fehlerkorrektur für die äußerst störanfälligen Qubits. Ohne die Quanten-Fehlerkorrektur können Quantencomputer keine umfangreichen Quanten-Algorithmen ausführen. Und das betrifft aktuell fast alle Quanten-Algorithmen. Die Fehlerrate von aktuellen Quanten-Gattern, also elementaren Qubit-Schaltungen, liegt bei 1:100 bis zu 1:1000. Das liegt um viele Größenordnungen über der Fehlerrate von herkömmlichen Computern.

Die ersten Anwendungen von NISQ-Quantencomputer müssen diese Einschränkungen also berücksichtigen.

Quantencomputer Anwendung: Eine Einstufung der Algorithmen

Ein Jahr nach Preskills Vortrag hielt Adam Bouland an gleicher Stelle einen sehr guten Vortrag auf der Konferenz „Quantum Computing For Business 2018iv. Darin stellte er verschiedene bekannte Quanten-Algorithmen für diverse Anwendungen vor. Bouland stufte die Algorithmen in zwei Kriterien ein:

  1. Beschleunigung: Der Grad an Beschleunigung gegenüber herkömmlichen Computer (bzw. die Beschleunigung gegenüber den besten bekannten Algorithmen für herkömmliche Computer für dieselbe Anwendung)
  2. Verfügbarkeit: Der Zeitpunkt, wann dieser Algorithmus vermutlich verfügbar sein wird

Verfügbarkeit

Beschleunigung

Kurzfristig (NISQ)

Langfristig

Riesig

(exponentiell)

Moderat

(z.b. quadratisch)

Unbekannt

 

Diese Einteilung finde ich so sinnvoll, dass ich sie für diesen Artikel ebenso verwenden werde. Genauso werde ich einige Inhalte aus seinem Vortrag übernehmen.

Quantencomputer Anwendung: Eine Übersicht

Quantencomputer werden in absehbarer Zukunft vermutlich nur für besonders rechenintensive Probleme eingesetzt werden, deren Lösungen aber besonders wertvoll sein können. Zu den absehbaren Anwendungen zählen zum Beispiel:

        1. Simulationen für Natur- und Ingenieurswissenschaften (Physik, Materialforschung, Quanten-Chemie, Quanten-Biologie)
        2. Optimierung (Logistik, Finanzwirtschaft, …)
        3. Künstliche Intelligenz und Machine Learning
        4. IT-Beratung
        5. Kryptographie
        6. Energieeinsparung

Diese werde ich im Folgenden genauer vorstellen.

Quantencomputer Anwendung „Simulationen für Naturwissenschaften“

Verfügbarkeit

Beschleunigung

Kurzfristig (NISQ)

Langfristig

Riesig

(exponentiell)

Hamiltonische Simulation

Moderat

(z.b. quadratisch)

Unbekannt

VQE

 

1982 beendete der geniale Richard Feynman einen berühmten Aufsatz mit den ebenfalls berühmten Worten: „Nature isn’t classical, dammit, and if you want to make a simulation of nature, you’d better make it quantum mechanical, and by golly it’s a wonderful problem, because it doesn’t look so easy.“ v .

Quantencomputer Anwendung „Hamiltonische Simulation“

1996 bewies Seth Lloyd, dass jede solcher Simulationen prinzipiell und effizient mit einem Quantencomputer durchgeführt werden können vi. Diese Art von Berechnungen werden „Hamiltonische Simulationen“ genannt. Sie berechnen die Dynamik, also den zeitlichen Verlauf, von beliebigen Quantensystemen, welche generell durch den sogenannten Hamilton-Operator charakerisiert sind (daher der Name). Hamiltonische Simulationen gehören zu den schwersten Berechnungen, die ein Quantencomputer effizient durchführen kann. Herkömmliche Supercomputer können dies erwiesenermaßen genau nicht.

Hinter vielen möglichen Anwendungen für Quantencomputer stehen noch offene Fragezeichen, inwieweit bekannte Einschränkungen und Nebenbedingungen in der Praxis einmal überwunden werden können. Es herrscht aber generelle Einigkeit, dass die sagenumwobenen Heilsversprechen von Quantencomputern auf jeden Fall für die Hamiltonische Simulation zutreffen werden.

Quantencomputer Anwendung „Synthetisierung von Ammoniak“

Eine spannende Anwendung für die Hamiltonische Simulation, die bereits im Detail auf ihre Anwendbarkeit untersucht wurde, ist die „Synthetisierung von Ammoniak“:

Im Jahr 1913 wurde das Haber-Bosch-Verfahren zur Synthetisierung von Ammoniak zum ersten Mal großindustriell eingeführt. Seitdem ist es das weltweit dominierende Verfahren für die Herstellung von Düngemitteln. Es benötigt allerdings eine Hitze von 400° Celsius und einen Druck von 200 Bar. Etwa 1-2% des weltweiten Energiebedarfs wird jährlich nur in das Haber-Bosch-Verfahren gesteckt.

Pflanzen und Pilze hingegen synthetisieren Ammoniak bei 20° Celsius und einem Druck von 1 Bar, dem Atmosphärendruck. Forscher konnten die zentralen Reaktionen hierfür zwar lokalisieren allerdings nicht detailliert verstehen. Die notwendigen Quantensimulationen sind schlichtweg zu komplex, als das sie von einem herkömmlichen Supercomputer berechnet werden könnten.

Quantencomputer wären über die Hamiltonische Simulation dazu allerdings in der Lage vii. Allerdings wohl leider nicht in der NISQ-Ära.

Quantencomputer Anwendung „VQE“ – Variational Quantum Eigensolver

Die Anwendung „Hamiltonische Simulation“ übersteigt also wohl die Möglichkeiten für Quantencomputer der NISQ-Ära. Gibt es andere mögliche Anwendungen für Quantensimulationen, die auf der aktuellen Hardware umgesetzt werden können?

Eine wichtige Fragestellung für Quantensysteme ist die Frage nach den nach den Bindungsenergien des Systems und den Atom- bzw. Molekül-Orbitalen.

2014 wurde der neue Quanten-Algorithmus „Variational Quantum Eigensolver“ von Peruzzo und McClean vorgestellt viii ix. Er wurde speziell für die Quantencomputer der NISQ-Arä konzipiert. VQE ist im Grunde ein Optimierungs-Algorithmus und insbesondere ein Quanten-klassischer Hybrid-Algorithmus:

      1. Die Qubits werden so eingestellt, dass sie einen Orbital-Kandidaten darstellen.
      2. Mit diesem Kandidaten ermittelt der Quantencomputer die Bindungsenergie des Moleküls. Mit einem Quantencomputer sollte dies effizient durchführbar sein. Da diese Messung immer auch eine Sache von Wahrscheinlichkeiten ist, wird sie mehrmals durchgeführt und der kleinste Wert verwendet.
      3. Über einen herkömmlichen Computer wird ein neuer Orbital-Kandidat anhand des bisherigen Optimierungsverlaufs berechnet x.
      4. Jetzt beginnt der Algorithmus wieder bei Schritt 1. Diesmal mit dem neuen Orbital-Kandidaten. Der Algorithmus endet dann, wenn z.B. die niedrigste Bindungsenergie gefunden wurde.

Der Grundgedanke des Variational Quantum Eigensolver ist, dass ein Quantencomputer in der Lage ist auch kompliziert verschränkte Quantenzustände herzustellen und mit ihnen zu rechnen. Und gerade solche Orbitale liegen in Molekülen vor. Für einen herkömmlichen Computer wird dies normalerweise schnell exponentiell zu aufwendig.

Dadurch dass der Variational Quantum Eigensolver über die Optimierung sowieso ständig nachjustiert, ist der Algorithmus auch einigermaßen immun gegen Schaltungs- und Qubit-Fehler.

Der Variational Quantum Eigensolver hört sich in der Theorie sehr erfolgversprechend an. Tatsächlich kann aktuell aber niemand mit Sicherheit sagen, ob der VQE tatsächlich eine Beschleunigung bringt, geschweige denn, dass diese beziffert werden könnte. Hier müssen noch viele Erfahrungswerte gesammelt werden. So zeigt sich z.B. dass nicht jeder klassische Optimierungs-Algorithmus im Schritt 3 gleich gut für den Variational Quantum Eigensolver geeignet ist xi

Um den VQE-Algorithmus hat Google das Opensource-Framework „OpenFermion“ für Quantenchemie erstellt. Jarrod McClean, einer der Entwickler des Variational Quantum Eigensolvers, wurde mittlerweile von Google angeworben. Es zeigt sich, dass die Tech-Riesen vermehrt gerade mit solchen Wissenschaftlern eng zusammenarbeiten, die sich einen Namen für Anwendungen von NISQ-Quantencomputern gemacht haben.

Quantencomputer Anwendung „Optimierung“

Der Optimierung widme ich auf quantencomputer-info.de einen eigenen Artikel. Deshalb stelle ich die drei Algorithmen hier nur in Kürze vor:

Verfügbarkeit

Beschleunigung

Kurzfristig (NISQ)

Langfristig

Riesig

(exponentiell)

Moderat

(z.b. quadratisch)

Grover

Unbekannt

QAA

QAOA

 

Quantencomputer Anwendung: Der Grover-Algorithmus

Der Grover-Algorithmus ist ein universeller Suchalgorithmus, der sämtliche Lösungskandidaten ausprobiert und testet, ob sie das Problem lösen. Daran können Sie sehen, dass der Grover-Algorithmus ein unheimlich breites Feld an Anwendungen besitzt, unter anderem bei Optimierungsproblemen.

Der Grover-Algorithmus besitzt eine quadratische Beschleunigung gegenüber herkömmlichen Suchalgorithmen. In der Anwendung benötigt er aber wohl zu viele Quantengatter, weshalb er wohl nicht für Quantencomputer der NISQ-Arä verwendet werden kann.

Quantencomputer Anwendung „QAA“ – Quantum Adiabatic Algorithm

Grundlage des QAA ist das Adiabatischen Theorem der Quantenmechanik aus dem Jahr 1928.

Der Quantum Adiabatic Algorithm wird hardwareseitig durch den Quanten Annealer von D-Wave realisiert und kann dort bereits heute schon eingesetzt werden. Aus diesem Grund ordne ich ihn als „kurzfristig verfügbar“ ein.

Auf universellen Quantencomputern ist der Quantum Adiabatic Algorithm eine Anwendung der Hamiltonischen Simulation (s.o.). Deswegen wird der QAA auf NISQ-Quantencomputern zunächst nur in einer abgewandelten Form eingesetzt werden. Ein Beispiel hierfür ist gerade der QAOA:

Quantencomputer Anwendung „QAOA“ – Quantum Approximate Optimization Algorithm

Wie der Quantum Variational Eigensolver ist der Quantum Approximate Optimization Algorithm ein Quanten-klassischer Hybrid-Algorithmus:

      1. Die Qubits werden so eingestellt, dass sie einen Kandidaten für die Lösung des Optimierungsproblems darstellen.
      2. Mit diesem Kandidaten ermittelt der Quantencomputer die Kostenfunktion des Problems. Mit einem Quantencomputer sollte dies effizient durchführbar sein. Da diese Messung immer auch eine Sache von Wahrscheinlichkeiten ist, wird sie mehrmals durchgeführt und der beste Wert verwendet.
      3. Über einen herkömmlichen Computer wird ein neuer Kandidat für die Lösung des Problems anhand des bisherigen Optimierungsverlaufs berechnet.

Das Team um Edward Farhi gibt außerdem vor, wie die Lösungskandidaten ermittelt werden. Sie sind nichts anderes als eine Parametrisierung des adiabatischen Pfades im QAA. Nach Farhi ist das ein Indiz dafür, dass dieser Lösungsansatz zum Ziel führt.

Quantencomputer Anwendung „Künstliche Intelligenz und Machine Learning“

Der Künstliche Intelligenz und dem Machine Learning widme ich ebenfalls auf quantencomputer-info.de einen eigenen Artikel. Hier stelle ich die Kernaussagen meines Artikels nur kurz vor:

Zwei Schwerpunkte der Künstlichen Intelligenz und des Machine Learnings werden im Rahmen der Quantencomputer-Forschung genauer untersucht:

      • Unsupervised Machine Learning, unüberwachtes Maschinelles Lernen: Sucht nach Zusammenhängen und Gruppen in Rohdaten, ohne dass zusätliche Informationen dazu bekannt wären. Die Rohdaten werden auf das „Wesentliche“ beschränkt. Nicht zuletzt ermittelt das Unsupervised Machine Learning dabei, was das „Wesentliche“ in dem Zusammenhang überhaupt heißt.
      • Supervised Machine Learning, überwachtes Maschinelles Lernen: Bekannte und bereits beurteilte Daten werden verwendet, um neue unbekannte Daten zu beurteilen. Das „Deep Learning“ mit Neuronalen Netzwerken, das in aller Munde ist, gehört z.B. in diese Kategorie (z.B. für die Gesichter- oder für die Spracherkennung, …).

Für das Unsupervised Machine Learning wurden seit 2008 eine Reihe von Quanten-Algorithmen entwickelt, die eine exponentielle Beschleunigung versprachen. Viele dieser Algorithmen basieren auf der Tatsache, dass die Lineare Algebra (die Mathematik von Zeigern bzw. Vektoren) in Quantencomputer quasi von Natur aus eingebaut sind. Und zwar exponentiell effizient!

Im Sommer 2018 kam dann der Paukenschlag: Die junge Studentin Ewin Tang wies der kompletten Forschergemeinde nach, dass einige diese Algorithmen deutlich unspektakulärer sind als allgemein angenommen. Mehr verrate ich an dieser Stelle nicht.

Die Anwendung des zweiten Schwerpunktes der Künstlichen Intelligenz mit Quantencomputern, dem Supervised Machine Learning, wurde bis heute weit weniger detailliert untersucht. Dafür fing die Forschung in den letzten Jahren gezielt an, Strategien für Quanten-Neuronale-Netzwerke mit NISQ-Quantencomputern zu entwickeln.

Die Algorithmen nutzen unter anderem die Erkenntnisse aus, die bereits zur Entwicklung des QAOA- und des QAA-Algorithmus geführt haben (s. oben). Das Hauptargument für die Quanten-Neuronale-Netzwerke ist Folgendes: Quantencomputer sind selbst so etwas wie „Netzwerke auf Stereoide“. Sie besitzen Möglichkeiten, die für herkömmliche Netz-Strukturen nicht denkbar wären (wie die Quanten-Verschränkung). Der Schluss liegt nahe, dass sich hierbei ein Mehrtwert für das Deep Learning erzeugen lässt.

Quantencomputer Anwendung „IT-Beratung“

Aktuelle Quantencomputer sind noch nicht in der Lage interessante Anwendungen zu ermöglichen. Das könnte sich sogar noch in der NISQ-Ära ändern und möglicherweise sehr abrupt. Es gibt Hinweise, dass auch für Quantencomputer eine Art „Moores Law“ zutreffen könnte xii, das die Beschleunigungszyklen von herkömmlichen Computern lange Zeit zutreffend beschrieb. Mögliche Quanten-Algorithmen hierfür habe ich Ihnen in diesem Artikel vorgestellt. Firmen, die auf Highend-Algorithmen angewiesen sind, können sich in der Regel nicht erlauben, eine Entwicklung mit so viel Potential zu verpassen. Um aber auch nur erste Gehversuche in der Quantencomputer-Welt zu machen, ist allerdings so spezielles Knowhow notwendig, dass selbst Firmen mit viel IT-Erfahrung ohne Unterstützung nicht aus den Startlöchern herauskommen werden. Dazu müssen Sie sich zwingend mit der aktuellen Forschung zu den jeweiligen Quanten-Algorithmen auseinandersetzen, die ich z.B. in diesem Artikel vorgestellt habe.

Die Hersteller der Quantencomputer wissen das natürlich und begleiten hier durch die ersten Gehversuche. D-Wave betreute bis Ende 2018 etwa 150 Kundenprojekte. Zusätzlich haben sich zwei Startups einen Namen gemacht, die sich darauf spezialisieren, den zukünftigen Markt für Softwarelösungen herstellerunabhängig auszuloten und Knowhow im Quantencomputing zu entwickeln und zu bündeln: Die Vancouver Firma 1QBit und QCWare aus dem Silicon Valley.

Ich gehe davon aus, dass sowohl die Kunden als auch die nordamerikanischen Firmen früher oder später erkennen, dass sie auch auf IT-Beratung in Deutschland bzw. Europa angewiesen sind:

      • Für Einführungsveranstaltungen, um überhaupt einen Eindruck von der Technologie und den aktuellen Möglichkeiten zu vermitteln
      • Als Schnittstelle zwischen Hersteller und Kunden, die beide Sprachen spricht und besser verfügbar sind
      • Als Experte um Projekte direkt eigenverantwortlich auf den Cloudangeboten umzusetzen

Fußnoten

i https://www.youtube.com/watch?v=5xW49CzjhgI: Vortrag von Seth Lloyd „The Future of Quantum Computing“.

ii Das Hauptwerk von Shannon sollte später allerdings die moderne Informationstheorie werden, die er im Alleingang entwickelte und die auch die Vorlage für die Quanten-Informationstheorie wurde. Claude Shannon war ohne Zweifel einer der prägendsten Wissenschaftlern des 20. Jahrhunderts.

iii https://arxiv.org/abs/1801.00862: „Quantum Computing in the NISQ era and beyond“, Vortragvorlage von John Preskill zur Konferenz „Quantum Computing For Business“ in 2017.

iv https://www.youtube.com/watch?v=PJRatgm8sL0: „The Quantum Algorithms: The NISQ Landscape“, Vortrag von Adam Bouland auf der Konferenz „Quantum for Business 2018“

vhttps://people.eecs.berkeley.edu/~christos/classics/Feynman.pdf: „Simulating Physics with Computers“ Artikel von Richard Feynman

vi https://science.sciencemag.org/content/273/5278/1073: „Universal Quantum Simulator“, Artikel von Seth Llyod

vii http://www.pnas.org/content/early/2017/06/30/1619152114: Wissenschaftlicher Artikel u.a. von Krysta Svore, Matthias Troyer (Microsoft) „Elucidating reaction mechanisms on quantum computers“

viii https://www.youtube.com/watch?v=w7398u8G588: Vortrag von Jarrod McClean: „Quantum Computation for the Discovery of New Materials and […]“

ix https://arxiv.org/abs/1509.04279: „The theory of variational hybrid quantum-classical algorithms“ Fachartikel von Jarrod McClean et al.

xDie Orbital-Kandidaten sind dafür über vorher festgelegte Kriterien parametrisiert. z.B. : Drehe Qubit 1 um Winkel 1, drehe Qubit 2 um Winkel 2, verschränkte Qubit 5 und Qubit 6 um den Faktor 3, … Diese Parameter (Winkel 1, 2, …) werden im weiteren Verlauf anhand von klassischen Algorithmen weiter optimiert (z.B. „Gradient Descent“, Nelder und Mead‘s „Simplex-Verfahren“, …).

xi https://quantumcomputing.stackexchange.com/questions/6562/how-to-implement-nm-algorithm-for-variational-quantum-eigensolver: Antwort von Jarrod McClean zu dem Thema „Optimierer für den VQE“ auf Quantum Computing Stack Exchange

xii https://www.quantamagazine.org/does-nevens-law-describe-quantum-computings-rise-20190618/: Artikel „Does Neven’s Law Describe Quantum Computing’s Rise?“ auf Quantamagazin, das Quantencomputern sogar eine Turbo-Version von Moores Law in Aussicht stellt, weil jedes weitere Qubit die Leistungsfähigkeiten eines Quantencomputers sowieso bereits verdoppelt (zumindest auf dem Papier). Ähnlich geht Bo Ewald von D-Wave davon aus, dass die Anzahl von Qubits in D-Waves Quanten Annealer alle zwei Jahre verdoppelt werden kann: https://www.youtube.com/watch?v=UywYeMl30EM

Autor: Jens Marre

Ich habe Physik und Mathematik studiert. Seit fast 20 Jahren bin ich jetzt als IT-Berater für große Unternehmen tätig. Meine Faszination für die Quantenphysik und für Quantencomputer habe ich dabei nie verloren. Ich verfolge sehr genau, wie diese Entwicklungen langsam Einzug in die IT erhält, und vor einer Weile habe ich beschlossen diesen Weg für mich und für andere zu dokumentieren.