Durchbruch von Google

Was bedeutet die Überlegenheit des Quantencomputers?

Von Johanna Michaels
24.10.2019
, 07:38
Google vermeldet den Beweis, dass ihr Quantenrechner klassischen Computern deutlich überlegen ist – ein Meilenstein technologischer Entwicklung. Aber was bedeutet diese Aussage?

Kaum eine wissenschaftliche Theorie ist so rätselhaft wie die Quantenmechanik. Selbst der Quantenphysiker Richard Feynman vermutete in den sechziger Jahren, dass niemand von sich behaupten könne, die Quantenmechanik wirklich verstanden zu haben. Gleichzeitig gilt: kaum eine wissenschaftliche Theorie ist experimentell so präzise auf die Probe gestellt und bestätigt worden wie die Quantenmechanik. So ist die praktische Anwendung der Theorie mittlerweile Alltag in Wissenschaft und Technik, während viele Fragen zur Interpretation der Theorie selbst noch nicht beantwortet sind. Eine Innovation, an der sich dieses Ungleichgewicht besonders gut beobachten lässt, ist der Quantencomputer.

Die Technik steckt zwar noch in den Kinderschuhen, doch große Tech-Unternehmen wie Google und IBM investieren viel Geld in den Wettlauf zum ersten kommerziell einsetzbaren Quantencomputer. Seit Wochen kursiert im Internet das Gerücht, Google habe hier nun einen Meilenstein erreicht: Quantenüberlegenheit, oder „Quantum Supremacy“. Nun ist der offizielle und nach üblichen Standards begutachtete Artikel im Journal „Nature“ erschienen, in dem die Entwickler ihren überlegen Rechner vorstellen. Was genau bedeutet diese Überlegenheit, wo ist sie in einem Quantencomputer zu finden und welche Folgen hat sie für die Welt?

Schneller in einer bestimmten Aufgabe

„Quantum Supremacy“ ist ein Begriff, der 2012 von dem Physiker John Preskill geprägt wurde und sich auf die Leistungsfähigkeit des Quantencomputers gegenüber herkömmlichen Computern bezieht. Sie ist dann erreicht, wenn ein Quantencomputer ein Problem signifikant schneller lösen kann als der beste bekannte klassische Computer. Hierbei sind zwei Punkte wichtig: Erstens genügt es nach dieser Definition, dass der Quantencomputer in einer ganz bestimmten Aufgabe schneller ist; zweitens muss er selbst den besten Supercomputer deutlich übertreffen – und zwar nicht zufällig, sondern aufgrund seiner besonderen Eigenschaften als Quantenrechner. Beides ist für die Einschätzung des neuen Google-Rechners entscheidend.

Doch wie kam es überhaupt zu der Idee, einen Quantencomputer zu bauen? Die Anfänge liegen nicht bei den großen Konzernen im Silicon Valley, sondern in der Erforschung der Quantenmechanik selbst. Um Quantensysteme zu untersuchen, simulieren Physiker sie in einem Computermodell. Klassische Computer stoßen bei den aufwendigen Berechnungen solcher Modelle allerdings schnell an ihre Grenzen. Es waren daher Physiker und Mathematiker, die sich in den siebziger Jahren auf der Suche nach einer Alternative einen Computer ausmalten, der Quantensysteme nicht umständlich simuliert, sondern selbst ein manipulierbares Quantensystem ist. Als einer der Urväter der Idee wird oft auch Feynman genannt, der 1982 ein entsprechendes Modell dazu entwarf. Aber erst in den neunziger Jahren nahm die Idee mit den ersten Quantenalgorithmen und logischen Gattern aus Quantenbits, genannt Qubits, langsam Form an.

Quantencomputer als Code-Knacker

Einer dieser Algorithmen erregte besonders viel Aufsehen: Peter Shor entwickelte 1994 eine Befehlsabfolge, die das Problem der Primfaktorzerlegung löst. Jede natürliche Zahl kann als Produkt von Primzahlen eindeutig dargestellt werden. Welche das sind, ist aber bisher nur durch schieres Ausprobieren herauszufinden – ein Umstand, der in der Kryptographie Anwendung findet, da selbst Supercomputer viel Zeit benötigen, um eine Zahl in ihre Primfaktoren zu zerlegen. Shor gelang es zu zeigen, dass ein Quantencomputer dieses Problem, das klassische Computer nur in einer exponentiell mit der Größe der zu faktorisierenden Zahl wachsenden Zeit lösen können, effizient berechnen könnte – und damit einen großen Teil unserer verschlüsselten Daten effektiv knackten würde. So liegt das Prinzip etwa der RSA-Kryptographie zugrunde, einem der wichtigsten Public-Key-Verschlüsselungssysteme. Shors Algorithmus ist deshalb so wichtig, weil er ein gesellschaftlich relevantes Thema behandelt. Er rückte den Quantencomputer erstmals aus dem Bereich der reinen Grundlagenforschung in das allgemeine Bewusstsein und weckte kommerzielle Interessen.

Dass unsere Daten über zwanzig Jahre später noch immer verschlüsselt sind, liegt an der hochkomplexen technischen Umsetzung. Das Prinzip eines Quantencomputers basierend auf elektrischen Schaltkreisen ist zunächst so einfach wie klassisch: durch die Leitungen fließt Information, die in logischen Gattern manipuliert wird. Quantenmechanisch wird es erst bei der Ausführung dieses Prinzips. Die Träger der Information, die Qubits, sind Quantensysteme und folgen den Regeln, die laut Feynman niemand wirklich verstehen kann. Während klassische Bits nur entweder im Zustand „0“ oder „1“ sein können, muss sich ein Qubit nicht entscheiden – es schwebt in einer Überlagerung beider Zustände, genannt Superposition. Diese Eigenschaft ist äußerst labil und schwer zu kontrollieren. Sobald die Qubits mit der Umwelt wechselwirken, verlieren sie ihre gespeicherte Information. Möglichst viele Qubits so lang von diesen Dekohärenzeffekten abzuschirmen, dass ein Algorithmus vollständig durchlaufen kann, ist eine der größten technischen Herausforderungen – die Tech-Giganten kämpfen erbittert darum, die Zahl der stabilen und kontrollierbaren Qubits zu erhöhen.

Besonderheiten der Quantentheorie

Was aber an den Quantencomputern verheißt diese Überlegenheit, die alle zu erreichen versuchen? Um eine Antwort zu finden, muss man tief in die rätselhafte Welt der Quantenmechanik eintauchen. Denn viele gehen davon aus, dass die Superposition der Qubits der Schlüssel ist: Dadurch, dass sie nicht wie klassische Bits einen bestimmten Zustand annehmen, sondern in der Überlagerung schweben, können sie demnach mehrere Rechenschritte gleichzeitig lösen. Doch neben der Superposition tragen Qubits noch eine andere quantenmechanische Eigenschaft: sobald sie gemessen werden, man sozusagen die Lösung eines Problems betrachten will, nehmen sie einen klassischen Zustand ein. Um nun die Lösung zu erhalten, muss man das Glück haben, dass die Qubits in den richtigen Zustand fallen und nicht in einen der vielen Rechenwege, die sich als Sackgassen erwiesen haben. Es lässt sich sogar beweisen, dass ein Qubit genau so viel erreichbare Information trägt wie ein klassischer Bit. Nur in der Superposition, die sich nicht messen lässt, liegen weitere versteckte Informationen.

Dass Quantenalgorithmen wie der von Shor dennoch theoretisch deutlich schneller berechnet werden können, liegt an der spezifischen Form ihres Problems. Sie schaffen raffinierte Superpositionen, die bei der Messung mit höherer Wahrscheinlichkeit die Lösung als eine der Sackgassen einnehmen. Hier wird deutlich, dass Quantencomputer nur in bestimmten Bereichen überlegen sein können, in denen sich die Superpositionen günstig verhalten. Entsprechende Algorithmen gibt es bisher nur sehr wenige.

Was passiert, wenn niemand hinschaut?

Philosophen mögen spekulieren, dass das auch daran liegen könnte, dass noch immer nicht abschließend geklärt ist, was genau einen Quantencomputer gegenüber einem klassischen ausmacht. Denn bei der These, dass ein Quantencomputer mehrere Rechenschritte parallel löst, handelt es sich bereits um eine Interpretation der Quantenmechanik, die keineswegs bewiesen ist. Was genau mit einem System in Superposition passiert, kann man experimentell wegen des Messproblems nicht überprüfen. Neben der gängigsten Interpretation, die dieses Phänomen einen Kollaps nennt, der bei einer Messung die Superposition zerstört, gibt es eine andere, etwas skurriler anmutende Variante namens „Viele-Welten-Interpretation“. Sie geht davon aus, dass ein Quantensystem in Superposition in mehreren Parallelwelten gleichzeitig existiert. Dass wir bei einer Messung nur einen bestimmten Wert sehen, liegt demnach einfach daran, dass wir uns nur in einer einzigen der vielen Welten befinden. So wunderlich diese Interpretation klingen mag – sie kann zumindest die These erklären, weshalb ein Quantencomputer einem klassischen überlegen sein sollte: pro Parallelwelt wird ein Rechenschritt gelöst.

Die verschiedenen Interpretationen, von denen keine experimentell bevorzugt oder ausgeschlossen werden kann, machen deutlich, was Feynman damals meinte. Selbst der renommierteste Physiker kann die Phänomene der Quantenmechanik nicht vollständig interpretieren. Trotz dieser ungeklärten Fragen im Fundament der Theorie sind Quantencomputer die neuen Hoffnungsträger auf die nächste technische Revolution und jeder will dabei sein.

So auch Google, die nun die Quanten-Überlegenheit erreicht haben wollen. Bisher waren der Quantencomputer von IBM namens „IBM Q System“ und ein Quantensystem an der Universität Innsbruck mit zwanzig Qubits die besten Quantenrechner. Um Quantum Supremacy zu erreichen, braucht man nach gängigen Einschätzungen aber mindestens fünfzig Qubits. Das konnte Google nun sogar übertreffen: der neue Rechner arbeitet mit 53 Qubits. Und tatsächlich erlaubt die Definition des Begrifft, bei dem neuen Google-Rechner von Quantum Supremacy zu sprechen. Wir erinnern uns: es genügt, wenn der Quantencomputer eine einzige Aufgabe signifikant und in jedem Fall schneller berechnet, als jeder bestehende Supercomputer. Der Google-Computer berechnet eine eigens für ihn zugeschnittene, ansonsten aber völlig nutzlose Aufgabe in etwas mehr als drei Minuten, für die der beste Supercomputer schätzungsweise 10.000 Jahre brauchen würde. Der technische Fortschritt, der hier erreicht werden konnte, ist sicherlich groß. Die Welt wird diese Form der Überlegenheit aber vorerst nicht verändern.

Quelle: FAZ.NET
  Zur Startseite
Verlagsangebot
Verlagsangebot