Der Quantencomputer –König der Quantenrevolution 2.0

Jedes Jahr verdoppelt sich die Menge an Daten, die wir Menschen produzieren. Allein 2018 kommen weltweit also so viele Giga-, Tera-, Peta- und Exabytes zusammen wie in der gesamten Menschheitsgeschichte bis 2017. Denn Daten, ihre Erfassung und Weitergabe sind längst nicht mehr nur an feste Computer gebunden. Smart Phone, Smart Home, Smart Clothes, Smart Factories, Smart Cities … jede Menge „smarte“ Dinge sind unterdessen über das Internet miteinander verbunden. Und sie produzieren immer mehr Daten. Ebenso exponentiell wächst daher auch der Anspruch an die Leistungsfähigkeit der Computerchips. Und tatsächlich verdoppelt sich ihre Rechenleistung ca. alle 18 Monate, und dies seit 50 Jahren. Das Wachstum der Anzahl der Komponenten pro Flächeneinheit auf integrierten Schaltkreisen folgt einem Gesetz, das der spätere Mitbegründer der Firma Intel, Gordon Moore, bereits 1965 formulierte.

Doch sieht es so aus, als ob das „Moore‘sche Gesetz“ schon bald seine Gültigkeit verlieren wird. Das bedeutet aber noch nicht, dass damit das Ende der Fahnenstange erreicht ist, was die weitere Effizienzsteigerung der Informationsverarbeitung angeht. So gibt es noch eine ganz andere Möglichkeit, noch viel schnellere, ja sogar millionen- und milliardenfach leistungsfähigere Computer zu bauen: Quantencomputer. Das sind Computer, die im Kern auf den bizarren Eigenschaften der Quantentheorie beruhen. Mit ihrer Hilfe ließen sich Probleme lösen, die für die heute in Physik, Biologie, Wetterforschung und anderswo eingesetzten „Supercomputer“ noch bei weitem zu komplex sind. Die Entwicklung von Quantencomputern wäre eine technologische Revolution, die das 21. Jahrhundert ähnlich prägen würde, wie die Entwicklung digitaler Schaltkreise das 20. Jahrhundert.

Ein Quantencomputer arbeitet nach einer ganz anderen Funktionsweise als herkömmliche Computer. Klassische Computer verwenden als kleinstmögliche Informationseinheiten die Bits, die entweder den Zustand 1 oder 0 haben (also zwei Werte annehmen können, daher der Begriff „digital“). Die so genannte von-Neumann-Architektur sorgt dafür, dass die Rechenschritte sequentiell, also Bit für Bit abgearbeitet werden. Zwar enthalten die heutigen Computer mittlerweile Bauteile, die so klein sind, dass in ihnen Quanteneffekte eine große Rolle spielen, doch das ändert nichts daran, dass ihre Funktionsweise vollständig auf den Prinzipien der klassischen Physik basiert.

Quantencomputer unterliegen dagegen einer völlig anderen Informationstheorie. Das einfachste System in der Quantenmechanik ist das so genannten „Quantenbit“ (kurz „Qubit“). Qubits können beide Zustände, 0 und 1, simultan annehmen, sowie alle Zwischenwerte (und noch mehr in der Sphäre der komplexen Zahlen). Dies liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“ zu existieren, Überlagerungen sich klassisch gegenseitig ausschliessender Zustände. Diese bizarre Eigenschaft von Quantenteilchen war einst Auslöser hitziger Diskussionen unter den Vätern der Quantenphysik. Dazu kommt, dass sich verschiedene Quantenteilchen in so genannte verschränke Zustände bringen lassen. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Über eine „spukhafte Fernbeziehung“ (ein Begriff, den ursprünglich Albert Einstein in ironischer Absicht erfand) stehen sie sozusagen allesamt direkt in Kontakt miteinander. Jedes Quantenbit „weiß“ sozusagen, was die anderen gerade treiben. Verschränkte Qubits liegen damit in einer Superposition unendlich vieler verschiedenen Zustände zugleich vor (salopp gesagt: sie nehmen all diese Zustände zugleich ein), die alle mit einer bestimmten Wahrscheinlichkeit vorliegen und die sich mit Hilfe eines entsprechenden Algorithmus allesamt gleichzeitig verarbeiten lassen. Es ist, als ob viele Schokoladenfabriken gleichzeitig ihre Fließbänder angeworfen hätten. Je mehr Qubits miteinander verschränkt sind, desto mehr Zustände können parallel verarbeitet werden. Anders als in herkömmlichen Computern, deren Rechenleistung linear mit der Anzahl der Rechenbausteine steigt, erhöht sich damit die Rechenleitung eines Quantencomputers exponentiell mit der Anzahl der eingesetzten Qubits. Die Leistung eines Quantencomputers verdoppelt sich also nicht erst, wenn zu 100 Qubits weitere 100 Qubits hinzugeschaltet werden, sondern bereits, wenn nur ein einziges Qubit zu den 100 Qubits hinzugefügt wird. Kommen 10 dazu, vertausendfacht sich seine Leistung, bei 20 neuen Qubits ist der Quantencomputer bereits eine Millionen Mal so schnell, bei 50 neuen Qubits eine Millionen Milliarden Mal. Und bei 100 neuen Informationsträgern, wenn sich die Leistungsfähigkeit eines klassischen Computers gerade mal verdoppelt hat, lässt sich die Erhöhung der Leistungsfähigkeit eines Quantencomputers kaum mehr in Zahlen benennen.

Allerdings ist die massive Parallelisierung durch verschränkte Zustände nicht ganz vergleichbar mit parallel arbeitenden Schokoladenfabriken. Information, die in verschränkten Systemen gespeichert und verbreitet wird, ist sehr verschieden von der Information die von gewöhnlichen digitalen Computern verarbeitet wird. Quantencomputer arbeiten nicht im wörtlichen Sinne parallel, sondern sie organisieren die Information so, dass diese über sehr viele verschränkte Komponenten des Gesamtsystems verteilt ist.

Es erscheint merkwürdig, dass Quantencomputer nicht schon längst realisiert wurden. Schließlich war die Quantentheorie zum Zeitpunkt der Entstehung des modernen Computers längst etabliert. Trotzdem verstrichen Jahrzehnte, bevor die Physiker sich der Möglichkeiten der Quanteninformationsverarbeitung annahmen. Einer der Gründe hierfür liegt auf der Hand: Lange Zeit wussten weder Physiker noch Informatiker etwas mit den Phänomenen Superposition und Verschränkung anzufangen. Doch es gibt noch einen zweiten Grund: In den 1940er Jahren hatte der US-amerikanische Mathematiker Claude Shannon die klassische Informationstheorie begründet, die auf der Verwendung von Bits beruht. Sein Aufsatz A Mathematical Theory of Communication (Mathematische Grundlagen in der Informationstheorie) gilt bis heute als die Bibel des Informationszeitalters und zählt zu den einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts. Das Problem: Shannon hatte seine Theorie der Informationsverarbeitung sehr abstrakt und sehr allgemein formuliert. Lange Zeit hielten es die Informatiker für selbstverständlich, dass das Prinzip der Bits für jede Form der Informationsverarbeitung gilt. Erst spät erkannten die Informatiker, dass es auch Informationskonzepte jenseits der Bits und der klassischen Physik gibt – und dass das Rechnen auf Qubits ein völlig neues theoretisches Fundament benötigt, eines, in dem es explizit um Superposition und Verschränkung von Quantenzuständen geht. Und diese Eigenschaften passen grundsätzlich nicht in die klassische Informationstheorie. Beide Grundeinheiten – Bits und Qubits – sind so sehr voneinander verschieden, dass sich ein Qubit grundsätzlich nicht mit klassischen Bits abbilden lässt. Eine entsprechende neue Informationstheorie wurde erst ab Ende der Neunzigerjahre durch die gemeinsamen Anstrengungen von Physikern und Informationstheoretikern geschaffen.

Fünf Probleme, bei denen heutige Computer – und seien sie noch so groß – schnell aussteigen, sollen aufzeigen, welche Möglichkeiten sich mit einem Quantencomputer eröffnen.

  1. Kryptographie: Heute gängige (asymmetrische) Verschlüsselungen (mit einem öffentlichem und einem privatem Schlüssel wie beim bekannten RSA-Verfahren) beruhen auf der Faktorisierung der Produkte zweier sehr großer Primzahlen. Ab einer bestimmten Zahlengröße ist diese Aufgabe für einen klassischen Computer nicht mehr zu lösen. Genau darauf setzen nahezu alle gängigen Verschlüsselungsverfahren. Der Informatiker Peter Shor entwickelte 1994 einen Algorithmus, der mit Hilfe eines Quantencomputers die größten Produkte heute verwendeter Primzahlen innerhalb von Minuten in ihre Teiler faktorisieren könnte.
  2. Lösung komplexer Optimierungsaufgaben: Die Aufgabe, aus vielen Varianten die optimale Lösung zu finden, gilt unter Mathematikern als besonders knifflig. Das Standardproblem ist das des Handlungsreisenden: Die Aufgabe besteht darin, die Reihenfolge für die Reise an mehrere Orte so zu wählen, dass die gesamte Reisestrecke möglichst kurz ist. Bei nur bei 15 Städten gibt es bereits über 43 Milliarden und bei 18 Städten bereits über 177 Billionen Wegvarianten. Verwandte Probleme treten in der industriellen Logistik, im Design von Mikrochips oder auch in der Optimierung von Verkehrsflüssen auf. Bereits bei einer geringen Zahl von Punkten steigen klassische Computer bei der Berechnung optimaler Lösungen aus. Quantencomputer könnten solche Optimierungsprobleme dagegen in vergleichsweise kurzer Zeit lösen
  3. Eine bedeutende Anwendung könnte auf dem Gebiet der Künstlichen Intelligenz liegen: Die dort verwendeten tiefen neuronale Netzen sind mit harten kombinatorischen Optimierungsprobleme verbunden, die von Quantencomputern weitaus schneller und besser gelöst werden können als von klassischen Computern. Speziell aus sehr verrauschten Daten könnten Quantencomputer wesentlich schneller Strukturen erkennen und entsprechend lernen. So macht bereits ein neues „Mega-Buzzwort“ die Runde. Es kombiniert zwei einzelne Buzzwörter, die bereits einzeln die Phantasie vieler Menschen anregen: Quantum machine learning.
  4. Suche in grossen Datenbanken: Beim Durchsuchen unsortierter Datenmengen muss ein klassischer Computer jeden Datenpunkt einzeln untersuchen. Die Suchdauer steigt daher linear mit der Anzahl der Datenpunkte. Bei großen Datenmengen wird die Anzahl der dazu notwendigen Rechenschritte zu groß, um praktikabel zu sein. Im Jahr 1996 veröffentlichte der indisch-amerikanische Informatiker Lov Grover einen Quantencomputer-Algorithmus, für den die Anzahl der notwendigen Rechenschritte nur noch mit der Wurzel der Datenpunkte anwächst. Anstatt bei einer Milliarde Dateneinträgen tausendmal so lange zu brauchen wie bei einer Million, würde dies mit einem Quantencomputer und dem „Grove-Algorithmus“ nur noch etwas mehr als 30-mal so lang dauern.
  5. Auffinden neuer chemischer Verbindungen. In Quantensystemen kommen immer wieder komplexe Optimierungsprobleme vor, bei denen es darum geht, aus vielen Alternativen die bestmögliche, d.h. energetisch günstigste Konfiguration der Elektronen eines Atoms oder Moleküls zu finden. Quantencomputer könnten das Quantenverhalten der beteiligten Elektronen dabei direkt abbilden und modellieren, da sie sich selber wie ein Quantensystem verhalten, während für die Berechnung solcher Systeme mit klassische Computer immer wieder starke Vereinfachungen notwendig sind. Könnte man wiederum Moleküle und die Details der Vorgänge in chemischen Reaktionen viel besser vorausberechnen und verstehen als heute, wäre es denkbar, dass man neue Medikamente im Wochentakt findet oder viel bessere Batterietechnologien als heute innerhalb eines Monats entwickelt.

Jedoch sind bei der Konstruktion von Quantencomputern noch gewaltige Probleme zu überwinden. Das größte davon: Verschränkte Quantenzustände zerfallen unter Einfluss von Wärme und Strahlung sehr schnell – oft zu schnell, um die gewünschten Operationen fehlerfrei durchzuführen. Die Physiker sprechen in diesem Zusammenhang von „Dekohärenz“ der Quantenzustände. Mit Qubits zu arbeiten erscheint fast so, als wolle man nicht auf einem Blatt Papier schreiben, sondern auf einer Wasseroberfläche. Während das Papier Jahrhunderte überdauern kann, ist das auf Wasser Geschriebene schon nach Sekundenbruchteilen verschwunden. Es kommt also darauf an, eine wahnwitzige Geschwindigkeit zu beherrschen.

Um diese Hürde zu überwinden, verfolgen die Quanteningenieure eine doppelte Strategie: Einerseits verlängern sie die Lebensdauer der Qubits bzw. reduzieren ihre Fehleranfälligkeit, andererseits entwickeln sie Algorithmen, die die auftretenden Fehler beheben. Der Dekohärenz vermögen die Physiker mit Hilfe von ultrakalten Kühlschränken Einhalt zu gebieten. Für die Behandlung von durch die Dekohärenz verursachten Fehlern in einzelnen Qubits wiederum entwickeln sie immer bessere Methoden (sogenannte Quantenfehlerkorrektur), mit denen die Verlässlichkeit von Quantencomputern erhöht werden kann.

Noch reichen ihre Bemühungen allerdings nicht aus, um zuverlässig funktionsfähige Quantencomputer zu bauen. Doch haben Firmen wie IBM und Google in den letzten Wochen und Monaten angekündigt,  Quantenprozessoren gebaut zu haben, die aus bis zu 50 Qubits bestehen. Bei dieser Grösse  könnte sie – zumindest für einige sehr spezielle Rechenprobleme – wohl die Rechenkapazität eines jeden heutigen (klassischen) Superrechners übertreffen. Google nennt dies „Quantum Supremacy“ (Quanten-Überlegenheit) und hatte bereits 2017 angekündigt, diese zum Ende desselben Jahres zu erreichen. Noch haben wir nichts davon gehört, aber es lohnt sich in den nächsten Woche und Monaten die Wissenschaftsteil der Tageszeitung etwas genauer zu lesen.

Veröffentlicht von

wwww.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

32 Kommentare Schreibe einen Kommentar

  1. Hallo Herr Jäger,

    Sie schreiben:
    “Verschränkte Qubits können damit unendlich viele verschiedene Kombination von Zuständen zugleich annehmen, die alle mit einer bestimmten Wahrscheinlichkeit vorliegen und die sich mit Hilfe eines entsprechenden Algorithmus allesamt parallel verarbeiten lassen.”

    Bitte sagen Sie uns noch, was Sie damit meinen: verschränkte Qubits lassen sich mit Hilfe eines Algorithmus allesamt parallel verarbeiten.

    Wer verarbeitet ? Wie sieht diese Verarbeitung aus ? Zu was lassen diese sich verarbeiten ? Was ist das (digital)mathematische Prinzip dieser Paralellverarbeitung ?
    Dies bleibt ein Geheimnis.

    Vielleicht weiß auch einer der Kommentatoren, wie dieses Prinzip aussieht ?

    Grüße
    Fossilium

    • @Fossilium, zur Arbeitsweise von Quantencomputern: Quantencomputer arbeiten nicht im wörtlichen Sinne parallel, sondern sie organisieren die Information in ihren Quantenregistern so, dass die Information über sehr viele Register verteilt sein kann, indem diese Register miteinander verschränkt sind, also miteinander korrelieren. Damit kann man schliesslich Fragen beantworten, die den gesamten, totalen Registerinhalt (und nicht nur ein Register oder eine Sequenz von Registern), die Ganzheit der Information, wenn man so will, beinhalten – vorausgesetzt man hat die Register vorher entsprechend präpariert. Oder formaler:
      Der Zustand des Quantencomputers ist in einem Set von Quantenregistern enthalten, die auf vordefinierte Weise initialisiert werden.
      2. Der Zustand entwickelt sich nach vorher festgelegten Operationen nach einem Algorithmus.
      3. Am Ende der Berechnung erhält man Informationen über den Total-Zustand der Quantenregister durch eine spezielle Operation, die als Messung bezeichnet wird.

      Fazit: Ein Quantencomputer ermöglicht Einzeldaten miteinander implizit zu verknüpfen, so dass schliesslich eine Gesamteigenschaft dieser Daten abgefragt werden kann. Beispiele von Gesamteigenschaften finden sich oft in Optimierungsproblemen wie dem kürzesten Weg zwischen Städten. Ein Quantenalgorithmus bestimmt wie man die Register in welcher Reihenfolge miteinander verknüpfen mss. Die Verknüpfung geschieht mit Quantenregisteroperationen. Am Schluss liest man das Resultat aus und zerstört damit den vorher geschaffenen kohärenten Zustand. Man kann also keine Zwischenresultate auslesen, weil jedes Auslesen die Berechnung beendet.

    • Die Idee scheint zu sein, dass (auch oder gerade) unendlich große Mengen in einem Einzelschritt bearbeitet werden könnten, bspw. die Addition von Vektoren meinend.

      Weil die Unendlichkeit nicht direkt vorstellbar ist, sondern nur im Rahmen eines Denk-Prozesses, und auch probabilistische Ansätze nicht direkt vorstellbar sind, es kann bspw. kein “echter” Zufallszahlengenerator entwickelt werden, sieht es für einige in der Vorstellung mau aus, natürlich auch bei : Dr. Webbaer (der sich allerdings gerne ergänzen, gar korrigieren lässt).

      • PS zu :

        Wer verarbeitet ?

        Die Natur. – Das erkennende Subjekt würde hier die Natur, sofern sie, wie quantenmechanisch theoretisiert, sozusagen gehorcht, rechnen lassen, was bei sozusagen Analog-Rechnern mathematisch (hier bleibt die Fähigkeitslehre gemeint, die “Kunst des Lernens”) nicht möglich wäre.

      • @Dr.Webbaer (Zitat): Die Idee scheint zu sein, dass (auch oder gerade) unendlich große Mengen in einem Einzelschritt bearbeitet werden könnten, bspw. die Addition von Vektoren meinend.
        Nein, unendlich grosse Mengen können nicht verarbeitet werden, sondern nur die Daten, die sich in den Quantenregistern befinden. Wenn diese Einzeldaten entsprechend verschränkt sind können tatsächlich abschliessend in einem einzigen Schritt all diese Daten miteiander auf gewünschte Art verrechnet werden. So können etwa Matrizenoperationen (lineare Algebra) wie die Bildung der Inversen einer Matrix nach entsprechender Verschränkung der Matrixelemente in einem einzigen Schritt ausgeführt werden.

        • @ Herr Holzherr und vergleiche :

          Verschränkte Qubits können damit unendlich viele verschiedene Kombination von Zuständen zugleich annehmen, die alle mit einer bestimmten Wahrscheinlichkeit vorliegen und die sich mit Hilfe eines entsprechenden Algorithmus allesamt parallel verarbeiten lassen.

          …diese ‘Kombination von Zuständen’ wird hier als eine unendlich große Menge verstanden.

          MFG
          Dr. Webbaer

          • Ach so, Sie meinten, werter Herr Holzherr, womöglich die gleichzeitige Verarbeitung unendlich großer Mengen einer höherwertigen Mächtigkeit (als der geschilderten), nein, dies ist hier so nicht verstanden worden.

          • @Dr.Webbaer, Ja, da haben sie recht, schon im Artikel von Lars Jaeger gibt es Sätze, die in Richtung Quantenmagie gehen, wie den folgenden: Verschränkte Qubits können damit unendlich viele verschiedene Kombination von Zuständen zugleich annehmen. Doch es geht hier um Physik und Physik kennt – anders als Mathematik – kaum Unendlichkeiten, denn die Welt mag zwar gross sein, doch unendlich ist sie höchstens in Gedanken, nicht aber in der Praxis.

          • Herr Holzherr, der Webbaer hat bereits die Verschränkung nicht verstanden, wenn A) keine “versteckten Variablen” im Spiel sein, vgl. auch mit dem GHZ-Experiment und B) die verschränkten Gegenstände nicht überlichtgeschwindigkeitsschnell kommunzieren dürfen, d.h. es gelang ihm nicht eine der beiden Möglichkeiten auszuschließen, philosophisch (vs. physikalisch – die Naturlehre ist des Webbaeren Fachgebiet nicht).
            Die Philosophie steht aber über der Naturlehre.

            Die Naturlehre kennt Unendlichkeit nur in der Mathematik, die sie als “Gate and Key of the Sciences” benötigt.

            MFG + schöne Mittwoche,
            Dr. Webbaer

  2. Die Frage ist wie viele der heute produzierten Daten übrflüssig sind.
    Man denke nur an Fotos und Videos von allem und jedem. Kostet nichts das zu produzieren, ist aber auch für nichts.
    Selbst die Fotos die ich als Hobbyfotograf produziert habe und nun auf meinen Computer herumliegen habe sind ohne weiteres zu 99 % überflüssig.
    Ist halt ein Freizeitvertreib und kostet eigentlich auch nichts. Braucht aber sehr viel Speicherplatz.

    Der Quantencomputer wird schon sehr lange angekündigt, nur irgend etwas Vorzeigbares gibt es nicht. Höchstens lange Abhandlungen darüber.
    Die ganzen Vorstellungen davon sind ebenso ein Produkt reiner Phantasie wie die Vorstellungen einer Unbestimmtheit in der Quantenphysik.

  3. Heute befinden wir uns gemäss Quantum Computing in the NISQ era and beyond in der Quantencomputing-Aera, in der verrauschtes Quatencomputing auf mittlerem Niveau möglich wird (Zitat)

    Die Noisy Intermediate-Scale Quantum (NISQ)-Technologie wird in naher Zukunft verfügbar sein. Quantencomputer mit 50-100 Qubits sind zwar in der Lage, Aufgaben auszuführen, die über die Möglichkeiten der heutigen klassischen Digitalcomputer hinausgehen, aber Rauschen in Quantengattern wird die Größe von Quantenschaltungen begrenzen, die zuverlässig ausgeführt werden können. NISQ-Geräte werden nützliche Werkzeuge für die Erforschung der Vielkörper-Quantenphysik sein, und sie können auch andere nützliche Anwendungen haben, aber der Quantencomputer mit 100 Qubit wird die Welt nicht sofort verändern — wir sollten es als einen bedeutenden Schritt in Richtung der leistungsfähigeren Quantentechnologien der Zukunft betrachten. Quantentechnologen sollten weiterhin nach genaueren Quantengattern und schließlich nach völlig fehlertolerantem Quantencomputing streben.

    Übersetzt mit http://www.DeepL.com/Translator

    • Die Bedeutung der Quantenverschränkung wird in Quantum Computing in the NISQ era and beyond sehr gut veranschaulicht. Mit folgender Analogie (übersetzt von DeepL): Um das Konzept der Verschränkung zu verstehen, stellen Sie sich ein System mit vielen Teilen vor, zum Beispiel ein Buch, das 100 Seiten lang ist. Für ein gewöhnliches klassisches 100-seitiges Buch gilt, dass jedes Mal, wenn Sie eine andere Seite lesen, lernen Sie weitere 1% des Inhalts des Buches, und nachdem Sie alle Seiten einzeln gelesen haben, wissen Sie alles, was im Buch steht. Aber nun nehmen wir an, dass es sich um ein Quantenbuch handelt, in dem die Seiten sehr stark miteinander verschränkt sind. Wenn man dann die Seiten einzeln betrachtet, sieht man nur zufälliges Kauderwelsch, und nachdem man alle Seiten einzeln gelesen hat, weiß man sehr wenig über den Inhalt des Buches. Das liegt daran, dass die Informationen im Quantenbuch nicht auf den einzelnen Seiten aufgedruckt sind, sondern fast ausschließlich in der Korrelation der Seiten untereinander kodiert sind. Wenn Sie das Buch lesen wollen, müssen Sie eine gemeinsame Beobachtung auf mehreren Seiten gleichzeitig machen. Das ist die Quantenverschränkung, das wesentliche Merkmal, das Informationen, die von Quantensystemen transportiert werden, sehr verschieden von Informationen, die von gewöhnlichen digitalen Computern verarbeitet werden.

      • @ Herr Holzherr :

        Seiten von Büchern meinen ja Inhalt, die Information, die wiederum die Befolgung von Kodierungsregeln, die vorab zwischen den Kommunizierenden geteilt sein muss, meint, wiederum derartige nachfolgende Abstraktion etc. zu Inhalt.

        Ihr diesiger Kommentar bleibt gemeint :
        -> “5. Februar 2018 @ 10:11”

        Eine dbzgl. “quantenbasierte” Algorithmik könnte geeignet sein, die Indizes meinend, auch i.p. Wörtersuche, vgl. auch mit diesem Fachwort, sozusagen instantan, ein weiteres Fachwort nennend, beim Suchen zu helfen.

        MFG
        Dr. Webbaer (der sich nun wieder auszuklinken hat, “Fressie” wartet)

      • Hallo Herr Holzherr

        Haben Sie Dank für die schöne Referenz! Der Beitrag von John Preskill ist sehr lesenswert, und das Video dazu an der Konferenz Quantum Computing for Business sehr sehenswert. Hier der Link für alle: https://www.q2b.us/

        Beste Grüsse

        Lars Jaeger

    • Während Operationen auf heutigen Computern praktisch fehlerfrei ablaufen ist bereits eine einzige Quantenoperation (die einer Transistorschaltung auf einem konventionellen Computer entspricht) heute mit einem Fehler im Prozent- bis Promillebereich behaftet. Die Fehlerrate wird man wohl nie auf das Niveau heutiger Transistorrechner herunterbringen. Doch mittels Fehlerkorrektur kann man über Fehler hinwegkommen. Allerdings benötigt man typischerweise 1000 Mal mehr FehlerQubits als ArbeitsQubits. Im oben verlinkten Artikel liest man dazu (Zitat, übersetzt von DeepL):

      Die Lösung wirklich harter Probleme (wie das Factoring von Zahlen, die Tausende von Bits lang sind) mit fehlertolerantem Quantencomputing ist jedoch aufgrund der großen Anzahl physikalischer Qubits, die benötigt werden, für eine Weile unwahrscheinlich. Um Algorithmen mit Tausenden von geschützten Qubits ausführen zu können, benötigen wir eine Anzahl von physischen Qubits, die sich in Millionenhöhe oder mehr befinden.
      [50]. Das ist ein sehr großer Sprung von dort, wo wir in den nächsten Jahren sein werden, mit einer Ordnung von hundert Qubits. Die Überwindung des “Quantenchiasmus” von hunderten von physischen Qubits zu Millionen von physischen Qubits wird einige Zeit in Anspruch nehmen, aber wir werden es schließlich schaffen.
      Während der gesamten NISQ-Ära wird es wichtig bleiben, niedrigere Gate-Fehlerraten in den verschiedenen Quantenplattformen anzustreben. Mit genaueren Quantengattern können Quantencomputer, die ohne Fehlerkorrektur arbeiten, noch weiter gehen, indem sie größere Schaltkreise ausführen.
      Bessere Gates werden auch die Overhead-Kosten für die Durchführung von Quantenfehlern senken.
      oder Korrektur, wenn wir irgendwann in der Zukunft zu fehlertolerantem Quantencomputing übergehen. (Microsofts aktuelles Programm[51], das sich auf die Weiterentwicklung des topologischen Quantencomputings konzentriert, basiert auf dem Begriff
      dass sich die viel niedrigeren Gate-Fehlerraten irgendwann in t
      er Zukunft.)

  4. Müsste es im ersten Satz des vorletzten Absatzes statt

    erhöhen ihre Fehleranfälligkeit

    nicht
    “erhöhen ihre Fehlertoleranz” oder “vermindern ihre Fehleranfälligkeit” heißen?

  5. “Herkömmliche Verschlüsselungen beruhen auf der Zerlegung sehr großer Primzahlen.”
    Diese Aussage erscheint mir etwas seltsam.

    • Es hätte auch heißen können bis sollen :

      Herkömmliche [asymmetrische] Verschlüsselungen beruhen auf der Zerlegung sehr großer Primzahlen.

      Die Idee so zwischen öffentlichem und privatem Schlüssel zu vermitteln, könnte klar sein.
      Die Länge dieser Schlüssel korreliert mit ihrer Knackbarkeit sozusagen, sozusagen “Analogrechner” meinend (eigentlich sind die nicht gemeint, sondern Digitalrechner).

      MFG
      Dr. Webbaer

      • Ich lese hier “zerlegen” als ‘teilbar’. Primzahlen sind per Definition nur durch 1 oder sich selbst teilbar.
        Aber vielleicht ist dies bei der Quantenmechanik anders …

  6. Quantencomputer werden heutige Computer nie ersetzen, sondern sie werden immer nur in Spezialgebieten zum Einsatz kommen wie der Quantenchemie, bei Optimierungsaufgaben oder Datenanalysen. Es könnten sich auch neu geschaffene Anwendungsgebiete wie Quantum deep learning oder allgemeiner Quantum machine learning entwickeln, unter anderem weil die im Machine Learning so wichtigen Probleme der Linearen Algebra mit Quantencomputern effizienter gelöst werden können. Allerdings haben Quantencomputer auch inhärente Grenzen, die sie sehr schlecht abschneiden lassen gegenüber konventionellen Maschinen. Beispielsweise zerstört das Auslesen des Resultats den gesamten Zustands- und Speicherraum eines Quantencomputers. Was nutzt es dann, wenn der Quantencomputer sehr viel schneller ein Element in einer riesigen Datenbank finden kann (Grover Algorithmus), wenn die Daten nach dem Auslesen alle verlorengehen (Zitat Wikipedia: Bei der Betrachtung von Anwendungen des Grover-Algorithmus ist darauf hinzuweisen, dass die Datenbank nicht explizit dargestellt wird. Stattdessen wird ein Orakel aufgerufen, um ein Element anhand seines Indexes zu bewerten. Das Lesen einer vollständigen Datenbank und die Umwandlung in eine solche Darstellung kann viel länger dauern als Grovers Suche. ). Trotzdem können Quantencomputer wahrscheinlich wichtige Probleme lösen, die sonst unlösbar wären. Dazu gehört beispielsweise die Quantenchemie, wo man die Eigenschaften von Molekülen und chem. Reaktionen mittels Quantencomputer überhaupt erst exakt vorausberechnen könnte – etwas was die Chemie revolutionieren könnte.
    Wenn Lars Jaeger oben aber den Einstieg ins Quantencomputing mit der heutigen Situation der immer grösseren Datenmengen und der zunehmend an ihre Grenzen kommenden konventionellen Prozessoren/Computer macht und den Eindruck erweckt, hier könnten Quantencomputer bestehende Grenzen überwinden, dann lenkt er den Leser in die falsche Richtung. Nein, Quantencomputer werden das heutige Datenchaos keinesfalls auflösen und die heutigen Computer in keiner Weise ablösen, sie werden heutige Computer nicht etwa alt aussehen lassen, sondern sie werden bestimmte Anwendungsgebiete (wie die Quantenchemie oder das Machine Learning) erobern und potenziell umwälzen. Allerdings kann das bereits ungeahnte Auswirkungen haben. Könnte man beispielsweise Moleküle und chemische Reaktionen viel besser vorausberechnen und verstehen als heute, dann wäre es denkbar, dass man neue Medikamente im Wochentakt findet oder viel bessere Batterietechnologien als heute innerhalb eines Monats entwickelt. Das hätte gewaltige Auswirkungen und würde eine neue Ära der Naturbeherrschung einläuten.

    • Ergänzung: In Chemists Are First in Line for Quantum Computing’s Benefits liest man zum Potenzial von Quantencomputern für die Chemie (übersetzt von DeepL): Im Moment müssen wir ständig mit experimentellen Daten kalibrieren”, sagt Aspuru-Guzik, der Pionierarbeit bei der Simulation von Molekülen auf Quantencomputern geleistet hat. “Einiges davon wird verschwinden, wenn wir einen Quantencomputer haben….
      Wenn dann – oder wenn überhaupt – es soweit kommt, sollte der frühe Erfolg in der Chemie ein gutes Zeichen für die Zukunft der Quantencomputer sein. Ihr Potenzial für das Studium von Molekülen ist nur eine Manifestation ihres Gespürs für das, was Informatiker Optimierungsprobleme nennen, bei denen es darum geht, aus vielen Alternativen die bestmögliche Lösung zu finden. Das kann die stabilste Konfiguration der Elektronen eines Atoms oder der effizienteste Lieferweg in einer Stadt sein.”

  7. @Larsjaeger: Zahlen sind halt Glücksache: zwei hoch zehn gleich (ungefähr) Tausend, das hat ja noch gestimmt, aber dann … zwei hoch zwanzig gleich 10 Millionen (???), zwei hoch fünfzig gleich zehn Millionen Milliarden (???). Auch die “Faktorisierung sehr großer Primzahlen” muss einen schon sehr wundern. @waldschrat hatte da sehr höflich nachgefragt, und ich erlaube mir als gutwilliger Leser hier, anstelle des Blog-Autors zu erklären: gemeint war die Faktorisierung der Produkte von sehr großen Primzahlen.
    Mancher findet es vielleicht kleinkariert, auf solche Details zu achten. Scheint auch sonst keinen der eifrigen Diskutierer zu interessieren. Trotzdem: bei derartigen – für den Naturwissenschaftler ins Auge springenden – Fehlern fragt man sich, wie ernsthaft der Autor selbst seinen Beitrag genommen hat. Schade eigentlich – man versucht ja doch, die Perspektiven künftiger Entwicklungen zu verstehen, um diesmal vielleicht nicht ganz so ahnungslos in die nächste “technischen Revolution” hinein zu stolpern und dann hilflos unter den Folgen des “Fortschritts” zu leiden, wie dies seit über zweihundert Jahren regelmäßig passiert. Und da könnte dieser Artikel – vom Thema her – ein Beitrag sein, wenn man wüsste, ob man ihn ernst nehmen soll.

    • Hallo Herr Knoblauch

      Haben Sie Dank für Ihre Detailtreue. Da hat sich bei 2 hoch 20 und 2 hoch 50 ein Fehler um den Faktor 10 eingeschlichen, den ich heute auch bei der englischen Übersetzung erkannt habe. Bei solchen Übersetzungen erkennt man immer so einige Fehler (wie auch den mit der Faktorisierung von Primzahlen, natürlich bezieht sich das auf das Produkt solcher). Da habe ich einmal den Blog vor meiner Übersetzung auf scilogs gestellt……

      Ist jetzt alles korrigiert (dazu noch ein paar sprachliche Schwächen ausgemerzt, hoffe ich, und ein weiterer Punkt zu Anwendungen angefügt).

      Englische Version im Übrigen ab morgen auf http://www.larsjaeger.ch einsehbar

      Beste Grüsse
      Lars Jaeger

  8. Grosse Quantencomputer sind gemäss dem Mathematiker Gil Kalai nicht möglich, weil das Rauschen mit der Anzahl Qubits aus prinzipiellen Gründen zunehme. Nicht einmal Fehlerkorrektur sei möglich, weil Fehlerkorrektur eine kleine Einzelfehlerrate voraussetze und dies gerade nicht erreicht werden könne, weil das Rauschen mit der Anzahl der Qubits zunehme. All dies liest man im Quanta-Artikel The Argument Against Quantum Computers
    Gil Kalai meint zum Schluss des Artikels, es werde sich bald schon ganz praktisch zeigen, ob er recht habe. Wenn Quantum Supremacy schon bald erreicht werde und es Quantencomputer mit 50 Qubits gibt, die zuverlässig rechnen könnten ohne dass das Rauschen jede anspruchsvollere Rechnung verunmögliche, dann sei er widerlegt.
    Und wo stehen wir heute: IBM hat angekündigt, es besitze nun einen 50 Qubit-Quantencomputer, allerdings ohne Angabe der Zuverlässigkeit dieser Maschine und Google müsste jetzt ebenfalls über eine 50 Qubit-Maschine verfügen, hat darüber aber nichts verlauten lassen.

  9. MH
    könnte man die Verschränkung, mal statisch gesehen, mit dem Bild eines Hologramms vergleichen?

    Und so, wie ich das verstehe, werden diese Q-bits-Computer weniger zum Rechnen eingesetzt werden, sondern nur zur Übertragung und Überprüfung von Zertifikaten.

    • Zitat: könnte man die Verschränkung, mal statisch gesehen, mit dem Bild eines Hologramms vergleichen? Gute Idee, es gibt Kosmologen/String-Theoretiker, die die unsere Raumzeit als Hologramm auffassen und sie als Resultat von Verschränkungen interpretieren. Quantum entanglement from the holographic principle ist ein arxiv-Artikel dazu.

      Zu (Zitat): Und so, wie ich das verstehe, werden diese Q-bits-Computer weniger zum Rechnen eingesetzt werden, sondern nur zur Übertragung und Überprüfung von Zertifikaten. lässt sich sagen: Echte Quantencomputer, also Quantencomputer, die mit Quantengattern (Registern) ausgestattet sind, sind für beliebige Quantenalgorithmen gedacht. Sie beabsichtigen also weit mehr als nur die Übertragung und Überprüfung von Zertifikataten. Sie sollen jeden denkbaren Quantenalgorithmus ausführen können.

  10. Ob IBM’s und Googles kürzlich gebaute 50-Qubit Quantencomputer überhaupt sinnvolle Resultate hervorbringen wissen wir nicht, denn es gibt keine wissenschaftlichen Artikel über ihre Leistungen. Es könnte durchaus sein, dass diese Quantencomputer wegen Rauschen und nur Millisekunden anhaltender Kohärenz/Isolation (über IBM’s System liest man (übersetzt von DeepL: “Sowohl im 50- als auch im 20-Bit-System bleibt der Quantenzustand für 90 Mikrosekunden erhalten.”) keine verwertbaren Resultate hervorbringen.
    Doch es gibt Aussichten auf bessere Basistechnologien für Quantencomputer als es die jetzt verwendeten Josephson-Junctions und Mikrowellenresonatoren sind – nämlich topologische Qubits, die an den Grenzflächen von Isolatoren in Form von Majorana-Quasipartikeln existieren sollen. Diese topologischen Qubits sollen relativ stabile Geflechte bilden und wären gegen Störungen weit besser gesichert als die heutigen Systeme. Topologische Qubits in Form von Majorana-Quasipartikeln sind jedoch bis vor kurzem mehr theoretischen Überlegungen entsprungen als Beobachtungen in realen Materialien.
    Doch die Chalmers Universität meldet jetzt einen Durchbruch: es seien Beobachtungen gemacht worden, die konsistent mit der Existenz von topologischer Supraleitung seien. Im Artikel Unconventional superconductor may be used to create quantum computers of the future liest man mehr dazu, entnimmt dem Artikel aber auch, dass die entsprechenden Forschungen noch ganz am Anfang stehen.

  11. Martin Holzherr schrieb (25. Februar 2018 @ 17:39):
    > […] topologische Qubits, die an den Grenzflächen von Isolatoren in Form von Majorana-Quasipartikeln existieren sollen. Diese topologischen Qubits sollen relativ stabile Geflechte bilden und wären gegen Störungen weit besser gesichert als die heutigen Systeme.
    > [… D]ie Chalmers Universität meldet jetzt einen Durchbruch [ http://www.mynewsdesk.com/uk/chalmers/pressreleases/unconventional-superconductor-may-be-used-to-create-quantum-computers-of-the-future-2418742 ]

    Schau an.
    Sind die möglichen Wechselwirkungen (bzw. die “Potentiale”) zwischen solchen Quasipartikel-Geflechten nicht wesentlich … ähm … komplexer als zwischen “elementaren (Qu-)Bits” ? …

  12. Google’s neuer 72 Qubit Quantencomputer (gate-basiert mit supraleitenden Josephson-Junction) soll als Testbett für die Erforschung von Fehlerraten und Skalierbarkeit dienen und basiert auf der gleichen Technologie wie der früher gebaute 9-qubit-Linear-Array-Quantencomputer, der die niedrige Auslese-Fehlerrate von 1% und 0.1% bei Single-Qubit-Operationen sowie 0.6% bei 2-Qubit-Operationen aufwies. Auf dem oben verlinkten Research-Blog liest man zur Zielrichtung von Google’s Quantencomputing-Bemühungen (übersetzt von DeepL):
    Das Ziel des Google Quantum AI Labors ist es, einen Quantencomputer zu bauen, mit dem sich reale Probleme lösen lassen. Unsere Strategie ist es, kurzfristige Anwendungen mit Systemen zu erforschen, die mit einem großen, universellen, fehlerkorrigierten Quantencomputer kompatibel sind. Damit ein Quantenprozessor Algorithmen über den Rahmen klassischer Simulationen hinaus ausführen kann, benötigt er nicht nur eine große Anzahl von Qubits. Entscheidend ist, dass der Prozessor auch niedrige Fehlerraten beim Auslesen und bei logischen Operationen, wie z.B. Single- und Two-qubit-Gates, aufweisen muss.

    Beurteilung: Google scheint es gelungen zu sein, den Mathematiker Gil Kalai zu widerlegen, der behauptet, grosse Quantencomputer seien wegen stark mit der Anzahl der Qubit ansteigenden Fehlerraten nicht realisierbar. Google ist offentsichtlich auf dem Weg zu Quantencomputern, die für reale Probleme eingesetzt werden können.

  13. Googls John Martinis macht im You Tube Quantum Computing and Quantum Supremacy Vortrag klar, dass ein Quantencomputer nur an der Kombination von Anzahl Qubits und der Qualität (Fehlerrate) gemessen werden kann. Offensichtlich bezieht er sich dabei versteckt auch auf IBM’s Bemühungen, die kürzlich die Fertigstellugn eines 50 Qubit-Quantencomputer angekündigt haben ohne jedoch Testresultate vorzulegen.

  14. Microsoft will einen Quantencomputer mit einer extrem niederen Fehlerrate bauen. Sie vertraut dazu auf topologische Qubits, sogenannte Majorana-(Quasi)Partikel. Allerdings hat das Microsoft-Team diese Majorana-Quasipartikel erst gerade kürzlich nachgewiesen und noch kaum experimentelle Erfahrungen damit gemacht.
    Im Artikel Microsoft Creates Wild Half-Electron Quasiparticle for Its Future Quantum Computer liest man zu den Microsoft-Erwartungen (Zitat, übersetzt von DeepL): Quantencomputer sind Maschinen, die die Grundlagen der Quantenphysik, die Physik der kleinsten Teilchen, nutzen, um Berechnungen durchzuführen, die für normale Computer schwierig oder unmöglich sind. Sicher haben Sie von Maschinen mit bis zu 72 Qubits von Google gehört, doch diese sind ungenau. Kleinste Schwingungen oder Energiezufuhr von außen können zu einem Rechenfehler führen. Aber Microsofts’topologische’ Quantencomputer könnten dieses Rauschen drastisch reduzieren. Seine Forscher machen in diesem Jahr einige Fortschritte, darunter ein heute in Nature veröffentlichtes Papier, und sie denken, dass sie bis zum Ende des Jahres Arbeits-Qubits haben werden.
    “Eines unserer Qubits wird so mächtig sein wie 1.000 oder 10.000 der gewöhnlichen, verrauschten Qubits”, sagte mir Julie Love, Leiterin der Geschäftsentwicklung für Quantencomputer, vor ein paar Wochen in einem Microsoft Boardroom in der Nähe des New Yorker Times Square.

    Beurteilung: Einen Quantencomputer auf ein Phänomen aufzubauen, das erst gerade vor 1 bis 2 Monaten (noch im Jahre 2018) gefunden wurde, muss als verwegen eingestuft werden. Gelingt es Microsoft jedoch, robuste Qubits zu realisieren, dann wird es den Markt mit Sicherheit dominieren, denn der Aufwand um jegliche noch so kleine Störung zu eliminieren ist bei gewöhnlichen Quantencomputern enorm gross.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +