Quantencomputer – Die nächste Revolution in der Informationstechnologie des 21. Jahrhunderts?

BLOG: Beobachtungen der Wissenschaft

Grenzgänge in den heutigen Wissenschaften
Beobachtungen der Wissenschaft

Ein Begriff, der den meisten Menschen so unheimlich-bizarr wie aufregend-futuristisch vorkommen muss, drängt zunehmend in die Sphäre der öffentlichen Aufmerksamkeit. In ihm kombiniert sich die scheinbare technologische Allmacht des digitalen Rechnens mit der ehrfurchteinflössenden Komplexität und Abstraktheit der bedeutendsten physikalischen Theorie des 20. Jahrhunderts. Es handelt sich um den  „Quantencomputer“. Dahinter verbergen sich keineswegs esoterische Träume von Wunderheilungen und Seelenreinigungen („Quantenheilung“), spirituellen Wohnungseinrichtungen („Quanten-Feng-Shui“), universell-perfekten Liebesbeziehungen („Quanten-Resonanz“) oder sonstiger Unsinn, den Esoteriker gerne mit „Quanten“ assoziieren, sondern eine mögliche technologische Revolution, die das 21. Jahrhundert ähnlich bedeutend prägen könnte, wie die Entwicklung digitaler Schaltkreise das 20. Jahrhundert geformt hat.

Letztes Jahr kündigte der IT-Konzern IBM an, dass er der Öffentlichkeit seine Quantencomputer-Technik als Cloud-Service zur Verfügung stellen wird. Interessenten könnten im Rahmen der „IBM Quantum Experience“ über das Internet auf einen 5-Qubit-Quantencomputer zugreifen und darauf mittels einer bereitgestellten Programmierschnittstelle und Benutzeroberfläche Programme erstellen und ausführen. IBM verspricht sich mit diesem Schritt, die Entwicklung von Quantencomputern zu beschleunigen. Und einige Monate zuvor hatte Google bekannt gegeben, dass sie einen Quantencomputer der Firma „D-Wave“ erworben haben, mit dem sie weitere Forschungsarbeiten durchführen wollen. Firmen wie IBM, Google und Microsoft erkennen in Quantencomputern eine mögliche Grundlage für die nächste Generation von Supercomputern und behaupten, in der jüngeren Vergangenheit einige bedeutende Fortschritte in Richtung ihrer Entwicklung erzielt zu haben.

Was macht einen Quantencomputer so besonders? Beruhen nicht bereits die Bausteine herkömmlicher Computer massgeblich auf quantenmechanischen Gesetzmässigkeiten (wie beispielsweise dem Transistoreffekt)? Tatsächlich wäre die digitale Revolution des 20. Jahrhunderts ohne die Quantenphysik gar nicht möglich gewesen. Nichtsdestotrotz sind Aufbau und Funktionalität konventioneller Computer (die so genannte „Von-Neumann-Architektur“) prinzipiell auch ohne quantenphysikalische Effekte möglich (so bestanden die ersten Computer in den 1940er Jahren noch aus Röhren und Kondensatoren). Erst für ihre extreme Miniaturisierung wurde Quantenphysik benötigt, was zuletzt ihre heutige Leistungsfähigkeit ermöglichte. Quantencomputer besitzen dagegen eine grundlegend andere Architektur und Funktionsweise, die bereits in ihrem Kern auf den bizarren Eigenschaften der Quantentheorie  beruht. Sie verwenden zur Datenspeicherung und –verarbeitung direkt subatomare Partikel und nutzen deren Quanteneigenschaften aus. Dies ermöglicht Quantencomputern potentiell eine im Vergleich zu gängigen Computern unvorstellbar höhere Rechengeschwindigkeit und könnte sie Komplexitäten beherrschen lassen, die uns aufgrund ihrer Unvorhersagbarkeit und Unkontrollierbarkeit heute noch ehrfürchtig erschaudern lassen. So könnte ein Quanten-Computer ohne weiteres herkömmliche Verschlüsselungsmethoden für digitale Daten knacken, blitzschnell gigantische Datenmengen durchforsten und komplexe Optimierungsaufgaben lösen, was einem herkömmlichen Supercomputer in realistischer Zeitspanne nicht gelingen wird. Damit könnten Quantencomputer die globale Datensicherheit bedrohen, was sie nicht nur für das Militär interessant und bedrohlich zugleich sein lässt. Aber sie könnten auch dafür eingesetzt werden, bisher nicht lösbare Problemstellungen in der Physik oder Quantenchemie zu bearbeiten oder in anderen Gebieten wie der Materialforschung oder Medikamentenentwicklung völlig neuen Wegen zu folgen. Allerdings ist all dies bis jetzt rein theoretischer Natur, denn noch existiert kein funktionierender universeller Quantencomputer.

Doch wie genau funktioniert ein Quantencomputer? Im Gegensatz zu den Informationseinheiten, mit denen ein herkömmlicher Computer arbeitet, den „Bits“, die entweder den Zustand 1 oder 0 haben (also zwei Werte annehmen können, daher der Begriff „digital“), können die Informationseinheiten in einem Quantencomputer, die so genannten „Quantenbit“ (kurz „Qubit“), beide Zustände und alle Zwischenwerte simultan annehmen. Dies liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“, Zustandsüberlagerungen sich klassisch gegenseitig ausschliessender Zustände, zu existieren. Diese bizarre Eigenschaft von Quantenteilchen war einst Auslöser hitziger Diskussionen unter den Vätern der Quantenphysik, welche ihren Ausdruck zuletzt in dem bekannten Gedankenexperiment von der „Schrödinger‘schen Katze“ fanden. Dazu kommt noch, dass sich verschiedene Quantenteilchen in so genannte „verschränke Zustände“ bringen lassen. Quantenmechanische Verschränkung beschreibt eine Verknüpfung einzelner Teilchen zu einem nicht-separierbaren Ganzen. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Über eine „spukhafte Fernbeziehung“ (ein Begriff, den ursprünglich Albert Einstein in ironischer Absicht erfand) stehen sie sozusagen allesamt direkt in Kontakt miteinander, und jedes Quantenbit weiß, was die anderen gerade treiben. Damit, so erhoffen sich die Physiker, können Qubits sozusagen gleichzeitig auf allen Zuständen operieren, was die hochgradige Parallelisierung der Operationen ermöglicht und die Rechenleistung des Computers exponentiell mit der Anzahl der Qubits erhöhen würde – gegenüber einer mit der Anzahl der verfügbaren Rechenbausteinen nur linear ansteigenden Rechenleitung in einem klassischen („von Neumann“) Computer mit sequentieller Datenverarbeitung.

IBMs „Quantum Experience“ beruht auf einem Prozessor mit fünf Qubits, die auf einem Siliziumchip implementiert sind. Dieser muss auf ca. minus 270 Grad Celsius herunterkühlt werden, da die in den quantenmechanisch verschränkten Qubits gespeicherten Daten extrem empfindlich sind und durch Wärme oder Strahlung sehr leicht beschädigt werden können. Dahinter steckt ein generelles Problem von Quantencomputern: Verschränkte Quantenzustände zerfallen im Allgemeinen sehr schnell wieder, oft zu schnell, um die gewünschten Operationen fehlerfrei durchzuführen. Mit Hilfe eines Ultratiefsttemperatur-Kühlschranks vermögen die Physiker dem Einhalt zu gebieten. Unterdessen haben die Forscher auch Methoden entwickelt, um fehlerhafte Qubits zu korrigieren. Nach Einschätzung von IBM wird es innerhalb eines Jahrzehnts Quantenprozessoren geben, die aus 50 bis 100 Qubits bestehen. Bereits ein System mit ca. 50 Qubits würde wohl die Rechenkapazität eines jeden heutigen Superrechners übertreffen (zumindest für einige sehr wichtige Rechenprobleme).

Auch der US-Geheimdienst NSA arbeitet an der Entwicklung eines Quanten-Computers. Mit einem solchen könnte sich der Geheimdienst Zugriff auf die umfangreichen vertraulichen Daten aus dem Banken und Finanzsektor, dem Gesundheitsbereich, diversen Regierungsaktivitäten, der verarbeitenden Industrie und zahlreichen anderen Bereichen verschaffen. Das Forschungsprojekt an Quanten-Computern sei Teil eines rund 80 Millionen Dollar schweren Forschungsprogramms der NSA, berichtete die „Washington Post“ und beruft sich auf Dokumente von Edward Snowden. Uns bleibt nur zu spekulieren, wie weit das Programm bereits gediehen ist. Weite Teile des Forschungsprogramms seien geheim, heisst es, und es gibt Mutmassungen, dass der Geheimdienst bedeutend weiter sein könne als zivile Labors.

Die Tatsache, dass Firmen wie IBM oder Google mit ihren Quantencomputer-Plänen nun an die Öffentlichkeit gehen, könnte ein Zeichen dafür sein, dass die Technologie langsam reif wird für Anwendungen auf reale Probleme. Noch sind Quantencomputer einer breiten Öffentlichkeit wenig bekannt. Doch entfaltetet sich mit ihnen ein gewaltiges technologisches und gesellschaftliches Entwicklungspotenzial, welches sich uns bereits in einigen Jahren offenbaren könnte. War Nicht-Physikern in den 40er Jahren nicht auch der ‚Transistoreffekt‘ kaum ein Begriff? Quantencomputer könnten einer der bedeutendsten Technologietreiber des 21. Jahrhunderts werden, so wie es die „von Neumann –Prozessoren“ für das 20. Jahrhundert waren.

 

Avatar-Foto

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

25 Kommentare

  1. Die von-Neumann-Architektur hat nichts mit klassischer Physik oder Quantenphysik zu tun, es bedeutet nur, dass Programme als Daten gespeichert werden. Zudem sind viele heutige Prozessoren als Stanford-Architektur gebaut, in der Programm und Daten im L1-Cache separat abgelegt sind.

    Quantenrechner sind auch nicht schneller als klassische Rechner. Tatsächlich sind sie langsamer. Das Phänomen der Superposition macht es aber theoretisch möglich, eine bestimmte Klasse von Problemen mit geringerer Komplexität zu lösen als das herkömmlich möglich wäre. Der Zusammenhang zwischen dieser Klasse und anderen Klassen der Komplexitätstheorie ist noch nicht ganz klar. Dahingehende Experimente dürften auch offene Fragen der Quantenphysik beantworten helfen.

    Eine Anwendung in der Klasse QBP ist Faktorisierung, was zum Knacken mancher, aber nicht aller, asymmetrischen Verschlüsselungen verwendet werden könnte. Dazu bräuchte man aber ebensoviele parallele Qubits wie der Schlüssel Bits hat. Gegenwärtig sind, wegen ihrer hohen Parallelität, Grafikkarten die beste Technologie zum Codeknacken.

  2. Ja, mit Quantencomputern kann man bestimmte Probleme schneller lösen. Sie berechnen also nichts, was nicht auch heute berechnet werden könnte, sondern sie tun es nur schneller, beispielsweise in Sekunden anstatt in Jahren oder Jahrzenten. Das bedeutet aber für eine bestimmte Klasse von Problemen, dass sie mit Quantencomputern erstmals auf breiter Ebene angegangen werden können, genauso wie eine Reise zu den Malediven vor Erfindung des Flugzeugs nur ein Ding für wenige Leute ein paarmal im Leben war, heute aber Teil des Alltags von fast allen ist. Zu den mit Quantencomputern massiv schneller lösbaren Problemen gehören viele Probleme der linearen Algebra, die heute in vielen Anwendungsgebieten, beispielsweise dem “Machine Learning” (~~Künstliche Intelligenz), eine zentrale Rolle spielen. Machine Learning, also künstliche Intelligenz, ist häufig auch mit Optimierungsproblemen (z.B.finde die “beste” Lösung wenn es Millionen von Lösungen gibt) verbunden für die schon früh Quantenalgorithmen entwickelt wurden. Die Erwartungen der Machine-Learning-Community an das Quantencomputing und das Quantum Machine Learning sind deshalb enorm. Zudem erscheinen auf arxiv fast monatlich Arbeiten zum Quantum Machine Learning wie beispielsweise der folgende:Quantum Machine Learning over infinite dimensions.
    Auch das Deep Learning, welches auf mehrstufigen, hierarchisch organisierten Netzwerken von künstlichen Neuronen beruht und welches uns so spektakuläre Resultate geliefert hat wie ein Programm, welches nach kurzer Trainingszeit (Wochen) den amtierenden GO-Weltmeister deklassiert hat, könnte von Quantum Machine Learning enorm profitieren, was sich darin äussern würde, dass (im günstigsten Fall) die Trainingszeit von Wochen auf Sekunden reduziert werden könnte: GO nach Sekunden anstatt nach Wochen gelernt, automatisches Autofahren über verschneite Strassen sofort gelernt anstatt nach Wochen (wenn der Winter schon vorbei ist).
    Warum aber sind Quantencomputer in gewissen Fällen schneller als konventionelle Computer, wenn sie doch langsamer arbeiten? Nun, das liegt an ihrer völlig anderen Arbeitsweise. Das ist vergleichbar mit einer Treppe, die ein 10-stöckiges Gebäude hinaufführt. Der koventionelle Algorithmus bewältigt Treppenstufe pro Treppenstufe, ein Quantenalgorithmus aber schwingt sich (bildlich gesprochen) mit einem einzigen Sprung ins zehnte Stockwerk.

  3. Revealed: Google’s plan for quantum computer supremacy berichtet über Googles Pläne, bis 2018/2020 einen fehlerkorrigierenden 50 QBit- Quantencomputer zu bauen. Da dieser gewisse (speziell ausgewählte) Probleme schneller lösen kann als jeder konventionelle spricht Google in typischem Silicon-Valley-Sprech von “Quantum Supremacy”, analog etwa zu Wortbildungen wie “White Supremacy”, also der behaupteten Überlegenheit der weissen Rasse – nur dass Googles 50 QBit-Computer in gewissen Fällen wirklich – und nicht nur behauptet – schneller sein wird als jeder Supercomputer.Es gilt aber:

    The first successful quantum supremacy experiment won’t give us computers capable of solving any problem imaginable – based on current theory, those will need to be much larger machines. But having a working, small computer could drive innovation, or augment existing computers, making it the start of a new era.

    Ja, überhaupt einen lauffähigen 50 QBit-Computer zu bauen bedeutet schon einen ungemeinen Erfolg, zumal es Theoretiker gibt, die daran zweifeln, dass Quantencomputer beliebiger Grösse gebaut werden können, ob sie also skalierbar sind. Übrigens kann auch ein 1000 QBit-Computer nicht alle Probleme schneller, ja nicht einmal gleich gut, lösen wie ein konventioneller Computer. Es sind aber sehr interessante Probleme, die durch Quantencomputer beschleunigt werden.

  4. Für eine Beurteilung eines Quantencomputers fehlen noch die Einzelheiten.
    Die Arbeitsweise ist sicherlich schneller, schon durch die tieferen Temperaturen, aber wie ist es mit dem Einlesen der Daten und der Ausgabe. Die Daten müssen gelesen werden. Brauchen wir dann eine andere Maschinensprache?
    Der Unterschied zwischen von Neumann Sruktur und Havard Struktur ist mir auch noch nicht klar.
    Schon die tiefen Temperaturen machen eine Nutzung für die breite Öffentlichkeit unmöglich.

    • @Eire;
      Der Unterschied zwischen Von-Neumann- und Harvard-Architektur ist recht einfach. In der VNA liegen Programme und Daten in demselben Speicher. In der HA liegen die Programme in einem eigenen Speicher, der nur gelesen werden muss. Der technische Vorteil ist der konkurrenzlose und daher schnellere Zugriff bei Multiprozessorsystemen. Ein anderer Vorteil wäre heute aber viel wichtiger: Malware (Trojaner, Viren), die mit Emails aus dem Internet geladen wird, käme in den Datenspeicher, wo sie keinen Unfug im Prozessor anstellen könnte.

      • @ anton reutlinger

        “Malware (Trojaner, Viren), die mit Emails aus dem Internet geladen wird, käme in den Datenspeicher, wo sie keinen Unfug im Prozessor anstellen könnte.”

        Das klingt ja sehr verlockend, scheint mir aber doch den Mechanismus nicht ganz treffend wiederzugeben, den Trojaner und Viren nutzen. Die gaukeln nämlich höchstens dem Anwender vor, sie seinen Daten, nicht dem Betriebssystem. Viele verstecken sich auch von vornherein in Programmen, die sogar für den Anwender als ausführbar erkennbar sind.

        Sich verbreiten und Schaden anrichten kann Malware also auf jeder beliebigen Architektur, selbst auf Quantencomputern.

        • @joker;
          Nein, das stimmt nicht ganz. Trojaner, Würmer und Viren sind Programme, die bei der Harvard-Architektur also in den Programmspeicher überführt werden müssten, um ausgeführt werden zu können. Sie könnten nur bei Installation oder Update von Programmen auf die Festplatte und mit Aufruf des Programms in den Programmspeicher gelangen. Etwas anderes sind Phishingmails, die vom Empfänger unter falschen Vorgaben vertrauliche Daten abfragen.

          • @ anton reutlinger

            “[Trojaner, Würmer und Viren] könnten nur bei Installation oder Update von Programmen auf die Festplatte und mit Aufruf des Programms in den Programmspeicher gelangen.”

            Das ist ja lustig, was Sie da schreiben. Wobei das mit dem Aufruf schon irgendwie stimmt, dies allerdings für alle Architekturen gleichermaßen.

            Aber im Ernst, ich rate Ihnen (und allen Mitlesenden) dringend davon ab, sich bei verdächtigen Mails auf der sicheren Seite zu fühlen, selbst wenn Sie Ihre Mails auf einem Rechner mit Harvard-Architektur empfangen und dort lesen ohne sie auf einer Festplatte zu speichern.

            “Etwas anderes sind Phishingmails, die vom Empfänger unter falschen Vorgaben vertrauliche Daten abfragen.”

            Auch das stimmt. Hier geht es nun gar nicht mehr darum, in welchem Speicher sich die vertraulichen Daten befinden, wichtig ist vor allem, dass die sie nicht in die falschen Hände geraten.

      • @anton Reutlinger: Harvard-Architekturen sind etwas mehr geschützt gegen Codeveränderungen von aussen und gegen Angriffe auf das ausführende Programm. Aber nur graduell wie die Antworten zu Are Harvard architecture computers immune to arbitrary code injection and execution attacks? zeigen:

        They are somewhat more immune than Von Neumann architecture, but not entirely. Every architecture has a conversion point, where data starts being treated as code. In Von Neumann it happens immediately inside CPU, while in Harvard it happens before the memory is reserved and declared for the module (or sometimes even before that, when a file is being prepared by the build system). This means that in Harvard architecture a successful code injection attack needs to be a bit more complicated and far-fetching, but not necessarily impossible. If one can place a file containing malicious code in the machine’s storage (e.g. file system) and cause, say, a buffer overrun which would redirect on return to existing (valid, non-malicious) code which loads this malicious file as code and if the architecture allows this file to start executing (e.g. via self-initialization routine), that’ll be an example of successful code injection.

    • Die Arbeitsweise eines Quantencomputers ist vor allem völlig anders, nicht unbedingt schneller: Während einer Quantenberechnung ist das System von Quantenbits gegen aussen völlig isoliert. Man kann beispielsweise keine Zwischenresultate auslesen. Statt dessen bringt man das Quantensystem durch eine Sequenz von Operationen in einen bestimmten Zustand. In dem Moment in dem man das Resultat ausliest,zerstört man gleichzeitig das Quantensystem. Anschliessend muss man wieder von vorne beginnen. Die Berechnungen, die in einem solch isolierten Quantensystem möglich sind, übersteigen aber oft das, was in einem konventionellen System möglich wäre, weil die Korrelationen der Quantenbits zueinander sehr komplex sein können.

  5. Reutlinger,
    die Trennung von Programm und Daten gab es früher schon.
    Das Programm lag im rom, die Daten im ram.
    So konnte das Programm von außen nicht verändert werden.

    • @Eire;
      ROM und RAM sind aber derselbe Adressraum. Auch im ROM (EEPROM) liegen einige Daten, solche die unveränderlich und für den Bootvorgang unbedingt nötig sind (BIOS). Diese Daten müssen auch ohne Stromversorgung erhalten bleiben. Das ist nur eine Hardwaretrennung des Arbeitsspeichers, die nichts mit der Architektur zu tun hat.

      Liegen die Programme in einem exklusiv zugänglichen Bereich des Arbeitsspeichers, muss der Speicher nicht gesperrt werden, um ein Programm von anderen Prozessoren ausführen zu können. Datenbereiche des Speichers, die von einem Prozess benutzt werden, müssen für andere Prozesse gesperrt werden. Datenbereiche sind viel dynamischer als Programmbereiche.

  6. Anton Reutlinger
    Danke für die Erklärrung der Architektur.
    Wissen Sie, ob dazu auch eine grundsätzlich andere Software notwendig ist?

    • @Eire;
      Die hardwarenahen Teile des Betriebssystems müssen dafür angepasst sein, aber Änderungen der Anwendungsprogramme sind nicht nötig. Die modernen Rechnersysteme mit einer Vielzahl von Prozessoren haben schon lange Kombinationen der verschiedenen Architekturen.

      Die Computerei basiert noch immer auf dem Binärsystem, weil elektrisch nur zwei Zustände zuverlässig unterschieden werden können. Es wäre ein riesiger Fortschritt, wenn man davon abkommen könnte und beispielsweise eine million Zustände zuverlässig unterscheiden könnte. Dann müssten Daten nicht in Bits aufgelöst und sequentiell (bitweise) verarbeitet werden, sondern aus einer million Alternativen könnte in einem einzigen Schritt eine eindeutige Entscheidung getroffen werden. Das würde der Leistung der Quantencomputer schon sehr nahe kommen.

      • Zitat:

        Es wäre ein riesiger Fortschritt, wenn man davon abkommen könnte und beispielsweise eine million Zustände zuverlässig unterscheiden könnte. ..Das würde der Leistung der Quantencomputer schon sehr nahe kommen.
        Nein, denn
        1) 1 Million Bits in einer Memoryzelle würde maximal eine lineare Beschleunigung mit sich bringen, nicht aber die exponentielle Beschleunigung, die einige Quantenalgorithmen versprechen.
        2) Die Schritte, die ein Quantencomputer vollführt, entsprechen mathematisch der Anwendung einer unitären Transformationsmatrix auf die Gesamtheit der QBits. Solch ein Schritt ist viel langsamer als etwa das Schalten eines Transistors. Dennoch sind Quantencomputer für gewisse Algorithmen viel schneller – und zwar umso schneller je grösser das Problem ist.

        Im Zentrum der Erklärung der Vorteile von Quantencomputern steht der Begriff der algorithmischen Komplexität, womit gemeint ist wie stark der Rechenaufwand mit der Problemgrösse wächst. Eines der frühesten Probleme, bei denen Richard Feynman erkannte, dass Quantencomputer etwas bringen könnten war das Problem der Quantensimulation: Quantensysteme bestehend aus n Teilchen benötigen bei der klassischen Berechnung 2 hoch n Rechenschritte, womit es unmöglich wird, Quantensysteme mit beispielsweise 30 oder mehr Teilchen gemäss reiner Quantentheorie durchzurechnen. Doch mit Quantencomputern ist das kein Problem (übersetzt aus Quantum algorithm:

        Richard Feynman kam auf die Idee, Quantencomputer könnten mächtiger als klassische Computer sein, als er sich bewusst wurde, dass klassische Computer für die Simulation von Vielteilchensystemen einen exponentiellen Aufwand treiben müssen während Quantencomputer bei einer Verdoppelung der Anzahl Teilchen nur etwa doppelt so viel arbeiten müssen. … Inzwischen gibt es Quantensimulationsalgorithmen für bosonische und fermionische Systeme und für die Simulation chemischer Reaktionen, die in polynomialer Zeit arbieten und welche nur ein paar hundert Qubits erfordern.

      • Zitat:

        Es wäre ein riesiger Fortschritt, wenn man davon abkommen könnte und beispielsweise eine million Zustände zuverlässig unterscheiden könnte. ..Das würde der Leistung der Quantencomputer schon sehr nahe kommen.

        Nein, denn
        1) 1 Million Bits in einer Memoryzelle würde maximal eine lineare Beschleunigung mit sich bringen, nicht aber die exponentielle Beschleunigung, die einige Quantenalgorithmen versprechen.
        2) Die Schritte, die ein Quantencomputer vollführt, entsprechen mathematisch der Anwendung einer unitären Transformationsmatrix auf die Gesamtheit der QBits. Solch ein Schritt ist viel langsamer als etwa das Schalten eines Transistors. Dennoch sind Quantencomputer für gewisse Algorithmen viel schneller – und zwar umso schneller je grösser das Problem ist.

        Im Zentrum der Erklärung der Vorteile von Quantencomputern steht der Begriff der algorithmischen Komplexität, womit gemeint ist wie stark der Rechenaufwand mit der Problemgrösse wächst. Eines der frühesten Probleme, bei denen Richard Feynman erkannte, dass Quantencomputer etwas bringen könnten war das Problem der Quantensimulation: Quantensysteme bestehend aus n Teilchen benötigen bei der klassischen Berechnung 2 hoch n Rechenschritte, womit es unmöglich wird, Quantensysteme mit beispielsweise 30 oder mehr Teilchen gemäss reiner Quantentheorie durchzurechnen. Doch mit Quantencomputern ist das kein Problem (übersetzt aus Quantum algorithm:

        Richard Feynman kam auf die Idee, Quantencomputer könnten mächtiger als klassische Computer sein, als er sich bewusst wurde, dass klassische Computer für die Simulation von Vielteilchensystemen einen exponentiellen Aufwand treiben müssen während Quantencomputer bei einer Verdoppelung der Anzahl Teilchen nur etwa doppelt so viel arbeiten müssen. … Inzwischen gibt es Quantensimulationsalgorithmen für bosonische und fermionische Systeme und für die Simulation chemischer Reaktionen, die in polynomialer Zeit arbieten und welche nur ein paar hundert Qubits erfordern.

  7. Wir befinden uns momentan im Peak of Inflated Expectations des Quantum Computing Hypes. Dieser Aufmerksamkeits- und Erwartungspeak, den Quantum Computing momentan erhält, ist auf eine Kombination von Trends zurückzuführen, die momentan positiv interferieren und sich zum oben erwähnten “Gipfel der überzogenen Erwartungen” aufaddieren. Hier die dafür verantwortlichen Trends:
    1) Die 2. Quantenrevolution (wie der Link bezeugt ist sie sogar in Europa angekommen), bezeichnet das Wissenschafts- und Technologiephänomen, welches aufbauend auf der in den 1920er Jahren bereits abschliessend formulierten Quantentheorie nun Quantenphänomene technisch ausnutzen will – und zwar nicht mehr allein auf chemischer und atomarer Ebene, sondern in mindestens mikroskopischen Apparaturen der Messtechnik ( Metrologie) und der Quanteninformationstechnologie (Kommunikation, Quantencomputer), aber auch in quantenelektromechanischen und quantenoptischen Systemen.
    2) Die Quanteninformatik hat eine ganze Sammlung von Quantenalgorithmen herausgearbeitet, welche auf einem hypothetischen Quantencomputer Probleme hoher klassischer Komplexität exponentiell schneller lösen würde. Inzwischen gibt es sogar eine “Angewandte Quanteninformatik”, welche sich beispielsweise mit Quantum Machine Learning beschäftigt, also mit Künstlicher Intelligenz
    3) Silicon-Valley Firmen wie Google haben inzwischen eigene Forschungsabteilungen, die sich auch langfristige und Grundlagenforschung verschrieben haben. Die Leiter dieser Firmen stehen für den Glauben an die Disruption und das Quantum Computing verspricht diese Disruption.

    Der “Gipfel der überzogenen Erwartungen” ist heute mit Händen zu spüren. Man stösst auf Blog-Einträge wie Universal Quantum computers could replace supercomputers within 5 years , welche nur möglich sind, weil das Wissen über die Möglichkeiten und Schwächen von heute sowieso nur hypothetischen Quantencomputern sehr klein ist. Alles was bis jetzt im Publikum über Quantencomputing angekommen ist, ist folgendes: “QUANTUM COMPUTING WILL CHANGE THE WOLRD”.

    Mir selber scheint, dass die Fortschritte, welche durch die zweite Quantenrevolution in Gebieten wie der Messtechnik und der Kommunikation möglich werden, unterschätzt werden und die Probleme des Quantencomputing unterschätzt werden, beziehungsweise gar nicht bekannt sind.
    Die Hauptprobleme des Quantencomputings sehe ich so:
    1) Jede QuantenComputing-Berechnung muss heute (und wohl auch in 50 Jahren noch) in Bruchteilen von Sekunden oder allenfalls in Sekunden abgewickelt werden, denn für längere Zeiträume kann die Quantenkohärenz und Isolation des Quantensystems nicht aufrechterhalten werden.
    2) Jedes Auslesen eines Resultats aus eine Quantencomputing-Berechnung zerstört die Quantenkohärenz und bedeutet, dass das System wieder vollkommen neu aufgebaut werden muss. Das ist fast vergleichbar mit einem Neustart nach jeder Berechnung.

    Die zweite Quantenrevolution hat aber – neben dem Versprechen der technischen Umwälzung – auch philosophisch/weltanschauliche Konsequenzen. Dazu möchte ich den arxiv-Artikel QUANTUM TECHNOLOGY: THE SECOND QUANTUM REVOLUTION. zitieren:

    The hallmark of this Second Quantum Revolution is the realization that we humans are no longer passive observers of the quantum world that Nature has given us. In the First Quantum Revolution, we used quantum mechanics to understand what already existed. We could explain the periodic table, but not design and build our own atoms. We could explain how metals and semiconductors behaved, but not do much to manipulate that behavior. The difference between science and technology is the ability to engineer your surroundings to your own ends, and not just explain them. In the Second Quantum Revolution, we are now actively employing quantum mechanics to alter the quantum face of our physical world. We are transforming it into highly unnatural quantum states of our own design, for our own purpose. For example, in addition to explaining the periodic table, we can make new artificial atoms—quantum dots and excitons—which we can engineer to have electronic and optical properties of our own choosing. We can create states of quantum coherent or entangled matter and energy that likely existed nowhere else in the Universe. These new man-made quantum states have novel properties of sensitivity and nonlocal correlation that have wide application to the development of computers, communications systems, sensors and compact metrological devices

  8. Lars Jaeger schrieb (7. Januar 2017):
    > […] Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“, Zustandsüberlagerungen sich klassisch gegenseitig ausschliessender Zustände, zu existieren.

    Das heißt offenbar „sich klassisch gegenseitig ausschließend“ im Sinne von „orthogonale Eigenzustände jeder Messgröße, die den betrachteten Quantenzustand gerade nicht als Eigenzustand hat.“

    > […] dass sich verschiedene Quantenteilchen in so genannte „verschränke Zustände“ bringen lassen. Quantenmechanische Verschränkung beschreibt eine Verknüpfung einzelner Teilchen zu einem nicht-separierbaren Ganzen.

    Eher: eine Verknüpfung der Zustände der einzelnen Teilchen, sofern sich diese Zustände jeweils einzeln als geeignete Superpositionen (der jeweiligen „Qubit-Basis-Zustände“) beschreiben lassen.

    > Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Über eine „spukhafte Fernbeziehung“ (ein Begriff, den ursprünglich Albert Einstein in ironischer Absicht erfand) stehen sie sozusagen allesamt direkt in Kontakt miteinander

    Eine doch sehr unpräzise Umschreibung der Beziehung zwischen zwei (oder mehr) Systemen von „Qubit-Beschreibungen“.
    Wesentlich konkreter, im einfachsten Fall (von zwei Systemen, A und B, mit je nur zwei „Qubit-Zuständen“,
    A: „dieser“ oder „jener“,
    B: „der eine“ oder „der andere“
    ), wird deren „Kopplung“ bzw. „Orientierung“ gegenübereinander als ein Winkel-Wert quantifiziert:

    \[ \phi_{AB} := \text{ArcCos}\left[~ \frac{ n_{\alpha\beta} + n_{\overline\alpha\overline\beta} – n_{\overline\alpha\beta} – n_{\alpha\overline\beta}}{ n_{\alpha\beta} + n_{\overline\alpha\overline\beta} + n_{\overline\alpha\beta} + n_{\alpha\overline\beta}}~\right],\]

    Wobei \( n_{\alpha\beta} \) die Anzahl der (gemeinsam berücksichtigten, gemeinsamen) Versuche bezeichnet, in denen von A „dieser“ (und nicht „jener“) und von B „der eine“ (und nicht „der andere“) „Qubit-Basis-Zustand“ gefunden wurde.

    > und jedes Quantenbit weiß, was die anderen gerade treiben.

    Falls ein Quantenbit bzw. Teilchen bzw. Teilnehmer stets weiß, dass ein anderes/anderer (schon) weiß, was e/er weiß, dann nennt man diese beiden „koinzident“.
    Die oben erläuterte Beziehung kann aber auch aus einer Datenmenge von gemeinsam berücksichtigten und ausgewerteten Versuchen ermittelt werden, ohne dass dabei die Koinzidenzbedingung erfüllt gewesen wäre;
    sie wird dann deshalb Fernbeziehung genannt.

  9. Eine Aussage wie (zitiert von oben):

    Bereits ein System mit ca. 50 Qubits würde wohl die Rechenkapazität eines jeden heutigen Superrechners übertreffen (zumindest für einige sehr wichtige Rechenprobleme)

    ist problematisch, denn die Anzahl benötigter Qubits hängt vom Quantenalgorithmus, von der Rechenzeit und der Quantenfehlerkorrektur ab. Generell kann man aber sagen, dass erst ab 30 Qubits überhaupt die Aussicht besteht einen klassischen Computer abzuhängen. In Quantum Computing and Cryptography liest man:

    It is estimated that 2048-bit RSA keys could be broken on a quantum computer comprising 4,000 qubits and 100 million gates.

    und für die Faktorisierung von Primzahlen liest man im Übersichtsartikel Quantum algorithms: an overview:

    A detailed analysis of one fault-tolerant quantum computing architecture, making reasonable assumptions about the underlying hardware, suggests that a 2,000-bit number could be factorised by a quantum computer using ~3×10^11 quantum gates, and approximately a billion qubits, running for just over a day at a clock rate of 10 MHz. This is clearly beyond current technology, but does not seem unrealistic as a long-term goal.

    An diesem Beispiel erkennt man auch, dass Quantencomputer sehr langsam schalten. Ein 10 MHZ-Quantencomputer ist heute realistisch, aber 10 Megahertz sind sehr wenig verglichen mit den Gigahertz der heutigen klassischen Digitalcomputern.
    Das obige Beispiel zeigt auch, dass die Quantenfehlerkorrektur berücksichtigt werden muss, so dass man schliesslich 1 Milliarde Qubits braucht, um eine 2,000-bit Zahl zu faktorisieren.

  10. Physiker an der Universität Sussex schlagen einen auf Ionen basierenden, modularen Quantencomputer vor, der mit 2 Milliarden QBits eine 617 Ziffern lange Zahl in 116 Tagen faktorisieren könnte.
    Der Quantencomputer bestände aus Modulen à je 2000 mittels magnetischer Felder gehaltener Ionen-QBits, die mit den anderen Modulen mittels elektrischer Felder miteinander kommunizieren.

    Zum Vergleich: Der von der Firma D-Wave bereits vertriebene adiabatische Quantencomputer, der nur imstande ist Optimierungsprobleme zu lösen indem er den Grundzustand des Gesamtsystems einnimmt, besteht momentan aus einem einzigen Chip, der 2000 QBits hält. Das eigentliche Quantencomputing beginnt erst dann, wenn das Gesamtsystem modular ist und über Zubau von Modulen viele tausende von QBits realisiert werden können. Es scheint, dass wir uns langsam in diesen produktiven Bereich vorarbeiten.

    • Martin Holzherr schrieb (10. Februar 2017 @ 13:26):
      > Physiker an der Universität Sussex schlagen einen auf Ionen basierenden, modularen Quantencomputer vor, der mit 2 Milliarden QBits eine 617 Ziffern lange Zahl in 116 Tagen faktorisieren könnte.

      Toll! …
      Falls die Physiker an der Universität Sussex schon von vornherein (durch nachvollziehbare Rechnung, ggf. einschl. Probe; also mit Gewissheit) alle Faktoren kennen, durch sich die betreffende 617 Ziffern lange Zahl teilen lässt, dann können sie ja anhand der Ausgabe des Quantencomputers rasch einschätzen,
      ob der Quantencomputer das richtige Ergebnis (bzw. ein richtiges Ergebnis) ausgegeben hat
      (auch trotz eventueller Störungen während der 116 Tage seines Betriebs);
      oder ein falsches.

      Im letzteren Falle könnten sie sagen bzw. schlussfolgern, dass der Quantencomputer während der 116 Tage seines Betriebs derart von „Störungen“ betroffen war, dass seine Ausgabe nicht dem richtigen bzw. dem ohne Störung zu erwartenden Ergebnis entsprach.

      > Der Quantencomputer bestände aus Modulen […], die […] mimiteinander kommunizieren. […]
      >
      >
      Das eigentliche Quantencomputing beginnt erst dann, wenn das Gesamtsystem modular ist

      Das eigentlich störende Stören (Auftreten unerwarteter Potentialdifferenzen, Orientierungsdifferenzen, Meinungsdifferenzen …) auch.

      Aber eigentlich kommt es besonders darauf an, ob dieser Quantencomputer nach 116 Tagen Betrieb zuverlässig überhaupt etwas ausgibt …

  11. Eine Anwendung des Quantencomputing könnte Wissenschaft+Technologie am meisten voranbringen: Die Simulation von chemischen Molekülen. Die Aufklärung der Elektronenstruktur von grossen Molekülen würde aus der Alchemie, die die heutige Chemie immer noch ist, ein berechenbare Technologie machen und es erlauben Pharmawirkstoffe, Batterien und Komponenten einer molekularen Elektronik quasi über Nacht exakt zu berechnen.
    Richard Feynman war der erste, der auf die Idee des Quantencomputing und der Quantensimulation kam und zwar genau dann als er zum Schluss kam, dass der klassische Rechenaufwand für die Bestimmung eines Vielteilchenquantumsystem exponentiell mit der Anzahl der Teilchen wächst.
    Der arxiv-Artikel Simulating Chemistry using Quantum Computers kommt zum Schluss:
    – A universal quantum computer can simulate chemical systems more effi-
    ciently (in some cases exponentially so) than a classical computer.
    – Simulation of quantum dynamics of physical systems is in general efficient
    with a quantum computer.

    Auch der engadget-Artikel Quantum computers show potential to revolutionize chemistry weist auf dieses potenziell umwälzende Anwendungsgebiet des Quantum Computing hin.

  12. Zitat:

    Bereits ein System mit ca. 50 Qubits würde wohl die Rechenkapazität eines jeden heutigen Superrechners übertreffen.

    Nein, denn IBM hat gerade eine Simulation eines 56 QBit-Rechners auf einem klassischen Supercomputer vorgestellt, welcher mit nur 4.5 TeraByte Speicher auskam. Nachzulesen in Breaking the 49-Qubit Barrier in the Simulation of Quantum Circuits (Zitat übersetzt von DeepL)

    Unser Ansatz zur Berechnung der Quantenamplituden bricht mit der herkömmlichen Dirac-Matrix-Vektor-Darstellung von Schaltungen und Quantenzuständen[16,24]. Stattdessen verwenden wir eine Tensor-Repräsentation[27]. Diese mathematische Verschiebung in der Repräsentation ermöglicht es, die volle Macht der kommutativen, assoziativen und distributiven Gesetze des Feldes der komplexen Zahlen zu nutzen, um die Gleichungen zu reorganisieren, die Quantenschaltungen definieren, ohne durch die restriktiveren Algebren belastet zu werden, die Matrizen und innere Produkte regeln. Insbesondere ermöglichen diese Gesetze es:
    – Quantenschaltungen beliebig in Teilschaltungen auzuteilen
    – Teilschaltungen in beliebiger Reihenfolge, auch unabhängig voneinander, zu simulieren
    – Simulationsergebnisse von Teilschaltungen in beliebiger Reihenfolge zu kombinieren
    Unser Ansatz kombiniert diese Flexibilität mit Tensor-Slicing-Methoden, um finale Quantenzustände von Schaltkreisen Slice-weise zu berechnen, anstatt ganze Quantenzustände auf einmal im Speicher zu materialisieren.

    Der sogenannte Quanten-Suprematismus ist erst erreicht, wenn bestimmte Probleme mit einem klassischen Supercomputer nicht mehr lösbar sind. Doch die hier erwähnte Simulation eines allgemeinen Quantenrechners mit 56 QBits auf einem konventionellen Supercomputer hat die Grenze zum Quanten-Suprematismus noch einmal deutlich nach oben geschoben.
    Gewisse Optimierungsprobleme scheinen schon mit 50 bis 100 QBits gelöst werden zu können, doch in der Praxis benötigt man deutlich mehr QBits um auch Fehlerkorrekturen vornehmen zu können. Es gibt aber mehrere eigentliche Quantumcomputerprojekte, initiiert von IBM, Google, Alibaba, Baidu, Facebook, Microsoft und anderen und Kurzfristziele wie die einen Quantenrechner mit mindestens 50 QBits zu realisieren. Quanten-Supramatie könnte durchaus noch bis Ende dieses Jahrzehnts erreicht werden.

  13. Wie die BQP-Klasse zur wichtigen Klasse der NPs in Beziehung steht, weiß die Wissenschaft noch nicht. Es ist also noch unklar, ob Quantencomputing zur effizienten Lösung eines NP-vollständiges Problem führen kann. Könnte man nachweisen, dass BQP eine echte Teilmenge von NP ist, wäre damit auch das P-NP-Problem gelöst:-)

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +