Wird ein weiteres Versprechen der Wissenschaft schon bald Realität? – Wie steht es um den Quantencomputer?

BLOG: Beobachtungen der Wissenschaft

Grenzgänge in den heutigen Wissenschaften
Beobachtungen der Wissenschaft

Ein Begriff, der den meisten Menschen so unheimlich-bizarr wie aufregend-futuristisch vorkommt, drängt immer mehr in die Sphäre der öffentlichen Aufmerksamkeit. In ihm kombiniert sich die scheinbare technologische Allmacht des digitalen Rechnens mit der ehrfurchteinflössenden Abstraktheit der bedeutendsten physikalischen Theorie des 20. Jahrhunderts. Die Rede ist vom „Quantencomputer”. Dahinter verbergen sich keine esoterische Träume von Wunderheilungen und Seelenreinigungen („Quantenheilung”), spirituellen Wohnungseinrichtungen („Quanten-Feng-Shui”), universell-perfekten Liebesbeziehungen („Quanten-Resonanz”) oder sonstiger Unsinn, den Esoteriker gerne mit „Quanten” assoziieren, und auch nicht in betrügerischer Absicht operierende Finanzhandelsplattformen wie die kürzlich fälschlicherweise mit Elon Musk in Verbindung gebrachte QuantumAITrade, sondern eine sich real anbahnende technologische Revolution, die das 21. Jahrhundert ähnlich bedeutend prägen könnte, wie die Entwicklung digitaler Schaltkreise, Laser und Atomenergie das 20. Jahrhundert geformt hat.

Da die Elemente herkömmlicher Chips unterdessen nahezu auf atomaren Grössenordnungen operieren, zeichnet sich mit dem Auslaufen der Gültigkeit des Moore‘schen Gesetzes in Bezug auf Rechengeschwindigkeit, Problemlösungskapazität und Effizienz in der Informationsverarbeitung für klassische Computer allmählich das Ende der Fahnenstange an. Doch bahnt sich eine womöglich ganz neue Möglichkeit an, noch weitaus schnellere, ja sogar millionen- und milliardenfach leistungsfähigere Computer als die schnellsten heutigen Computer zu bauen, eben jene Quantencomputer. Mit ihrer Hilfe liessen sich Probleme lösen, die für die heute in Physik, Biologie, Wetterforschung und anderswo eingesetzten „Supercomputer” noch bei weitem zu komplex sind.

Doch beruhen nicht bereits die Bausteine herkömmlicher Computer massgeblich auf quantenmechanischen Gesetzmässigkeiten, wie beispielsweise auf dem Transistoreffekt? Tatsächlich wäre die digitale Revolution des 20. Jahrhunderts ohne die Quantenphysik gar nicht möglich gewesen. Nichtsdestotrotz sind Aufbau und Funktionalität konventioneller Computer, die so genannte „Von-Neumann-Architektur”, prinzipiell auch ohne quantenphysikalische Effekte möglich. Und tatsächlich bestanden die ersten Computer in den 1940er Jahren noch aus makroskopischen Röhren, Dioden und Kondensatoren. Erst für ihre extreme Miniaturisierung wurde Quantenphysik benötigt, was zuletzt ihre enorme Leistungsfähigkeit ermöglichte. Während Quanteneffekte bei herkömmlichen („klassischen”) Chips oft störend wirken, beruhen Quantencomputer bereits in ihrem Kern auf den bizarren Eigenschaften der Quantentheorie und kommen daher mit einer grundlegend anderen Architektur und Funktionsweise als klassische Computer. In ihnen dienen für Informationsverarbeitung und -speicherung nicht mehr die Ströme vieler Elektronen wie in klassischen Computer, vielmehr kontrollieren und steuern sie zur Datenspeicherung und –verarbeitung einzelne Quantenteilchen und nutzen deren Quanteneigenschaften direkt aus. Dies ermöglicht Quantencomputern potentiell eine im Vergleich zu gängigen Computern unvorstellbar höhere Rechengeschwindigkeit und könnte sie Komplexitäten beherrschen lassen, die uns aufgrund derer Unvorhersagbarkeit und Unkontrollierbarkeit heute noch ehrfürchtig erschaudern lassen.

Sechs Felder, deren Probleme heutige Computer – und seien sie noch so gross – überfordern, sollen konkret aufzeigen, welche fantastischen Möglichkeiten sich mit Quantencomputern eröffnen:

  1. Kryptographie: Heute gängige Verschlüsselungen beruhen auf der Re-Faktorisierung der Produkte zweier sehr grosser Primzahlen. Ab einer bestimmten Zahlengrösse ist diese Aufgabe für einen klassischen Computer nicht mehr zu lösen. Der Informatiker Peter Shor entwickelte 1994 einen Algorithmus, mit dessen Hilfe ein Quantencomputer die grössten Produkte heute verwendeter Primzahlen innerhalb von Minuten in ihre Teiler faktorisieren könnte. So könnte ein Quanten-Computer ohne weiteres herkömmliche Verschlüsselungsmethoden für digitale Daten knacken, womit sie die gesamte globale Datensicherheit bedrohen, was sie nicht nur für das Militär interessant und bedrohlich zugleich sein lässt.
  2. Lösung komplexer Optimierungsaufgaben: Die Aufgabe, aus vielen Varianten die optimale Lösung zu finden, gilt unter Mathematikern als besonders knifflig. Solche Probleme treten in so verschiedenen Bereichen wie der industriellen Logistik, im Design von Mikrochips oder der Optimierung von Verkehrsflüssen auf. Bereits bei einer geringen Zahl von Varianten steigen klassische Computer bei der Berechnung optimaler Lösungen aus. Quantencomputer könnten dagegen größere Optimierungsprobleme in vergleichsweise kurzer Zeit lösen.
  3. Bedeutende Anwendungen könnten auf dem Gebiet der Künstlichen Intelligenz liegen: Die dort verwendeten „tiefen neuronale Netze” sind mit harten kombinatorischen Optimierungsprobleme verbunden, die von Quantencomputern weitaus schneller und besser gelöst werden könnten als von klassischen Computern. Das könnte Maschinen noch einmal um ein Vielfaches schlauer machen.
  4. Suche in grossen Datenbanken: Beim Durchsuchen unsortierter Datenmengen muss ein klassischer Computer jeden Datenpunkt einzeln betrachten. Die Suchdauer steigt daher linear mit der Anzahl der Datenpunkte und wird damit bei umfassenderen Datenmengen für einen klassischen Computer schnell zu gross. Im Jahr 1996 veröffentlichte der Informatiker Lov Grover einen Quantencomputer-Algorithmus, für den die Anzahl der notwendigen Rechenschritte nur noch mit der Wurzel der Anzahl von Datenpunkten anwächst. Anstatt bei einer Milliarde Dateneinträgen tausendmal so lange zu brauchen wie bei einer Million, würde dies mit einem Quantencomputer und dem „Grove-Algorithmus” nur noch etwas mehr als 30-mal so lang dauern – im Falle sehr grosser Zahlen eine atemberaubende Verbesserung.
  5. Auffinden neuer chemischer Verbindungen: Auch bei der Simulation von Quantensystemen kommen immer wieder komplexe Optimierungsprobleme vor, bei denen es darum geht, aus vielen Alternativen die bestmögliche, d.h. energetisch günstigste Konfiguration der Elektronen in komplexen Molekülen oder Atomverbänden zu finden. Mit solchen Problem schlagen sich theoretische Physiker und Chemiker seit Jahrzehnten herum, mit eher beschränktem Erfolg. Für herkömmliche Computer sind die entsprechenden Quantengleichungen einfach zu schwierig zu lösen. Quantencomputer könnten das Verhalten der beteiligten Elektronen dagegen direkt abbilden, da sie sich selber wie ein Quantensystem verhalten. Mit dem damit möglichen besseren Verständnis von Molekülen und den Details ihrer chemischen Reaktionsdynamik liessen sich beispielsweise komplexe Proteinstrukturen simulieren, neue Medikamente finden oder auch beispielsweise das Haber-Bosch-Verfahrens zur Herstellung von Düngemitteln optimieren.
  6. Aufklärung der Elektronenstruktur in Kristallen, was Festkörperphysik und Materialforschung bedeutend voranbringen würde. Neue Erkenntnisse auf diesen Feldern würden gerade der Nanotechnologie einen ungeheuren Schub geben – beispielsweise ließe sich das Verhalten möglicher neuer Energiespeicher oder Komponenten einer molekularen Elektronik quasi über Nacht exakt berechnen was weit effizientere Batterietechnologien ermöglichen würde. Eine weitere Applikation von höchster Relevanz wäre die Suche nach neuen Hochtemperatur-Supraleitern.

Einige Physiker glauben sogar, mit einem Quantencomputer jegliche Problemstellungen in der Natur berechnen zu können, vom Verhalten schwarzer Löcher, der Entwicklung des ganz frühen Universums, der Kollisionen hochenergetischer Elementartteilchen bis hin zum Phänomen der Supraleitung und der Modellierung der 100 Milliarden Neuronen und mit ihren noch einmal tausend Mal grösseren Anzahl ihrer Verbindungen (Synapsen) in unserem Gehirn. Allerdings ist all dies bis jetzt rein theoretischer Natur, denn noch existiert kein funktionierender universeller Quantencomputer.

Wie genau funktioniert eigentlich ein Quantencomputer? Klassische Computer verwenden als kleinstmögliche Informationseinheiten die „Bits”, die entweder den Zustand 1 oder 0 haben (also zwei Werte annehmen können, daher der Begriff „digital”). In ihnen werden die Rechenschritte auf der Basis der digitalen Informationstheorie sequentiell, also Bit für Bit abgearbeitet. Quantencomputer unterliegen dagegen einer völlig anderen Informationstheorie und -verarbeitung. Das einfachste System in der Quantenmechanik ist das so genannten „Quantenbit”, kurz „Qubit”. Und diese haben es in sich: Qubit können verschiedene Zustände, also 0 und 1, simultan annehmen, sowie alle Werte dazwischen (und noch mehr, da sich ihre Werte in der komplexen Zahlenebene befinden). Sie können also sozusagen „halb 1” und „halb 0” sein. Das liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen” zu existieren. Dies sind Überlagerungen sich klassisch gegenseitig ausschliessender Zustände. Diese bizarre Eigenschaft von Quantenteilchen war einst unter den Vätern der Quantenphysik Auslöser hitziger Diskussionen, die ihren Ausdruck zuletzt in dem bekannten Gedankenexperiment der Schrödinger‘schen Katze fanden. Dazu kommt, dass sich verschiedene Quantenteilchen in so genannte verschränke Zustände bringen lassen. Auch das ist eine Eigenschaft, die wir in unserer klassischen Welt nicht kennen (und um dies es innerhalb der ersten Generation von Quantenphysikern nicht weniger heftige Diskussionen gab). Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Sie stehen dann allesamt direkt und ohne jede Kraftweinwirkung zwischen ihnen in Kontakt miteinander. Jedes Quantenbit „weiss” sofort, was die anderen gerade treiben. Albert Einstein hielt Verschränkung für physikalisch unmöglich und nannte sie spöttisch „spukhafte Fernbeziehung”.

Verschränkte Qubits liegen also in einer Superposition unendlich vieler verschiedener Zustände zugleich vor, die dazu noch durch ein unsichtbares und unmessbares Band miteinander verbunden sind. Salopp gesagt: das Vielteilchensystem nimmt alle seiner möglichen Zustände zugleich ein. Einzelne physikalische Werte  werden (mit einer jeweiligen Wahrscheinlichkeit) erst bei einer Messung realisiert. Vorher sind sie objektiv unbestimmt – auch das ist wieder so eine merkwürdige Eigenschaft in der Quantenwelt. Mit Hilfe eines entsprechenden Algorithmus lassen sich nun verschränkte Qubits allesamt gleichzeitig verarbeiten. Und in dieser Parallelverarbeitung liegt die Potenz des Quantencomputers. Denn je mehr Qubits miteinander verschränkt sind, desto mehr Zustände können parallel verarbeitet werden. Anders als in herkömmlichen Computern, deren Rechenleistung linear mit der Anzahl der Rechenbausteine steigt, erhöht sich damit die Leistung eines Quantencomputers exponentiell mit der Anzahl der eingesetzten Qubits. Die Leistung eines Quantencomputers verdoppelt sich also nicht erst, wenn zu 100 Qubits weitere 100 Qubits hinzugeschaltet werden, sondern bereits, wenn nur ein einziges Qubit zu den 100 Qubits hinzugefügt wird. Kommen 10 dazu, vertausendfacht (genauer 1024-facht) sich seine Leistung, bei 20 neuen Qubits ist der Quantencomputer bereits eine Millionen Mal so schnell, bei 50 neuen Qubits eine Millionen Milliarden Mal. Und bei 100 neuen Informationsträgern, wenn sich die Leistungsfähigkeit eines klassischen Computers gerade mal verdoppelt hat, lässt sich die Erhöhung der Leistungsfähigkeit eines Quantencomputers kaum mehr in Zahlen benennen.

Es erscheint merkwürdig, dass Quantencomputer nicht schon längst realisiert wurden. Schließlich war die Quantentheorie zum Zeitpunkt der Entstehung des modernen Computers längst etabliert. Trotzdem verstrichen Jahrzehnte, bevor die Physiker sich der Möglichkeiten der Quanteninformationsverarbeitung annahmen. Einer der Gründe hierfür liegt auf der Hand: Lange Zeit wussten weder Physiker noch Informatiker konkret etwas mit Phänomenen der Superposition und Verschränkung anzufangen. Doch es gibt noch einen zweiten Grund: In den 1940er Jahren begründete der US-amerikanische Mathematiker Claude Shannon die klassische Informationstheorie, die auf der Verwendung von Bits beruht. Sein Aufsatz A Mathematical Theory of Communication (Mathematische Grundlagen in der Informationstheorie) gilt bis heute als die Bibel des Informationszeitalters und zählt zu den einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts. Shannon behauptete, dass das Prinzip der Bits für jede Form der Informationsverarbeitung gilt und lange Zeit folgten die Informatiker dieser Auffassung. Zudem sollte gemäß der (erweiterten) „Church-Turing-These” des amerikanischen Mathematiker Alonzo Church und des britischen Logikers Alan Turing jedes physikalische System effektiv auf einem klassischen Computer simuliert werden können. Erst in den 1980er Jahren erkannten die Informatiker, dass es Informationskonzepte und physikalische Simulationen jenseits der digitalen Bits gibt, die sich nicht ohne weiteres auf klassischen Rechnern behandeln lassen, sondern erst auf Basis von Qubits effizient berechenbar sind. Dazu braucht es aber ein völlig neues theoretisches Fundament, eines, in dem es explizit um Superposition und Verschränkung von Quantenzuständen geht. Eine solche neue Informationstheorie und Algorithmik wurde erst ab Ende der Neunzigerjahre durch die gemeinsamen Anstrengungen von Physikern und Informationstheoretikern geschaffen.

Noch sind bei der Konstruktion von Quantencomputern gewaltige Probleme zu lösen. Das größte davon ist: Verschränkte Quantenzustände zerfallen unter dem allgegenwärtigen Einfluss von Wärme und Strahlung sehr schnell – oft zu schnell, um die gewünschten Operationen fehlerfrei durchzuführen. Die Physiker sprechen in diesem Zusammenhang von „Dekohärenz” der Quantenzustände. Mit Qubits zu arbeiten erscheint fast so, als wolle man nicht auf einem Blatt Papier schreiben, sondern auf einer Wasseroberfläche. Während das Papier Jahrhunderte überdauern kann, ist das auf Wasser Geschriebene schon nach Sekundenbruchteilen verschwunden. Es kommt also darauf an, eine wahnwitzige Geschwindigkeit zu beherrschen. Um diese Hürde zu überwinden, verfolgen die Quanteningenieure eine doppelte Strategie: Einerseits versuchen sie, sie die Lebensdauer der Qubits zu verlängern, d.h. ihre Fehleranfälligkeit zu reduzieren, andererseits entwickeln sie Algorithmen, die die auftretenden Fehler beheben. Der Dekohärenz vermögen die Physiker mit Hilfe von ultrakalten Kühlschränken einen gewissen Einhalt zu gebieten. Für die Behandlung von durch die Dekohärenz verursachten Fehlern in einzelnen Qubits wiederum entwickeln sie immer bessere Methoden (sogenannte Quantenfehlerkorrektur), mit denen die Verlässlichkeit von Quantencomputern erhöht werden kann.

Die Konzepte von Qubits und Quantencomputern waren viele Jahre weitestgehend von theoretischer Natur. Doch haben die Quanteningenieure in den letzten Jahren in ihrem Bemühen, diese in konkrete Anwendungen umzusetzen, beachtliche Fortschritte gemacht. So gibt es heute zahlreiche verschiedene viel versprechende Ansätze, Qubits konkret herzustellen und sie miteinander zu verschränken. Im Prinzip geht es dabei immer darum, einzelne Quantensysteme, wie beispielweise Atome oder Elektronen, mit einigen Tricks „einzufangen”, miteinander zu verschränken und sie dann entsprechend zu manipulieren. Hier einige Beispiele, wie das funktionieren kann:

  • Ionen (elektrisch geladene Atome) werden mittels elektrischer und magnetischer Felder festgehalten und kontrolliert hin- und hergeschwungen und dabei als Qubits miteinander verkoppelt.
  • Die Spins von Atomen, die wie in der Kernspinresonanz-Technologie durch äußere Magnetfelder ausgerichtet werden, werden miteinander verschränkt.
  • Qubits lassen sich auch mithilfe sogenannter Quantenpunkte realisieren. Das sind spezielle Stellen in einem Festkörper, an denen die Beweglichkeit der Elektronen in allen Richtungen stark eingeschränkt ist, und die daher nach den Gesetzen der Quantenphysik Energie nicht mehr kontinuierlich, sondern nur noch in diskreten Werten abgeben oder aufnehmen können. Sie verhalten sich daher wie riesige künstliche Atome.
  • Elektronen, die in kreisförmigen Supraleitern auf eine Endlosschleife geschickt werden, wobei diese Schleife von sehr dünnen Isolatorschichten unterbrochen wird (sogenannte SQUIDs – superconducting quantum interference devices, supraleitende Quanteninterferenzeinheiten), sind vielversprechende Kandidaten für Qubits. Hier liegt zur Zeit ein besonderer Fokus von Firmen wie Google, Microsoft, IBM und Intel. Die Forscher nutzen dabei den sogenannten Josephson-Effekt aus: die Cooper-Elektronenpaare des Supraleiters können durch die isolierende Barriere hindurchtunneln. Dabei können sich die Ladungsträger in unterschiedlichen Quantenzuständen befinden – sie fließen dann gleichzeitig sowohl im als auch gegen den Uhrzeigersinn. Solche Superpositionen lassen sich als Qubits verwenden und miteinander verschränken.
  • Auch spezielle chemische Verbindungen könnten sich als Qubits eignen. Ein Beispiel ist ein Komplex aus einem Vanadium-Ion, das von organischen Schwefelverbindungen umhüllt wird. Die Hülle schirmt den Spin des Ions im Inneren so gut ab, dass sein Zustand (und damit mögliche Verschränkungen) lange erhalten bleiben.
  • Eine eher neue Methode ist, Qubits mit einzelnen Photonen zu kodieren, die entlang von photonischen Wellenleitern aus Silizium wandern und dann mit Hilfe von Netzwerken aus optischen Komponenten (Spiegel, Strahlenteiler und Phasenschieber) verschränkt werden.
  • Ein noch rein theoretisches Konzept ist der sogenannte topologische Quantencomputer. Das Konzept dahinter stammt ursprünglich aus der Mathematik, und es ist noch nicht ganz klar, ob und wie es sich physikalisch umsetzen lässt. Es beruht auf sogenannten Anyonen (nicht zu verwechseln mit den Anionen aus wässrigen Lösungen). Dies sind Zustände mit Partikel-Eigenschaften im zweidimensionalen Raum und werden daher auch als „Quasi-Teilchen” bezeichnet. Anyonen treten beispielsweise an den Grenzflächen von Isolatoren auf. Solche topologischen Qubits sollten relativ stabile Geflechte bilden und wären gegen Störungen weit besser gesichert als bei anderen Konzepten.
  • Es gibt aber noch ein anderes Konzept eines Quantencomputers: Die so genannte „adiabatische Quantenberechnung” (auch als „quantum annealing” bezeichnet) stützt sich auf das adiabatische Verhalten von Quantensystem, um Berechnungen vorzunehmen („adiabatisch” bedeutet in der Physik, dass sich ein gesamtes System verändert, ohne sich mit seiner Umgebung energetisch auszutauschen). Dabei wird ein einfaches Quantensystem in seinen Grundzustand (Zustand niedrigster Energie) versetzt und dann langsam und kontinuierlich in ein komplizierteres Quantensystem transformiert, dessen Grundzustand die Lösung des betreffenden Problems darstellt. Das Adiabatentheorem in der theoretischen Physik besagt, dass, wenn diese Transformation langsam genug verläuft, das sich entwickelnde System während des gesamten Prozesses in seinem Grundzustand bleibt. Einen Computer, der auf diesem Prinzip beruht, hat schon im Jahre 2007 die Firma D-Wave Systems Seine Ergebnisse sind allerdings bis heute umstritten.

Unterdessen gibt es noch ein Dutzend andere physikalische Realisierungsversuche, um verschränkte Qubits zu generieren, die dann als Rechner operieren können. Die meisten davon stecken trotz schneller Fortschritte auf diesem Gebiet noch in den Kinderschuhen. Bis jetzt haben die Bemühungen der Quantenphysiker keine zuverlässig funktionsfähigen (und universellen) Quantencomputer hervorgebracht. Doch haben Firmen wie IBM, Google, Microsoft oder Intel unlängst angekündigt, Quantenprozessoren gebaut zu haben oder solche schon bald zu bauen, die aus 50 oder mehr Qubits bestehen. Bei dieser Grösse könnten diese – zumindest für einige sehr spezielle Rechenprobleme – wohl die Rechenkapazität eines jeden heutigen (klassischen) Superrechners übertreffen. Google nennt dies „Quantum Supremacy” (Quanten-Überlegenheit) und hat im Oktober 2019 angekündigt, dass seinen Ingenieuren die Konstruktion eines Quantencomputers gelungen sei, der zum ersten Mal ein Problem lösen kann (wenn auch ein sehr exotisches), an dem sich jeder herkömmliche Computer die Zähne ausbeisst. Konkret hatte ihr Computer-Chip Sycamore für diese spezielle Rechenaufgabe, für die der weltbeste Supercomputer 10 000 Jahre benötigen würde, gerade einmal 200 Sekunden gebraucht. Googles Konkurrent IBM bezweifelt jedoch diese Ergebnisse und behauptet, Googles Rechnung enthalte einen Fehler.

Seitdem hat man von den grossen US-Techfirmen nicht mehr viel über mögliche Fortschritte beim Bau von Quantenprozessoren gehört. Ist dies vielleicht die Ruhe vor dem Sturm? Ende 2018 unterzeichnete der US Kongress den National Quantum Initiative Act, der in den nächsten 10 Jahren mehr als 1,2 Milliarden Dollar in die Quantencomputer-Technologie investieren soll. China investiert noch stärker in dieses Feld: Die Regierung von Xi Jinping stellt 10 Milliarden Dollar für das National Laboratory for Quantum Information Sciences in Hefei zur Verfügung. So haben chinesische Forscher unterdessen auch Fortschritte beim Bau von Quantencomputern bekannt gegeben. Das  Team um den in Deutschland und Österreich ausgebildeten und vielfach ausgezeichneten Forscher Jian-Wei Pan vom National Laboratory for Quantum Information Sciences an der University of Science and Technology of China in Hefei berichtete im Dezember 2020, dass ihr Quantencomputer mit dem Namen Jiŭzhāng 10 Milliarden Mal schneller ist als der von Google, zumindest bei der Berechnungen eines sehr spezifischen Problems, dem so genannten „Gauss’sches Bosonensampling” (für das der Quantencomputer exklusiv gebaut wurde). Die Qubits in Jiŭzhāng werden als Photonen realisiert.

Noch sind Quantencomputer keine universelle Rechenmaschinen, die E-Mails verschicken, Dateien speichern bzw. verarbeiten oder jegliche Rechnungen sehr schnell durchführen können, sondern so genannte „special purpose computers”, die bisher jeweils nur ein einziges, sehr exotisches Problem lösen können, um so das allgemeine Potenzial des Quantencomputers zu demonstrieren. Jian-Wei Pan vergleicht jedoch die Geschwindigkeit zwischen den Quantencomputern und den traditionellen Computern schon mit dem Unterschied zwischen „Atomwaffen und Maschinengewehren bzw. Artilleriegranaten”.

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

3 Kommentare

  1. Heute dominieren supraleitende und Ionen-basierte Technologien die Forschung im Bereich Quantencomputer. Photonisch integrierte Schaltungen (PIC‘s) für Quantengatter sind gerade erst im Aufbau, versprechen aber im Vergleich zu den bisherigen Technologien viel kleinere Fehlerraten. Die chinesische Gruppe, über die hier berichtet wird, hat für ihre Quantum Supremazitäts-Leistung ein photonisches System benutzt. Im Artikel Why I am optimistic about the silicon-photonic route to quantum computing liest man (Zitat):

    Der erste Grund ist, dass wir glauben, dass wir in photonischen integrierten Schaltungen (PICs) das stochastische Rauschen um mehrere Größenordnungen unter selbst optimistische Schätzungen eines solchen Rauschens für Materie-basierte Ansätze reduzieren können.

    Der Autor des zitierten Artikels meint, einem photonischen Computer fehle bis jetzt einfach noch das grundlegende photonische Gatter, welches mit einer konstanten, kleinen Zahl von Photonen die benötigten Operationen ausführen könne. Sobald es dieses gebe, sei eine Skalierung auf sehr grosse Systeme nicht mehr schwierig.Zitat:

    Da die Architektur auf einer hochmodularen Herstellung des Cluster-Zustands basiert, haben wir, sobald wir ein einzelnes funktionales photonisches Qubit haben, nicht nur eine beliebige Anzahl solcher Qubits, sondern auch die Möglichkeit, beliebige Gatter zwischen ihnen auszuführen – eine weitere Art und Weise, in der sich diese Architektur sehr von Materie-basierten Ansätzen unterscheidet, bei denen es einen großen Unterschied zwischen Ein-Qubit-Gattern, Zwei-Qubit-Gattern und Multi-Qubit-Gattern zwischen entfernten Qubits gibt.

    Fazit: Eines ist sicher: Wir sind noch Jahre von anspruchsvollen Quantenberechnungen wie etwa der Primfaktorisierung entfernt. Wenn es aber soweit ist, haben die beteiligten Forscher nicht nur ein mächtiges Instrument geschaffen, sondern sie haben dann auch ein Mass an Kontrolle über kleinste physikalische Systeme auf der Ebene von Atomen und Photonen erreicht, das ans Übermenschliche und Unmögliche heranreicht

    • Ergänzung: Integrated Quantum Photonics will photonische Schaltungen für Quantencomputer mittels heutiger Hableitertechnologie realisieren. Photonik ist der einzige Ansatz zur Realisierung von Quantencomputern, der ohne Kühlung auf Temperaturen nahe des Nullpunktes auskommt und wo eine Vielzahl von verschränkten Zuständen hergestellt werden können ohne dass die Gefahr besteht, dass sie sofort wieder zerfallen. Optische Quantencomputer integrieren sich zudem gut in quantenoptische Kommunikationsnetzwerke und solche wurden mit Glasfasern bereits realisiert.
      Heute gibt es weltweit mehr als 30 Firmen, die sich mit Quantenphotonik beschäftigen.
      Im nature-Artikel The rise of integrated quantum photonics liest man zu den aktuellen Entwicklungen:

      In einem Übersichtsartikel geben Jianwei Wang und Kollegen einen allgemeinen Überblick und eine Einführung in IQP-Schaltungen und fassen die derzeitige Entwicklung von Quantenhardware auf Basis von IQP-Chips zusammen. Sie merken an, dass sich die Herausforderung für die messtechnische Quantenberechnung von der Notwendigkeit deterministischer Gatter auf die Konstruktion eines generischen verschränkten Cluster-Zustands verlagern könnte, auf den jede Quantenberechnung durch eine Folge von Messungen abgebildet werden könnte.

      Unter der Bloomberg-Meldung Quantum Computing Startup Raises $215 Million for Faster Device liest man, dass auch Microsoft zu den Geldgebern der Quantum Photonik Firma PsuQuantum gehört.
      Hier ein paar Details:

      Das Gehirn des PsiQuantum-Systems ist ein spezieller Silizium-Chip, der von winzigen Spiegeln durchdrungen ist. Photonen reisen entlang der Pfade auf dem Chip und die Spiegel “prallen” sie in einen verschränkten Zustand, das Startup sagte Bloomberg, und erleichtert so die Berechnung. Ein Sensor, der die verschränkten Photonen misst, ermöglicht es PsiQuantum, Berechnungen durchzuführen und deren Ergebnisse zu lesen.

      PsiQuantum sagt, dass sein Ansatz zwei große Vorteile gegenüber der Konkurrenz hat. Der eine ist, dass sein mit Spiegeln versehener Chip mit bestehenden Halbleiterfertigungsanlagen hergestellt werden kann, was die Herstellung erleichtert. Der andere Vorteil, den PsiQuantum anpreist, ist die Skalierbarkeit: Chief Executive Officer Jeremy O’Brien sagte, er glaube, dass sein Team innerhalb von “einer Handvoll Jahren” einen Quantencomputer mit einer Million Qubits bauen könne.

      PsiQuantum hat bereits damit begonnen, Quantenchips mit Hilfe des Fab-Betreibers GlobalFoundries Inc. herzustellen. Das Startup soll nun an der Entwicklung der weiteren Komponenten arbeiten, die für einen Quantencomputer notwendig sind, darunter Netzwerkausrüstung und Quantensoftware. PsiQuantum erwartet, dass das komplette 1-Million-Qubit-System die Größe eines Konferenzraums haben und 100 bis 300 fehlerkorrigierte Qubits enthalten wird, die zuverlässig genug für die Bearbeitung von Aufgaben sind.

  2. Lars Jaeger (02. Feb 2021):
    > „Superpositionen” […] Qubit können verschiedene Zustände, also 0 und 1, simultan annehmen

    Ein Qubit kann nicht sowohl ganz/rein im Zustand “0” als auch simultan ganz/rein im Zustand “1” sein, weil und sofern “0” und “1” sich gegenseitig ausschließende Zustände bedeuten (orthogonale reine Eigenzustände eines bestimmten Messoperators, mit entsprechend ungleichen Messwerten).
    Stattdessen kann Qubit in einem Zustand sein, der sich aus solchen unvereinbaren Zuständen “0” und “1” anteilig (und in mehr oder weniger bestimmter Phasenbeziehung zueinander) zusammengesetzt darstellen lässt; z.B. sozusagen „halb 1” und „halb 0” sein.

    > Dies sind Überlagerungen sich klassisch gegenseitig ausschliessender Zustände.

    Die betreffenden in Betracht kommenden reinen Zustände “0” und “1” sind grundsätzlich orthogonal (und nicht etwa “lediglich klassisch orthogonal”).
    Und die Darstellung eines bestimmten Zustandes als anteilige Überlagerung sich gegenseitig ausschließender Zustände ist durchaus auch alltäglich und vertraut;
    z.B. hinsichtlich des Zustandes einer Katze, die sich ausschließlich “drinnen (in der Wohnung ihres Frauchens)” aufhält
    als anteilige Überlagerung

    – des Zustandes einer Katze, die häufig “zum Flanieren nach draußen läuft”, und ebenso häufig zurück “zum Fressen nach drinnen läuft”, und

    – des Zustandes einer Katze, die (gelegentlich) “zur Entsorgung nach draußen in den Müllcontainer geworfen” werden kann, und (ebenso oft) “durch den Briefkastenschlitz wieder nach drinnen gestopft” werden könnte.

    (Dass die beiden angeführten Zustände orthogonal sind, obwohl sie beide gleiche Anteile des Zustandes “ausschließlich drinnen” als auch gleiche Anteile des Zustandes “ausschließlich draußen” aufweisen, lässt sich durch unterschiedliche Phasenbeziehungen zwischen den Anteilen ausdrücken.)

    > dass sich verschiedene Quantenteilchen in so genannte verschränk[t]e Zustände bringen lassen. Auch das ist eine Eigenschaft, die wir in unserer klassischen Welt nicht kennen

    Das Detektorsystem zum Nachweis der Katze “drinnen” (“Frauchen”) und das Detektorsystem zum Nachweis der Katze “draußen” (“Nachbarshund Bello”) sind hochgradig verschränkt, weil und sofern in so gut wie allen Versuchen die Katze

    – entweder: “drinnen”, aber nicht “draußen”,

    – oder: “draußen”, aber nicht “drinnen”

    festgestellt wurde.
    Der Wert des Orientierungswinkels α bzw. θ zwischen “Frauchens: »Da ist ja mein Kätzchen!«” und “Bellos Gebelle (»schon wieder wegen dieser Katze«)” ergibt sich als nahe π.

    Vergleichbare Verschränkungen sind z.B. auch zwischen Fußballfans bekannt, die ein Spiel jeweils am Fernseher bzw. Radio verfolgen, und die stark korreliert gemeinsam jubeln bzw. gemeinsam aufstöhnen, oder die stattdessen ihre Begeisterung bzw. Enttäuschung stark anti-korreliert äußern. Entsprechend kann (im Nachhinein) ermittelt werden, ob sie Fans der selben Mannschaft gewesen sind, oder Fans jeweils der einen oder der anderen im betreffenden Spiel gegnerischen beiden Mannschaften.

    > Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Sie stehen dann allesamt direkt und ohne jede Kraftweinwirkung zwischen ihnen in Kontakt miteinander. Jedes Quantenbit „weiss” sofort, was die anderen gerade treiben.

    Nein. Denn: Der tatsächlich zutreffende Orientierungswinkel zwischen den beiden Detektorsystemen, deren Befunde jeweils miteinander in Beziehung zu setzen sind, kann erst im Nachhinein aus den Einzelbefunden ermittelt werden:

    θ_AB[ { (A_k, B_k) } ] :=
    ArcCos[ Sqrt[ Summe_k[ 1 + a_k b_k - (1 - a_k) b_k - a_k (1 - b_k) + (1 - a_k) (1 - b_k) ] / Summe_k[ 2 ] ] ]
    .

    p.s.
    > […] die Verlässlichkeit von Quantencomputern […]

    Lässt man einen (hinreichend sorgfältig programmierten bzw. vorbereiteten) Quantencomputer ein Problem (nach-)rechnen, dessen Lösung schon bekannt ist, dann lässt sich anhand des ausgegebenen Ergebnisses einschätzen, ob er im betreffenden Versuch verlässlich gewesen war, oder nicht.

    (Das trifft natürlich auch auf digitale Computer zu. Hinsichtlich dieser gebräuchlichen Computer trifft das aber auf jede einzelne Bit-Operation zu, die durch ihre Einfachheit die Optimierung der Verlässlichkeit ihrer technischen Realisierung erleichtern.)

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +