Quantencomputer: Wo stehen wir eigentlich mit der möglichen nächsten grossen Revolution in der Informationstechnologie?

BLOG: Beobachtungen der Wissenschaft

Grenzgänge in den heutigen Wissenschaften
Beobachtungen der Wissenschaft

Ein immer populärer werdender, sich nichtsdestotrotz noch immer nach Science Fiction anhörendes Wort ist der Begriff „Quantencomputer“. Noch vor 10 bis 15 Jahren schien die Konstruktion eines solchen Computers als „Zukunftstechnologie“ immer noch unnahbar in der Zukunft zu liegen. Die Diskussion darüber war auf ein kleines Expertenteam beschränkt oder eben Stoff für Science-Fiction (ganz wie die Kernfusion als zukünftiger Energielieferant, wo sich zur Zeit auch viel tut). Wie für Nicht-Physiker in den 1940er Jahren die Begriffe „Transistoreffekt“ oder „von Neumann –Prozessor“ keine auch nur entfernt bekannte Begriffe waren, so galt dies bis vor kurzem auch für den Begriff Quantencomputer. Doch auch dieser könnte (wie Transistoren und von Neumann –Prozessoren ab ca. 1950) eine der bedeutendsten Technologien der Zukunft beschreiben. Das hat unterdessen eine weitaus grössere Menge an Menschen erkannt. Die Diskussion über Quantencomputer hat unterdessen gar den Mainstream, so auch u.a. Anleger, erreicht. Dahinter könnte eines der zahlreichen Beispiele stehen, dass eine solche technologische Entwicklung heute sehr viel schneller abläuft als noch vor 50 Jahren.

Den meisten Menschen ist allerdings noch völlig unklar, was ein Quantencomputer überhaupt ist. Alle heutigen Computer basieren prinzipiell noch vollständig auf der klassischen Physik, auf der so genannten von-Neumann-Architektur aus den 1940er Jahren. Darin werden die einzelnen Rechenschritte sequentiell – „Bit für Bit“ – abgearbeitet. Die dabei auftretenden kleinstmögliche Informationseinheit (ein genanntes „binary digit“, kurz „Bit“) nehmen dabei immer einen wohldefinierten Zustand von entweder 1 oder 0 an. Dagegen verwenden Quantencomputer die Eigenschaften von Quantensystemen, die nicht auf klassischen Bits reduzierbar sind, sondern auf Quantenbits basieren, kurz Qubit. Die können verschiedenen Zustände von Bits, also 0 und 1, sowie alle Werte dazwischen simultan annehmen. Sie können also „halb 1“ und „halb 0“ sein, sowie in jeder andere mögliche Kombination davon. Diese Möglichkeit liegt jenseits unserer klassischen (alltäglichen) Vorstellungswelt, nach der ein Zustand entweder das eine oder das andere ist:, „Tertium non datur“, ist jedoch sehr typisch für Quantensysteme. Die Physiker nennen solche vermischten Quantenzustände „Superpositionen“.

Aber die Quantenwelt bietet noch mehr: So können sich verschiedene Quantenteilchen in so genannte verschränken Zuständen befinden. Auch das ist eine Eigenschaft, die es in unserer klassischen Welt nicht gibt. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind und dann allesamt direkt, ohne jede explizite Krafteinwirkung, in Kontakt miteinander stehen. Jedes Quantenbit „weiss“ sozusagen auch über jede beliebige Entfernung hinweg, was die anderen gerade treiben. Solche Verschränkungen waren in der frühen Quantenphysik Gegenstand heftiger Diskussionen. So hielt Albert Einstein Verschränkung für physikalisch unmöglich und nannte sie spöttisch „spukhafte Fernbeziehung“.

Unterdessen wird diese umstrittene Quanteneigenschaft jedoch bereits vielfach technologisch ausgenutzt. Quantencomputer sollen hier die Krönung darstellen. Sie könnten auf mindestens fünf Feldern ganz neue, fantastischen Möglichkeiten eröffnen:

  1. Kryptographie: Mit einem Quantencomputer liessen sich bestehende Verschlüsselungen aufheben, aber zugleich auch ganz neue einführen.
  2. Lösung komplexer Optimierungsaufgaben: Während klassische Computer oft bereits bei wenigen Parametern aussteigen, könnten Quantencomputer komplexere Optimierungsprobleme vergleichsweise schnell lösen.
  3. Bedeutende Anwendungen auf dem Gebiet der Künstlichen Intelligenz: Die harten kombinatorischen Optimierungsprobleme für „tiefe neuronale Netze“ könnten von Quantencomputern weitaus schneller und besser gelöst werden können als heute.
  4. Suche in grossen Datenbanken: Quantencomputer könnten die Zeit, in unsortierten Datenbanken nach Daten zu suchen, massiv verkürzen, bis dahin, dass ihre Zeit proportional der Wurzelfunktion der Dateigrösse ist, anstatt direkt proportional zu ihr zu sein, wie dies für klassische Suchmaschinen generisch der Fall ist.
  5. Auffinden neuer chemischer Verbindungen: Während die vielen Alternativen für die Bestimmung der bestmöglichen, d.h. energetisch günstigsten Konfiguration von Elektronen in komplexen Molekülen durchzugehen für herkömmliche Computer zu schwierig ist, könnten Quantencomputer das Verhalten der beteiligten Elektronen direkt abbilden.

Einige Physiker glauben sogar, mit einem Quantencomputer jegliche Problemstellungen in der Natur berechnen und lösen zu können, vom Verhalten schwarzer Löcher, der Entwicklung des ganz frühen Universums, der Kollisionen hochenergetischer Elementartteilchen bis hin zum Phänomen der Supraleitung sowie nicht zuletzt die Modellierung der 100 Milliarden Neuronen und die noch einmal eintausend mal grösseren Anzahl ihrer Verbindungen in unserem Gehirn. Quantencomputer könnten ein Revolution sowohl in der Wissenschaft als aich in der Technologiewelt darstellen.

Vor weniger als zwei Jahren gab Google bekannt, dass seinen Ingenieuren die Konstruktion eines Quantencomputers gelungen sei, der zum ersten Mal ein Problem zu lösen vermochte, an dem sich jeder herkömmliche Computer die Zähne ausbeisst. Der entsprechende Computer-Chip Sycamore brauchte für eine spezielle Rechenaufgabe, für die der weltbeste Supercomputer 10 000 Jahre benötigt hätte, gerade einmal 200 Sekunden. Es war auch die Firma Google gewesen, die bereits einige Jahre zuvor eine solchen Fähigkeit eines Quantencomputers, jedem existierenden klassischen Computer bei der Bewältigung bestimmter Aufgaben überlegen zu sein, einen Namen gegeben hatte: quantum supremacy („Quantenüberlegenheit“). Der Moment einer solchen „Quantenüberlegenheit“ schien also endlich gekommen zu sein. So einige sprachen gar von einem „Sputnik-Moment“ in der Informationstechnologie. Dabei hatte es sich wohl eher noch um einen symbolischen Meilenstein gehandelt, ist das von Sycamore gelöste Problem doch noch eher von sehr spezieller und rein akademischer Natur. Doch ohne Zweifel stellte es einen sehr bedeutenden Fortschritt dar (der allerdings teils auch in Frage gestellt wurde: So zweifelte IBM gar an der Quantennatur dieser Rechenmaschine).

Im Dezember 2020 kommunizierte dann ein hauptsächlich an der University of Science and Technology of China in Hefei angesiedeltes Team in der Zeitschrift Science, dass ein von ihnen entwickelter neuer Quantencomputer, dem sie den Namen „Jiuzhang“ gegeben hatten, bis zu 10 Milliarden Mal schneller sei als Google’s Sycamore. Dass diese Nachricht aus China kam, war nicht ganz so überraschend wie dies für alle war, die wenig mit der heutigen chinesischen Wissenschaft vertraut sind. Teils noch als Entwicklungsland und damit technologisch rückständig gesehen hat China unterdessen sehr stark in zukünftige Quantenrechner und andere Quantenprozesse investiert – sowie in Künstliche Intelligenz, Gentechnologie und eine Reihe anderer Spitzentechnologien. Die Regierung des kommunistischen Generalsekretärs Xi Jinping gibt über einige Jahre verteilt 10 Milliarden Dollar für das National Laboratory for Quantum Information Sciences des Landes aus.

Doch auch Jiuzhang war als Quantencomputer umstritten. Doch falls sowohl Sycamore als auch Jiuzhang ihre (immer noch sehr spezifischen) Probleme tatsächlich unvergleichbar schnell mit Quantentechnologien haben lösen können – und dies lässt sich nicht ohne weiteres mehr von der Hand weisen – so gäbe es bereits zwei Quantencomputer, die die angestrebte Quantenüberlegenheit erreicht haben. Von hier aus könnten wir schon sehr bald zahlreiche weitere Versionen erwarten, die immer mehr Probleme immer schneller zu lösen vermögen. So hat Google dann vor wenigen Wochen auch verkünden lassen, dass sie bis 2029 einen breit einsetzbaren (nicht mehr auf exotische Randprobleme limitierten) mächtigen Quantencomputer gebaut haben wollen (https://blog.google/technology/ai/unveiling-our-new-quantum-ai-campus/). Zu diesem Zweck wollen sie eine Millionen physikalische Qubits zusammenbringen, die in einem fehlerkorrigierenden Quantencomputer zusammenarbeiten (bei heutigen Quantencomputern liegt diese Zahl noch bei unter 100 Qubits).

Neben Google und dem chinesischen Forschungszentrum in Hefei gibt es noch zahlreiche weitere Entwicklungsstätten für Quantencomputer. Diese werden auch immer stärker von ihren jeweiligen Regierungen unterstützt. So verkündete Deutschland 2020, dass das Land milliardenschwere Investitionen in Quantencomputertechnologie tätigen wird. Und gerade in diesen Tagen gab es eine weitere (geldstarke) Ankündigung: Cambridge Quantum Computing, ein 2014 gegründetes britisches Unternehmen, gab bekannt, dass es sich mit der Quantenlösungssparte des US-Industrieriesen Honeywell zusammenschließen wird, um einen neuen Quantencomputer zu bauen. Dieser Deal bringt Honeywells Expertise in (Quanten-)Hardware mit der von Cambridge Quantum in Software und Algorithmen zusammen. Daraus könnte ein (neben Google, IBM und den Chinesen) weiterer globaler Anführer in der Entwicklung von Quantenrechnern werden.

Ohne den Glauben, dass bereits erste Durchbrüche für die Erstellung von Quantencomputern erreicht wurden, würde wohl kaum schon so viel Geld in die Branche fliessen. Diese Summen werden sich vermutlich noch einmal multiplizieren, wenn weitere Fortschritte erreicht werden. Man könnte sich in die frühen 1970er Jahre zurückversetzt fühlen, bevor es kommerzielle Computer gab. Nur wird dieses Mal alles noch viel schneller ablaufen als damals.

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

16 Kommentare

  1. Experimentelle Hardware für Quantencomputing oder Vorläufer davon gibt es seit
    1989, als erstmals eine Quantenschlüssel-Verteilung demonstriert wurde.
    1987 wurde dann eine Quantenteleportation realisiert.
    1994 zeigte Dan Simon, dass Quantencomputer exponentiell schneller beim Lösen bestimmter Aufgaben sein können.
    1994 veröffentlichte Peter Shor einen Quantenalgoritmus für das schnelle Finden der Primfaktoren p und q, wenn man nur p*q kennt.
    1995 veröffentlichen Peter Shor und Andrew Steane eine Quantenfehkerkorrektur, die in Quantencomputern wegen der Tendenz zur Dekohärenz nötig ist.
    1998 Quantum Fehlerkorrektur demonstriert MIT]
    2001 Shor’s Algorithmus faktorisiert 15 = 3 × 5 mittels NMR [IBM]
    2005 8 qubits in Ionenfalle realisiert [Innsbruck]
    2008 Photonischer Wellenleiter realisieren einen Quantum Schaltkreis [Bristol]
    2010 14 Qubits erzeugt in Ionenfalle [Innsbruck]
    2012 21 = 3 × 7 faktorisiert mittels Quantenoptik [Bristol]
    2012 100μs Kohärenzzeit für supraleitende Qubits [IBM]
    2013 Erste öffentlich zugängliche “quantum cloud” [Bristol]
    2014 Supraleitende Qubits an der Schwelle zur Fehlertoleranz UCSB]
    2015 IBM ermöglicht den Online-Zugriff auf einen supraleiterbasierten Quantenprozessor mit zuerst 5 Qubits,,seit 2017 20 Qubits.
    2019 Google demonstriert Quantensuprematie an speziellem Problem mit 53 Qubit-Computer

    Fazit: Nach 30 Jahren Forschung und Entwicklung am Quantencomputer sind wir nun bei etwa 100 Qubits angelangt. Für das Lösen praktischer Probleme benötigt man aber schätzungsweise 1 Millionen Qubits, von denen die meisten allerdings der Fehlerkorrektur dienen. Wann werden wir so weit sein? In 20 Jahren? Oder erst in 50 Jahren? Niemand kann das heute sagen.

  2. Ich würde Sie um möglichst anschauliche Beantwortung einer Frage ersuchen.

    Wie kann man ausschließen, dass es sich bei den „Superpositionen“ nicht um „Messartefakte“ einer sozusagen zu „langsamen Messtechnik“ handelt?

    So wie auf einem Photo mit langer Belichtungszeit ein kreisförmig durch die Luft gewirbelter Kübel aussieht, als wäre er überall auf der Kreisbahn „gleichzeitig“.

    • @Elektroniker (Zitat): „ Wie kann man ausschließen, dass es sich bei den „Superpositionen“ nicht um „Messartefakte“ einer sozusagen zu „langsamen Messtechnik“ handelt?
      Antwort: Ganz einfach: Man kann Superposition nicht messen und niemand hat das je gemessen, denn Superposition gibt es nur in den Gleichungen, die die Quantenwelt und die zeitliche Entwicklung eines Quantensystems beschreiben, nicht aber im Messresultat.
      Superposition bedeutet auch nicht unbedingt, dass ein Teilchen gleichzeitig an zwei verschiedenen Orten ist oder sich zwei Zustände aktuell überlagern. Vielmehr bedeutet Superposition, dass eine zukünftige Messung einen, genau einen, der sich überlagernden Zustände messen wird. Am ehesten lässt sich das als Überlagerung mehrerer (Mess-) Möglichkeiten, als Wahrscheinlichkeitsverteilung interpretieren.
      In der Wikipedia liest man dazu:

      Das Superpositionsprinzip ist die Idee, dass sich ein System in allen möglichen Zuständen gleichzeitig befindet, bis es gemessen wird. Nach der Messung fällt es dann in einen der Basiszustände, die die Überlagerung bilden, und zerstört so die ursprüngliche Konfiguration. Das Superpositionsprinzip erklärt die bei vielen Experimenten beobachtete “Quantenverrücktheit”. Ein klassisches Beispiel hierfür ist das Doppelspaltexperiment. Hier ermöglichen zwei Schlitze in einer Barriere den Durchgang von (zum Beispiel) Elektronen. Das Ergebnis dieses Experiments ist ein Interferenzmuster, das von der klassischen Mechanik nicht vorhergesagt wurde.

      Ein praktisches Beispiel ist das Doppelspaltexperiment: Teilchen passieren zwei eng nebeneinander stehende Spalte in einer Trennwand. Man weiss nicht durch welchen der beiden Spalte das/die Teilchen gehen. Dann beobachtet man hinter den Spalten, wo die Teilchen registriert werden (beispielsweise mit einer Photoplatte) ein Interferenzmuster, ein Überlagerungsmuster von Wellenbergen und Wellentälern, was am besten dazu passen würde, dass die Teilchen wellenförmig durch beide Spalte gleichzeitig gegangen wären und sich die Wellen dahinter überlagert hätten. Doch in Wirklichkeit weiss man nicht wie genau die Teilchen durch die Spalten gegangen sind. Sobald man das messen will, verschwindet das Interferenzmuster. Einige Physiker sprechen daher von Missing Which-Way Information, zu Deutsch: Man weiss nicht wie die Teilchen durch die Spalten gegangen sind und die Natur hindert uns daran, das zu messen, das je zu wissen.
      Es gilt also: Wer Überlagerung/Superposition messen will, zerstört sie!

  3. Ein Objekt, das 0, 1 und gleichzeitig die Zustände dazwischen annimmt, nennt man in der Makrowelt zum Beispiel „Schullineal“. In der Quantenwelt ist wahrscheinlicher, dass es die Zustände in Fast Forward wechselt – schneller rotiert, als die Makrowelt darauf reagieren kann, einer unserer Augenblicke sind halt mehrere Augenblicke in der Quantenwelt, sodass wir mit allen gleichzeitig interagieren. Objekte, die über scheinbar unmögliche Entfernungen wissen, was die anderen tun, nennt man „telefonierend“. Das bekannteste Quantenphänomen: „Wenn ich mir die Patschehändchen vor die Äuglein halte und das Kätzchen nicht sehe, kann alles Mögliche damit passieren, ich weiß es erst wieder genau, wenn ich gucke“ ist mehr oder weniger eine Gedankenspielerei, doch reale, völlig unerklärliche und in der Makrowelt nicht vorhandene Mysterien der Quantenwelt sind zum Beispiel: „Der Cowboy fällt zuerst vom Pferd und erst dann hört man den Schuss“, „Die Familie tunnelt von Weihnachtstisch zu Weihnachtstisch, obwohl sie viel zu groß ist, um durch die Tür zu passen“, „Die Kinder tuscheln hinter dem Rücken der Lehrerin, sind aber plötzlich still, wenn sie sich zu ihnen umdreht“, „Zwei Leute können dieselbe Schaffneruniform anziehen und den gleichen Schaffnerjob machen“, und so weiter.

    In der Wissenschaft liegen Genie und Schwachsinn eng beieinander – einerseits wirklich fantastische Geistesleistungen, andererseits Denkfehler, wie sie keinem Grundschüler passieren würden, und wahrscheinlich gerade deshalb unentdeckt bleiben: Schließlich kommt man nie auf den Gedanken, den intelligentesten aller Menschen könnten so platte Schnitzer unterlaufen. Quantenphysik ist ein gutes Beispiel: Im Wesentlichen ist es eine Hybride aus Wissenschaft und Okkultismus, mit dem Credo: „Quantenvorgänge können laut Theorie gar nicht so schnell passieren, wie sie vor unseren Augen passieren, also erklären wir uns die Beobachtungen mit Zauberfeen weg, um die Theorie zu schützen.“

    Im Wesentlichen scheint im Quantenreich einfach die Zeit schneller zu fließen: Einstein steht Kopf, je kleiner die Größe, desto schneller tickt die Uhr. Ist ja auch logisch, es ist das Grundmuster des Universums: Kleine Dinge, die schnell ticken können, weil sie ihre Schaltkreise im Raum nur über sehr kurze Entfernungen schließen müssen, schließen sich zu langsamer tickenden, größeren Dingen zusammen, die wiederum Bauteile für noch größere, noch langsamere Dinge werden. In 4D sind wir EM-Wellen, die durch die Zeit reisen, dabei größere Wellen formen und wieder zerfallen, ein sehr einfaches Fraktalmuster. Wir sehen also nichts Anderes, als die Umwandlung von Frequenz in Amplitude, eine Zeitdilatationskurve von den Dingen, die ihre Energie hauptsächlich in der Zeit verteilen, zu den Dingen, die sie hauptsächlich im Raum verteilen: Sehr groß oder sehr schnell sind. Unsere Größe und Energie tackert uns mitten auf der Kurve fest, und wenn wir sie rauf und runter gucken, sieht halt alles komisch aus.

    Stellen Sie sich die Zeit als Stop-Motion-Film vor, bei der zwischen den einzelnen Aufnahmen sagen wir mal, zehn Milliarden Jahre vergehen. Diese zehn Milliarden Jahre entsprechen den zehn Millimetern auf dem Schullineal, ein Zentimeter ist eine Plancksche Sekunde, die für uns kleinstmögliche Zeiteinheit – wir hüpfen alle die gleiche Strecke, mit unterschiedlich langen Sprüngen. Was dazwischen passiert, ist für uns bereits passiert, wenn wir es bemerken, und zwar alles gleichzeitig: Diese Vorgänge sind notwendig, damit wir unsere Schaltkreise schließen und die Momentaufnahme machen können. Da Zeit und Größe aneinander gekoppelt sind, muss man sehr klein sein, um in diesen Bereich zu gelangen, doch wenn eine Schnecke jenseits der Planckschen Größe schrumpft, kann sie für uns mit Überlichtgeschwindigkeit teleportieren.

    Wir können nicht mal ein Messgerät bauen, das Vorgänge dieser zeitlosen Dimension wahrnimmt, jedes würde aus Teilchen bestehen, die viel größer sind, und vielleicht, ausnahmsweise mal, nur auf ganz doll viele Schnecken auf einmal reagieren – das nennt man dann Schneckenfeld, eine Kraft, die aus mysteriöser, nicht identifizierbarer Schneckenenergie besteht, die Objekte mit Überlichtgeschwindigkeit interagieren lässt. Und wir können nicht mal Vorgänge diesseits der Planckschen Schwelle richtig erfassen, wir machen Momentaufnahmen, bei denen tausend Jahre ein Foto sind. Klar, dass alles wie wirre Pampe erscheint, und alle Objekte wie Wischiwaschi-Wellen. Jeder Bus wird zur Welle, wenn er sich schneller bewegt, als Sie es verarbeiten können.

    Wir können nur Statistik anwenden – die erfunden wurde, um in der Makro-Welt Vorgänge zu erfassen, die nur statistisch erfasst werden können, lange vor der Quantenphysik. Schon das sollte einen stutzig machen.

    Und trotzdem kann man Quantencomputer bauen. Interessant, nicht?

  4. Im Jahr 2011 sagte ich voraus, dass in 10 Jahren die Fahrzeuge des Luxussegments selbstfahrend sein werden.

    Heute sage ich voraus, dass in 20 Jahren Quantencomputer täglich für anspruchsvolle Probleme eingesetzt werden und dass es weltweit mehr als 1000 Quantencomputer dafür geben wird.

  5. Frage zu Punkt 5: Bestünde dann die Möglichkeit, Atome (wie Legobausteine) zu beliebigen Verbindungen zusammen zu fügen?
    Und wie groß wäre so ein Gerät überhaupt. Trägt vielleicht in Zukunft jeder einen Quantencomputer (wie ein Handy) in der Hosentasche?

  6. Was Sie schreiben, kann ich auch in der “Bild”-Zeitung lesen. Also nicht neues in den letzetn 10 bis 15 Jahren. Was wirklich fehlt:

    Vorstellung eines Problems.
    Lösung mit/auf einem klassischen Rechner/Algorithmus
    Lösung mit/auf einem Quanten-Rechner/Algorithmus

  7. @Programmierbarkeit von Quantencomputern

    Ich verstehe nur ansatzweise, wie ein Quantencomputer funktioniert. So richtig einsetzbar wäre er aber wohl nur, wenn man seine Funktionalität mit beliebiger Software ansteuern könnte, und so die Qbits dann z.B. in der KI für jede passende Anwendung benutzen zu könnte.

    Bevor es die Neumannsche Architektur gab, hat man Elektronik für jede einzelne Anwendung neu zusammenlöten müssen. Das ist natürlich endlos aufwändiger, als einfach die Software zu schreiben, um ein neues Problem zu lösen.

    So kann ich mir auch vorstellen, dass man neuronale Netze in einer ganz neuen Hardware realisieren könnte, die auch frei programmierbar ist, und dann einer Simulation in derzeitigen CPUs millionenfach überlegen sein wird. Das könnte etwa bei Anwendungen wir selbstfahrenden Autos den Aufwand und den Stromverbrauch des Steuerungssystems erheblich reduzieren.

    Es soll schließlich absehbar sein, das man CPUs bald nicht weiter verkleinern kann, weil dann hier störende Quanteneffekte auftreten. Und damit ist dann erst mal Schluss mit immer kleineren und sparsameren Computern herkömmlicher Bauart.

    Vielleicht kann man auch alles drei kombinieren? Qbits, neuronale Hardware-Netze und kreativer Umgang mit Quanteneffekten in eigentlich zu kleinen Strukturen auf den Chips.

    • @Tobias Jeckenburger(Zitat): Das [Quantumcomputing-Lösungen] könnte etwa bei Anwendungen wir selbstfahrenden Autos den Aufwand und den Stromverbrauch des Steuerungssystems erheblich reduzieren.

      Quantencomputer werden voraussichtlich immer nur als Server über die Cloud ansprechbar sein. Ein Quantencomputer wird also nie Teil eines Smartphones oder eines Desktop-Computers sein und die künstliche Intelligenz eines selbstfahrenden Auto könnte wenn schon nur in der Trainigsphase des neuronalen Netzes von Quantum-Computing profitieren und nicht während das Auto wirklich fährt . Grund: Alle bekannten Technologien um mit Qubits zu arbeiten, müssen unter extrem kontrollierten physikalischen Bedingungen arbeiten und selbst dann ist mit Fehlerraten im Promille bis Prozentbereich zu rechnen. Ein heutiger elektronischer Rechner macht dagegen vielleicht einen Fehler auf eine Billion Operationen. Das bedeutet, dass kein zukünftiger Quantencomputer ohne massive Fehlerkorrektur auskommen wird. Und das wiederum bedeutet, dass es sich um riesige Maschinen handeln wird, selbst dann, wenn sie auf Chiptechnologie basieren. Riesig, weil es für die für interessante Aufgaben benötigten 1000 Qubits wegen der nötigen Fehlerkorrektur in Wirklichkeit 1 Million Qubits braucht.

      Noch eine Bemerkung: viele unterschätzen auch die Leistungsfähigkeit zukünftiger konventioneller Elektronik. Das Mooresche Gesetz gilt in abgeschwächter Form immer noch. In 5 Jahren wird ein Chip für autonomes Fahren, der heute 100 Watt Leistung benötigt mit 50 Watt auskommen und dennoch mindestens doppelt so leistungsfähig sein. Zudem: Software-Fortschritte in der künstlichen Intelligenz bedeuten, dass ein autonom fahrendes Auto der Zukunft weniger Rechnungsleistung benötigt um dasselbe oder gar ein besseres Resultat zu erreichen als heute.

  8. Wenn ein Preis zu vergeben wäre für Unanschaulichkeit und Spekulation, dann wäre dieser Beitrag geeignet den 1. Preis zu erringen. Noch besser ist der Artikel bei wikipedia über Quantencomputer. Nichts Konkretes, meilenweit, nur Verweise auf den nächsten Fachbegriff, dann wieder auf den nächsten Fachbegriff. So kann man auf Fördergelder hoffen, weil niemand etwas genaues weiß noch erklären kann.
    Sogar die Entwickler werfen sich gegenseitig vor, falsche Angaben zu machen.
    Herr Jaeger, Sie sind nicht zu beneiden.

  9. Herr Jaeger fragt zum Thema,

    Zitat:

    Quantencomputer: Wo stehen wir eigentlich mit der möglichen nächsten grossen

    Revolution in der Informationstechnologie?

    = = =

    Zu dieser Frage eine kleine Redewendung: “Da steht mein Geist vor Ehrfurcht still!“

    Die Technik ist aber nicht ganz ausgereift, die Fehlerquote ist noch zu hoch, aber die Gelder

    fließen weiterhin recht großzügig.

    Eine weitere Revolution dürfte der DNA-Computer sein, der auch mit Qubits arbeitet.

    Hierzu ist bei Wikipedia (25.06.2021) unter DNA-Computer

    folgendes zu erfahren, Zitate:

    Als DNA-, RNA- oder allgemeiner auch Biocomputer werden Computer bezeichnet, die auf

    der Verwendung der Erbsubstanz Desoxyribonukleinsäure (DNA) oder Ribonukleinsäure

    (RNA) als Speicher- und Verarbeitungsmedium beruhen. Sie stellen einen Bereich der

    Bioelektronik dar.

    . . . .

    Forscher wollen in einem weiteren Versuch DNA mit Spuren von Gold leitfähig machen, um

    diese als Schaltkreis nutzen zu können. Bei der Verwendung als Speichermedium soll die

    Folge von 0 und 1 jeweils durch zwei der vier Basen Guanin, Adenin, Cytosin und Thymin

    dargestellt werden.

    . . . .

    Es wird vorausgesagt, dass DNA-Computer vor allem dort neue Lösungen liefern können

    sollen, wo sie sich von traditionellen Computern unterscheiden: In der Speicherkapazität und

    in der Parallelisierung.

    = = =

    Kommentar:

    Es ist erstaunlich, dass Forscher die gleichen Basen benutzen, mit denen eine höhere

    Intelligenz, sprich: Schöpfer,

    die DNA aus ursprünglich anorganischer Materie programmiert hat, und zwar in der

    chronologischen Reihenfolge > Pflanzen- > Tiere- > Menschen-DNA.

    Aus anorganischer wird organische Materie, die physikalisch, chemisch, biologisch alles

    ermöglicht: Gestalt Aussehen, Funktion. Vermehrung in der bewegten Schöpfung.

    Nur der Mensch bekam von seinem Schöpfer seinen Geist eingehaucht.

    Die DNA-programmierung könnte in Anlehnung an den Artikel:

    http://www.4-e-inigkeit.info/Ursprung.htm

    etwa so aussehen:

    2 Basenpaare (A-T_G-C) = 4 Qubits = ϴ

    A T

    +1 -1 +1 -1

    > ϴ ϴ (+1

    0 1 = +1 1 0 = -2 > ( -1) > (0)

    G C

    1 0 = +2 0 1 = -1 > (+1)

    0 1 = +1 1 0 = -2 > ( -1) > (0)

    Und dies in wechselnder Reihenfolge.

    Denkbar für die Zukunft wäre, wenn mehrere DNA-Computer mit

    Quanten-Computer parallel zusammenarbeiten. Möglicherweise lässt sich dadurch

    ein superschnelles, weltumspannendes Regelwerk realisieren?

    Das aber wahrscheinlich erst nach einer vorhergesagten Apokalypse, denn

    es werden immer noch jährlich weltweit Billionen in die Waffenrüstung investiert,

    nicht um nicht gebraucht zu werden.

    Homo Sapiens, lass dich überraschen!

    28.06.2021 W. Bülten

  10. Sorry, ein neuer Versuch:
    etwa so aussehen:

    2 Basenpaare (A-T_G-C) = 4 Qubits = ϴ

    A T

    +1 -1 +1 -1

    > ϴ ϴ (+1

    0 1 = +1 1 0 = -2 > ( -1) > (0)

    G C

    1 0 = +2 0 1 = -1 > (+1)

    0 1 = +1 1 0 = -2 > ( -1) > (0)

    Und dies in wechselnder Reihenfolge.

  11. Mein letzter Versuch Herr Jaeger, den vorherigen bitte löschen. M. f. G.
    =
    etwa so aussehen:
    2 Basenpaare (A-T_G-C) = 4 Qubits = ϴ
    A T
    +1 -1 +1 -1
    > ϴ ϴ (+1
    0 1 = +1 1 0 = -2 > ( -1) > (0)
    G C
    1 0 = +2 0 1 = -1 > (+1)
    0 1 = +1 1 0 = -2 > ( -1) > (0)
    Und dies in wechselnder Reihenfolge.

    • Sehr geehrter Herr Jaeger,
      mir ist aufgefallen, dass das Programm Ihrer Blog-Plattform
      Buchstaben zwischen 2 > Pfeilen, von 10 Leerzeichen 9 und
      Linien einfach löscht.
      Die Pfeile habe ich durch Symbole ersetzt und die Leerzeichen
      mit der Kombination Alt-Taste und 0160 aufgefüllt. Beim Loslassen
      der Alt-Taste rückt der Cursor um 1 Leerstelle nach rechts.
      Vielleicht gelingt es jetzt? M. f. G.
      Die DNA-programmierung könnte
      etwa so aussehen:
      2 Basenpaare (A-T_G-C) = 4 Qubits = ϴ
      A T
      +1 -1 ← Spin → +1 -1
      → ϴ ← → ϴ ← Wert
      1 0 = +2 0 1 = -1 > (+1)
      0 1 = -2 1 0 = +1 > ( -1) > (0)
      G C
      1 0 = +2 0 1 = -1 > (+1)
      0 1 = -2 1 0 = +1 > ( -1) > (0)
      Und dies in wechselnder Reihenfolge.

  12. Sabine Hossenfelders You-Tube Video Quantum Computing Top Players 2021 sei hier noch erwähnt, erklärt es doch nicht nur Quantum Computing an und für sich, sondern auch die verwendeten Technologien, wer sie einsetzt, worin ihre Stärken und Schwächen liegen und was schon erreicht wurde. Kurz zusammengefasst erwähnt Sabine Hossenfelder zuerst die grossen Anforderungen eines Quantencomputers an eine störungsarme Umgebung und erwähnt, dass es ohne Fehlerkorrektur nicht geht und dass für ein kommerzielles System wegen den nötigen Korrektur-Qubits in etwa 1 Million Qubits nötig sind. Dann erwähnt sie die Technologien und ihre Vertreter:
    – Superconducting Qubits arbeiten mit Strömen, bezugsweise Ladungen in auf MilliKelvin heruntergekühlten, äusserst kompakten Chips werden von Google und IBM eingesetzt. Dort liegt die Zeit bis zur Dekohärenz, also dem Funktionszusammenbruch bei einigen 10 Mikrosekunden. IBM ist bei 65 Qubits, Google bei 53
    – Photonische Quantencomputer benutzen Lichtquanten bei Raumtemperatur in meist ziemlich grossen Anordnungen von optischen Elementen. Die Zeit bis zur Dekohärenz kann hier von Millisekunden bis Minuten betragen. Xanadu und PsiQuantum verfolgen diesen Ansatz und PsiQuantum behauptet sie könnten bis 2028 bei einer Million Qubits ankommen.
    – Quantencomputer, die Ionenfallen benutzen halten die Ionen in elektromagnetischen Feldern und benutzen Laser um die Qubits zu verschränken.
    Sie können ebenfalls Chipgrösse besitzen wie bei den Superconducting Qubits und müssen nicht auf Millikelvin sondern nur auf einige Kelvin gekühlt werden. Die Zeit bis zur Dekohärenz betrögt hier Minuten und die Qubits können mit mehr Nachbarn verschränkt werden als bei Superconducting Qubits. Sie arbeiten aber langsamer als Superconducting Qubits, Honeywell und IonQ sind hier die bedeutendsten Player und Honeywell behauptet das grösste Quantenvolumen aller Quantencomputer beherrschen zu können.
    – Spezielle Quantencomputer nur für bestimmte Optimierungsprobleme stellt D-Wave her. Der neueste D-Wave Computer hat 5600 Qubits und arbeitet mit superconducting Qubits
    – Topologische Quantencomputer arbeiten mit Quasipartikeln, die gegen Dekohärenz geschützt sind. Microsoft verfolgt diesen Ansatz musste aber kürzlich eingestehen, dass sie bis jetzt kein physikalisches System gefunden haben, dass topologische Qubits zur Verfügung stellt.

    Es gibt nich ein paar weitere, erst kürzlich vorgestellte Technologien, deren Potenzial, aber noch schwer einzuschätzen ist.

    Fazit: Alle Quantum-Technologien sind noch weit von einem kommerziellen Einsatz entfernt und nur gerade PsiQuantum behauptet bis 2028 ein solches System zu haben.

  13. Die 2020er Jahre als Start der kommerziellen Photonik

    Integrierte photonische Chips werden in den 2020er Jahren erstmals kommerziell vertrieben werden und zuerst Anwendung als AI-Accelerator finden. Die Firma LightMatter verspricht für ihren ab 2022 vertriebenen AI-Beschleuniger die 10-fache Leistung im Vergleich zu einer rein elektronischen Lösung à la Googles TPU bei 10 Mal geringerer Leistungsaufnahme. Diese konventionellen photonischen Bauteile führen Operationen der linearen Algebra wie Matrixmultiplikationen aus, wobei im Extremfall zwei Matrizen in einem einzigen Prozessortakt miteinander multipliziert werden.

    Quantum Photonic – Lösungen wie die von PsiQuantum angestrebten photonisch/elektronischen Chips hergestellt mit GlobalFoundaries 300mm-Wafer-Technologie mit Genauigkeiten im Nanometerbereich, werden in der zweiten Hälfte des 2020er Jahrzehnts auf dem Markt erscheinen und haben das Potenzial, Photonik zur dominanten Quantum-Technologie zu machen.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +