Ein Thema, das uns derzeit beschäftigt, ist das Quantencomputing. Schon das Wort ist sprachlich unscharf. Ein Quantensprung ist ein Riesen(fort)schritt, während ein Quäntchen etwas sehr Kleines ist. Und wer sein Quantum hat, hat auf jeden Fall genug.
Herkömmliche, „digitale“ Computer basieren auf Grundlagen der Elektrotechnik und kennen demzufolge nur zwei Zustände, nämlich 0 (Strom fließt nicht) und 1 (Strom fließt). Auch die ausgefeiltesten Programmiersprachen oder KI-Algorithmen enden irgendwo, tief im Rechenwerk, bei der Anwendung des Zweiersystems, bei einem digitalen Wert (Bit). Das macht die Nachbildung nahezu aller gedanklichen Operationen trotzdem möglich, wie die Entwicklung von formaler Logik und Künstlicher Intelligenz zeigt. Allerdings werden die logischen Terme (Algorithmen) sehr sperrig, was der Bool’schen Algebra an Prägnanz fehlt, muss durch enorme Rechengeschwindigkeiten und letztlich hohen Energieverbrauch kompensiert werden. Das ist in den vergangenen Jahrzehnten mehr als gut gelungen, stößt aber allmählich an Grenzen, weil die Rechnerleistungen nicht mehr jedes Jahr exponentiell wachsen. Das Mooresche Gesetz verliert an Gültigkeit.
Quantencomputer machen sich dagegen die Erkenntnisse der Quantenphysik zunutze, die in den vergangenen Jahren zu Quantentechnologien und einer regelrechten Quanteninformatik ausgebaut wurde. Die grundlegenden Konzepte der Quantenphysik heißen Überlagerung, Unbestimmtheit und Verschränkung. Ohne dies auch nur annähernd nachvollziehen zu können, führt das wohl dazu, dass die in der Quanteninformatik ausschlaggebenden Q-Bits sehr viel mehr Informationen enthalten können als ein klassisches Bit – das als Werte ja nur 0 oder 1 kennt, siehe oben.
Das führt letztlich dazu, dass Quantencomputer parallel und damit sehr viel effizienter und schneller arbeiten können als digitale Computer. Und „sehr viel“ heißt wirklich viel.
Die erste schlechte Nachricht lautet, dass ein Quantencomputer völlig andere Algorithmen benötigt, die sich dem Erfahrungswissen der meisten IT-Experten entziehen. Die zweite, nicht viele bessere Nachricht ist, dass die Algorithmen so zu entwerfen sind, dass das richtige Ergebnis mit besonders hoher Wahrscheinlichkeit eintritt. „Wahrscheinlichkeit“ klingt in dem Zusammenhang nicht gut, und tatsächlich wird berichtet, dass Anwendungen von Quantencomputern häufig Fehlerquoten aufweisen. Das hat mit der Unschärfe zu tun und mit dem Effekt, den Schrödinger anhand seiner berühmten Katze beschreibt. Man weiß nicht, ob die Katze lebt oder nicht und muss beide Möglichkeiten einkalkulieren. Mindestens.
Echte Vorteile bietet der Quantencomputer jedoch bei der Kryptographie, also der langfristigen Sicherung geheimer Daten. Hier stoßen digitale Systeme bereits an ihre Grenzen. Kriminelle Hacker sind heute praktisch auf Ballhöhe. Außerdem verheißt das Quantencomputing enorme Zuwächse an Rechenleistung bei gleichzeitig geringeren Energieverbräuchen. Vor allem Letzteres macht Hoffnung.
Mit einem Quäntchen Glück und viel Geschick könnte man in Punkto Nachhaltigkeit also Quantensprünge schaffen.
Grund genug, sich intensiv mit dem Thema zu befassen und es schrittweise in Richtung kommerzieller Anwendungen weiterzuentwickeln. Wenn es darum geht, eine Brücke von der Theorie in die Praxis zu bauen, sind Fraunhofer-Institute immer eine gute Adresse. Tatsächlich gibt es bereits Projekte, die diesen vielversprechenden Weg eingeschlagen haben:
https://www.digital.iao.fraunhofer.de/de/leistungen/Digitalisierung/Sequoia.html