Schwerpunkte

Technik & Finanzen

Die Quantencomputing-Revolution

16. Juli 2020, 09:02 Uhr   |  Thomas Rappold / Andrea Gillhuber

Die Quantencomputing-Revolution
© Pixabay

Unbegrenzte Rechenpower bieten den deutschen Schlüsselindustrien enorme Wettbewerbschancen auf dem Weg zu einer Industrie-4.0-Datenökonomie.

Hätten wir bereits heute leistungsfähige Quantencomputer im Realeinsatz zur Verfügung, so wäre der Umgang mit der aktuellen Pandemie in all seinen 
Facetten deutlich leichter beherrschbar. Insbesondere bei der Entwicklung neuer Wirkstoffe und Pharmazieprodukte, aber auch beim Verlauf einer Pandemie könnte mit der Höchstleistung des Quantencomputing schnell Licht ins Dunkel gebracht werden. Wozu Labore Monate oder Jahre benötigen, könnte in Form von Simulationen und Berechnungen innerhalb eines sehr kurzen Zeitraums durchgespielt und die besten Optionen angeboten werden.

Noch sind wir nicht so weit. Doch die Fortschritte beim Quantencomputing sind gewaltig. Der amerikanische Physiker und Nobelpreisträger Richard Feynman sprach Anfang der 1980er-Jahre von Quantencomputern als effektive Werkzeuge, um die Herausforderungen der Physik und Chemie zu lösen. Seiner Meinung nach würden die Kosten für die Lösung von quanten-basierten Problemstellungen mittels herkömmlicher Rechnerarchitekturen exponentiell steigen und wären damit weder wirtschaftlich noch realistisch in der Umsetzung. Feynman wäre wohl auch über die Covid-19-Pandemie als reale und nicht fiktive Problemstellung überrascht gewesen.

»Durch Quantum Computing können insbesondere Simula­tionen und Berechnungen ­enorm beschleunigt werden«

Tatsächlich ist das von Intel-Gründer Gordon Moore erfundene Prinzip des Moore‘s Law, wonach sich die Anzahl der Transistoren auf einem Microchip alle 24 Monate verdoppelt, zuletzt ins Wanken geraten. Über speziell konfigurierte Hochleistungschips wie FPGAs und GPUs, aber auch durch neue Fertigungs-methoden in der Lithografie werden zwar kontinuierlich Fortschritte in der Leistungsfähigkeit der Hardware erzielt; auch macht inzwischen die Software-Algorithmik große Fortschritte und treibt in Kombination mit raffinierter Hardware die Leistungsfähigkeit des IT-Gesamtpakets voran. Doch echte Quantensprünge der konventionellen Hardware-Entwicklung sind nicht mehr selbstverständlich und unter hohen Aufwänden erkauft.

Quantum Supremacy – Quanten-­Überlegenheit

Im Herbst letzten Jahres war es so weit: Google vermeldete erstmals, dass es im Rahmen eines speziellen Rechenexperiments, zu dem ein herkömmlicher Rechner 10.000 Jahre gebraucht hätte, die Quanten-Überlegenheit (Quantum Supremacy) nachweisen konnte: Das Rechenexperiment auf dem mit 53 Qubits (Quantenbits) bestückten Google-Spezialprozessor Sycamore konnte die komplexe Berechnung in 200 s durchführen. Die Nachricht ging um die Welt und war eine Top-Schlagzeile für viele Medien und Zeitungen, was deren Bedeutung zum Ausdruck brachte. Noch bedarf es spezieller Labor-umgebungen, um die widerspenstigen Qubits bei Laune zu halten. Vor allem viel Kühl-Energie ist notwendig, um die speziellen Bedingungen zu schaffen: Die Quantencomputer erinnern in ihrem Aufbau in Größe und Statur den frühen Großrechnern zu Zeiten Konrad Zuses.

Seite 1 von 2

1. Die Quantencomputing-Revolution
2. Quantenfehlerkorrektur – der Weg zu Moore’s Law für Quantencomputing

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Krisenstimmung in der Fertigung?
Private 5G-Netze
Der Industrie-4.0-Hype – eine Chance?
Die zweite Phase
Deutsche Industrie startet nach der Krise mit Volldampf
Die ‚Subscription Economy‘
KI folgt eigenen Regeln

Verwandte Artikel

WEKA FACHMEDIEN GmbH

Technik + Finanzen CARed

Markt CARed