Sie sind hier: HomeSteuerungsebeneIndustrie-PC

Forschungsprojekt: Die Big-Data-Maschine

Mit 'The Machine' hat Hewlett Packard Enterprise (HPE) die Computer-Architektur von Grund auf neu entwickelt. Über die Hintergründe und Einsatzmöglichkeiten des 'Memory-Driven Computing' sprach die Computer & AUTOMATION mit Andreas Hausmann, Chief Technologist bei HPE.

Die Big-Data-Maschine Bildquelle: © Hewlett Packard Enterprise

Herr Hausmann, was ist ‚The Machine‘ und warum haben Sie dieses Projekt gestartet?

Hausmann: ‚The Machine‘ ist ein Forschungsprojekt, in dem wir die seit 70 Jahren unveränderte Computer-Architektur von Grund auf neu entwickelt haben. Warum haben wir das gemacht? Weil Computer mit der bisherigen Architektur schlicht nicht in der Lage sein werden, die Datenmengen, die wir im Internet der Dinge erzeugen, zu verarbeiten. Sensoren digitalisieren heute im großen Stil die reale, analoge Welt. Sie messen Temperatur, Feuchtigkeit, Geschwindigkeit, Vibration, Neigung, sie erfassen Bilder und Töne. Damit entsteht ein Datenvolumen, das alle bisherigen Maßstäbe übersteigt. Beispielsweise haben moderne Düsentriebwerke tausende von Sensoren. Alleine die Triebwerke eines einzigen Herstellers können damit Zettabytes von Daten erzeugen – zum Vergleich: ein Zettabyte war die Gesamtmenge der Daten auf der Erde im Jahr 2010.

Und diese Entwicklung passiert genau in diesem Augenblick, da wir uns dem Ende des Mooreschen Gesetzes nähern – schon seit 2015 beobachten wir, dass bei Prozessoren die Steigerung der Leistung pro Fläche langsam abflacht. Auch die aktuellen Speichertechnologien nähern sich dem Ende ihrer Leistungssteigerung. Wir sind der Überzeugung: Nur wenn wir einen radikalen Neuanfang starten, werden wir in der Lage sein, die Begrenzungen der heutigen Computer zu überwinden. Deshalb haben wir eine neue Computer-Architektur entwickelt, die wir ‚Memory-Driven Computing‘ nennen.

Warum ist Memory-Driven Computing so revolutionär?

Hausmann: Wir stellen damit die bisherige Rechnerarchitektur auf den Kopf. Der Kern der heutigen Architektur ist der Prozessor – und dessen Leistungsfähigkeit lässt sich bald nicht mehr wie bisher steigern. Heutige Computer verbrauchen außerdem 90 % ihrer Leistung damit, Daten zwischen verschiedenen Speicherebenen zu verschieben – zum Beispiel zwischen Arbeits- und Plattenspeicher. Beides ändern wir grundlegend. Der Kern von Memory-Driven Computing ist nicht mehr der Prozessor, sondern ein neuartiger, praktisch unbegrenzt großer Arbeitspeicher, der mehrere Speicherebenen in sich vereint. Damit lässt sich die Rechnerleistung viele tausend Male steigern und es eröffnen sich völlig neue Möglichkeiten in Feldern wie medizinische Forschung, Produktion, vernetzte Mobilität oder Wertpapierhandel.

Wie funktioniert die neue Technologie?

Hausmann: In der bisherigen Computer-Architektur ist der Prozessor der Flaschenhals. Prozessoren sind mit einzelnen, dedizierten Speicherressourcen verknüpft, über die sie die alleinige Entscheidungshoheit haben. Dadurch kann der Rechner nicht über seine physikalischen Grenzen hinaus skalieren, weshalb auch der Arbeitsspeicher eine konstant knappe Ressource im Rechenprozess ist.

Memory-Driven-Computing Bildquelle: © Hewlett Packard Enterprise

Beim 'Memory-Driven Computing' setzt HPE den Speicher statt der Prozessoren in den Mittelpunkt der Architektur. Durch die neue Architektur können die optimalen Prozessoren für die Daten genutzt und im gemeinsamen Speicherpool bearbeitet werden.

Beim Memory-Driven Computing stehen dagegen die Daten im Mittelpunkt. Der Speicher wird hier zu einem mas-siven Pool aus Ressourcen, dem je nach Aufgabe die entsprechenden Prozessoren zugeordnet werden können. Diese grundlegende Veränderung der Architekturparadigmen ermöglicht es uns, viele Probleme aus einer ganz neuen Perspektive zu betrachten: Memory-Driven Computing ist nicht nur eine neue Hardware, sondern ein grundlegend neues System, für das wir auch Software komplett neu entwickelt haben.

Mit welcher Technologie wird das Projekt umgesetzt?

Hausmann: Mit am spannendsten ist die neue Systembusarchitektur auf der Grundlage von Gen-Z, mit der wir die physikalischen Grenzen des Rechners öffnen. Der Prozessor eines Servers kann bisher nur auf den Speicher zugreifen, der auf der gleichen Hauptplatine angesiedelt ist. Gen-Z erlaubt es, dass der Prozessor des Rechners A auf Speicher des Rechners B zugreifen kann. Da wir damit die physischen Grenzen konventioneller Hardware überwinden, nutzen wir zum Beispiel für die Anbindung der einzelnen Komponenten nicht mehr Kupferverbindungen, sondern Photonics. Das schafft ein großes Plus, nämlich räumliche Designfreiheit. Mit Photonics können wir auch über große Entfernungen hinweg zwischen den Komponenten des Arbeitsspeicher-Pools verlustfrei und kostengünstig kommunizieren.

Für den Speicherpool selbst verwendet unser aktueller Prototyp insgesamt 160 Terabyte Arbeitsspeicher, verteilt auf insgesamt 40 physischen Rechenknoten. Im Rahmen der Architektur können wir den verwaltbaren Arbeitsspeicher leicht auf Exabyte-Größe und theoretisch bis zu 4096 Yottabyte skalieren.

Andreas Hausmann Bildquelle: © Hewlett Packard Enterprise

Andreas Hausmann: "Mit 'The Machine' haben wir einen Computer geschaffen, der ideal für das Zeitalter von Big Data geeignet ist."

Welche Rolle spielt der Prozessor noch in einer solchen speicherzentrischen Architektur?

Hausmann: Die Rolle der Prozessoren ändert sich beim Memory-Driven Computing grundlegend. Wir haben dank des unabhängigen Speicherpools die Möglichkeit, den am besten geeigneten Prozessor ad hoc den einzelnen Aufgaben mit den dort befindlichen Daten zuzuordnen. Früher musste der Prozessor Generalist sein, der mit diversen Workloads gut umgehen kann. Memory-Driven Computing bietet deutlich mehr Platz für die Auswahl des richtigen Prozessors für die jeweilige Aufgabe. Um ein Problem zu lösen, können wir einen einzelnen Prozessor einsetzen oder auch viele Prozessoren parallel. Oder aber wir verwenden spezialisiertere Prozessoren wie GPUs, je nachdem, welche Anforderungsprofile gefragt sind. Wenn man so will, befreien wir den Speicher von der Diktatur des Prozessors.

Wie wird die Software einer solchen Architektur aussehen?

Hausmann: Herkömmliche Betriebssysteme sind nicht in der Lage, mit einer so radikal neuen Architektur umzugehen. Wir setzen aktuell ein
eigens entwickeltes Linux-basiertes Betriebssystem ein – die Zukunft des Memory-Driven Computing ist für uns ganz klar Open Source. Auch die Anwendungssoftware muss angepasst werden, damit sie die Möglichkeiten der neuen Architektur ausnutzen kann. Neu ist dabei zum Beispiel, dass keine I/O-Anweisungen mehr benötigt werden. Das muss man der Applikationssoftware beibringen. Allein die Tat-
sache, dass jetzt nahezu unendliche Ressourcen im Bereich des Arbeitsspeichers zur Verfügung stehen, erfordert ein grundsätzliches Umdenken in der Frage, welche Daten wann berechnet werden müssen – und welche Daten
bereits vorberechnet und dann später abgerufen werden können.

Welche Vorteile ergeben sich aus ­dieser grundlegend veränderten Architektur?

Hausmann: Heterogenes Rechnen, also die gemeinsame Nutzung desselben Memory-Pools durch mehrere parallele Prozesse – ohne Daten aufwendig hin- und herzuschieben –, revolutioniert ganze Sektoren der Software-Entwicklung. Außerdem können wir über diese neuen Architekturen Anwendungen extrem beschleunigen, selbst wenn sie nur modifiziert werden. Wenn wir aber der Architektur komplette Freiheit lassen, Annahmen aus 70 Jahren Software-Entwicklung auf Null setzen und eine Anwendung grundlegend neu überdenken, sind die Ergebnisse atemberaubend: Monte-Carlo-Simulationen zum Beispiel, wie sie unter anderem in der Finanzwelt zur Risikoanalyse eingesetzt werden, lassen sich damit um das bis zu 8000-fache beschleunigen. Damit werden Simulationen zu Echtzeit-Informationen.

Ist Memory-Driven Computing demnach vor allem für große Rechenzen-trumsanwendungen ausgelegt?

Hausmann: Nein, wir wollen diese Architektur allgegenwärtig machen. Sie soll in Miniaturgröße in Sensoren oder Autos ebenso laufen wie in Supercomputern von der Größe eines Schiffscontainers. Sie ist im Internet der Dinge ebenso zuhause wie im Rechenzentrum.

Wo kann sie speziell im Bereich der Fertigung und Produktion ihre Stärken ausspielen?

Hausmann: Memory-Driven Computing wird den Kreislauf von Sensorik, Analytik und Aktorik wesentlich leistungsfähiger machen, aber auch flexibilisieren. Anwender können auf eine fast unbegrenzte Menge an Daten extrem schnell zugreifen, zum Beispiel die komplette Sensordaten-Historie nicht nur einer Produktionsmaschine, sondern vieler gleichartiger Produktionsmaschinen. Damit können in Sekundenbruchteilen eine Unmenge an Korrelationsanalysen gefahren werden, etwa um aus dem ak-tuellen Datenstrom Muster herauszufischen, die auf einen sich anbahnenden Maschinenschaden hinweisen.

Auch für die Umsetzung der wandel-baren Fabrik wird Memory-Driven Computing eine wichtige Rolle spielen. Denn das System kann extrem schnell auf eine praktisch unbegrenzte Vielfalt an Produktvarianten und unvorhergesehenen Ereignissen reagieren. Ebenso kann Memory-Driven Computing das Training von Robotern mit Hilfe von Deep Learning beschleunigen.

Wo kann sie darüber hinaus zum Einsatz kommen?

Hausmann: Ein Beispiel ist die medizinische Forschung. Wir kooperieren zum Beispiel mit dem Deutschen Zentrum für Neurodegenerative Erkrankungen, das mit Hilfe von Memory-Driven Computing seine Forschungsprozesse beschleunigen und seine Präzision durch die Analyse größerer Daten­mengen erhöhen will. Die DZNE-Wissenschaftler versprechen sich dadurch völlig neue Erkenntnisse bei der Er­forschung der Ursachen von Alzheimer und anderen Demenzerkrankungen. Die Finanzbranche ist ein weiteres Bei-spiel. Wie schon erwähnt, können wir Monte-Carlo-Simulationen mit Memory-Driven Computing um das 8000-fache beschleunigen. In der Welt der Echtzeit-Finanzgeschäfte kann das für ein Unternehmen den Unterschied zwischen Gewinn und Verlust aus­machen.

Wie sieht der Zeitplan für das Projekt ‚The Machine‘ aus?

Hausmann: Unser Zeitplan ist auf drei parallel verlaufenden Schienen angeordnet. Der erste, wichtigste Schritt ist bereits abgeschlossen: Mit unserem funktionsfähigen Prototyp können wir zusammen mit Partnern und Kunden die Technologie für das Memory-Driven Computing weiter verfeinern und Anwendungen optimieren, um die Möglichkeiten der Architektur voll auszuschöpfen. Dazu haben wir auch die ‚The Machine User Group‘ ins Leben gerufen und Open-Source-Entwicklungswerkzeuge verfügbar gemacht. Zweitens entwickeln wir auf Grundlage der Memory-Driven-Technologien in den nächsten fünf Jahren eine Referenzarchitektur für einen Exascale-Supercomputer – also einen Computer, der mindestens eine Trillion Rechenoperationen pro Sekunde schafft. Drittens schließlich integrieren wir in den nächsten Monaten und Jahren Technologien aus dem The-Machine-Forschungsprojekt in unsere aktuellen Produktlinien, etwa nichtflüchtige Speicher-Technologien oder Photonics. Viele Kunden werden also recht kurzfristig von den Ergebnissen unseres Forschungsprojekts profitieren. Sie werden von uns also automatisch mit auf die Reise in die neue Computerarchitektur genommen.