Sie sind hier: HomeSteuerungsebeneIndustrie-PC

Big Data: HPE stellt 'The Machine'- Prototyp vor

Ein Prototyp aus dem Forschungsprogramm 'The Machine' soll Entwicklungen aus 60 Jahren Computergeschichte auf den Kopf stellen. Großes Potenzial des Memory-Driven Computing erhofft man sich speziell für den Bereich Big Data.

The Machine Prototyp Bildquelle: © Hewlett Packard Enterprise

Der Prototyp des neuen Systems in den Hewlett Packard Labs.

Hewlett Packard Enterprise (HPE) hat den laut eigenen Angaben weltgrößten Computer mit einheitlichem Arbeitsspeicher vorgestellt und damit einen neuen Meilenstein des Forschungsprojekts ‘The Machine’ erreicht. The Machine ist das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Darin entwickelt HPE ein neues Computer-Paradigma, genannt Memory-Driven Computing - eine speziell für das Zeitalter von Big Data entwickelte Computer-Architektur.

Beim Memory-Driven Computing steht der Arbeitsspeicher, nicht der Prozessor, im Zentrum der Rechnerarchitektur. Durch die Vermeidung von Ineffizienzen in der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren soll die neue Technologie die benötigte Zeit für die Lösung komplexer Probleme von Tagen auf Stunden, Stunden auf Minuten und Minuten auf Sekunden reduzieren.

Meg Whitman von HPE Bildquelle: © Hewlett Packard Enterprise

“Der nächste wissenschaftliche Durchbruch versteckt sich hinter den Datenbergen, die wir erzeugen”, so Meg Whitman, CEO von Hewlett Packard Enterprise. “Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.”

Beispiel aus der Praxis

Der vorgestellte Prototyp hat 160 Terabyte Arbeitsspeicher und soll so in der Lage sein, das Fünffache an Daten aller Bücher der ‘Library of Congress’ gleichzeitig zu bearbeiten - etwa 160 Mio Bücher. Es war vorher laut HPE nie möglich, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und darüber hinaus bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4.096 Yottabyte. Zum Vergleich: Das ist das 250.000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit sollen zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden können.

“Wir glauben, dass das Memory-Driven Computing die Lösung ist, um die Technologiebranche auf eine Art weiterzuentwickeln, die uns große Fortschritte in allen Bereichen der Gesellschaft ermöglichen”, sagt Mark Potter, CTO von HPE und Director der Hewlett Packard Labs. “Die Architektur, die wir vorgestellt haben, kann in jeder Rechnerkategorie eingesetzt werden - von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer.”