Big Data und Memory-Driven Computing "The Machine" von Hewlett Packard Enterprise

Böblingen, Starnberg, 17. Mai 2017 – Aktueller Prototyp aus dem Forschungsprogramm "The Machine“ zeigt mit 160 Terabyte Arbeitsspeicher sein erstes Potenzial auf...

Zum Hintergrund: Hewlett Packard Enterprise (HPE) hat am 16. Mai den nach seinen Angaben weltgrößten Computer mit einheitlichem Arbeitsspeicher vorgestellt, es ist der neueste Meilenstein des Forschungsprojekts "The Machine" und laut HPE das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Darin entwickelt der Herstellter sein neues Computer-Konzept, genannt Memory-Driven Computing - eine für das Zeitalter von Big Data entwickelte neue Computer-Architektur. Der nun vorgestellte Prototyp besitzt 160 Terabyte Arbeitsspeicher und ist laut Entwickler in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten - etwa 160 Millionen Bücher. Es war bislang nicht möglich, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Beim Memory-Driven Computing steht der Arbeitsspeicher und nicht der Prozessor (CPU) im Zentrum der Rechnerarchitektur: Durch die Vermeidung von Ineffizienzen in der Interaktion zwischen Arbeitsspeicher - Disk - Prozessoren reduziert Memory-Driven Computing die benötigte Zeit für die Lösung komplexer Probleme von Tagen auf Stunden, Stunden auf Minuten und Minuten auf Sekunden...

Kommentar Meg Whitman, CEO von Hewlett Packard Enterprise: "Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen. Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.“

Abb. 1: Bildquelle HPE, Prototyp im Labor


Skalierbarkeit und mögliche Auswirkungen

  • Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und darüber hinaus bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4.096 Yottabyte. Zum Vergleich: Das wäre das 250.000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit können zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden, um Antworten und Lösungen mit extrem hoher Geschwindigkeit zu finden.

  • Zitat Mark Potter, CTO von HPE und Director der Hewlett Packard Labs. "Die Architektur, die wir vorgestellt haben, kann in jeder Rechnerkategorie eingesetzt werden - von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer."

Technische Daten des neuen Prototyps

  • 160 TB Shared Memory über 40 physische Rechnerknoten, untereinander verbunden mit einem Hochleistungs-Fabric-Protokoll

  • Ein optimiertes Linux-basiertes Betriebssystem, das auf ThunderX2 läuft, der ARMv8-SoC-Architektur der zweiten Generation von Cavium.

  • Photonische/optische Kommunikationsverbindungen, darunter das neue X1 Photonics Module, sowie

  • Softwareprogrammierungs-Werkzeuge, um die massiven Kapazitätsvorteile des nicht-flüchtigen Arbeitsspeichers voll auszuschöpfen.

Abb. 2: Bildquelle HPE TheMachine, Speichermodul


Weitere Informationen zum Thema:

> http://www.hpe.com/TheMachine

> https://news.hpe.com/content-hub/memory-driven-computing/

> Videolink zum neuen HPE-Prototypen