Hewlett Packard Enterprise präsentiert „Big-Data Computer“

 Hewlett Packard Enterprise präsentiert „Big-Data Computer“
Hewlett Packard Enterprise (HPE) hat den nach eigenen Angaben weltgrößten Computer mit einheitlichem Arbeitsspeicher vorgestellt. Als Ergebnis des Forschungsprogramms „The Machine“ basiert er auf einer neuen Rechner-Architektur – dem Memory-Driven Computing –, die speziell auf das Lösen von Aufgaben aus dem Bereich Big Data zugeschnitten ist.

„Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen. Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde“, meint Meg Whitman, CEO von Hewlett Packard Enterprise.
Der am 16. Mai 2017 vorgestellte Prototyp besitzt 160 Terabyte (TB) Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten – also etwa 160 Millionen Exemplare. Laut HPE war es nie zuvor möglich gewesen, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.
Skalierbarkeit und gesellschaftliche Auswirkungen
Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann – und bei Bedarf sogar bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4 096 Yottabyte. Zum Vergleich: Das wäre das 250 000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit können zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden, um Antworten und Lösungen mit noch nie dagewesener Geschwindigkeit zu finden.
„Wir glauben, dass das Memory-Driven Computing die Lösung ist, um die Technologiebranche auf eine Art weiterzuentwickeln, die uns große Fortschritte in allen Bereichen der Gesellschaft ermöglichen“, sagt Mark Potter, CTO von HPE und Director der Hewlett Packard Labs. „Die Architektur, die wir vorgestellt haben, kann in jeder Rechnerkategorie eingesetzt werden – von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer.“
Beim Memory-Driven Computing steht der Arbeitsspeicher, nicht der Prozessor, im Zentrum der Rechnerarchitektur. Durch die Vermeidung von Ineffizienzen in der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren reduziert das Memory-Driven Computing die benötigte Zeit für die Lösung komplexer Probleme von Tagen auf Stunden, Stunden auf Minuten und Minuten auf Sekunden.
Technische Daten
Der neue Prototyp baut auf den Ergebnissen des Forschungsprojektes „The Machine“ auf, dazu gehören:
  • 160 TB Shared Memory über 40 physische Rechnerknoten, untereinander verbunden mit einem Hochleistungs-Fabric-Protokoll
  • Ein optimiertes Linux-basiertes Betriebssystem, das auf ThunderX2 läuft, der ARMv8-SoC-Architektur der zweiten Generation von Cavium.
  • Photonische/optische Kommunikationsverbindungen, darunter das neue X1 Photonics Module, sowie
  • Softwareprogrammierungs-Werkzeuge, um die Vorteile des im Überfluss vorhandenen nicht-flüchtigen Arbeitsspeichers voll auszuschöpfen.
Niklas Masson ist für Interfuse Communications in Düsseldorf tätig