Die Hardware des HHLR
----------------------------------------------------------------------------------------------------------
Das Cluster wurde am 26.11.2012 abgeschaltet.
----------------------------------------------------------------------------------------------------------
Der Hessische Hochleistungsrechner (2002-2012) bestand aus einem interaktiven Knoten und etlichen Rechenknoten. Auf dem interaktiven Knoten haben sich die Nutzer einloggt um ihre Job zu starten und zu überwachen. Dort wurden auch Programme übersetzt und kleinere Tests durchgeführt.
Die Compute-Farm, in der die eigentliche Rechenarbeit verrichtet wird, war nur über ein Batchsystem zugänglich. Sie bestand aus 18 SMP-Knoten (Systeme vom Typ IBM 9125-F2A p575), die jeweils 4 Multi-Chip-Module (MCMs) mit jeweils 4 Dual-Core Power6-Prozessoren enthielten, also 32 Cores pro Knoten und 576 Cores insgesamt. Der Hauptspeicher war zu gleichen Teilen an die einzelnen MCMs angebunden, wobei ein Prozessor aber auch auf den Speicher eines anderen MCM zugreifen konnte. Es handelte sich also um NUMA-Systeme.
Die wesentlichen technischen Daten der HHLR-Knoten sind in der folgenden Tabelle zusammengestellt:
Anzahl |
System Typ | CPUs * Cores | Takt | Hauptspeicher | Netz | Funktion |
---|---|---|---|---|---|---|
1 | p550 | 2*2 Power6 | 4.2 GHz | 32 GB | GBit-Ethernet | Login-Knoten |
13 | p575 | 16*2 Power6 | 4.7 GHz |
128 GB (121 GB für Jobs) |
Infiniband, GBit-Ethernet | Rechen-Knoten |
1 | p575 | 16*2 Power6 | 4.7 GHz |
256 GB (244 GB für Jobs) |
Infiniband, GBit-Ethernet | Rechen-Knoten |
4 | p575 | 16*2 Power6 | 4.7 GHz |
64 GB (59 GB für Jobs) |
Infiniband, GBit-Ethernet | Rechen-Knoten |
Als Shared Memory Rechner (SMP) waren die Maschinen besonders gut für parallele Probleme mit hohem Kommunikationsbedarf geeignet. Um auch Programme, die mehr als einen Knoten benötigen, mit effektiver Kommunikation verarbeiten zu können, waren die Rechner untereinander mit einem sehr schnellen internen Netzwerk verbunden (Infiniband).