Topologie

Netzwerk für das Hochleistungsrechnen (HPC-Interconnect)

In allen Hochleistungs- und Supercomputern spielt der HPC-Interconnect eine entscheidende Rolle. Im Gegensatz zu Serverfarmen oder Cloud-Computing sorgt er bei HPC-Systemen für die schnelle, latenzarme und durchsatzstarke Kommunikation der Rechenknoten untereinander.

MPI-Programme nutzen diesen Interconnect, um für aufwendige parallele Berechnungen viele Rechenknoten gleichzeitig zu verwenden, wobei die MPI-Tasks über den Interconnect Daten, Zustände und Zwischenergebnisse austauschen.

Infiniband EDR: Das Storagesystem (Home, Projects, Scratch) bildet den Kern und managt das Gesamtsystem auf Basis von EDR: „Enhanced Data Rate“ = 100 GBit/s.

Infiniband HDR: Bei der Phase I des Lichtenberg II Clusters sind die Rechen- und Loginknoten mit Mellanox ConnectX-Karten des Standards „HDR100“ ausgestattet: „High Data Rate“ 100 = 100 GBit/s. Im Allgemeinen hat HDR Infinband eine Datenrate von 200 GBit/s – in der Phase I des Lichtenberg II Clusters sind die Rechenknoten aber nur mit der HDR100-Ausführung angebunden.

Island topology LB2P1

Die frühere „Insel-Struktur“ des inzwischen stillgelegten LB1 im Vergleich zur moderneren "flachen Topologie des Lichtenberg II.

Mehr Details zur Hardware des Lichtenberg HLR finden Sie in unserer Hardware-Übersicht.