Aktuell Verfügbar

Verfügbare Loginknoten

(Stand April 2021)

  • lcluster4.hrz.tu-darmstadt.de (obsolet, LB1)
    • 4x Sandy-Bridge, 32 Rechenkerne (AVX)
    • 128 GByte RAM, CentOS 7.x
    • 1x NVIDIA „Quadro P2000“ GPU

  • lcluster13.hrz.tu-darmstadt.de [LB2]
  • lcluster14.hrz.tu-darmstadt.de [LB2]
  • lcluster15.hrz.tu-darmstadt.de [LB2]
  • lcluster16.hrz.tu-darmstadt.de [LB2]
  • lcluster17.hrz.tu-darmstadt.de [LB2]
  • lcluster18.hrz.tu-darmstadt.de [LB2]
  • lcluster19.hrz.tu-darmstadt.de [LB2]
  • lcluster20.hrz.tu-darmstadt.de [gesperrt]
    • 2x Xeon-AP, 96 Rechenkerne (AVX512)
    • 768 GByte RAM, CentOS 8.x

Alle obigen Login-Knoten sind Bestandteil der Lichtenberg-Hochleistungsrechner.

Phase I von Lichtenberg II

Aus der Phase I von Lichtenberg II (avx512) stehen fast alle Rechenknoten uneingeschränkt zur Verfügung.

Ausnahmen Stand (Juni 2021)

  • DGX A100 Knoten befinden sich noch in Vorbereitung – derzeit noch nicht nutzbar.

Der Lichtenberg I

Seit 31. 5. 2021 ist der gesamte Lichtenberg I (avx, avx2) abgeschaltet. Nur einer seiner Loginknoten bleibt bis auf weiteres wegen der dort eingebauten GPU aktiv.

Bitte achten Sie darauf, dass Ihre Jobscripts kein

-C avx<2>

mehr enthalten, sonst laufen diese Jobs nicht mehr an.

Die Anzahl der momentan verfügbaren Rechenkerne und ihre Auslastung können Sie jederzeit mit dem Kommando csinfo anzeigen lassen.

Algemeiner Hinweis

Von Zeit zu Zeit auftretende Hardware-Probleme auf den älteren Rechenknoten diagnostiziert unser umfassender „Gesundheitscheck“ bereits vor dem Beschicken mit Rechenjobs. Solche Defekte werden dann im Rahmen der Möglichkeiten des HPC-Teams umgehend repariert.

Die aktuelle Zahl verfügbarer Rechner pro Insel können Sie sich mit dem Kommando „csinfo“ anzeigen lassen.