Jupyterhub

Allgemeine Informationen

  • Die Jupyterhub Instanz des AI-Labors ist unter dem folgenden Link erreichbar. Die Anmeldung erfolgt dort mittels des HAW-Accounts.
  • Jupyterhub prüft alle zehn Minuten, ob das gestartete Notebook noch als Fenster im Browser geöffnet ist. Wenn Jupyterhub das Notebook länger als acht Stunden nicht erreichen kann, dann wird dieses automatisch beendet. Dadurch soll verhindert werden, dass die Ressourcen nicht unnötig lange von nur einer Person in Anspruch genommen werden können.
  • Die Ressourcen (GPUs, CPUs etc.), die mittels Jupyterhub zur Verfügung gestellt werden, stehen nur in beschränkter Stückzahl zur Verfügung. Da die Benutzer sich diese Ressourcen teilen, kann es dazu kommen, dass bei der Erstellung eines Notebooks bestimmte Ressourcen nicht zur Verfügung stehen.
    Bitte nutzen Sie nur die Ressourcen, die Sie auch wirklich benötigen, damit andere Benutzer nicht unnötig lange auf diese warten müssen.
    Für Vorbereitungen nutzen Sie bitte die CPU-Images (alle Notebooks eines Benutzers binden denselben Speicher ein).

Ressourcen

  • Bei Jupyterhub stehen verschiedene Profile zur Verfügung, mittels derer gesteuert wird, mit welchen Ressourcen ein Notebook gestartet wird. Die genaue Ressourcenzuteilung entnehmen Sie den Profilen, welche Ihnen angezeigt werden, wenn Sie sich bei Jupyterhub anmelden.
  • Standardmäßig stehen jedem Benutzer 20 GB persistenter Speicher zur Verfügung. Dieser Speicher wird als Volume aus der ICC bereit gestellt. Alle Notebooks eines Benutzers greifen auf dasselbe Volume zu.
    Der persistente Speicher ist auf Anfrage erweiterbar. Nutzen Sie dazu die Kanäle, welcher unter dem Punkt Support aufgelistet sind.
  • Insgesamt stehen folgende Karten zur Verfügung:
    • 8 Tesla V100
    • 16x 1/4 Tesla V100s (4 Karten)

Leistungsdaten der GPUs

Tesla V100 Tesla V100s *
Double-Precision Performance 7 TFLOPs 8,2 TFLOPs
Single-Precision Performance 14 TFLOPs 16,4 TFLOPs
Tensor Performance/Deep Learning 112 TFLOPs 130 TFLOPs
RAM 16 GB HBM2 32 GB HBM2
RAM Bandbreite 900 GB/s 1134 GB/s

*: Es stehen 4 GPU-Karten zu jeweils einem Viertel zur Verfügung. So ergeben sich 16 vGPUs, die vorrangig für Praktika genutzt werden.

Weitere Informationen zur Tesla V100 und Tesla V100S stehen auf der Seite von Nvidia zur Verfügung.