MIN-Fakultät
Fachbereich Informatik
Rechenzentrum

Compute-Cluster im Informatik-Rechenzentrum

Neben den Windows- und Linux-Arbeitsplätzen in den Poolräumen bietet das RZ Rechenmöglichkeiten in zwei Compute-Clustern an. Alle Rechner können unter Windows oder Linux laufen, werden aber derzeit wie unten angegeben betrieben.

Die Anmeldung/Reservierung erfolgt úber die RZ-Leitung und erfordert eine vorherige Absprache bzgl. der benötigten Software.

Compute-Cluster I

Das ältere Compute-Cluster wird derzeit komplett unter Windows betrieben. Es besteht aus 8 Blade-Systemen rzblade1 und rzblade4-10 mit jeweils 2 Opteron DualCore-Prozessoren 2.6 GHz (insgesamt 32 Rechnerkerne) und 4-8 GB Hauptspeicher, die flexibel als Windows-Compute-Cluster (64-bit) oder als Linux-Cluster (SuSE 10.2) – auch jeweils als Teil-Cluster – eingesetzt werden können.

Der Zugriff auf das Cluster ist geschützt, um angemeldeten Nutzern und Gruppen auch den exklusiven Zugriff garantieren zu können. Um eine möglichst gute Nutzung des Clusters zu ermöglichen, sollen vorzugsweise nur die wirklich für die Anwendung notwendigen Teil-Cluster reserviert werden, so dass auch mehrere Nutzer gleichzeitig das Cluster nutzen können.

Jeweils eine Blade wird grundsätzlich fest unter einem Betriebssystem (Windows bzw. Linux) betrieben; die restlichen Blades je nach Reservierung:

Nutzungsmöglichkeiten:

  1. Windows Compute-Cluster mit 2-9 Compute-Knoten (mit MPICH2),
    unterstützt durch Entwicklungswerkzeuge (Visual Studio, …)
  2. Reservierung einzelner Blade-Systeme im direkten Zugriff
    (eine Blade liefert bereits die bis zu 5-fache Rechenleistung bisheriger SingleCore-Standard-PCs)

Die Clusterlösungen ermöglichen primär eine automatische Lastverteilung auf die Compute-Knoten, teilweise aber auch die Berücksichtigung von Ressourcen-Anforderungen, z.B. Speicheranforderungen, Lizenzen; daneben kann das Cluster sehr komfortabel überwacht werden. Zusätzlich kann die schnelle Kopplung zwischen den Blades genutzt werden, was aber vom Nutzer entsprechend vorbereitet werden muss (unter Nutzung des MPICH2-Standard für parallele Programme oder durch eigene Lösungen).

Abgesichert wird der Zugriff auf das Compute-Cluster über Security-Gruppen, die vom RZ gepflegt werden:

INF_RZComputeServer_Users
für reservierte Cluster
INF_RZTerminalServer_Users
für die Head-Knoten (etwas offener)

Da die Microsoft-Lösung: "Windows Compute-Cluster Server" (CCS) noch relativ neu ist, finden Sie hierzu weitere Informationen unter folgenden URLs:

dabei insbesondere:

Zum Standard für parallele Programmierung (MPICH2) siehe:

und auch obige Links.

Compute-Cluster II - Suse / Windows 2008 Server HPC

Das zweite Compute-Cluster wird derzeit unter OpenSuSE 11.4 (64-Bit) betrieben. Es besteht aus 9 Blade-Systemen ccblade1-7, ccblade9 und ccblade17 mit jeweils 2 Quad Core Intel Xeon-Prozessoren 2.27GHz (insgesamt 72 Rechenkerne) und 12-24 GB Hauptspeicher. Im November 2012 wurde das Cluster um 3 weitere Blades ccblade10-12 unter Suse Enterprise Server 11 (weitere 36 Rechenkerne) erweitert.

Alle Blades können bei Bedarf unter Windows HPC Server 2008 betrieben werden! Derzeit wird für Windows eine Aktualisierung auf Server 2012 angestrebt.

Zur besseren Performance wurde auf eine Virtualisierung verzichtet und nur ein Teil der Dienste aktiviert. Das RZ richtet fehlende Software und Funktionalität z.B. zur Parallelrechnung auf Anfrage ein, bitte melden Sie sich mit Anregungen und Anforderungen frühzeitig. Neben der üblichen Linuxpool-Softwareausstattung sind unter OpenSuse vor allem Matlab und Povray 3.7 (Aufruf als povray37, bietet gegenüber 3.6 Multithreading an) installiert.

Derzeit gibt es keine vom System erzwungenen Zugriffsbeschränkungen; wir gehen davon aus, dass sich die Benutzer selbst verantwortlich und ressourcenbewusst verhalten. Für begrenzte Zeit und bei genügend freiem Plattenplatz kann Anwendern auf den Systemen lokal Festplattenspeicher zur Verfügung gestellt werden.

Wartung

Um eine effiziente Software-Pflege der Compute-Cluster zu gewährleisten, legen wir Montag 9-11 Uhr als Wartungszeitraum fest, in dem die Cluster u.U. nicht verfügbar sind.