Compute-Cluster im Informatik-Rechenzentrum
Neben den Windows- und Linux-Arbeitsplätzen in den Poolräumen bietet das RZ Rechenmöglichkeiten in zwei Compute-Clustern an. Alle Rechner können unter Windows oder Linux laufen, werden aber derzeit wie unten angegeben betrieben.
Die Anmeldung/Reservierung erfolgt úber die RZ-Leitung und erfordert eine vorherige Absprache bzgl. der benötigten Software.
Compute-Cluster I
Das ältere Compute-Cluster wird derzeit komplett unter Windows betrieben.
Es besteht aus 8 Blade-Systemen
rzblade1 und rzblade4-10
mit jeweils
2 Opteron DualCore-Prozessoren 2.6 GHz (insgesamt
32 Rechnerkerne) und 4-8 GB Hauptspeicher, die flexibel als
Windows-Compute-Cluster (64-bit) oder als Linux-Cluster (SuSE 10.2)
– auch jeweils als Teil-Cluster – eingesetzt werden können.
Der Zugriff auf das Cluster ist geschützt, um angemeldeten Nutzern und Gruppen auch den exklusiven Zugriff garantieren zu können. Um eine möglichst gute Nutzung des Clusters zu ermöglichen, sollen vorzugsweise nur die wirklich für die Anwendung notwendigen Teil-Cluster reserviert werden, so dass auch mehrere Nutzer gleichzeitig das Cluster nutzen können.
Jeweils eine Blade wird grundsätzlich fest unter einem Betriebssystem (Windows bzw. Linux) betrieben; die restlichen Blades je nach Reservierung:
- 1 Compute-Head
rzblade1unter MS Windows Compute Cluster Server 2003 (CCS) mit 8 GB RAM, 2*150 GB Festplatte (RAID) und SAN-Zugriff - 1 Compute-Knoten
rzblade4unter MS Windows mit 8 GB RAM, 2*150 GB Festplatte und SAN-Zugriff - 6 Compute-Knoten
rzblade5-10unter MS Windows mit 4 GB RAM, 2*70 GB Festplatte, flexibel in Cluster integrierbar
Nutzungsmöglichkeiten:
- Windows Compute-Cluster mit 2-9 Compute-Knoten (mit MPICH2),
unterstützt durch Entwicklungswerkzeuge (Visual Studio, …) - Reservierung einzelner Blade-Systeme im direkten Zugriff
(eine Blade liefert bereits die bis zu 5-fache Rechenleistung bisheriger SingleCore-Standard-PCs)
Die Clusterlösungen ermöglichen primär eine automatische Lastverteilung auf die Compute-Knoten, teilweise aber auch die Berücksichtigung von Ressourcen-Anforderungen, z.B. Speicheranforderungen, Lizenzen; daneben kann das Cluster sehr komfortabel überwacht werden. Zusätzlich kann die schnelle Kopplung zwischen den Blades genutzt werden, was aber vom Nutzer entsprechend vorbereitet werden muss (unter Nutzung des MPICH2-Standard für parallele Programme oder durch eigene Lösungen).
Abgesichert wird der Zugriff auf das Compute-Cluster über Security-Gruppen, die vom RZ gepflegt werden:
- INF_RZComputeServer_Users
- für reservierte Cluster
- INF_RZTerminalServer_Users
- für die Head-Knoten (etwas offener)
Da die Microsoft-Lösung: "Windows Compute-Cluster Server" (CCS) noch relativ neu ist, finden Sie hierzu weitere Informationen unter folgenden URLs:
dabei insbesondere:- CCS Technical Overview
- CCS Reviewers Guide
Zum Standard für parallele Programmierung (MPICH2) siehe:
und auch obige Links.
Compute-Cluster II - Suse / Windows 2008 Server HPC
Das zweite Compute-Cluster wird derzeit unter
OpenSuSE 11.4 (64-Bit) betrieben.
Es besteht aus 9 Blade-Systemen
ccblade1-7, ccblade9 und ccblade17
mit jeweils 2 Quad Core Intel Xeon-Prozessoren 2.27GHz (insgesamt
72 Rechenkerne) und 12-24 GB Hauptspeicher. Im November 2012 wurde
das Cluster um 3 weitere Blades ccblade10-12 unter Suse Enterprise Server 11
(weitere 36 Rechenkerne) erweitert.
Alle Blades können bei Bedarf unter Windows HPC Server 2008 betrieben werden! Derzeit wird für Windows eine Aktualisierung auf Server 2012 angestrebt.
Zur besseren Performance wurde auf eine Virtualisierung verzichtet und nur ein Teil der Dienste aktiviert.
Das RZ richtet fehlende Software und Funktionalität z.B. zur Parallelrechnung auf Anfrage ein, bitte melden Sie sich
mit Anregungen und Anforderungen frühzeitig. Neben der üblichen Linuxpool-Softwareausstattung sind unter OpenSuse vor allem Matlab
und Povray 3.7 (Aufruf als povray37,
bietet gegenüber 3.6 Multithreading an) installiert.
Derzeit gibt es keine vom System erzwungenen Zugriffsbeschränkungen; wir gehen davon aus, dass sich die Benutzer selbst verantwortlich und ressourcenbewusst verhalten. Für begrenzte Zeit und bei genügend freiem Plattenplatz kann Anwendern auf den Systemen lokal Festplattenspeicher zur Verfügung gestellt werden.
Wartung
Um eine effiziente Software-Pflege der Compute-Cluster zu gewährleisten, legen wir Montag 9-11 Uhr als Wartungszeitraum fest, in dem die Cluster u.U. nicht verfügbar sind.