MIN-Fakultät
Fachbereich Informatik
Rechenzentrum

Das Informatik-Rechenzentrum als IT-Servicecenter in der Universität Hamburg

Im Fach Informatik sind in hohem Maße IT-Strukturen und deren Komponenten nicht nur Anwendungsobjekte, sondern wesentlicher Bestandteil und Inhalt der Lehre und Forschung. Damit begründet sich auch die Motivation in den 80er Jahren, an vielen Informatikfachbereichen in Deutschland eigene Informatikrechenzentren aufzubauen, um den sich schnell ändernden Anforderungen an die IT-Versorgungsstrukturen in diesem Fach gerecht werden zu können. Diese sind in der Regel nicht im Rahmen einer Standard-IT-Versorgung durch ein zentrales Rechenzentrums in angemessenen Zeiten zu erbringen.

Mit der Gründung der Hamburger Informatik als senatsunmittelbare Einrichtung der Universität im Jahr 1971 wurde daher gleichzeitig das Informatik-Rechenzentrum eingerichtet und aufgebaut, um somit den speziellen Anforderungen des Faches an Hardware- und Softwaresysteme sowie an neue technische Entwicklungen gerecht zu werden, die über eine normale IT-Nutzung an den meisten Fachbereichen der Universität wesentlich hinaus gehen. Nur so konnte eine enge Wechselwirkung zwischen IT-Forschung & Entwicklung und der Informatik-Ausbildung garantiert werden, die von einem Informatik-Rechenzentrum aktiv unterstützt werden muss.

Die Aufgaben des Informatik-Rechenzentrums in der Hamburger Universität definieren sich wie folgt:

  1. zentrale fachbezogene Bereitstellung der IT-Versorgung für Zwecke der Ausbildung - Planung und Organisation der Arbeitsplatzrechner in Poolräumen,
  2. Beratung und Unterstützung von IT-Ausstattungen für Arbeitsbereiche, sofern diese nicht wegen ihrer technischen Ausrichtung eigene Speziallabore betreiben mit entsprechend ausgebildetem DV-Personal (historisch gewachsen),
  3. Aufgreifen von innovativen IT-Entwicklungen, deren pilotartiger Umsetzung, Überprüfung und Bewertung ihrer Funktionalität für eine Überführung in den regulären Rechenzentrumsbetrieb,
  4. zentrale Dienste wie Mail- und Webserver sowie Netzadministration des Stellinger Kommunikationsnetzes, sofern diese Dienste nicht zentral durch das Regionale Rechenzentrum der Universität (RRZHH) erbracht werden, sondern delegiert wurden.

Punkt 4 des Aufgabenkatalogs ist bedingt durch die starke Dislozierung der Universitätsgebäude in der Hansestadt. Die Basisbetreuung von IT-Infrastrukturen an verteilten Standorten erfordert daher insgesamt einen erhöhten Einsatz an IT-Personal.

Historische Entwicklung des Hamburger Informatik-Rechenzentrums

Das Informatik-Rechenzentrum blickt auf eine über 30jährige erfolgreiche Vergangenheit zurück. Anhand der in den vergangenen Jahren durchgeführten Aktivitäten des Informatik-Rechenzentrums lässt sich aufzeigen, in welchem Maße das Rechenzentrum die spezifizierten Aufgaben wahrgenommen hat und den hohen Ansprüchen gerecht wurde.

Die nachfolgend aufgezeigten Projekte aus den letzten 30 Jahren machen exemplarisch deutlich, wie das Informatik-Rechenzentrum in vielen Bereichen der Netzwerk-, Sicherheits- und Softwaretechnologie frühzeitig neue Technologietrends aufgegriffen und - wo notwendig oder sinnvoll - diese auch selbst aktiv mitentwickelt hat. Dieses Vorgehen halten wir weiterhin für ein wesentliches Merkmal eines innovativen Informatik-Rechenzentrums und soll auch eine Abgrenzung zu reinen Service-Rechenzentren aufzeigen, die vor allem IT-Basisdienste anbieten.

Im Rahmen der Erstausstattung wurde als zentrales Rechensystem ein DECsystem10 der Firma Digital Equipment installiert, welches Studierenden frühzeitig einen interaktiven Zugang ermöglichte, wenn dieser auch aus heutiger Sicht noch als sehr spartanisch und rudimentär anzusehen war, weil er ausschließlich zeichenorientiert war. Dieses System erlaubte jedoch gleich von Beginn an mehrere Forschungsaktivitäten auf dem Gebiet der Softwaresystem- und Netzwerk-Entwicklung, die maßgeblich vom Informatik-Rechenzentrum unterstützt wurden:

  1. Compilerentwicklung (speziell PASCAL, später auch Modula) für das DECsystem10,Implementation der Satzsysteme TeX und LaTeX,Rechnerkopplungsprojekte
    (DECsystem10 mit Prozessrechnern PDP8/11 sowie MINCAL).

    Software für die Informatik-Forschung&Lehre

    In den frühen 80ziger Jahren waren die Programmiersprachen FORTRAN und COBOL Stand der Technik, wurden aber von vielen Fachleuten als ungeeignet für eine Informatikausbildung betrachtet. Geeigneter erschienen zunächst die neu entwickelten Sprachen Algol und PASCAL, die aber anfangs nur auf vereinzelten Computersystemen installiert und nicht allgemein verfügbar waren. Unter der Federführung von Prof. H.H. Nagel wurde daher ein PASCAL-Compiler mit Laufzeitunterstützung für das DECsystem10 entwickelt und dieser vom Informatik-Rechenzentrum über viele Jahre verantwortlich gewartet.

    Die Entwicklung von PASCAL-/Modula-Compilern für den Informatik-Zentralrechner ermöglichte somit den frühzeitigen Einsatz dieser - damals wichtigen und aktuellen - Programmiersprachen/-systeme in der Informatikausbildung, der über viele Jahre fortgeführt wurde. Darüber hinaus wurden diese Eigenentwicklungen an weit über 100 Universitäten kostenlos weitergegeben, wodurch sich intensive Kooperationen entwickelten. Dies wurde auch vom Rechnerhersteller DEC in der Weise honoriert, dass mit Firmenunterstützung ein kostengünstiger Austausch des KA-Prozessors durch den leistungsfähigeren KI-Prozessor erfolgte - damals eine ansonsten extrem teure Umrüstung.

    Auch umfangreiche Anpassungen des damals innovativen Satzsystems TeX/LaTex an verfügbare Rechner und Ein-/Ausgabegeräte machten dieses System sofort in der Forschung und Lehre interessant und nutzbar, verbunden mit soliden - durch diese Entwicklungen erworbenen - Fachkenntnissen, die in die Benutzerberatung einfließen konnten. Auch diese Entwicklungen wurden damals weltweit verteilt und konnten somit an vielen Hochschulen und Forschungseinrichtungen kostenlos eingesetzt werden.

    Durch den Erfolg der frühen großen „public-domain“-Software-Projekte (Pascal, Modula, TeX/LaTeX) trat danach eine rasch zunehmende Kommerzialisierung von Software- und Programmiersystemen ein, die eine enge Kopplung von Softwareentwicklung und deren Einsatz in der Informatikausbildung zeitweise erschwert hat. Als Mitte der 90er Jahre die Entwicklung von Linux und Java einsetzte, hat das Informatik-Rechenzentrum wiederum sehr frühzeitig die Bedeutung dieser Softwaresysteme für die Informatik erkannt und aktiv mitgestaltet/verfolgt, um hier wiederum einen bald möglichen Einsatz für die Studentenausbildung zu fördern und das erforderliche Know-how für eine umfassende Beratung zu entwickeln.

    Vernetzung von Fachbereichsrechnern

    Gleich mit der Auslieferung des DECsystem10s begannen die Arbeiten an der Rechnerkopplung zwischen dem DECsystem10 und Prozessrechnern des Typs PDP8 und PDP11. Erweitert wurden diese Arbeiten im Jahr 1973 zusammen mit dem Arbeitsbereich KOGS durch den Aufbau und den Einsatz weiterer Rechnerverbindungen über Kanalkopplungen, und zwar zwischen dem DECsystem10 und den Prozessrechnern MINCAL der Firma Dietz.

    Die Beschaffung einer VAX11/780 im Herbst 1981 führte zu der Eigenentwicklung eines Terminalumschalters auf Mikroprozessorbasis, der es erlaubte, sich komfortabel von den interaktiven Arbeitsplätzen aus mit beiden Zentralsystemen zu verbinden. Zu diesem Zeitpunkt wurden damals auf dem EDV-Markt noch keine erwerblichen Systeme angeboten.

    Mit dem Aufkommen der Ethernet-Technologie Anfang der 80-Jahre konnten erste Erfahrungen mit dem Betrieb eines Rechnerverbundes aus DEC PDP11-, Dietz Mincal-Prozess-Rechnern und den ersten Workstations (DECStation2000 und SUN1) gesammelt werden.

    In den Jahren 1985/86 wurde im Rahmen eines DFN-Projektes als Pilotbetrieb ein Netzverbund im DFN-Verein zunächst auf Basis eines Datex-P-Anschlusses (mit 9.6 KBit/s) aufgebaut und betrieben. Der Fachbereich war damit auch einer der ersten in Deutschland, der über einen funktionierenden Email-Zugangsdienst verfügte. Fortführende Entwicklungen auf Basis der OSI-Protokolle (X.400 für Email, FTAM für Filetransfer) wurden ebenfalls frühzeitig aufgegriffen, aktiv umgesetzt und den Benutzern als Dienste angeboten.

    Übergang auf Client-Server Lösungen

    Ab 1987 wurde vom Informatik-Rechenzentrum statt der Nutzung von zwei Zentralsystemen (DECSystem10 (abgeschaltet am 8.11.1987) und der 1981 beschafften VAX11/780) ein Übergang auf eine Client-/Server-Lösung (Workstations - DECStations2000 unter VMS und Ultrix und SUN3/50 unter SunOS mit Servern - Vax11/780, VAX8550 und SUN3/60) eingeleitet. Die notwendige PC-Einbindung erfolgte dabei unter PCSA, Decnet-DOS, PC-NFS und PCprint; zu diesem Zeitpunkt waren dies wichtige Pilotanwendungen, über die das Informatik-Rechenzentrum auch auf Fachtagungen umfassend referiert hat.

    Wegen der räumlichen Verteilung der Informatik inzwischen auf vier Gebäude in der Stadt Hamburg (Gebäude in der Schlüterstraße, Troplowitzstraße, Bodenstedtstraße und Rothenbaumchaussee) war es ein dringendes Bedürfnis des Informatik-Rechenzentrums, den Einrichtungen des Fachbereichs ein schnelles verteiltes lokales Rechnernetz einzurichten. Ein Pilotprojekt mit der Deutschen Telekom ermöglichte im Jahr 1990 frühzeitig die Inbetriebnahme eines Glasfasernetzes, über welches mit schnellen Reaktionszeiten von allen vier Standorten aus auf die verteilt aufgestellten Client- und Serversysteme zugegriffen werden konnte.

    Aufbau und Administration des Stellinger Kommunikationsnetzes

    Mit der Zusammenführung der Informatik an einen gemeinsamen Standort im Jahr 1990 in Stellingen erhielt das Informatik-Rechenzentrum den Auftrag, ein neu aufzubauendes lokales Kommunikationsnetz auf dem Stellinger Campus mit einer schnellen Anbindung an das Universitätsnetz zu planen. Es zeichnete sich bald ab, dass das Informatik-Rechenzentrum federführend auch den Aufbau und Betrieb des Netzes zu übernehmen hatte. Durch den frühen Umzug des Informatik-Rechenzentrums im Herbst 1991 nach Stellingen ergab sich daraus folgendes neues Aufgabenportfolio:

    • Planung des Aufbaues des lokalen Netzes (Ethernet, PhoneNet, serielles Datennetz),
    • Fortschreibung der Anforderungen an das Netz und deren entsprechende
      Umsetzung,
    • Betrieb und Management des Netzes,
    • erste Ansätze zur Verbesserung der Netzwerk-Sicherheit.

    Hamburger Hochgeschwindigkeits-Rechnernetz (HHR)

    Das Informatik-Rechenzentrum wirkte auch entscheidend beim Aufbau und Betrieb des Hamburger Hochgeschwindigkeits-Rechnernetzes (HHR) mit. Dieses Hochgeschwindigkeitsnetz, welches anfangs in der Zeit von 1993 bis 1998 als Hochgeschwindigkeitsverbindung zwischen den sechs großen Hochschul- und Forschungseinrichtungen der Hamburger Region auf der Basis der FDDI-Technologie eingerichtet wurde, wurde im Jahr 1998 in ATM (Asynchronous Transfer Mode)-Technologie überführt. Hauptziel dieses Projektes war es, die technische Basis für eine intensive wissenschaftliche Zusammenarbeit der Hamburger Forschungseinrichtungen zu schaffen und gleichzeitig über einen Gemeinschaftsanschluss des DFN-Vereins (Deutsches Forschungsnetz) alle Institutionen mit einer schnellen Verbindung ins Internet auszustatten. Mit der Umstellung des B-WiNs auf das G-WiN (Gigabit-Wissenschaftsnetz) ab Juli 2000 verbot der DFN-Verein den Betrieb von Gemeinschaftsanschlüssen, so dass das Hamburger Hochgeschwindigkeitsnetz (aus Kostengründen) seinen Betrieb einstellen musste.

    In einem ATM-Pilotprojekt mit der Deutschen Telekom AG konnte während einer Laufzeit von siebzehn Monaten (von April 1995 bis September 1996) eine Analyse von Verkehrsströmen in einem ATM-Netz durchgeführt werden, in dessen Rahmen ein Verfahrensvorschlag für eine detaillierte Auswertung von Verkehrsströmen in derartigen Netzen entwickelt wurde.

    Drittmittelprojekte zur Rechner- und Netzwerksicherheit ( CERT/PCA/FWL)

    Ab 1993 bis Ende 2000 finanzierte der DFN-Verein drei Forschungsprojekte, die eng miteinander verzahnt waren:

    Im Januar 1993 konnte mit dem Pilotprojekt „CERT im DFN - Computer Emergency Response Team für das Deutsche Forschungsnetz“ begonnen werden. Ziel dieses Projektes war es, ein Konzept zu entwickeln, durch das die wissenschaftlichen Einrichtungen in Deutschland bei konkreten Sicherheitsvorfällen betreut und unterstützt werden. Dieses Projekt wurde bis Ende 1998 so erfolgreich fortgeführt, dass es aus dem Informatik-Rechenzentrum ausgegliedert und in eine GmbH, die „DFN-CERT GmbH“, überführt wurde. Parallel zu dem CERT-Projekt konnte ein Projekt „PCA - Policy Certification Authority“ im Januar 1997 aufgelegt werden, welches das CERT-Projekt um eine Zertifizierungsinstanz ergänzte. Auch dieses Projekt wurde dann Ende 2000 in die CERT GmbH eingegliedert. Ziel dieses Projekts war es, die Infrastruktur für eine Zertifizierung von öffentlichen Schlüsseln, eine Ausarbeitung von Zertifizierungsrichtlinien und den Aufbau einer (Root-)Zertifizierungsinstanz zu schaffen.

    Parallel hierzu wurden noch zwei weitere Projekte mit den Titeln „Firewall für Hochgeschwindigkeitsnetze (1997/1998)“ und „Sicherheit in ATM-Netzen (1999/2000)“ initiiert. Das erst genannte Projekt befasste sich mit der Untersuchung skalierbarer Firewall-Technologien für Fast/Gigabit-Ethernet und ATM-Netze und erarbeitete neue Lösungsmöglichkeiten, um Firewalls auch in Hochgeschwindigkeitsnetzen einsetzen zu können. Eine Fragestellung, die zu dem damaligen Zeitpunkt äußerst aktuell war und dringend auf Lösungsvorschläge wartete. In einem Anschlussprojekt wurden Sicherheitsaspekte für spezielle ATM-Hochgeschwindigkeitsnetze diskutiert und Lösungsansätze hierzu erarbeitet.

    Die genannten - renommierten - Entwicklungsprojekte haben dazu geführt, dass das Informatik-Rechenzentrum in den vergangenen Jahren eine anerkannt hohe Kompetenz besonders auf den Gebieten der Rechnersicherheit und der Hochgeschwindigkeitsnetze durch umfangreiche Arbeiten und Projekte erworben hat.

    Aktuelle Entwicklung

    In den letzten zehn Jahren folgte auch der Hamburger Fachbereich Informatik dem Trend zu einer starken Dezentralisierung der IT-Ausstattung in den einzelnen Fachbereichseinrichtungen mit zum Teil eigenständig betriebenen IT-Versorgungseinheiten, was teilweise durch fachliche Spezialisierung begründet wird. Deren Betrieb und Einbindung in das Fachbereichs- und Universitätsnetz verursachte verwaltungsmäßig und organisatorisch einen deutlich höheren personellen und apparativen Aufwand, der heute weiterhin noch verursacht wird.

    Aus diesem Grund hat das Informatik-Rechenzentrum im Frühjahr 2003 ein langfristiges IT-Konzept mit dem Titel „RZ200x“ vorgelegt, in dem vorgeschlagen wird, zukünftig im Rahmen einer Rezentralisierung die Bereitstellung diverser Compute- und Speicherkapazität sowie den Betrieb zentraler IT-Dienste (Mail, Web) im Informatik-Rechenzentrum wieder zu konzentrieren. Weiterhin wird in dem Konzept empfohlen, auch beim Ersatz von Rechnerarbeitsplätzen zukünftig verstärkt auf eine Homogenisierung der Hardware und der Betriebssysteme zu achten. Durch solche Maßnahmen lassen sich zusammen mit den heute verfügbaren schnelleren Netzen die Versorgungsstruktur in Hinblick auf eine neue Arbeitsverteilung im Sinne eines funktionsbezogenen, hierarchisch organisierten Versorgungskonzeptes wesentlich effektiver sowie ökonomischer gestalten, was sich letztendlich auch in einer Einsparung von IT-Personal für den gesamten Fachbereich auswirken könnte.

    Die Umsetzung dieses Prozesses im Fachbereich befindet sich zurzeit noch in einer Anfangsphase.

    Im Folgenden sollen die heute anstehenden Anforderungen an ein Informatik-Rechenzentrum aufgeführt und untergliedert werden (Dienstekatalog).

    1. Anwendungsbezogene(r) Betrieb/Installation/Pflege von Ausbildungs-Pools

    Eine gute und moderne Informatik-Ausbildung erfordert das Angebot eines breiten Spektrums von Plattformen und Software-Werkzeugen unter den in der heutigen IT-Wirtschaft relevanten Betriebssystemen (zur Zeit Windows, Solaris, Linux) und muss auch in der Lage sein, schnell neuere Entwicklungen der Hardware- und Software-Technik für den Einsatz in der Ausbildung zu evaluieren und bereit zu stellen.

    Im Gegensatz zu Standard PC-Installationen ist es hier von besonderer Bedeutung, dass nicht nur die Betriebssysteme regelmäßig mit Sicherheits-Updates versorgt werden, sondern es müssen Techniken entwickelt und eingesetzt werden, die es schnell und ohne großem Aufwand erlauben, neue Anwendungssysteme innerhalb kurzer Aktionszeiten bereitzustellen bzw. zu aktualisieren.

    Eine besondere Bedeutung haben hier die von Microsoft eingeführten Gruppenrichtlinien (GPOs), die eine domänenweite Kontrolle von Software-Eigenschaften (auch Updates) steuern. Der Einsatz dieser neuen Technik ist allerdings sehr komplex und erfordert immer wieder die genaue Überprüfung von Konzepten und Änderungen in Test-Umgebungen.

    Da in der Microsoft-Welt von den Software-Herstellern für Installationen und Software-Aktualisie-rungen zum Teil noch jeweils unterschiedliche Update-Verfahren eingesetzt werden, ist es von besonderer Bedeutung, hier auch moderne Imaging-Verfahren einzusetzen, die einen raschen Wechsel der Software-Umgebung ermöglichen.

    Der sehr breite Einsatz von Programmierumgebungen und Anwendungen ist nur möglich, weil Fachbereichs- und Campus-weite günstige Lizenzabkommen abgeschlossen wurden, die entsprechend aktualisiert und verteilt werden müssen. Außerdem kann inzwischen auf ein reichhaltiges Angebot an Public-Domain-Software zugegriffen werden; auch hier sind jeweils umfangreiche Tests und regelmäßige Aktualisierungen erforderlich.

    Gegenwärtig werden folgende Rechnerarbeitsplätze unter drei Betriebssystemen angeboten (ca. 150 Arbeitsplätze für die Grund- und Hauptstudiumslehre) :

    • Workstation-Pool unter Solaris (auch Thin-Client-Technik),
    • Windows XP-Pool (anwendungsbezogene Aktualisierung,
      Update-Server, Viren-Scanner),
    • Linux-Pools (durch Dual-Boot-Verfahren koexistent mit Windows),
    • Einrichtung von Compute-Clustern (Grid),
    • Single Sign-on für die drei hier eingesetzten Betriebssysteme.

    2. Anwendungbezogene/fachspezifische Beratung der Benutzergruppen

    Im Rahmen der rechnerbezogenen Lehre werden von Mitarbeitern des Informatik-Rechenzentrums Einführungsveranstaltungen zur Rechnerbenutzung sowie Kompaktkurse für spezielle Programmsysteme abgehalten. Außerdem erfolgt eine Betreuung für anwendungsorientierte Projekte und Praktika im Grundstudium. Darüber hinaus bietet das Informatik-Rechenzentrum generell allen Fachbereichsangehörigen eine fachbezogene Beratung für unterschiedliche Betriebssysteme und Softwaresysteme an.

    3. Einführung und Erprobung neuer IT-Dienste und Technologien

    Neue IT-Technologien sind in den letzten Jahren mit einer Schnelligkeit entwickelt worden - dieses gilt sowohl für Hardware als auch Software -, welche eine gründliche Beschäftigung und Auseinandersetzung mit diesen Entwicklungen voraussetzt, um somit deren Vorzüge und auch deren Grenzen auszuloten. Schlussfolgerungen für einen praktischen und effektiven Einsatz neuer Entwicklungen lassen sich in der Regel nur durch Teststellungen überprüfen und fundiert erarbeiten. Ein Informatik-Rechenzentrum ist geradezu prädestiniert, aufgrund seiner Voraussetzungen eine gründliche Validierung durchzuführen und anhand der daraus gewonnenen Ergebnisse, dann ggf. eine praktikable universitätsweite Einführung vorzuschlagen und zu konzipieren. Ein solches Vorgehen hat das Informatik-Rechenzentrum in den letzten Jahren sehr erfolgreich praktiziert, schwerpunktmäßig sollen hier genannt werden: eine frühzeitige Einführung von neuen Betriebssystemen und Netztechniken (Gigabit-Ethernet, VLAN-Technik, WLAN-Technik), sowie von speziellen Sicherheitstechniken.

    Die weitere Schwerpunktsetzung für die absehbare Zukunft lässt sich wie folgt zusammenfassen:

    • Fachbereichs-zentrale Datenhaltung mit SAN-Technik (Windows, Solaris, Linux),
    • Netzwerkweite Anbindung von Servern über iSCSI (u.a. zur Rezentralisierung),
    • Erprobung und Einführung neuer netzwerkweiter (verschlüsselter) Filesysteme (AFS, zFS),
    • Aufbau einer sicheren WLAN-Infrastruktur (mit hohem Funktionsumfang),
    • Realisierung eines benutzerspezifischen rollenbasierten VPN-Zugang,
    • Realisierung eines Intrusion Response System mit Kopplung an die FWL (FWL <-> IDS),
    • Einführung einer Infrastruktur für GRID-Computing (auch als alternative Nutzung
      der leistungsfähigen Pool-PCs in Randzeiten),
    • Erprobung und Einführung von neuen Installationstools (Update-Server, Imaging, Roaming),
    • Erprobung von Content-Management-Systemen für die effiziente Bereitstellung von WWW-Inhalten.

    Diese innovativen Entwicklungen sollen auch weiterhin in enger Abstimmung mit dem RRZ verfolgt und erprobt werden, um der Pilotfunktion für die Universität optimal gerecht zu werden.

    4. Vor-Ort-Versorgung der IT-Infrastruktur (Konzept des virtuellen Rechenzentrums)

    Die Universität ist - wie eingangs schon erwähnt - über viele Standorte in Hamburg verteilt und hat somit nicht den Status einer Campus-Universität. Hieraus leitet sich notgedrungen ein sehr stark verteilter Aufbau und Betrieb einer Basis-IT-Versorgungsinfrastruktur sowie deren Administration her. Daher wurde frühzeitig für die Hamburger Universität das Konzept des „virtuellen Rechenzentrums“ entwickelt und umgesetzt, durch das in IT-Schwerpunkten wie der Informatik, Physik und Chemie, die IT-Basisversorgung zusätzlich vor Ort durch die entsprechenden IT-Einrichtungen mit erbracht wird. Diese Funktion nimmt das Informatik-Rechenzentrum für den größten Teil des Stellinger Geländes wahr. Somit leiten sich folgende Aufgaben einer IT-Versorgung durch das Informatik-Rechenzentrum her:

    • Betrieb und Überwachung der Rechenanlagen, Printer, Switche, lokale Netze,
    • Datensicherung vor Ort (Arbeitsbereichs-Server, Recovery-Sicherung für Server), dabei sind drei Betriebssystem-Plattformen zu unterstützen,
    • Technische Betreuung und Versorgung der IT-Rechner und -Infrastruktur,
    • Planung und Beschaffung neuer IT-Geräte, Koordinierung der Bedarfsplanung, sowie der Entsorgung von IT-Geräten,
    • Gewährleistung von IT-Sicherheit (Firewall, VPNs), sowie die Durchsetzung von
      Sicherheitsrichtlinien,
    • Betrieb und Pflege FB-zentraler Server (u.a. WWW-, Mail und FTP-Server).

    5. Kooperation/Kommunikation mit universitäts-zentralen IT-Services

    Das Konzept eines virtuellen Rechenzentrums ermöglicht auch in Zukunft eine sachbezogene Aufteilung von IT-Aufgaben zwischen zentralen und dezentralen IT-Services, wodurch sich deutliche Synergie-Effekte ergeben - und schon ergeben haben - in den Bereichen, in denen eine weitere Zentralisierung nachweislich sinnvoll ist und keine anwendungsbezogene oder sonstige Spezialisierung erforderlich ist. Hierzu zählen:

    • Mail-Versorgung durch zentrale Server,
    • Zentrale Verzeichnisdienste,
    • Campus-Lizenzen, Verteilung von Standard-Software,
    • Allgemeine Beratung zu Standard-Software und Universitätsweiten Lizenzen,
    • Zentrale Beschaffung von Standard-Arbeitsplatzrechnern.

    Besonders die Einführung zentraler Verzeichnisdienste auf der Ebene der Universität oder auch der Hamburger Hochschulen erfordert und unterstützt auch die begonnenen Rezentralisierungs-aktivitäten des Informatik-Rechenzentrums.

    Zusammenfassung

    Der innovative Charakter des Faches Informatik lebt ganz wesentlich von einem sehr frühzeitigen Einsatz innovativer IT-Techniken für eine moderne und praxisorientierte Informatik-Forschung und -Lehre. Der Einsatz solcher neuartiger Techniken setzt jedoch in den meisten Fällen eine umfangreiche fachliche Unterstützung voraus, die durch eine Einrichtung, wie etwa das Hamburger Informatik-Rechenzentrum, geleistet werden muss. In diesem Beitrag konnte aufgezeigt werden, dass das Hamburger Informatik-Rechenzentrum seit seinem Bestehen die in ihn gesetzten Erwartungen in vollster Weise erfüllt hat und somit auch zukünftig als IT-Servicecenter für die Hamburger Informatik unverzichtbar bleibt.