Informationen zur Darstellung dieser Seite in älteren Browsern

Logo der Universität Hamburg
Logo des Fachbereich Informatik

MIN-Fakultät

Fachbereich Informatik




Inhalt:

Sammlung realer Ausfälle und Störungen von Kommunikationsnetzen

    Martin Kulas, Aaron Kunde (2007) und Martin Hinsch (2013)

Inhaltsverzeichnis

1. Aufgabenstellung

Diese Arbeit entsteht im Rahmen des Projekts ”Entwicklung und Modellierung von Netzkomponenten” unter der Anleitung von Herrn Dr. Klaus-Dieter Heidtmann. Sie greift die Sammlung realer Ausfälle und Störungen von Martin Kulas und Aaron Kunde aus dem Jahre 2007 auf [KK07]1, um sie zu aktualisieren und fortzuführen.

2. Zusammenfassung (Abstract)

Die Kommunikation über das Internet ist für uns zu einer alltäglichen Selbstverständlichkeit geworden. In unserer Freizeit können wir online im Versandhandel unseren Wocheneinkauf ordern, mittels Tweets, Blogs und Facebook lassen wir die Welt an unserem Leben teilhaben. Das Massenphänomen E-Mail scheint auf längere Sicht durch die schnellere Kommunikationsart der Social Media - mit dem Smartphone als Medium - verdrängt zu werden. Als weitere Entwicklung ändert sich momentan (2012) das Datenspeicherungsverhalten von Privatanwendern und Unternehmen. Durch den Trend des Cloud Computing werden die bisher lokal vorgehaltenen Daten nun auf einem Server im Internet gespeichert. Seitens der Unternehmen sind geringere Kosten ein Grund für dieses Outsourcing von Nicht-Kernkompetenzen, auf Seiten der Privatanwender steht die Ubiquität der persönlichen Daten im Vordergrund.

Ist uns nun der Zugriff auf das Internet sowie das Senden und Empfangen von E-Mails nicht möglich, merken wir erst, wie stark wir auf das Medium Internet und die zugrunde liegenden Kommunikationsnetze angewiesen sind. Die Onlineüberweisung funktioniert dann eben sowenig wie das Telefonieren über Skype oder den Festnetzanschluss, insofern dieser auf Internettechnik (NGN2) basiert. Aktuell erreichen uns immer wieder vereinzelt Meldungen von in ihrer Funktion gestörten Diensten wie Amazons Cloud [hei11c] oder die Beeinträchtigung des Datenverkehrs im arabischen und südostasiatischen Raum durch die Beschädigung mehrerer Unterwasser-Glasfaserkabel im Jahre 2008 [hei08e]. Viele private Internetnutzer haben eine Störung ihres eigenen Internetanschlusses oder Mobilfunknetzes erfahren und gegebenenfalls auch dokumentiert [hei]. Als Angestellter eines Unternehmens hat man vielleicht einen solchen Blackout bereits miterlebt. Dieser letztgenannte Vorfall wird mitunter aus geschäftspolitischen Motiven nicht öffentlich dokumentiert oder bekanntgegeben. Es ist daher schwierig, geeignete Informationen zum Ausfall und dessen Ursache(n) zu finden sowie eine Bewertung vorzunehmen. Diese Sammlung soll einen Überblick über die (Nicht-)Zuverlässigkeit der Netze verschaffen3 .

3. Die Ausfälle und Störungen

Um einen groben Überblick über die von uns ausgesuchten Ausfälle und Störungen haben wir Tabelle 1 aufgestellt. Die Spalten der Tabelle haben dabei folgende Bedeutung:

  • Kurzbeschreibung gibt dem Ausfall/der Störung einen Namen.
  • Wann hat das Unglück begonnen (Datum)?
  • Wie lange hat man benötigt den Schaden zu beheben (Dauer)?
  • Welche Region ist vom Ausfall/Störung betroffen gewesen?
  • Was ist die Ursache für den Ausfall gewesen? Dabei sind folgende Ursachen möglich:
    • Naturkatastrophe (Natur): Mutter Natur hat gewütet.
    • Hardwareausfall/-störung (HW): Hardware hat (teilweise) den Betrieb eingestellt.
    • Softwareversagen (SW): Die Software hat nicht funktioniert wie gewünscht.
    • Menschliches Verhalten (Mensch): Das kann ein Bedienfehler sein, oder ein anderes Verhalten, das zum Netzausfall/-störung führt.
    • Wenn wir über keine oder zu wenig Informationen über die Ursache des Ausfall/der Störung verfügen, kennzeichnen wir dies mit dem Wort unklar.
  • In welche Kategorie kann der Ausfall eingeordnet werden? Folgende Kategorien stehen zur Auswahl:
    • Energienetze (führt häufig zum Ausfall anderer Dienste wie des Internets).
    • Internet.
    • Kommunikation (Telefon, Satellit, andere Netzwerke).
    • Mobile Netze (führt zum Ausfall des mobilen Internets).
    • Seekabel (führt meistens auch zu Ausfall des Internets).

Angeführt haben wir keine Spalten, die die Kosten des Ausfalles/der Störung oder die Anzahl der betroffenen Personen angeben. Es ist sehr schwierig, Zahlen dafür zu bekommen. Waren uns die Zahlen bekannt, haben wir diese in den Ausarbeitungen zu den einzelnen Fällen angebenen. Die genauere Betrachtung der einzelnen Fälle geschieht in den folgenden Abschnitten.

Tabelle 1: Übersicht der Netzausfälle und -störungen dieser Sammlung
Kurzbeschreibung Datum Dauer Region Ursache Kategorie
ENISA-Report, SCADA 11.10.2012   Europa   Energienetze
WLAN-Mesh 28.08.2012   Darmstadt   Mobile Netze
sipgate 10.08.2012 11 Stunden Deutschland Mensch Mobile Netze
Indien Blackout 30.07.2012 2 Tage Indien Mensch, HW Energienetze
Olympia 2012 28.07.2012 90+ Minuten London HW, Mensch Mobile Netze
Informatikum Stellingen II 05.07.2012 wenige Stunden Hamburg HW Internet
SMS-Versand Silvester 31.12.2012   Deutschland SW, HW, Mensch Mobile Netze
Blackberry II 10.10.2011 5 Tage weltweit HW Mobile Netze
Hurrikan Irene 27.08.2011 3 Tage USA Natur Mobile Netze
GEMA-Angriff 22.08.2011 einige Tage Deutschland Mensch Internet
Amazon-Cloud II 07.08.2011 2+ Tage Europa Natur Internet
Amazon-Cloud I 21.04.2011 2 bis 4 Tage Nordamerika Mensch, SW Internet
Fukushima 11.03.2011 Tage bis Jahre Japan Natur, HW alle Kategorien
Domain .de 12.05.2010 1.5 Stunden Deutschland SW, Mensch Internet
Fehlerkaskaden Italien 15.04.2010 12 Stunden Italien Mensch, HW Energienetze, Internet
Gmail II 02.09.2009   weltweit SW, Mensch Internet
Kabel-BW 30.07.2009 5 Tage Deutschland unklar Internet
Gmail I 24.02.2009 2.5 Stunden weltweit SW, Mensch Internet
Seekabel Mittelmeer 18.12.2008 10 Tage Mittelmeer, Asien Mensch Seekabel
Seekabel Backbone 30.01.2008 10 Tage Mittelmeer, Asien Mensch Seekabel
Kamerun 31.10.2007   Kamerun   Seekabel
NTT 15.05.2007 7 Stunden Ost-Japan SW Internet
Internet2 01.05.2007 4 Stunden New York/Boston Mensch Internet
Estland 28.04.2007 2 Wochen Estland Mensch  
BlackBerry I 17.04.2007 11 Stunden USA SW Internet
T-V-H 25.03.2007 3 Monate Vietnam Mensch Seekabel
google.de 23.01.2007 < 1 Tag Deutschland Mensch Internet
Mailservice bei 1&1 15.01.2007 mehrere Stunden Erde HW Internet
Erdbeben in Asien 27.12.2006 ca. 5 Wochen China, Taiwan, Südkorea Natur Seekabel
Island Kabelbruch 17.12.2006 mehrere Wochen Island Natur Seekabel
Informatikum Stellingen I 11.10.2006 2.5 Tage Informatik Uni Hamburg Mensch Internet
W3A-Ausfall 09.10.2006 mehrere Stunden Europa, Nordafrika, Mittlerer Osten unklar Internet
DNS .ES 30.08.2006 zwei Stunden Spanien Mensch Internet
Arcor München 03.08.2006 mehrere Stunden Münchner Raum Natur, HW Internet
Thailand GSM 18.05.2006 mehrere Stunden Thailand Mensch Mobile Netze
all-ink.com 22.10.2005 mehrere Stunden Erde HW Internet
DE-CIX 17.10.2005 1 Stunde Deutschland SW Internet
Level 3 21.10.2005 ca. 3 Stunden USA, Europa SW, Mensch Internet
Westösterreich 23.08.2005 mehrere Tage Westösterreich Natur Internet, Mobile Netze
Google DNS 07.05.2005 15 Minuten Erde SW Internet
Schweiz DSL 14.04.2005 mehrere Stunden Schweiz unklar Internet
Intelsat804 14.01.2005 Totalaufall Südpazifik, Südpol HW Kommunikation
Intelsat Americas 7 28.11.2004 Totalausfall Nord-, Mittelamerika HW Kommunikation
Mittelhessen Telefon 10.11.2004 19 Stunden Mittelhessen SW Kommunikation
isp-service 24.08.2004 mehrere Stunden Deutschland HW Internet
T-Mobile 27.02.2004 4.5 Stunden MVP und Nordbrandenburg SW Mobile Netze
UK Internet traffic 25.11.2003 15 Stunden Amerika, Europa HW Internet
US-Kanadischer Blackout 14.08.2003 7 Stunden bis 2 Tage Kanada, USA Mensch, SW Energie
E-Plus 27.10.2000 mehrere Stunden Deutschland SW Mobile Netze
Strato 22.12.1999 6 Stunden Deutschland Mensch Internet
T-Online 22.10.1997 mehrere Stunden Deutschland SW Internet
Internet DNS 17.07.1997 4 Stunden Erde Mensch Internet
AOL 08.08.1996 mehrere Stunden Erde SW Internet
Ausfall Vermittlungsrechner 17.09.1991 4 Stunden New York unklar Kommunikation
Programmkorrekturversuch 27.06.1991 mehrere Stunden USA SW Kommunikation
Kabelunterbrechung NJ 04.01.1991 2 Tage New Jersey Mensch Kommunikation
Störung AT&T 15.01.1990 9 Stunden USA SW Kommunikation
ARPANET 12.12.1986 11 Stunden USA unklar Kommunikation

3.1 ENISA- Incident Report 2011 und Defizite kritischer Infrastrukturen (11.10.2012)

Störungen in der (Internet-)Infrastruktur in Europa beeinträchtigen in erster Linie (zu ca. 60 %) das mobile Internet oder den Mobilfunk. Dies geht aus dem Annual Incident Report 2011 der ENISA4 (siehe dazu auch Abschnitt 7.2) hervor. Dabei sind im Schnitt 300.000 Menschen bei einem Zwischenfall betroffen. Diese hohe Zahl lässt sich durch den hohen Verbreitungs- bzw. Nutzungsgrad der Technologien erklären. Die meisten Störungen wurden durch fehlerhafte Software und Hardware verursacht. Die Stromversorgung stellt einen wichtigen Einflussfaktor bei der Zuverlässigkeit der Kommunikationsinfrastruktur dar. “Naturphänomene wie Stürme, Überflutungen oder starke Schneefälle” haben laut [hei12g] die Netze der Provider bis zu 45 Stunden beeinträchtigt. Fällt der Strom aus, können viele Mobilfunkstationen nur wenige Stunden mit ihrer Notstromversorgung - meistens in Form von Batterien - auskommen [DK12].

Umso wichtiger ist der ”Schutz kritischer Infrastrukturen” wie der Energieversorgung. Die Steuerung und Überwachung vieler industrieller Anlagen wird mittels computergesteuerter Prozessleitsysteme (SCADA5) realisiert.

SCADA Schema.png
Abbildung 1: SCADA: schematischer Überblick [hei12j].

 
Wurden in der Vergangenheit solche Systeme zumeist als vom Internet getrennte Systeme betrieben, setzt sich die TCP-basierte Vernetzung inklusive Internetzugang zwecks Fernwartung immer mehr durch. Die hohen Einspareffekte sind der Grund. Ein Problem der eingesetzten Informationstechnik ist der lange Lebenszyklus ”von 15 bis 20 Jahren”: Häufig sind noch Windows NT 3.51 oder 4 als Steuerserver im Einsatz, welche jedoch schon lange keine Wartung durch Microsoft erfahren. Zudem ist es möglich, einen SCADA-System-Absturz mittels eines einfachen Portscans herbeizuführen. Dies ruft Amateur- wie Profi-Hacker auf den Plan. Schon Skript-Kiddies können mit frei erhältlichen Tools wie Shodan6, ERRIP7 oder Nmap8 ohne großes Hintergrundwissen einen Computer - zunächst passiv - angreifen. Der Schutz der kritschen Infrastrukturen gewinnt immer mehr Bedeutung. Vor dem Hintergrund der Energiewende in Deutschland könnte der ”Ausbau der erneuerbaren Energien” ein Antrieb für eine erhöhte Sicherheit von Industrieanlagen sein, falls diese in dynamische Stromnetze (Smart Grids) eingebunden werden. Gleichzeitig bietet die Kombination von ans Internet angebundenen Messsystemen und miteinander über Funk kommunizierenden Geräten (Smart Metering 9, Hausautomation oder mobile Stromspeicher10) ähnlich viele Angriffsmöglichkeiten wie vorhandene SCADA-Systeme [hei12h].

3.2 WLAN-Mesh als Notfunknetz in Stadtgebieten (28.08.2012)

Im Katastrophenfall ist die Kommunikation der Ersthelfer48 am Einsatzort essentiell. Eine schnelle Helfer-Koordination mit einer leistungsfähigen und ausfallsicheren Infrastruktur ist zwingend notwendig. Unter Umständen ist die geringe Skalierung der den Rettern zur Verfügung stehenden Infrastruktur problematisch: die eingesetzten Funkstationen könnten durch die Katastrophe zerstört sein, mobile Funkstationen könnten eine zu geringe Knotendichte für ein funktionierendes Netzwerk aufweisen.

Durch unter einander verbundene Ad-hoc-Netzwerke könnten robuste Netze für den Katastrophenfall mittels einfacher handelsüblicher WLAN-Router geschaffen werden. Erweiterte man diese Router um eine spezielle Firmware mit implementierter WLAN-Mesh49-Technik, könnte man zur bereits vorhandenen privaten Funkzelle (SSID) ein weitere, logisch getrennte WLAN-Funkzelle aufspannen. Dieser Multi-SSID-Verbund wird bereits von vielen Heim-Routern und ihrer (Original-)Firmware unterstützt. Das Feature ist auch als ”Gastnetz” bekannt und wird von freien Funknetzen wie FON oder Freifunk benutzt.

Die Eignung von vermaschten Funknetzen (WLAN-Meshes) als Notfunknetz wird stetig erforscht: Wissenschaftler der Technischen Universität Darmstadt untersuchten mittels Wardriving, wie WLAN-Router in ihrer Stadt verteilt sind. Dazu benutzten sie eine erweiterte Version der Android-App wardrive50 und scannten in regelmäßigen Abständen die Standorte der 1971 WLANs. Um eine möglichst genaue Positionsbestimmung vornehmen zu können, wurden möglichst viele Datenpunkte (Multilateration) verwendet. Anschließend wurde auf Basis der gewonnenen Daten ein virtuelles Mesh-Netzwerk konstruiert und mit Hilfe des GTNA51 die graphentheoretischen Eigenschaften des Netzwerkes analysiert.

Im Ergebnis stellte sich eine Kommunikationsdistanz von 30 Metern als geeignet für das Konstruieren eines WLAN-Meshes in Stadtgebieten heraus. Rund 98 % aller Router waren im untersuchten Areal erreichbar. Jeder Netzknoten hatte durchschnittlich 10,8 benachbarte Knoten (wichtig für die Robustheit des Netzes) und bestand aus circa 50 isolierten Clustern52. Das größte einzelne Teilnetz bestand aus 71 % aller Knoten. Die Forscher konnten nun 16 % der am besten vernetzten Knoten (Hubs) aus dem Netzwerk entfernen, ohne dass sich eine bedeutende Änderung der Netzwerktopologie ergab. Mit vergrößerter Kommunikationsdistanz von 60 m erhöhte sich zwar auch die Anzahl der Nachbarknoten, die Hop-Distanz und damit der Routing-Aufwand und letztlich die Stromkosten stiegen aber enorm.

WLANMesh Darmstadt
Abbildung 2: Verteilung der WLAN-Router in Darmstadt [PM12].

Die Verwendung von privaten Konsumenten-Routern in einem WLAN-Mesh als Notfunknetz im Katastrophenfall könnte zukünftig in Stadtgebieten zum Einsatz kommen. Die praktische Umsetzung hätte dann noch einen weiteren Stolperstein vor der Realisierung aus dem Weg zu räumen: Fällt das explizit für Ersthelfer konzipierte BOS-Digitalfunknetz53 aus, wird wahrscheinlich auch die Stromversorgung in ihrer Funktionalität eingeschränkt sein. Private WLAN-Router würden dann auch nicht funktionieren und müssten eine zusätzliche Akkunotversorgung vorhalten [hei12i] [PM12].

3.3 Mobil-Rufnummern von sipgate one nicht erreichbar (10.08.2012)

Der VoIP-Anbieter sipgate bietet unter der Bezeichnung ”sipgate one” einen Sammeldienst für Mobil-Rufnummern an. So sind zum Beispiel unter einer einzigen sipgate-Mobilfunknummer die eigenen Telefone (Festnetz, Handy und Skype) erreichbar. Der Ausfall ereignete sich am 10.08.12 [hei12f]. Er dauerte von 6:15 bis 17:30 Uhr und sorgte dafür, dass die Mobil-Rufnummern mit der Vorwahl 01570 nicht erreichbar waren. Der Grund des Ausfalls war die “Eröffnung eines vorläufigen Insolvenzverfahrens über einen Zulieferer” [sip12]. Das Routing aller Rufnummer im Bereich des Zulieferers Telelogic wurde aufgrund des Insolvenzverfahrens blockiert. Nach rund zehn Stunden Ausfall funktionierte das Zustellen der Anrufe an Telelogic wieder. Das Bundesministerium der Verteidigung (BMVg) intervenierte wegen der hohen Wichtigkeit des Zulieferers für die ”Betreuungskommunikation” der Bundeswehrtruppen in Afghanistan. Die Deutsche Telekom stellte die Anrufe wieder zu [Pre12]. Kurze Zeit später funktionierte auch der Dienst ”sipgate one” wieder.

3.4 Über 600 Millionen Inder ohne Strom (30.07.2012 und 31.07.2012)

An einem Montag gegen 02:30 Uhr IST11 inmitten des Sommermonsuns fiel Ende Juli für mehr als ein Viertel der indischen Bevölkerung der Strom aus. Auf den Straßen der Großstädte war ein totaler Verkehrsstillstand die Folge. Viele Netzanschlüsse von Banken fielen aus, die großen Industriebetriebe hatten allerdings mit Dieselgeneratoren als Backup vorgesorgt. Die Ursache des Ausfalls war ein extrem hoher Strombedarf in dem nördlichen Bundesstaat Uttar Pradesh12. Hohe Temperaturen erhöhten die Stromnutzung in den Städten und der Monsun ließ viele Bauern ihre Pumpen verstärkt gebrauchen. Dieser zusätzliche Bedarf überstieg die Stromkapazität des Bundesstaates bei Weitem und daher wurde aus dem nationalen Stromnetz massiv Strom gezogen. Das Stromnetz konnte den Anforderungen nicht standhalten und brach daher zusammen. Als erstes fiel die 400 kV-Leitung Bina-Gwalior aus, es folgte das durch die defekte Leitung versorgte Agra-Bareilly-Umspannwerk. Im Rahmen dieser Kaskade wurden immer weitere Leitungen, Umspannwerke und Kraftwerke abgeschaltet13. Indien standen in kürzester Zeit 32.000 Megawatt nicht mehr zur Verfügung. Um vier Uhr nachmittags stand das Netz wieder zur Verfügung[MR12].

Nachdem die Stromversorgung wiederhergestellt wurde, brach am darauffolgenden Dienstag gegen 13:00 Uhr IST das Stromnetz erneut zusammen. Das System war durch die Reaktivierung der Netze instabil geworden [DL12a]. Diesmal war mehr als die Hälfte der indischen Bevölkerung betroffen. Der plötzliche Stromausfall ließ abrupt 500 Bahnen nicht mehr weiterfahren, hielt einige Tausend U-Bahn-Fahrer in der Hauptstadt über eine Stunde gefangen und verhinderte, dass einige hundert Bergarbeiter nicht aus ihrer Mine ans Tageslicht zurückkehren konnten [DL12b].

Affected indian states 2012
Abbildung 3: Vom Ausfall betroffene indische Bundesstaaten sind dunkelrot gefärbt [Wik13b].

Eine Hauptschuld an diesen Ausfällen trug die indische Regierung, welche seit Jahrzehnten versäumt hat, in ihre Netze zu investieren und geltende Gesetze konsequent durchzusetzen. Dadurch resultiert unter anderem ein 40 % -tiger Leitungsverlust. Dieser lässt sich zum einen mit der schlechten Verfassung der Leitungen erklären. Ein anderer, schwerwiegenderer Grund sind Stromdiebstähle14.

Einige Bundesstaaten wie Westbengalen15 haben durch Reformen ihren Stromsektor unabhängig von Klientelpolitik weniger Einzelner gestaltet. Regelmäßige Stromrationierung sowie -ausfälle16 sind hier völlig unbekannt [Den12]. Von den Ausfällen ebenfalls nicht betroffen waren die wichtigen Industrie-Zentren Bangalore (Luft- und Raumfahrt, IT und Biotechnologie) und Hyderabad (Biotechnologie, Pharmaindustrie sowie Elektro- und Softwareindustrie), welche sich beide südlich der betroffenen Bundesstaaten befinden.

Die Regierung setzte ein Komitee zur Untersuchung der Ausfälle ein. Als Ursachen wurde die Schwächung des Stromnetzes durch viele Leitungsausfälle und eine anschließende Überladung großer 400 kV-Leitungen angeführt. Weiter wären fehlerhafte Reaktionen der bundesstaatlichen Elektrizitätswerke 17 auf die teilweise extrem erhöhten Strom-Bedarfsanforderungen der regionalen Elektrizitätswerke 18 in den nördlichen und westlichen Regionen mitschuldig. Um diesen Ausfällen vorzubeugen, schlug das Komitee eine Reihe von Verbesserungsvorschlägen vor. Zu diesen zählten eine Revision der Sicherungssysteme (englisch: audit of the Protection systems), ein verbessertes Katastrophenmanagement und eine bessere Durchsetzung der bestehenden Gesetze zur Bestrafung von übermäßigen Strombedarfsanforderungen durch regionale RLDCs. Das Komitee schloss eine vermutete Cyberattacke auf die von SCADA-Systemen gesteuerten Kraftwerke als Ursache aus, für eine einwandfreie Überwachung und Steuerung des Stromnetzes empfahl sie dennoch den Auf- bzw. Ausbau eines MPLS 19-basierenden IT-Netzwerks [Min12].

3.5 Olympia: Twitter-Nutzer stören Datenübertragung (28.07.2012)

Die Spiele der XXX. Olympiade 2012 fanden vom 25. Juli bis 12. August 2012 in London statt [The12]. Einen Tag nach der Eröffnungsfeier folgte am 28.07.2012 das Straßenradrennen der Männer. Während der Live-Übertragung kam es zu einem massiven technischen Problem. Viele der über eine Million Menschen am Straßenrand kommentierten das Rennen über soziale Medien und überlasteten das mobile Netz damit völlig. Es war über 90 Minuten lang nicht möglich, Positions- und Zeitabstände zwischen den Fahrern an die Organisatoren zu übermitteln. Die Kommentatoren und Zuschauer erhielten keinerlei Informationen über das Rennen. Erstgenannte mussten improvisieren und nutzten teilweise die Twitter-Feeds als Statusupdate-Medium. Die Überlastung des Netzes nahm infolgedessen noch zu, weil sich die Zuschauer über die mangelnde Berichterstattung über soziale Medien beschwerten.

Vor den Spielen wusste niemand, wie die Mobilfunknetze die täglich über 200.000 Besucher des Olympia-Parks verkraften würden [Zie12]. Neben dem öffentlich verfügbaren Mobilfunk hatten die Organisatoren zusätzlich diverse kostenlose WLAN-Angebote installiert. Die massive Datenübertragung in Form von Schnappschuss-Updates auf Google+ und Facebook, jede Menge Tweets und das Ansehen von Videostreams führten zur Überlastung vieler mobilen Netze. Der technische Dienstleister der Olympischen Spiele Olympic Broadcasting Services (OBS) versuchte die GPS-Daten der Fahrer über andere Mobilnetze umzuleiten, bis schließlich die Datenübermittlung wieder funktionierte. Nach dem Zwischenfall empfahl der Pressechef des IOCs54 den Zuschauern nicht auf die Nutzung von sozialen Medien zu verzichten. Sie mögen jedoch nur “urgent updates” verschicken, solange das Fahrerfeld in ihrer Nähe sei [Kel12].

3.6 Universität Hamburg - Informatikum Stellingen (05.07.2012)

Am 05.07.2012 fiel um die Mittagszeit die Glasfaserleitung (inzwischen eine 10 GBit/s-Leitung) vom Rechenzentrum zum Informatikum aus. Der Ausfall wurde von der Netzwerkmonitoring-Software NAGIOS [Reg13] entdeckt. Laut dem Leiter der RRZ-Netzgruppe Herrn Henken war die benutzte Glasfaser ausgefallen. Aufgrund festgelegter Kriterien und Schwellenwerte - z.B. eine ping-Antwort überschreitet das festgelegte Zeitfenster - wurde der gesamte Datenverkehr über die Richtfunkverbindung Geomatikum-Informatikum umgeleitet (siehe VLAN 816 in Abbildung 4). Diese wurde als redundante Verbindung nach einem Ausfall im Jahre 2006 geschaffen (siehe Abschnitt 4.9).

UHH VLAN 816
Abbildung 4: Richtfunkverbindung Geomatikum-Informatikum: Lastspitze des VLANs 816 während des Kurzausfalls [Net11b].

Zur Behebung der Kabelstörung setzen sich die Mitarbeiter des RRZ sogleich mit dem Betreiber Dataport32 der Glasfaserleitung in Verbindung und ließen eine Dark Fibre33 des bestehenden Kabelstrangs in Betrieb nehmen. Am Nachmittag des selben Tages wurde die Glasfaserleitung zum Informatikum wieder aktiv.

Die Benutzer im Informatikum erfuhren durch diesen Ausfall erst im Nachhinein via Mailingliste, kaum jemand hatte den Leitungsausfall und damit die temporäre Geschwindigkeitsdrosselung auf 100 MBit/s mit der Funkverbindung bemerkt. Dies ist erstaunlich positiv, da sich die täglichen Lastspitzen des Netzwerkverkehrs im Informatikum inzwischen auf ca. 160 Mbit/s erhöht hatten. Die erste große Bewährungsprobe der Funkstrecke im Normalbetrieb war ein voller Erfolg und zeigte auch wieder die Notwendigkeit dieser Investition.

3.7 SMS-Versand an Silvester (2000 bis 2012)

Um die Jahre der Jahrtausendwende kam es über die Weihnachtsfeiertage und speziell an Silvester in vielen Mobilfunknetzen zu Überlastungen. Die Netzkapazitäten und die für die “Verteilung der Kurznachrichten zuständigen Server” der Mobilfunkanbieter hielten dem zeitweiligen Ansturm nicht stand. Die Mobilfunkkonzerne erhöhten nach den Erfahrungen der Vorjahre die Kapazitäten ihrer Netze. Trotzdem wurde durch MMS-Nachrichten eine höhere Belastung der Netze erwartet. Insgesamt wurden im Jahr 2003 19 Milliarden SMS verschickt; 86 % der Handybesitzer verschickten Kurznachrichten [hei12a].

2005 verschickten T-Mobile-Handynutzer über die Weihnachtstage 45 Millionen SMS. Zu Silvester waren es 56 Millionen Kurznachrichten im T-Mobile-Netz [dh12b]. Auf das Jahr gerechnet, wurden im T-Mobile-Netz über Weihnachten und Neujahr zusammen rund 0,5 % aller deutschlandweiten SMS von insgesamt 20,3 Milliarden SMS verschickt.

2008 erwartete der IT-Branchenverband BITCOM59 für die Silvesternacht den Versand von rund 300 Millionen Kurznachrichten. Im gesamten Jahr 2008 wurden rund 27,8 Milliarden SMS in deutschen Mobilnetzen verschickt [dh12c], und somit rund 1 % aller SMS zum Jahreswechsel.

Am 21.03.2009 gegen 16 Uhr fiel aufgrund eines fehlerhaften Softwareupdates das gesamte T-Mobile-Netz aus. Die Steuerung der Verbindungen zwischen Mobilfunkstationen und Endgeräten, die Home Location Register (HLR), funktionierten nicht mehr. Rund 40 Millionen Kunden konnten über mehrere Stunden nicht mobil telefonieren oder mobile Dienste nutzen [hei12e]. Als Entschädigung für den massiven Ausfall durften T-Mobile-Kunden am 27.04.2009 kostenlos SMS verschicken. Dieses Angebot wurde mit 85 Millionen verschickten Kurznachrichten sehr intensiv genutzt. Die Nutzung stellt einen neuen Tagesrekord im T-Mobile-Netz für die Anzahl der versendeten SMS dar [hei12d].

Durchschnittlich versendeten die Deutschen im Jahr 2010 rund 1.300 SMS pro Sekunde, oder rund 112 Millionen pro Tag und circa 500 SMS pro Bürger. Laut BITCOM besitzen rund 83 % der Deutschen über 14 Jahre (ca. 59 Millionen Bürger) ein Mobiltelefon, von denen im Schnitt 700 SMS jährlich verschickt werden. Seit 2006 steigt die Anzahl der verschickten Nachrichten kontinuierlich an. Der Grund für den Anstieg liegt in der vermehrten Nutzung von Flatrate-Angeboten durch die Mobilfunkkunden[BIT11] [hei12c].

Im Gegensatz zum Anstieg der versendeten Kurznachrichten in 2011 auf 55 Milliarden SMS stagnierte der Umsatz bei rund 3,1 Milliarden Euro. Gründe dafür seien die vielen alternativen Internet-Messaging-Dienste wie WhatsApp, die für die Provider weltweit Umsatzeinbußen in Milliardenhöhe verursachten [BIT12] [dh12a].

SMS-Versand in Deutschland
Abbildung 5: SMS-Versand [Bun11].

3.8 Blackberry: Ausfall mehrerer Dienste (10.10. bis 14.10.2011)

Ab circa 11 Uhr des 10. Oktober 2011 waren mehrere Online-Dienste des Herstellers RIM55 nicht erreichbar. Kunden konnten weder ihre E-Mails abrufen, im Internet surfen noch den kostenlosen Kurznachrichten-Dienst Blackberry Messenger (BBM) nutzen [Wil11]. Von dem Ausfall betroffen waren laut RIM Privatkunden in Europa, dem Mittleren Osten und Afrika. Einen Tag später musste das Unternehmen zugeben, dass die Dienste auch in Indien, Brasilien, Chile sowie Argentinien unter anderem durch “messaging delays and impaired browsing” gestört seien. Zudem seien auch Geschäftskunden mit eigenen Blackberry-Server (BES56) betroffen. Am 12. Oktober konnte RIM die Ursache der Störung mitteilen: ein “Core-Switch” sei in einem Network Operation Center (NOC) in Slough (UK) ausgefallen. Das Umschalten auf ein Backup-Switch sei ebenfalls fehlgeschlagen. Nach dem Austausch der defekten Hardware wurde der Rückstau an E-Mails sukzessive abgearbeitet. Alle Dienste standen am 14.10.2011 wieder zur Verfügung [hei11b] [hei11d]. Als Kompensation für die tagelangen Ausfälle bot RIM seinen Kunden kostenlos Apps im Wert von 100  US-Dollar an. Geschäftskunden wurde der technische Supports für einen Monat geschenkt [Wöl11]. Vielen Anwendern schien dieser Ausgleich nicht zu reichen. Kanadische und US-Amerikanische Nutzer verklagten RIM auf Schadensersatz, der Ausfall hätte die Kläger in ihrer Produktivität eingeschränkt, ihnen Schaden zugefügt und einen Verlust an Geld verursacht [Her11b]. Analysten schätzen die möglichen Kosten für den Schadensersatz auf zwischen 15 und 26 Millionen US-Dollar [Her11a].

3.9 Hurrikan Irene stört Mobilfunk an der Ostküste der USA (30.08.2011)

Am 15. August 2011 hatte der tropische Wirbelsturm Irene seinen Ursprung in der Nähe der Kleinen Antillen in der östlichen Karibik. Auf seinem Weg durch die nordöstliche Karibik verursachte der Sturm zunächst nur kleinere Schäden im Bereich der Kleinen Antillen. Je weiter nördlich das Unwetter zog, desto größer wurden die Schäden. So meldeten Puerto Rico, die Dominikanische Republik, Haiti, die Turks- und Caicosinseln und die Bahamas weitreichende Überflutungen, Stromausfälle für mehr als eine Million Bewohner und Engpässe in der Trinkwasserversorgung. An der Ostküste der USA waren vom 27. August 2011 bis 29. August 14 Staaten von Florida über South und North Carolina bis New York, Vermont und Maine im Norden betroffen [Wik12b].

Hurrikan Irene Route
Abbildung 6: Route des Hurrikans Irene [Wik12b].

Laut der staatlichen Federal Communications Commission (FCC, siehe auch Abschnitt 7.2) verursachte Irene keinen riesigen Schaden an der Kommunikationsinfrastruktur. Dafür fielen ca. 6.500 Funkzellen in den betroffenen Staaten aus, trotz Generatoren und Batterien als Backup. Außerdem fielen am Sonntag, den 28. August 2011, zunächst 130.000 Telefonleitungen und 500.000 Kabelanschlüsse aus. Diese Zahlen erhöhten sich am folgenden Tag auf 210.000 bzw. eine Million Kunden ohne ihre normalerweise verfügbaren Dienste. Die betroffenen amerikanischer Provider hatten vor dem Sturm bereits Vorbereitungen getroffen und zum Beispiel den Einsatz mobiler Funkstationen angekündigt. Über Twitter und Flickr wurden die Kunden über die Maßnahmen der Vorbereitungen und den Status der Reparaturarbeiten informiert. Ebenso wurden mit Hilfe von Crowdsourcing57 Karten über den Stand der Reparaturen, der Schäden und verschiedener Anlaufstellen für Hilfe erstellt. Dies war nur durch den redundanten Aufbau der Netze möglich. Wo Kabel ausfielen, sprangen kabellose Netzwerke ein, mobile Funkstationen ersetzten ausgefallene Funkzellen [IEE11].

3.10 Anonymous legt GEMA-Seite lahm (22.08.2011)

Die Vereinigung der Namen- (und auch Kopf)losen34 ist eine Hackergruppierung im Internet. Einzelpersonen und Gruppen versuchen mit Hilfe von Computern und deren Netzwerken politische Ziele zu erreichen, zum Beispiel die Wahrung der Rede- und Pressefreiheit. Bekannt wurde das Kollektiv durch zahlreiche Protestaktionen: mittels koordinierter Internetangriffe (”Operationen”) wurden Server von verschiedenen Regierungswebseiten (u.a. die des FBI), Kreditkartenfirmen (Operation Payback), Urheberrechtsgesellschaften (GEMA), Sony und Scientology vorübergehend übernommen und/oder Serverdienste unerreichbar gemacht.

Bei den meisten Internetangriffen wurden Distributed Denial of Service (DDoS)-Attacken gegen die Webseiten durchgeführt. So auch bei Angriffen auf die GEMA-Webseite am 17.06.2011 sowie am 22.08.2011. Beim ersten Angriff war die Seite nur kurzzeitig nicht erreichbar, dafür wurde eine Nachricht an die GEMA auf YouTube hinterlassen [Ano11]. Der zweite Angriff begann mit einer SQL-Injection, führte zur Übernahme der benutzten VMWare-ESX-Server und veränderte die Homepage der GEMA dahingehend, dass eine automatische Weiterleitung auf einen anderen Server mit einer Sperrmeldung im YouTube-Stil35 implementiert wurde. Die GEMA musste den Server für einige Tage vom Netz nehmen [hei11e]. Der Protest richtete sich gegen die noch ausstehende Einigung der Verwertungsgesellschaft und Google als YouTube-Betreiber über eine angemessene Vergütung der Urheber.

3.11 Amazon-Cloud gestört II (07.08.2011)

Der europäische Teil des Amazon-Cloud-Dienstes EC2 nebst seinem Angebot an relationalen Datenbanken RDS42 wurde am 07. August 2011 durch einen Blitzeinschlag in einem Transformator in der Nähe von Dublin gestört. Der Vorfall begann um 10:41 Uhr PDT, ein Neustart betroffenen Instanzen begann rund drei Stunden später [hei11a]. Betroffenen waren beinahe sämtliche EC2-Instanzen sowie rund 60 % der EBS-Volumes. Die Wiederherstellung von EBS-Volumes verzögerte sich allerdings stark. Gründe dafür waren eine manuelle Synchronisation der Stromaggregate und die teilweise problematische Wiederherstellung der betroffenen Volumes. Es gab laut post mortem drei Status-Kategorien der EBS-Volumes:

  1. online. Die virtuellen Maschinen funktionierten weiterhin, da keiner der Knoten einen Stromausfall zu verzeichnen hatte.
  2. re-mirroring. Einige Knoten der Volumes fielen aus, die übrigen versuchten die Daten zu replizieren. Es gab allerdings zu wenig Speicherkapazität für alle Volumes. Die Erhöhung der Kapazität musste durch neue physikalische Server zeitaufwändig durchgeführt werden. Sobald die Kapazität zur Verfügung stand, gingen die Volumes nach einem erfolgreichem Replizieren wieder online.
  3. offline. Die EC2-Instanz und alle Knoten, welche die EBS-Volume-Daten enthalten, hatten keinen Strom. Es konnte seitens Amazon kein konsistenter Zustand der Daten mehr garantiert werden, so dass mittels EBS-Snaphots eine Wiederherstellung konsistenter Volumes versucht wurde. Um 8:25 Uhr PDT waren 98 % aller Snapshots wiederhergestellt. Ein Programmierfehler im Backup-System führte jedoch bei einigen virtuellen Maschinen zu Datenverlusten.

Der größte Teil des EC2-Dienstes stand rund 26 Stunden später wieder zur Verfügung.

Als Entschädigung für den tagelangen Ausfall schrieb Amazon seinen Kunden zehn Tage kostenlose Nutzung seiner EBS-, EC2- oder RDS-Dienste gut. Die Kunden mit fehlerhaften Snapshots erhielten zusätzlich 30 Tage kostenlose EBS-Nutzung [ama11a].

3.12 Amazon-Cloud gestört I (21.04.2011)

Der Cloud-Dienst Amazon EC236 hatte in den Jahren 2011 und 2012 mehrfach mit Ausfällen oder Störungen zu kämpfen. Im April 2011 wurden in einem EC2-Rechenzentrum in Norden von Virginia (USA) gegen 09:55 Uhr (MESZ) von Amazon Verbindungsprobleme registriert, welche man ab 13:00 Uhr versuchte zu beheben [hei11c]. Tausende kleinere Start-Ups wie Foursquare37 oder Reddit38 konnten ihre Dienste nicht anbieten [Gob11]. Nach einigen Stunden bis Tagen waren die meisten Kunden-Dienste wieder online. Es wurde spekuliert, dass es beim Ausfall zu einer Fehlerkaskade (englisch: cascade of failures) beim Ausfall von physikalischen Geräten bzw. Netzen gekommen sei [Ros11]. Eine Woche später musste Amazon gegenüber seinen Kunden zugeben, dass durch den Ausfall auch Kundendaten verloren gingen. Snapshots von 0,07 % aller betroffenen EBS-Volumes39 konnten nicht mehr wieder hergestellt werden [Blo11].

Amazon stellte am 29. April ein post mortem40 online. Zum Verständnis der Ausfallursachen wird zunächst der Aufbau der EC2-Infrastruktur mit der Funktionalität des EBS beschrieben. Ein EBS besteht aus einer Menge von EBS-Clustern, welche Daten speichern und Anfragen bearbeiten, sowie einer Menge von Steuerungsdiensten (englisch: control plane services). Ein EBS-Cluster wiederum besteht aus einer Menge von EBS-Knoten (englisch: nodes). Diese speichern Kopien (englisch: replicas) von EBS-Volume-Daten und bedienen Schreib- und Leseanfragen von EC2-Instanzen. Zur Erhöhung der Datensicherheit und -verfügbarkeit werden die EBS-Volumen-Daten mit verschiedenen EBS-Knoten repliziert. Alle Knoten sind durch zwei Netze miteinander verbunden: das primäre Netz mit einer hohen Bandbreite wird für die Kommunikation zwischen den EBS-Knoten, EC2-Instanzen und EBS-Steuerungsdiensten benutzt. Über das sekundäre Netz findet die Kommunikation der Knoten untereinander und die Replikation der Volume-Daten statt. Das zweite Netzwerk ist mit einer geringeren Bandbreite ausgestattet und ist nicht für die Menge des Datenverkehrs des primären Netzwerks ausgelegt.

Der Obduktionsbericht beschreibt die Ursachen des Ausfalls folgendermaßen: Durch ein fehlerhaften Change (Upgrade der Kapazität des primären Netzwerks) wurde gegen 0:47 Uhr PDT41 der komplette Datenverkehr dem sekundären Netzwerk zugeordnet. Das sekundäre Netzwerk konnte dem Traffic nicht standhalten, mehrere EBS-Knoten wurden von anderen Knoten isoliert und trennten sich von ihren übergeordneten Clustern. Das Ergebnis war die gleichzeitige Abschaltung des primären und des sekundären Netzwerks [ama11b]. Durch diese Abschaltung verloren viele EBS-Knoten in einem Cluster ihre Verbindung zu ihren Replikas. Als die fehlerhafte Zuordnung des Datenverkehrs korrigiert und die Netzwerkkonnektivität wieder hergestellt war, suchte eine große Anzahl an Knoten sofort nach einem Partner zur Datenreplikation der Volumes. Die Kapazität des EBS-Clusters war schnell erschöpft, so dass viele Knoten in einer Schleife auf der ständigen Suche nach einem Cluster mit freien Speicherplatz hingen. Dieser “re-mirroring storm” bedeutete effektiv, dass auf circa 13 % aller Volumes nicht zugegriffen werden konnte (englisch: stuck volumes). Gleichzeitig sorgte ein Programmierfehler im Code der EBS-Knoten dafür, dass durch die hohe Anzahl an Replikationsanfragen viele Knoten ausfielen, sich noch mehr Volumes im Status ”stuck” befanden und noch mehr Verbindungsanfragen erzeugt wurden. Die Degradierung des Clusters hatte zur Folge, dass er Anfragen der APIs wie ”Create Volume oder ”Create Snapshot” nicht mehr bedienen konnte. Andere Cluster konnten dadurch ebenfalls keine API-Anfragen mehr bearbeiten.

Letztendlich wurde jegliche Kommunikation zwischen dem degradierten Cluster und dem EBS-Steuerungsdienst durch das Amazon Web Services-Team unterbrochen. Danach brachten die Entwickler einige Patches zur Stabilisierung der Kommunikation zwischen den einzelnen Servern und Knoten ein. Gegen Mittag des 21. April war der betroffene Cluster stabilisiert. Von nun an wurden neue Wege entwickelt, wie die verbliebenen Volumes wieder eingebunden werden konnten. Dazu wurden am 22. April gegen 2:00 Uhr PDT sehr zeitaufwändig neuer Speicherplatz (physikalische Server) in den degradierten Cluster integriert und die Wiederherstellung der Volumes begann. Dadurch wurde ein Großteil der Volumes wiederhergestellt, einige Volumes verblieben aber im Staus ”stuck”. Die Kommunikation zwischen den Volumes und dem EBS-Steuerungsdienst konnte erst nach langen Vorarbeiten an einer feinjustierten Drosselung des Status-Datenaustausches (englisch: throttling of the state propagation) zwischen den EBS-Knoten und dem EBS-Steuerungsdiensten angegangen werden. Damit wurde verhindert, dass es einer erneuten Überforderung des Steuerungsdienstes kam. Im Anschluss konnten einige Volumes aus ihrem ”stuck”-Status befreit werden (circa 18:15 Uhr PDT am 23. April). Die restlichen 2,2 % der betroffenen Volumes mussten manuell wiederhergestellt werden, wobei dies bei 0,07 % nicht gelang und dies zu Datenverlust führte (24.April) [ama11b].

3.13 Tōhoku-Erdbeben und Reaktorkatastrophe von Fukushima (11.03.2011)

In der Region Tōhoku im Nordosten der japanischen Hauptinsel Honshu ereignete sich vor der Küste der Präfektur Miyagi um 14:46:23 Ortszeit (06:46:23 MEZ) ein Seebeben. Das Epizentrum lag rund 130 km östlich von der Millionenstadt Sendai in ungefähr 32 km Tiefe. Die Stärke des Hauptbebens60 betrug laut dem USGS [U.S12] 9,0 MW 61, die Dauer betrug ungefähr zwei bis fünf Minuten.

Epizentrum des Erdbebens in Japan
Abbildung 7: Epizentrum des Erdbebens in Japan am 11.03.2011 [Wik13a].

Nur wenige Minuten nach dem Beben gab die Japan Meteorological Agency62 (JMA) eine Tsunamiwarnung für die Ostküste Japans heraus. Die JMA ging für Miyagi von bis zu sechs Meter, in Iwate und Fukushima von bis zu drei Meter hohen Wellen aus. Die restliche Ostküste sollten Wellen von bis zu zwei Meter Höhe treffen. In Wirklichkeit erreichten die Wellen an der Küste von Sendai bis zu zehn Meter, beim Kernkraftwerk Fukushima I sogar 15 Meter Höhe. Ein Küstenstreifen von zehn Kilometern Breite und mehreren hundert Kilometern Länge wurde so verwüstet.

Das AKW Fukushima-Daiichi mit seinen sechs Reaktorblöcken wurde nach 23 Sekunden von den Primärwellen des Bebens erreicht. Die automatische Schnellabschaltung der Reaktoren wurde in Gang gesetzt und die Notkühlung ohne Probleme aktiviert. Gegen 15:35 Uhr überschwemmten Tsunami-Wellen von bis 15 Metern Höhe das AKW. Diverse Notstromaggregate und Wasserpumpen fielen aufgrund der Überschwemmungen aus, die Kühlung der Reaktoren 1 bis 4 und des Abklingbeckens konnte nicht mehr gewährleistet werden. Explosionen in den betroffenen Reaktorblöcken folgten vom 12. bis 15. März. Kontaminierte Reaktorbauteile, Wasser und Dampf gelangten in die Luft, in den Boden und ins Meer. Monatelange wurden die Reaktoren unter hohen technischem63 und personellem Aufwand stabilisiert [TEP11]. Es wird 30 bis 40 Jahre dauern, bis alle Brennstäbe entfernt und alle betroffenen Reaktoren rückgebaut sein werden [Jap11]. Rund um die AKWs sind Sperrzonen von bis zu 80 km eingerichtet worden. In betroffenen Gebieten werden Dekontaminierungsmaßnahmen wie das Abtragen von Böden durchgeführt. Zudem wurden in vielen Orten Japans digitale Geigerzähler64 zur (Des-)Information der Bevölkerung an den Straßen errichtet [Cha12] [Sch12].

Die Folgen der Katastrophe waren verheerend. Über 15.800 Tote, 6.114 Verletzte und über 2.700 Vermisste meldete die National Police Agency (NPA) Japans65. Über eine halbe Million Menschen wurden evakuiert und mussten in Notunterkünften versorgt werden. Über fünf Millionen Menschen waren ohne Strom, mehr als eine Million Haushalte hatten keinen Zugang zu Wasser. Über 396.000 Gebäude stürzten teilweise oder ganz ein, 727.940 Häuser wurden beschädigt. Über 4.000 Straßen und 129 Brücken wurden zerstört, 45 Dämme brachen und 29 Bahnstrecken müssen repariert werden [Nat12]. Diverse Elektronikkonzerne wie Sony und Toshiba mussten ihre Produktion von Halbleiterchips und anderer Elektronik aufgrund von Schäden aussetzen.

Das Stromnetz war nach dem Erdbeben und der Abschaltung der Reaktoren in Fukushima und Niigata von großen Engpässen betroffen. Japans größter Energieversorger TEPCO66 verlor bis zu 25 % seiner ursprünglichen Stromerzeugungskapazität und konnte nur ungefähr 30 Gigawatt Leistung liefern [Kyo11]. Das Netz hatte lange danach mit Blackouts zu kämpfen und konnte nur mit Hilfe von Stromrationierungen für die industriellen und privaten Abnehmer einen Totalausfall verhindern [SHG11].

Wie Bloomberg [YS11] berichtete, wurde das Mobilnetz in den Regionen Tohoku, Kanto and Tokai massiv beschädigt. Die größten Mobilfunkprovider KDDI67, SoftBank Mobile68 und NTT DoCoMo69 verzeichneten 3.800, 3.786 und 6.720 ausgefallene Basisstationen. Als direkte Notmaßnahme wurden von NTT 830 Satellitentelefone, 1.184 Mobiltelefone, 30 mobile Basisstationen, 400 Stromgeneratoren und 100 Aufladestationen für Mobiltelefone bereit gestellt. Nach 12 Tagen konnten die drei Provider zwischen 60 (KDDI) und 90 % (NTT) der Stationen reparieren. Die verbleibenden Reparaturarbeiten würden eine nicht kalkulierbare Zeit in Anspruch nehmen, da die Infrastruktur durch die Überschwemmungen völlig zerstört sei oder in der Sperrzone eines havarierten Atomkraftwerks lägen. Die Instandsetzungen hätten sich insbesondere auf die Verfügbarkeit von mobilen Netzen konzentriert. Ein Umstand, der den immer wiederkehrenden Stromausfällen im Festnetzbereich geschuldet ist und die starke Nutzung mobiler Medien70 in Japan widerspiegelt. In den Tagen nach dem Erdbeben wuchs der Marktanteil der mobilen Internetaufrufe im Verhältnis zu den Computer-basierten Internetaufrufe um über 0,6 % an. Japans gesamter Internetverkehr stieg aufgrund des hohen Informationsbedürfnisses der japanischen Bevölkerung exponentiell an [com11] [Ng11].

Das Erdbeben und der Tsunami führten zu Ausfällen oder Funktionsbeeinträchtigungen diverser Glasfaserseekabel. Das Asia Pacific Cable Network-2 (APCN-2)-Kabel mit einer Gesamtlänge von 19.000 Kilometern und das East Asia Crossing-Netzwerk (EAC-C2C) von Pacnet mit 36.500 km Gesamtlänge und einer Kapazität von bis zu 30,72 TBit/s verbinden große Teile Ostasiens71 miteinander und fielen in Teilen aus [McM]. Mehrere Segmente der den Pazifik durchquerenden Kabel Japan-U.S. Cable Network (JUS)72 und Pacific Crossing-1 (PC-1) 73 von NTT wurden beschädigt [Nip] [Tel12].

Japan Landungsstationen
Abbildung 8: Landungsstationen für Seekabel in Japan [Mal11].

Wie TeleGeography74 berichtete, verursachten einige ausgefallenen Netzwerkrouter in den Landungsstationen Ajigaura und Kitabaraki zwischen Tokio und Fukushima die Störungen. Insgesamt ging die durchschnittliche Übertragungskapazität von 170 GBit/s auf 70 GBit/s zurück [Mal11]. Die Provider konnten größtenteils auf alternative Routen umsteigen, so dass es zwar zu einer Beeinträchtigung der Netze, nicht jedoch zu einem Totalausfall kam. Wann die Reparaturarbeiten gänzlich abgeschlossen waren und die volle Kapazität wieder zur Verfügung stand, konnte nicht ermittelt werden.

Trotz aller technischen Probleme in den Mobilnetzen und einiger Seekabelunterbrechungen seien Japans Netze insgesamt aber durch ihre Dichte und Diversität (“density and diversity of the networks”) sehr redundant aufgebaut75, so dass regionale Netzausfälle größere Ausfälle außerhalb der Krisenregionen verhindert hätten.

3.14 Domain .de Ausfall (12.05.2010)

Die Top-Level-Domain .de war von 13:30 Uhr MESZ nicht erreichbar. Eine Namensauflösung über die DNS-Server der DENIC fand nicht mehr statt. Die DNS-Server meldeten, dass die angefragte Domain nicht existiere (NXDOMAIN43). Nur durch die Caches der Internet-Provider konnten einige .de-Domains überhaupt noch über das Internet erreicht werden. Der Ausfall betraf auch den E-Mail-Verkehr, da an .de gerichtete bzw. von .de gesendete E-Mail-Adressen nicht mehr zugestellt wurden. Eine “fehlerhafte Aktualisierung der Nameserverdaten an 12 von 16 Standorten” habe zum Ausfall der Domain geführt. Bei diesem Vorgang wird aus der Registrierungsdatenbank44 die Zonendatei neu erzeugt und anschließend an die jeweiligen Standorte kopiert. Der Kopiervorgang wurde beim dem Vorfall allerdings unterbrochen, ein Sicherungsmechanismus wertete den Fehler falsch aus und es kam zum Ausfall. Das Problem stehe im “unmittelbarem Zusammenhang mit dem Projekt zur Erneuerung der Nameserverinfrastruktur, das auch ein neues Konzept für die Zonenverteilung vorsieht”. Das Problem wurde gegen 15:00 behoben, kurze Zeit später stand der Service wieder vollständig zur Verfügung. Eine detaillierte Erklärung im PDF-Format steht nicht mehr auf der DENIC-Homepage zur Verfügung [hei10b] [hei10c] [hei10d] [DEN10].

3.15 Fehlerkaskaden und ihre katastrophalen Auswirkungen in voneinander abhängigen Netzwerken (15.04.2010)

Am 28. September 2003 kam es in Italien gegen 3:27 Uhr (MESZ) zu einem Stromausfall, der ganz Italien betraf (englisch: Blackout). Durch den schwerwiegendsten Ausfall in Italien seit über 70 Jahren mussten 56 Millionen Menschen für ungefähr 12 Stunden ohne Strom auskommen. Die Transitleitungen Nord-Süd durch die Schweiz waren in der Nacht des Vorfalls stark belastet. Italien importierte mehr Megawatt als vertraglich vereinbart. Gegen 3:01 Uhr berührte die 380 kV Stromoberleitung Mettlen-Lavorgo (auch Lukmanier-Leitung genannt) einen Baum und ging vom Netz. Die Stromlast verteilte sich nun auf die übrigen Leitungen, so dass die wichtige Nord-Süd-Transitstrecke Sils-Soazza (auch San Bernardino-Leitung genannt) eine Last von 110 % trug. Nach Einschätzung des Schweizer Netzbetreibers ETRANS20 würde die Leitung diese Überlast für bis zu 15 Minuten problemlos aushalten können. ETRANS kontaktierte um 3:11 Uhr den italienischen Netzbetreiber GRTN21 und forderte diesen auf die Importabweichung von ungefähr 300 MW zu reduzieren. Dieser Aufforderung folgte GRTN zehn Minuten später. Geplante weitere Reduzierungen der Stromlast auf den Transitleitungen und insbesondere auf der San Bernardino-Leitung durch das Abschalten von Pumpspeicherwerken durch die GRTN und der französischen RTE22 konnten nicht mehr vorgenommen werden: um 3:25 Uhr kam es zum Erdschluss und damit zur Abschaltung der San Bernardino-Leitung. Die so erzeugte Überlast auf den verbliebenen anderen Leitungen ließ alle Transitleitungen innerhalb von zwölf Sekunden ausfallen. Innerhalb der zwölf Sekunden gingen durch die sehr geringe Netzspannung mehrere Kraftwerke vom Netz. Das Stromnetz Italiens war damit vom europäischen UCTE23-Netzverbund (siehe auch Abschnitt 7.1) isoliert. Die Kombination aus dem Ausfall von Leitungen und Kraftwerken führte um 3:27 Uhr zum Blackout [BN03] [UCT03].

Das Abschalten der Kraftwerke führte direkt zum Ausfall von Netzwerkknoten im internet-basierten Kommunikationsnetz der Kraftwerke. Dies führte wiederum zu erneuten Abschaltungen von Elektrizitätswerken. Der wechselseitige Prozessablauf in diesen beiden voneinander abhängigen Netzwerken (englisch: interdependent networks) wird als sogenannte Fehlerkaskade (englisch: cascade of failures) bezeichnet. Ein Forscherteam aus den USA und Israel analysierte auf Grundlage des Blackouts in Italien 2003 die Widerstandsfähigkeit in voneinander abhängigen Netzwerken beim Auftreten einer Fehlerkaskade. Dazu benutzen sie reale Systemüberwachungsdaten aus einem Stromnetz und einem Internetnetzwerk. Beide Netze waren an dem Blackout 2003 beteiligt und bedingen sich in ihrer Funktion gegenseitig.

Die Forscher fanden heraus, dass voneinander abhängige Netzwerke extrem empfindlich auf zufällige Fehler reagieren. Entfernt man nur wenige Knoten aus dem einen Netzwerk, kann dies zu einer iterativen Fehlerkaskade in mehreren abhängigen Netzwerken führen24. Bezogen auf das oben genannte Beispiel in Italien hatte der Ausfall eines Stromnetzknotens eine Fehlerkaskade zur Folge, welche beide Netzwerke in Fragmente zerlegte. In den folgenden drei Abbildungen 9, 10 und 11 wird der Prozessablauf einer iterativen Fehlerkaskade dargestellt:

Nature model italy a
Abbildung 9: Ein rot markiertes Kraftwerk (auf der Landkarte) wird aus dem Stromnetzwerk entfernt. Vom Kraftwerk abhängige, rote Knoten aus dem Internetnetzwerk (über der Landkarte) werden ebenfalls entfernt. Grün markiert sind die Knoten, welche im nächsten Iterationsschritt aus dem noch vollständigen Cluster (eine Menge zusammenhängender Elemente) entfernt werden [BPP+10].

Nature model italy b

Abbildung 10: Weitere vom Internetnetzwerk getrennte, rote Knoten (über der Landkarte) werden aus dem Cluster entfernt. Von ihnen abhängige, rot markierte Kraftwerke (auf der Landkarte) werden aus dem Stromnetzwerk entfernt. Grün markiert sind die Knoten, welche im nächsten Schritt aus dem Cluster entfernt werden [BPP+10].
Nature model italy c

Abbildung 11: Weitere, rot markierte Knoten (auf der Landkarte) werden aus dem Stromnetzwerk entfernt. Ebenfalls werden alle von den Knoten des Stromnetzwerks abhängige Knoten aus dem Internetnetzwerk (rote Knoten über der Landkarte) entfernt [BPP+10].

In ihrer Analyse benutzen die Forscher ein Modell aus zwei Netzwerken A und B mit der gleichen Anzahl an Knoten N. Hört ein Knoten in A auf zu funktionieren, so auch der abhängige Knoten in B und umgekehrt (Ai ↔ Bi). Innerhalb eines Netzwerks sind die Knoten zufällig mit einer Gradverteilung (englisch: degree distribution) von PA(k) miteinander verbunden25.

Eine Menge von gegenseitig verbundenen Knoten nennt man einen gegenseitig verbundenen Cluster (englisch: mutally connected cluster). Nur diese sind im Falle einer Fragmentierung des Netzwerks potentiell noch funktionsfähig. Es stellte sich heraus, dass nur der Größte der verbliebenen gegenseitig verbundenen Cluster (englisch: the giant mutually connected cluster) auch funktionsfähig ist. In der Übergangsphase der Clusterbildung (englisch: percolation transition phase) (siehe Abbildungen 12 und 13) entscheidet sich, ob es einen giant mutually connected cluster gibt: er existiert nur oberhalb eines kritischen Schwellwertes pc.

Nature italy ab

Abbildung 12: Jeder Knoten aus dem Netzwerk A hängt von einem einzigen Knoten in Netzwerk B ab und umgekehrt genauso. Waagerechte Linien sind Verbindungen zwischen den Netzwerken, Bogen stellen Verbindungen innerhalb eines Netzwerks dar. (a) Aus A wird ein Knoten entfernt. (b) Als Folge wird der abhängige Knoten in B auch entfernt. Das Netzwerk zerbricht in drei Cluster a11, a12 und a13 [BPP+10].
Nature italy cd

Abbildung 13: (c) In B werden Verbindungen zu separierten a1-Knoten entfernt. Es entstehen vier b2-Cluster, b21 bis b24. (d) In der letzten Phase werden Verbindungen im Netzwerk A zu separierten b2-Clustern getrennt. Es entstehen die Cluster b31 bis b34. Diese stimmen mit den Clustern b21 bis b24 überein, es folgt keine weitere Netzfragmentierung (gegenseitig verbundenen Cluster). Die Cluster a34 und b24 bilden dabei den Größten der gegenseitig verbundenen Cluster [BPP+10].

3.16 Gmail-Ausfall II (02.09.2009)

Fehlerhafte Changes bei routinemäßige Wartungsarbeiten46 waren auch der Grund für einen Ausfall im September 2009. Dabei wurde der Datenverkehr auf andere Server umgeleitet. Einige Router, welche die Anfragen bearbeiteten, wurden durch den zusätzlichen Traffic überlastet. Sie gaben eine Überlastungsmeldung aus, der Traffic wurde wiederum an andere Router weitergeleitet, bis diese ebenfalls überlastet waren. Nach der Behebung des Fehlers durch das Aktivieren vieler zusätzlicher Router versprach Googles Engineering Director David Besbris die Kapazität der Router zu erhöhen. Außerdem sollen sich Fehler eines Rechenzentrums nicht mehr auf ein anderes auswirken [Bes09] [hei09a].

3.17 Kabel-BW- Ausfall (30.07.2009)

Einige tausend Kunden des Internet-Providers Kabel BW konnten für fünf Tage nicht ins Internet oder telefonieren. Schalteten die Kunden ihre Kabelmodem aus und starteten es erneut, konnte sich das Modem beim zugehörigem Server nicht authentifizieren. Die Systemkomponenten wurden mit Hilfe des Herstellers untersucht und repariert. Ein Teil der Kunden konnte bereits wieder am Wochenende die Dienste nutzen. Einige anderen Kunde mussten sich bis zum späten Montag Abend gedulden. Das Unternehmen entschuldigte sich für den Ausfall und gelobte Besserung, machte aber keine näheren Angaben zur Ursache des Ausfalls [hei12b] [hei09b].

3.18 Gmail-Ausfall I (24.02.2009)

Am Vormittag des 24. Februar 2009 fiel weltweit der Web-Frontend-Dienst von Gmail45 aus. Millionen Nutzer konnten über ihren Browser nicht mehr auf ihre E-Mails zugreifen. Die Mailserver von Google funktionierten aber weiterhin, so dass die Nutzer ihre Mails über einen E-Mail-Client wie Microsoft Outlook oder Mozilla Thunderbird abrufen und verschicken konnten. Viele User tauschten sich über Twitter über den Ausfall aus und wollten mehr über die Gründe wissen. Die Ursache waren laut Google Wartungsarbeiten in einem der europäischen Rechenzentren. Während dieser Routinearbeiten würden die Accounts normalerweise von einem der anderen Rechenzentren bedient und es gäbe keine Ausfallerscheinungen. Ein Change im Programmcode führte zur Überlastung eines anderen Rechenzentrums. Dieser Fehler übertrug sich von einem Rechenzentrum zum nächsten (Fehlerkaskade). Nach zweieinhalb Stunden konnte der Dienst wieder genutzt werden [Cru09a] [Cru09b] [hei09c].

3.19 Seekabel im Mittelmeer durchtrennt (18. und 19.12.2008)

Die Agentur Reuters [Reu08] meldete den Ausfall von vier Unterwasser-Glasfaserkabeln zwischen Sizilien, Malta und Tunesien. Drei der Kabel sind die einzige Verbindung zwischen der Mittelmeerregion und Asien. Es wurde spekuliert, dass SEA-ME-WE 3, SEA-ME-WE 4, FLAG Europe Asia (FAE) sowie GO-1 durch einen Anker eines oder mehrerer unbekannter Schiffe durchtrennt wurden. Unmittelbar nach dem Ausfall hat France Telecom als Mitglied des SEA-ME-WE-Konsortiums das Spezialschiff ”Raymond Croze” entsandt. Das Schiff wird bis zum Jahresende alle Kabel geortet und wieder geflickt haben.

SEA-ME-WE-4-Route.png
Abbildung 14: Die Route des SEA-ME-WE-4-Kabels. Der größte Teil verläuft unter Wasser (in rot), in Ägypten verläuft ein Segment oberirdisch (blau) [Wik13c].

3.20 Unterwasser-Glasfaser-Backbones beschädigt (30.01.2008 bis 04.02.2008)

Rund acht Kilometer vor dem Hafen der ägyptischen Stadt Alexandria zerstörten zwei Schiffe mit ihren Ankern unabhängig voneinander zwei wichtige Internet-Backbone-Kabel. Das SEA-ME-WE 4 führt ca. 18.000 Kilometer von Frankreich nach Singapur und wurde am 30.01.2008 um 04:30 Uhr UTC morgens von einem Anker eines irakischen Schiffes zerstört. Fast gleichzeitig um 08:00 UTC fiel ein in 400 m Entfernung liegendes Glasfaserkabel, das FLAG Europe Asia (FAE) aus. Dieses verläuft auf ca. 27.000 km Länge von Großbritannien nach Japan. In diesem Fall beschädigte ein koreanisches Schiff durch seinen Anker das Kabel. Im Normalbetrieb können beide Kabel zusammen bis zu 620 GBit/s an Daten übertragen. Ein drittes, intaktes Kabel, das SEA-ME-WE 3 mit 70 GBit/s Kapazität, hielt die Verbindung zwischen Europa und Asien über den Mittelmeerraum aufrecht. Der Datendurchsatz fiel in den betroffenen Staaten wie Ägypten, den Vereinigten Arabischen Emiraten (VAE) und Indien auf bis zu 30 % des normalen Niveaus. Mehr als 82 Millionen Menschen waren davon betroffen [Zai08]. Die beiden Schiffe hatten wegen eines nahenden Sturms vor der ägyptischen Küste in einem ausgewiesenen Sperrgebiet ihre Anker geworfen. Die anschließende Reparatur76 des FAE dauerte 10 Tage [hei08d] [hei08c] [hei08e].

Nur einen Tag später durchtrennte um 06:00 Uhr morgens UTC ein irakisches Schiff vor der Küste von Dubai das wichtigste Kabel um die Arabische Halbinsel: FALCON verbindet Oman, Bahrain, Kuwait, Iran, Katar und Irak mit Breitband-Internet. Das Kabel gehört ebenso wie das FAE der FLAG Telecom Group. Am 10. Februar funktionierte die Datenübertragung wieder. Die beiden verantwortlichen Schiffe wurden mit Hilfe von Satellitenbildern überführt und dingfest gemacht. Das koreanisches Schiff musste 60.000 US-Dollar Entschädigung, das Schiff aus dem Irak eine Kompensation von 350.000 US-Dollar zahlen [hei08b].

Am 03. Februar 2008 gab es den nächsten Seekabel-Zwischenfall. Das DOHA-HALOUL- Seekabel zwischen Katar und den VAE verfügte wegen Problemen mit der Stromversorgung nur noch über eine Kapazität von ca. 40 % des Ursprungswertes [hei08a].

Das SEA-ME-WE 4 wurde anschließend am 04. Februar nochmals in der Straße von Malakka77 durchtrennt [Zai08].

Karte der 2008 gestörten Unterwasserkabel
Abbildung 15: Karte der 2008 gestörten Unterwasserkabel [Wik12a].

3.21 Kamerun ohne Internetzugang (31.10.2007)

SAFE-SAT3-WASC route
Abbildung 16: Netzaufbau von SAFE-SAT3-WASC. Quelle:[6]

3.22 Kein Zugang zum Internet bei NTT (15.05.2007)

NTT (Nippon Telegraph and Telephone) ist ein Unternehmen, welches in Japan den Telekommunikationsmarkt beherrscht. Zudem ist NTT ein Tier-1-Carrier: es peert mit anderen Tier-1-Carriern, und kleinere Carrier bezahlen NTT dafür, damit sie ihre Daten durch NTTs Netz schicken können. Weil NTT eine monopolartige Marktmacht gehabt hatte, wurde es in drei Tochterfirmen im Jahre 1998 aufgeteil: NTT East, NTT West and NTT Telecommunication. Per Gesetz sollen NTT East and NTT West nur Telekommunikationsdienste auf kurzer Distanz anbieten dürfen, also u.a. Internetzugang für Endkunden; für globale Kommunikation ist die Tochter NTT Telecommunication verantwortlich. Der hier geschilderte Ausfall betrifft NTT East.

Am 15.05.2007 um 18:44 Ortszeit konnten Nutzer von NTTs Breitband-Internetanschlüssen in Ostjapan sich nicht mehr ins Internet verbinden[7]. Um 1:35 des Folgetages konnten auch die letzten Kunden wieder eine Internet-Anbindung erhalten. Der Grund für den Ausfall lag an den verwendeten Routern der Firma Cisco [8]: zwischen 2000 und 4000 Router waren am Ausfall beteiligt. Angeblich soll der Ausfall mit einem Umstellen auf unterstützende Routen angefangen haben, wobei die Routing-Tabellen umgeschrieben worden sind. Dieses Schreiben auf die Routing-Tabellen führte dazu, dass die Routing-Tabellen so überfüllt worden sind, dass die Router keine Pakete mehr weitergeleitet haben: Das Netz stand also still. An dem exakten Grund für den Ausfall wird noch von NTT and Cisco geforscht. Cisco wollte nicht sagen, welche spezifischen Router-Modelle am Ausfall beteiligt waren.

In 14 von 17 Bezirken von NTT East hat dieser Ausfall Folgen gehabt. Das bedeutet, dass ingesamt 2.86 Millionen Kunden dadurch ihren Internetzugang verloren haben: Von diesen waren 1.2 Millionen per Glasfaser angebunden, 1.5 Millionen per ADSL und 160.000 per ISDN. Insgesamt hat Japan ca. 14 Millionen DSL-Anschlüsse [9] – 10 Prozent von Japans DSL-Anschlüsse sind nicht nutzbar gewesen. Japans Hauptstadt Tokio, auch im Versorgungsgebiet von NTT East, ist aber nicht betroffen gewesen. Auch der IP-Telephonie-Dienst ist ausgefallen. Von seinen Kunden erhielt NTT East 11.300 Anrufe zu diesem Ausfall.

Dieser Ausfall war der grösste seit Jahren in Japan und geschah an einem Dienstag an einem frühem Abend. Man darf annehmen, dass zu diesem Zeitpunkt viele Japaner ihren Breitband-Internetzugang in der betroffenen Region benutzen wollten, doch für knapp 7 Stunden war es nicht möglich.

Dieser Ausfall kann für NTT bedeuten, dass diese auf Ciscos neuen Router “CRS-1” umsteigen werden, in der Hoffnung, dass diese neuen Router keinen solchen Ausfall erzeugen werden. Die Tatsache, dass NTT East eine homogene Router-Familie (nämlich von nur Cisco) einsetzt, ist beängstigend: wenn ein Router einen Bug hat, dann haben ihn alle anderen wahrscheinlich auch. Router von mehreren Herstellern wären hier wohl hilfreich. Das es auch andere Routerhersteller gibt, zeigt NTT West: hier werden Router vom Hersteller Juniper benutzt, aber auch hier findet sich eine homogene Router-Familie.

Internetnutzer, die auf einen Internetzugang angewiesen sind, hätten diesen Ausfall überlebt, wenn sie einen anderen zweiten Provider zur Verfügung gehabt hätten. Dieser Provider müsste aber vom Netz von NTT East unabhängig sein.

3.23 Streckenausfall beim Internet2 (01.05.2007)

“Internet2” ist ein Zusammenschluss von über 200 US-amerikanischen Universitäten und vielen Firmen. Diese unterhalten ein Hochleistungsnetz auf Glasfaserbasis von mindestens 10 Gbit/s: dieses hat den Namen “Abilene”. “Abilene” soll eine schnelleres Netz als das bisherige Internet sein und als Testplatform für neue fortgeschrittenere Netzanwendungen dienen. Abbildung 17 zeigt die Struktur von Abilene.

Internet2 network map
Abbildung 17: Netzaufbau von Abilene; (c) 2007 Internet2; Quelle: [14]

Am Dienstag Abend ca 20:20 Uhr Ortszeit gab es eine Unterbrechung der Verbindung zwischen Bosten und New York. Grund war laut [10] und [11] ein Obdachloser an der Longfellow-Brücke in Boston: dieser hat seine Zigarette auf eine Matratze geworfen, die einen Brand auslöste, welcher sogar zur Sperrung der Brücke führte. An dieser Brücke führte auch ein Glasfaserkabel vom Internet2 vorbei. Dieses wurde durch den Brand geschädigt, so dass die Abilene-Verbindung zwischen Bosten und New York nicht mehr bestand. Der Netzbetreiber Level 3 Communication hatte zunächst vorgehabt, die Kommunikation zwischen den Punkten Boston und New York über andere Glasfaserverbindungen zu leiten ([12]). Level 3 hat es geschaft, diese Leitung nach nur vier Stunden zu reparieren ([13]).

Durch diesen Streckenausfall war der Knoten New York nur noch über den Knotenpunkt Washington D.C. erreichbar. New York hat also zu diesem Zeitpunkt über keine Redundanz mehr verfügt. Der Netzwerkverkehr konnte aber umgeleitet werden, da jeder Knoten über mindestens zwei Verbindungen verfügt hat. Zu einem Ausfall des Abilene-Netzwerkes ist es nicht gekommen.

Dieser Ausfall hat nur eine Abiliene-Verbindung zwischen zwei Knoten betroffen. Da jeder Knoten mit mindestens zwei verschiedene Knoten über unterschiedliche Leitungen verbunden ist, ist ein Ausfall einer Leitung nicht weiter kritisch. Schlecht wäre es gewesen, wenn z.B. New Yorks einzige Verbindung zum Abilene-Netz über das Glasfaserkabel zu Bosten gewesen wäre, also eine Stichleitung wäre. Dann würde eine Kabelbeschädigung dazu führen, dass der Knoten New York von den restlichen Knoten des Abilene-Netzes abgeschnitten ist und nicht mehr mit ihnen kommunizieren kann.

3.24 Estland unter DDoS-Attacken (28.05.2007)

Estland hat ca. 1.3 Millionen Einwohner, eine ausgebaute IT-Infrastruktur und setzt stark auf das Internet. E-Government ist in Estland am stärksten von allen Ländern in der EU fortgeschritten, wobei via Internet sogar Wahlen für das Parlament ausgeführt werden [15].

DoS (Denial of Service) - Attacken zielen darauf hin ab, Rechner-Dienste in einem Datennetz für andere Benutzer unbenutzbar zu machen. Dies wird dadurch erreicht, dass der betroffene Dienst so stark mit Anfragen “bombardiert” wird, dass er den regulären Anfragen nicht mehr nachkommen kann. Bei DDoS-Attacken (Distributed DoS) wird ein DoS-Angriff von mehreren Rechnern gefahren. DDoS-Angriffe können auch von Bot-Netzen ausgeführt werden. Ein Bot-Netz ist eine Gruppe von Rechnern, die quasi “Zombies” sind: Diese hören auf ein gemeinsames Kommando und lassen sich aus der Ferne steuern. Meistens wissen die Benutzer von Computern gar nicht, dass ihre Maschinen Zombies und Teil eines Bot-Netzes sind.

Seit dem Vormittag des 28.04.2007 waren die Internetpräsenzen der estnischen Regierung und des Aussenministeriums nicht mehr erreichbar [16]. DDoS-Angriffe legten diese Dienste lahm. Die Ausgangspunkte der Angriffe waren weltweit zerstreut. Die Angriffe hatten eine Datenrate von 10 bis 95 MBit/s. Der grösste Teil der Angriffe verbrauchten eine Daterate von 10 bis 30 MBit/s. 75 Prozent aller Angriffe dauerten weniger als eine Stunde und nur ca. fünf Prozent hielten länger als zehn Stunden an. Insgesamt gab es 128 einzelne Angriffswellen: davon waren 115 ICMP-Angriffe, vier Angriffe belasteten mit TCP-SYN-Packeten die Dienste, und der Rest war allgemeine Angriffe, bei denen Netzlast generiert wurde. Es war ein Angriff von weltweiten Bot-Netzen [17]. Auslöser dieses DDoS-Angriffs war die Verlegung eines sowjetischen Kriegsdenkmals, das Mitten in Estlands Hauptstadt Tallinn stand, in einen Nachbarort zwei Tage davor. Dieses Kriegsdenkmal befindet sich in einem Gräberfeld von sowjetischen Soldaten der Roten Armee, die im Zweiten Weltkrieg gefallen sind. Bei der Verlegung mussten auch die Gräber geöffnet, damit man an die sterblichen Überreste der Soldaten zu gelangen konnte, welche ebenfalls verlegt werden sollten. Durch diese Verlegung versuchte Estland einen besseren Schutz der Totenruhe erreichen. Doch viele Esten sahen in diesem Denkmal auch ein Symbol der Sowjetischen Besetzung. Die russische Minderheit in Estland war empört gegen eine solche Verlegung [18]. Russische Nationalisten haben dann diese DDoS-Angriffe initiiert und fuhren diese mit Unterbrechungen zwei Wochen lang.

Benutzer aus dem Ausland konnten viele estnische Websiten nicht mehr aufrufen, da ihre Website-Anfrage in Estland blockiert wurden, da man nicht festestellen kann, ob diese Anfrage zu den DDoS-Angriffen zählte oder doch nicht. Auch estnische Banken sind Opfer der DoS-Attacke geworden [19].

Estland beschuldigte Russland zunächst hinter den DoS-Angriffen zu stecken, da die Angriffspakete Quell-IP-Adressen aus dem Kreml verwendeten [20]. Russland bestritt eine Beteiligung mit der Begründung, dass die Quell-IP-Adressen gefälscht worden waren, um Russlands Regierung verantwortlich zu machen. Estland bezeichnete diese DoS-Attacken als Cyberterrorismus. Im Nachhinhein stellte sich aber heraus, dass russische Behörden nicht hinter dieser Attacke steckten [21]. Im Verlauf dieser DoS-Attacke fiel immer wieder der Begriff des “Cyper-Kriegs” [22]: Mit Estland ist zum ersten Mal ein unabhängiger Staat ein Opfer eines DDoS-Angriffs geworden. Bisher waren mit DoS-Attacken nur einzelne (vor allem kommerzielle) Websiten betroffen gewesen. Die estnische Regierung verglich diese Form eines Cyper-Krieg mit der Blockade von Häfen oder Flughäfen in herkömmlichen Kriegen. Der Direktor des U.S.-CERT bewertete diesen Angriff als nicht so schlimm wie es estnische Regierung sah. Für diesen Vorfall passte eher der Begriff “Cyper-Krawalle”. Der Vorfall wurde sogar auf die EU- und NATO-Ebene gehoben. Die NATO sieht Cyberangriffe nicht als militärischen Angriff an. Es bestand daher keine Verpflichtung der NATO-Partner zu einer gemeinsamen Verteidigung. Doch es wurde darüber nachgedacht, ob eine Cyber-Attacke einen Bündnisfall in Zukunft ausrufen könnte [23].

Mit dieser massiven Netzstörung wollten die Angreifer ihr Missfallen über eine Denkmalsverlegung zeigen. Viele Regierungsseiten mit Diensten für die estnische Bevölkerung waren nicht benutzbar. Die Netzinfrastruktur blieb unbeschädigt. Es gab auch keine Erpressungsversuche, wie es sonst in der Vergangenheit üblich bei DDoS-Angriffen gegen kommerzielle Internetseiten-Betreiber der Fall war.

Es ist schwierig sich gegen DDoS-Angriffen zu schützen: Firewall/Paketfilter können nicht reguläre Pakete von “bösen” unterscheiden. Ein Paketfilter kann jedoch für den Dienste-anbietenden Rechner eingehende TCP-Verbindungen (SYN-Requests) abfangen. Dieser Paketfilter dient dann als Proxy und leitet eine Anfrage an den adressierten Rechner nur weiter, wenn es sich herausgestellt hat, dass diese eine reguläre Anfrage ist, d.h. der Proxy übernimmt bei TCP das Handshake-Verfahren beim Verbindungsaufbau. Dieses Verhalten realisert z.B. OpenBSDs Paketfilter pf [24].

Einen DDoS-Angriff kann man überleben, indem man “viel” Rechnerkapazitäten und eine “grosse” Datenrate für die Anbindungen zum Internet bereitstellt. Die Attribute “viel” und “gross” sind relativ zum Angriff zu sehen. Wenn eigene Dienste Anbindungen mit höherer Datenrate als die DDoS-Angreifer und ausreichende Rechenkapazitäten haben, dann kann der DDoS-Angriff ausgehalten werden.

Um festzustellen, wer die Verantwortlichen hinter den DDoS-Angriffen sind, wird ein Mechanismus gebraucht, um die Quelle der IP-Pakete zurückverfolgen zu können. Da die Quell-Adressen gefälscht werden können, kann man diese nicht verwenden, um auf den Angreifer zu schliessen. Für IPv6 gibt es Vorschläge, wie man IP-Pakete zurückverfolgen kann [25].

3.25 Ausfall bei BlackBerry (17.04.2007)

Die kanadische Firma RIM (Research in Motion) betreibt einen E-Mail-Push-Dienst mit dem Namen BlackBerry. Ca. acht Millionen Teilnehmer erhalten auf ihr Mobilfunkgerät (BlackBerry genannt) automatisch Benachrichtigungen, dass neue E-Mails für sie angekommen sind. Die Benutzer müssen daher nicht immer nachschauen, ob neue Emails für sie vorliegen. Das ist praktisch. Zudem kann ein Teilnehmer mit seinem BlackBerry auch Emails verfassen und versenden. RIM geniesst hohes Ansehen, was die Zuverlässigkeit seines Dienstes betrifft. Zu RIMs Kunden zählen Firmen im Finanz-, Technologie- und Logistikunternehmen. RIM unterhält zwei sogenannte “Network Operation Centers” (NOC), die im Prinzip grosse Rechenzentren sind. Eines davon befindet sich in Kanada, welches Amerika und Asia abgedeckt, und eines in Großbritannien für Europa, Afrika und den Mittleren Osten. Von den NOCs wird die E-Mail auf das BlackBerry-Gerät des Nutzer übertragen. Zwischen den beiden NOCs können auch E-Mails weitergeleitet werden.

Am Dienstag, dem 17. April 2007, ist dieser Dienst um 20:00 (EDT) ausgefallen. Um 7:00 (EDT) des Folgetages ist dieser Ausfall behoben worden [26]. Betroffen sind die Benutzer in den USA gewesen. Der offizielle Grund für diesen Ausfall ist laut RIM gewesen, dass man “eine neue Systemroutine ins System eingebaut hat, die den Systemcache besser optimieren sollte” [27]. Dabei hat RIM angenommen, dass diese Systemroutine die reguläre Arbeit der Blackberry-Server nicht beeinträchtigt. Als RIM die Folgen dieser neuen Systemroutine beheben wollte, hat RIM auch ihr Backup-System aktiviert, doch dieses hat versagt. Da die meisten betroffenen BlackBerry-Teilnehmer in den USA gewesen sind, nimmt man an, dass dieses Problem im NOC in Kanada stattgefunden hat.

Als Folge dieses Ausfalles konnten Millionen von BlackBerry-Benutzer in der USA keine E-Mails auf ihren BlackBerries mehr empfangen. Glück im Unglück hat RIM gehabt, weil dieser Ausfall an einem Abend begonnen hat, also zu einem Zeitpunkt wo das geschäftliche Treiben nicht zu gross ist. Schlimmer wäre ein Ausfall am Morgen oder zur Mittagszeit gewesen.

RIM hat im BlackBerry-System eine Zuverlässigkeitsschwachstelle: es betreibt nämlich nur zwei NOCs. Diese NOCs sind die grossen Schwachpunkte (Single Points of Failures) in RIMs Netz. Bei einem Fehler in einem dieser NOCs ist gleich eine grosse Region betroffen. Obwohl RIM in den NOCs jeweils ein Backup-System betrieben hat, konnte auch das angeworfene Zweitsystem RIM nicht über den Ausfall helfen. Da RIM in kurzer Zeit viele neue Kunden gewonnen hat, müssen ihre NOCs mehr Rechenleistung aufbringen und Modernisierungen erfahren. Bei dem Aufrüsten der NOCs können dann Fehler geschehen [28]. Damit RIM in der Zukunft massiven Netzausfällen besser vorbeugen kann, könnte RIM entweder die Anzahl der NOCs erhöhen, oder ein funktionierendes Reserve-System einführen.

3.26 Segmente des Seekabelsystems T-V-H gestohlen (25.03.2007)

T-V-H ist ein Unterseekabel-System, welches im Südchinesischen Meer liegt. Auf seiner Länge von 3.367 Kilometer befinden sich 26 Repeater im Abstand von jeweils ca. 138 Kilometer. Dieses System hat drei Endstationen auf dem Lande: in Thailand, Vietnam und Hong Kong; daher auch der Name T-V-H [29]. Es wurde zwischen 1993 und 1995 gebaut, überträgt Datenpakete mit einer Datenrate von 560 Mbit/s und ermöglicht damit Telephonie und schnelle Datenübertragung. Über die Unterseekabel-Systeme T-V-H und SE-ME-WE3 gehen ca. 83 Prozent der vietnamesischen Telefon- und Internetverbindungen hindurch; der Rest der Telekommunikation geschieht über drei Landkabel und einem Satellitensystem. T-V-H hat von Vietnam aus zwei Abzweigungen: eines nach Thailand und eines nach Hong Kong. [30] Ein Teil des Kabelsystems liegt liegt nahe der Küste an der vietnamesischen Provinz Ca Mau.

Seit dem 25. März 2007 ist keine Datenübertragung über ein Unterseekabel zwischen Thailand and Vietnam mehr möglich. Der Grund für den Ausfall liegt darin, dass über 11 (elf) Kilometer dieses Kabels wegen Diebstahls fehlen [31]. Das Kabel nach Thailand ist von den Diebstählen betroffen: Diebe haben dieses Kabel wahrscheinlich mit Tauchern herausgeholt, um die Kabelsegemente an Schrotthändler zuverkaufen. Das Gewässer vor Ca Mau ist nicht sehr tief: nur bis ca. 200 Meter. Die Schrotthändler werden sich wohl mehr für die Ummantelung als das Glasfaser interessieren. Bis Ende Mai hat sich der Ausfall auf 98 Kilometer ausgeweitet. [32, 33] Die Polizisten in Vietnam haben mehrere Schiffe gefunden die zusammen knapp 100 Tonnen Glasfaserkabel transportiert haben.

Die vietnamesischen Telefon- und Datenübertragungsverbindungen werden vorläufig über ein anderes Unterseekabel (SE-ME-WE3) in Da Nang übertragen. Falls auch SE-ME-WE3 von Dieben beschädigt wird, wäre Vietnam mit seinen ca. 85 Millionen Einwohnern (Stand 2005) beinahe komplett kommunikationstechnisch von der Aussenwelt abgeschnitten. Davor fürchten sich die Verantwortlichen in Vietnam: Aus diesem Grund soll die vietnamesische Marine die Seekabel überwachen [34]. Vietnam hat schon länger mit Glasfaser-Dieben zu tun: In Jahre 2007 hat die Polizei ingesamt schon 500 Tonnen Glasfaserkabel beschlagnahmt.

Vietnam hat einen Anschluss an das Unterseekabelsystem SE-ME-WE3 zur Kommunikation, welches genug Kapazitäten besitzt, Vietnams Kommunikationsverkehr zu tragen. Damit ist SE-ME-WE3 für Vietnam von grosser Bedeutung. Aber auch SE-ME-WE3 ist nicht unausfallbar: im Dezember 2006 kam es durch eine Unterseebeben zu einem Ausfall von SE-ME-WE3 [40].

Die Kosten für die Reparatur des Schaden betragen ca. zwei Millionen Euro, wobei Reparatur vermutlich drei Monate dauern wird. Durch die Störung des Kabel kam es auch zu wirtschaftlichen Verlusten, nämlich ca. 4 Millionen USD [35].

Um nicht von wenigen Kabelsystemen abhängig zu sein, sollte Vietnam auch hier Redundanz besitzen, d.h. ein weiteres Kabelsystem sollte gebaut werden. AAG (Asia-America-Gateway)-Unterseekabel ist in Planung: dieses soll durch viele asiatische Länder gehen, ca. 20.000 km lang werden und direkt die USA erreichen. Die Datenrate soll am Anfang 480 Gbit/s betragen. Der Betrieb von AAG ist im Dezember 2008 angesetzt [36].

Um die Probleme mit den Unterseekabeldieben zu beheben, könnte Vietnam zudem mehr Kabelsysteme auf dem Land einrichten. Doch auch hier besteht das Problem, dass Diebe die Erde aufreissen könnten, um an das Kabel zu gelangen. Mit einer weiteren Anbindung zu einem weiteren Satellitensystem könnte Vietnam ihr Problem mit den Kabeldieben auch lösen; doch diese Lösung ist wohl die teuerste und nur für den Notfall zu benutzen, da es schwer vorstellbar ist, den gesamten vietnamesischen Kommunikationsverkehr über Satellit laufen zu lassen.

3.27 Google.de in fremder Hand (23.01.2007)

„Goneo“ ist ein Webhoster, bei dem man sich Domains regsitrieren lassen kann. Sollte man vorher schon einen anderen Provider haben und seine dort registrierten Domains bei einem Wechsel zu „Goneo“ behalten wollen, so muss man einen sogenannten KK-Antrag (Konnenktivitäts-Koordinierungs-Antrag) ausfüllen. Dies kann auch online und somit automatisiert geschehen. Anschließend wird die Anfrage an die zuständige Registrierungsstelle weitergeleitet. Für eine Domain mit der Endung „.de' also das „DeNIC“. Dieses ist die zentrale Registrierungsinstanz für Domains mit der Endung „.de“. Diese fragt dann den vorherigen Provider der entsprechenden Domain, ob der Wechsel stattfinden darf. Sollte sich dieser innerhalb einer bestimmten Zeitspanne keinen Einwand erheben, so wird der Wechsel vollzogen.

Am Dienstag morgen, den 23.01.2007, so Heise.de (siehe [37] und [38]) war unter der URL www.google.de nicht mehr die gewohnte Suchmaschine anzutreffen, sondern eine andere Seite. Diese Seite gehörte einem Kunden des Webhosters „Goneo“. Der Kunde hat wohl einen Online-KK-Antrag ausgefüllt, in dem er behauptet hat, Eigentümer der Domain „google.de“ zu sein. Dieser KK-Antrag wurde also gestellt, ohne dass von der Geschäftsführung von „Goneo“ geprüft wurde, ob der Kunde wirklich Eigentümer der Domain „google.de“ war. Die Anfrage wurde also an das „DeNIC“ weitergeleitet, welche wiederum eine Anfrage an den Provider der Domain „google.de“ stellte. Allerdings gab es keine Antwort in der vorgesehenen Zeitspanne. Somit wurde eine Bestätigung angenommen. Es scheint, dass der Provider von „google.de“ nicht bei der amerikanischen „Google Inc.“ nachgefragt hatte. Allerdings gab es wohl keinerlei Bestätigungen seitens „Google“.

Auf jeden Fall wurde somit durch mangelnde Überprüfung die Domain „google.de“ an den Kunden übergeben und Die Suchmaschine war unter www.google.de nicht mehr anzutreffen.

Um diesem in Zukunft entgegenzuwirken, hat sich die Geschäftleitung von „Goneo“ dazu entschlossen, in Zukunft eine Überprüfung vorzunehmen.

3.28 Störung des Mailservice vom Webhoster 1&1 (15.01.2007)

Wie Heise.de meldete [39] war das Abholen von Emails beim Webhoster 1&1 nur mit grossen Verzögerungen möglich. Der Grund für diese Verzögerungen lag in dem Ausfall eines RAID-System im Mailspeichersystem. Laut Angaben von 1&1 gingen aber keine Emails verloren. Folgen dieses Netzdienstausfalles waren, dass viele Kunden von 1&1 mehrere Stunden lang nicht ihre Emails abholen konnten und darüber sehr verärgert waren.

Man kann davon ausgehen, dass sich einige Kunden einen neuen Webhoster gesucht haben, in der Hoffnung, dass dort nicht ein Ausfall, wie in diesem Ausmass auftretten wird. Eigentlich soll ein RAID-System den Ausfall von Festplatten vermeiden. Hier scheint aber das RAID-System selbst Ursache eines Ausfalls gewesen zu sein und nicht die angehängten Festplatten.

Um so einen Ausfall in Zukunft zu verhindern, könnte der Webhoster zwei RAID-Festplattensysteme gleichzeitig betrieben, wobei das eine RAID-System nur eine Kopie des Inhaltes des primären ist. Beim Ausfall des primären RAID-Systemes springt dann dieses sekundäre RAID-System ein und übernimmt die Rolle des primären RAID-Systems. So haben die Techniker von 1&1 die Möglichkeit, dass primäre System zu reparieren, ohne dass die Kunden einen Service-Ausfall beklagen müssen.

3.29 Internet in Asien wegen Erdbebenschäden verlangsamt (27.12.2006)

Wie in [44] nachzulesen ist ist das „SEA-ME-WE3“ ein Projekt, welches 33 Länder aus den 4 Kontinenten Europa, Afrika, Asien und Australien miteinander verbindet. Die Verbindung kann auf der Karte 3 die aus der Quelle [45] stammt, eingesehen werden. Die Verbindung besteht über Unterseekabel. Nach eigenen Angaben, ist dies mit 39.000km die längste Verbindung der Welt „Sea-Me-We 3 is the longest system in the world with a total length of 39,000 km.“ ([44]).

Wie Heise.de in [40] berichtete, führte ein Erdbeben, welches am Dienstag, den 26.12.2006 mit einer Stärke von 6,7 auf der Richterskala erreichte, zu Beschädigungen an einige Unterwasserkabeln. Die Internetanbieter, die diese Verbindung nutzten aktivierten ihre Notfallsysteme.

Trotz der Notfallmaßnahmen konnte der Ausfall nicht kompensiert werden. Dies führte zu erheblichen Verlangsamungen des Internetverkehrs für mehr als 100 Mio. Benutzer in den Ländern China, Taiwan, Singapur und Südkorea. Die Ortung des Problems dauerte 24 Stunden. Nach einem Sprecher der taiwanesischen Chunghwa Telecom wurde für die benötigte Dauer der Reperatur 2-3 Wochen veranschlagt. Auch einen Tag später war die Situation noch nicht besser. Laut [41] lag die Verlässlichkeit und die Geschwindigkeit unter der Hälfte des Weltdurchschnitts. Dies hatte laut dem Internetportal „sina.com“ zur Folge, dass 97% der Benutzer Probleme hatten ausländische Webseiten aufzurufen und 57% der Benutzer ihr Leben oder ihre Arbeit beeinträchtigt sahen. Auch am 16.01.2007 war die Internet-Verbindung noch eingeschränkt, wie [43] zu entnehmen ist. So wurden ausländische Internetseiten nur langsam aufgebaut und eMails mit größeren Anhängen (wobei hier keine genaueren Angaben gemacht wurden) gingen verloren. Erst am 05.02.2007 kam auf Heise.de die Nachricht, dass das Problem behoben wurde und sich der Internetverkehr normalisiert hat. [46] zu Folge waren zu diesem Zeitpunkt VoIP und Downloads aus Europa mit einer Datenrate von 10KBit/s möglich.

Nach 24 Stunden wurde der Fehler entdeckt, wobei nicht klar ist, ob er da auch schon lokalisiert war. Davon ist allerdings im Normalfall auszugehen. Es wurden 5 Kabelschiffe zur Reparatur geschickt. Von diesen waren zwei schon zwei Tage später unterwegs. Wann die volle Mannschaft anwesend war, ist fraglich. Auch gab es technische Schwierigkeiten. So lagen die Kabel in einer Tiefe von 4000m. Dies bedeutet, es konnten keine elektrischen Geräte oder Roboter eingesetzt werden. Zudem wurde die Mannschaft zusätzlich durch stürmisches Wetter aufgehalten. Des weiteren hat sich [42] nach zu Folge der Carrier „Verizon“ geäußert, er wolle Maßnahmen treffen, die im Falle eines erneuten Vorfalls, die Tragweite mildern soll. Dies soll durhc weitere Kabel und eine dichtere Vermaschung geschehen, so dass man über 3 Kabel bis zu 6 verschiedene Pfade habe. Es soll mindestens ein neues Kabel verlegt werden.

SEA-ME-WE-3 route
Abbildung 18: SEA-ME-WE3-Verbindung; Quelle: [45]

3.30 Kabelbruch bei Island (17.12.2006)

Das Unterseekabel “CANTAT-3” war in 3000 Meter Tiefe und 1500 Kilometer vor Island beschädigt, so dass mehrere Wochen keine Telekommunikationsverbindungen über dieses Kabel möglich waren [47] [48]. CANTAT-3 ist ein transatlantisches Unterseekabel zwischen Kanada und Europa; zudem hat es Abzweiger nach Island und den Färöer-Inseln. Die Datenrate beträgt 2 x 2.5 Gbit/s. Neben CANTAT-3 hat Island noch eine Verbindung zur Kommunikation durch das Unterseekabel FARICE-1 [50] [51]. Schon im August 2000 war es zu einem Kabelbruch bei CANTAT-3 gekommen [49]. Als Folge des aktuellen Kabelbruches erhielten alle Universitäten, das Universitätskrankenhaus in Reykjavik, zahlreiche Unternehmen und Privatpersonen keine Verbindung zum Internet.

In den Abbildungen 19 und 20 ist erkennbar, dass Island an zwei räumlich getrennte Unterseekabel angeschlossen ist. Island verfügt zwar mit FARICE-1 über eine Backup-Leitung. Bei diesem Kabelbruch benutzten die Provider der betroffenen Internetnutzer nur CANTAT-3. Die Provider wollten anscheinend die durch die Benutzung (Miete von Bandbreite) von FARIC-1 entstehenden Kosten nicht tragen. Um in Zukunft bei einem Kabelbruch besser vorbereitet zu sein, wäre eine Möglichkeit, dass der Internetbenutzer aus Island eine Internetverbindung benutzt, die sowohl über CANTAT-3 als auch über FARIC-1 geht. Noch besser wäre es, wenn der isländische Nutzer eine zusätzliche Internetverbindung via Satellit aufbauen könnte: dann wäre er nicht von den zwei vorhandenen Unterseekabeln abhängig.

CANTAT-3 route
Abbildung 19: Route von CANTAT-3. Quelle: [50]
FARICE-1 route
Abbildung 20: Route von FARICE-1. Quelle: [51]

3.31 Universität Hamburg - Informatikum Stellingen (11.10.2006)

Im Oktober 2006 kam es erstmals seit zehn Jahren zu einem Netzausfall des Informatik-Fachbereichs am Stellinger Campus. Zur Einleitung folgt eine kurze Beschreibung des Netzaufbaus der Universität Hamburg (UHH).

Das Kommunikationsnetz der UHH ist wie eine acht konzipiert, die als Knotenpunkt die Telefonzentrale unterhalb des Allende-Platzes hat. Von dort aus geht ein Ring über die Schlüterstraße 70 (RRZ), die Edmund-Siemers-Allee 1 (ESA) und den Von-Melle-Park 5 (VMP). Ein weiterer Ring geht über den VMP, die ESA, die Jungiusstraße 9, das Geomatikum in der Bundesstraße 55 und die Grindelallee 117 (siehe Abbildung 21. Die genannten Standorte sind die sechs Versorgungsaufpunkte (englisch: Core) des Backbones. Von diesen Aufpunkten gehen einzelne Verbindungen zur Sternwarte in Bergedorf, nach Stellingen ins Informatikum sowie über das DESY in Bahrenfeld zu den Botanikern in Klein-Flottbek. Den Zugang zum Wissenschaftsnetz X-WiN47 - und damit zum Internet - erlangen alle Hamburger Hochschulen über einen Cluster-Router des Hamburger Hochgeschwindigkeits-Rechnernetzes (HHR) im Regionalen Rechenzentrum [Net11a]. Der Verlauf der Glasfaserkabel ist in Plänen verzeichnet, welche bei der Stadt Hamburg liegen. Die Pläne müssen vor jeder Baumaßnahme geprüft werden.

Skizze UHH-Netz
Abbildung 21: Skizze UHH-Netz: Aufpunkte (blau) und Knotenpunkt (schwarz) sowie die beiden Ringnetze (durchgehende und gestrichelte Linie) [Ope].

Am 11.10.2006 sollte ein neues Kabel durch E.ON Hanse verlegt werden. Dazu wurde ein neuer Kanal mittels eines Torpedos unterirdisch geschaffen. Allerdings wurden dabei auch einige schon bestehende Glasfaserkabel mit der Datenübertragungsrate von 1 GBit/s durchtrennt. Von diesem Zeitpunkt an war für die Mitarbeiter des Standorts Stellingen der Zugang zum Rest des Universitätsnetzwerkes, sowie des X-WiNs und damit auch dem Internet nicht mehr möglich. Innerhalb von 24 Stunden wurde der Kabelbruch lokalisiert. Die Glasfasern wurden mittels eines Lichtbogenspleißgeräts wieder miteinander verbunden. Ungefähr anderthalb Tage nach der Lokalisierung war die Störung behoben.

Um ähnlichen Vorfällen in Zukunft vorzubeugen, wurden zunächst verschiedene Maßnahmen als Backuplösung in Erwägung gezogen:

  • Eine zusätzliche DSL-Verbindung, die im Falle eines Ausfalles wenigstens den minimalen Verkehr aufrecht erhalten sollte, so dass wenigstens eine Kommunikation per Mail noch möglich sein sollte.
  • Anmietung einer weiteren Glasfaserverbindung, so dass man im Universitätsnetz eine Ringstruktur erhält.
  • Eine Richtfunkverbindung zwischen Informatikum und Geomatikum, die bei einem Ausfall als Alternative dienen soll.

Das RZ-Paper zur Bewertung der Lage schloss eine DSL-Verbindung als Backup aufgrund der asymmetrischen Verbindung und damit der viel zu geringen Übertragungskapazität aus. Des Weiteren war es rechtlich ungeklärt, ob bei privaten Unternehmen zusätzlich DSL-Verträge abgeschlossen werden durften. Ein rechtliches Problem hätte es auch bei der Anmietung einer zweiten Glasfaserleitung zur Erstellung eines Ringes geben können. Im Gespräch mit zwei Mitarbeitern des RRZ ergab sich, dass diese Lösung zu diesem Zeitpunkt wohl auch zu kostspielig gewesen wäre. Schließlich wäre es unklar, wie lange der Standort Stellingen überhaupt noch zur Universität gehören werde. Wäre der Ausfall einige Jahre zuvor passiert, wäre dies eine denkbare Alternative gewesen. Somit blieb als Fallbacklösung die Funkverbindung zum Geomatikum übrig. Da man zwischen Informatikum und Geomatikum eine gute Sichtverbindung hat, sollte dies technisch umsetzbar sein. Als Übertragungsrate erwartete man bis zu 100 Mbit/s. Da die Tages-Höchstwerte des Netzwerkverkehrs bei ca. 80 Mbit/s lägen und so gut wie nie erreicht würden, sollte diese Verbindung in der Lage sein, den gesamten Netzwerkverkehr zu bewältigen. Somit wäre auch keine Priorisierung der Dienste (QoS) notwendig, was mit Sicherheit zu weiteren Problemen geführt hätte.

Dieser Versuch konnte als Pilot-Projekt gesehen werden, das im Falle eines Erfolges auch mit den anderen Instituten durchgeführt werden könnte. Laut einer Aussage des Leiters der RRZ-Netzgruppe Gerrit Henken aus dem April 2008 sollten die Hochschule für Angewandte Wissenschaften (HAW), die Technische Universität Hamburg-Harburg (TUHH), die HafenCity Universität (HCU) und die Hochschule für bildende Künste (HFBK) “eine zweite Anbindung über eine Funkstrecke zum Geomatikum erhalten” [Hen08]. Ein weiterer Vorteil wäre auch die gewonnene Flexibilität. Im Falle eines Umzuges des Standort Stellingens an den Campus Bundesstraße wäre so die Umstellung bzw. Neu-Konfigurierung wesentlich vereinfacht. Siehe dazu auch Abschnitt 4.1.

3.32 Satellitenausfall W3A (09.10.2006)

W3A ist einer von 23 Satelliten, die der europäschische Satellitenbetreiber Eutelsat betreibt. Dieser befindet sich in einer geostationären Umlaufbahn (ca. 36000 km). Neben der Aussendung von Fernseh- und Radioprogramme bietet W3A auch Internetdienste an; er kann dabei mit einer Datenrate von 1750 MBit/s senden. Sendegebiet ist Europa, Nordafrika und der Mittlere Osten. Bei einem Routinemanöver ist es zu “Unregelmässigkeiten” (siehe [52]) gekommen. Über die genaue Ausfallursache findet sich auch in Eutelsats Pressemittelung nichts Konkretes (siehe [53]).

Durch den Ausfall waren tausende Nutzer von Fernsehsendern, Nachrichtenagenturen und Unternehmensnetze betroffen. Dieser Ausfall dauerte knapp 12 Stunden (siehe [54]). Betreiber Eutelsat gelang es, einige Programme und Dienste durch anderen Satelliten anzubieten. Benutzer, die Zugang zum Internet via W3A erhielten, aber keine Umschaltung auf andere Satelliten bekamen, mussten für einige Stunden ohne Kommunikation über das Internet auskommen.

Nutzer von W3A, die abhängig von einem Internetzugang sind, sollten über mehrere unabhängige Verbindungen zum Internet verfügen. Denkbar wäre hier eine Anbindung zu einem weiteren Satelliten neben W3A.

3.33 DNS .ES (30.08.2006)

Der staatliche Domainverwalter ESNIC (https://www.nic.es/) ist dafür verantwortlich, Domains mit der Endung „.es“ zu verwalten. ESNIC hat dazu auch seine eigenen DNS-Server, die die Namensauflösung der Domains mit dem Suffix „.es“ vornehmen. Routinemäßig werden alle 8 Stunden die Datensätze der Server aktualisiert.

Am 30.08.2006 trat ein Softwarefehler bei einer Aktualisiern der Datensätze auf. Dies führte dazu, dass die Datensätze die sich auf die Endungen „.es“ bezogen nicht mehr ausgelesen werden konnten. Laut [66] war so eine sinnvolle Namensauflösung nicht mehr möglich, obwohl die Server voll funktionsfähig waren. Dieser Ausfall fand in der Zeit von 15:15 Uhr bis 17:15 Uhr statt.

Damit waren sämtliche Seiten mit der Endung „.es“ nicht mehr über eine URL aufrufbar, da diese nicht vernünftig aufgelöst wurde. Über die Folgenschwere des Ausfalls gehen die Meinungen auseinander: Während [67] schildert, dass dies zu Verzweifelungen bei den Kunden von Banken führte, sowie zu heißen Diskussionen in Internetforen, ist auf [66] zu entnehmen, dass dieser Ausfall den meisten Internetnutzern überhaupt nicht aufgefallen ist, da alle anderen Endungen ja noch zu erreichen waren. Wobei letzteres eher als Vermutung dargestellt wird.

3.34 Arcors Ausfall in München (03.08.2006)

Das Telekommunikationsunternehmen Arcor betreibt im Münchener Raum ein ISDN- und DSL-Netz. Dieses ist gegen 22 Uhr am 03. August 2006 für mehrere Stunden lang ausgefallen [55], so dass Kunden nicht mehr ihren Telefon- und DSL-Anschluss benutzen konnten. Arcor bezeichnet dieses Störung selbst als “Grossstörung”. Als unpräzisen Grund dafür hat Arcor nur genannt, dass mehrere Geräte im Netzwerk defekt sind. Ob Unwetter, dass zu Zeitpunkt des Ausfalles in München gewütet hat, Ursache des Ausfall gewesen ist, hat Arcor nicht bestätigt.

Mehrer Stunden lang haben die Kunden von Arcor nicht telefonieren und den Internetzugang benutzen können. Da dieser Ausfall an einem Abend geschehen ist, hat diesen Ausfall gemildert, da in Firmen zur Abendzeit meist nicht mehr arbeiten. Personen und Firmen, die auf das Kommunikationsnetz von Arcor angewiesen sind, haben natürlich einen Schaden erlitten.

Da Arcor nur eine schwammige Aussage zum Ausfallgrund hinterlassen hat, ist es schwer eine Massnahme für Arcor vorzuschlagen, die einen weiteren Ausfall verhindern könnte. Benutzer von Arcor sollten sich überlegen, ob sie sich nicht eine zweite Anbindung an eine Telefonnetz oder eine zweite Internetverbindung bei einem weiten Telekommunikationsanbieter leisten sollten, um Redundanz zu erhalten.

3.35 Thailand GSM (18.05.2006)

Laut [68] fand am 17.05.2006 eine Tsunami-Alarmierungsübung in Thailand statt. Im Rahmen der Übung sollten die Kommunikationswege zu den Rundfunkanstalten von Radio und Fernsehen sowie zu den Krisenstäben zu testen. Die Warnmeldungen für den pazifischen Ozean werden von dem „Pacific Tsunami Warning Center“ auf Hawaii herausgegeben.

Während der Übung war ein Ausfall des GSM-Netzes zu beobachten. Dies lässt sich darauf zurückführen, dass durch einen LKW-Unfall eine Verteilerstation außer Betrieb gesetzt wurde.

Dies führte zu Kommunikationsproblemen mittels GSM. Diese schienen aber nicht äußerst kritisch zu sein.

Da das Mobilfunknetz sowieso an Überlast zu leiden schien, wurde ein Ausbau beschlossen, der die Infrastruktur verbessern soll.

3.36 all-ink.com ohne Internetanbindung (22.10.2005)

All-ink.com ist ein Webhoster von 250.000 Domains. Ihre Internetanbindung wird vom Provider Lambdanet gestellt. An Samstag, den 22.10.2005, hat es einen Schaden an einem Switch vom Lambdanet (siehe [56]) gegeben. So ist All-ink.com ohne eine Internetanbindung dagestanden.

Das Webportal von all-ink.com ist durch den Schaden am Switch auch nicht mehr erreichbar gewesen, so dass all-ink.com seine Kunden nicht auf den Ausfall hinweisen konnte. Die Kunden haben die Telefon-Hotline mit Anfragen überhäuft. Für manche Kunden mag diese “Downtime” nicht zu akzeptieren gewesen sein, so dass sie ihre Vertrauen in all-ink.com verloren haben und den Webhoster wechseln. Eventuelle Neukunden können durch diese Ausfallszeit abgeschreckt worden sein und gehen daher gleich zur Konkurrenz.

So wie es scheint, hat all-ink.com nur eine Internetverbinung zum Provider Lambdanet gehabt. Besser wäre es gewesen, wenn all-ink.com zu mehreren unabhängigen Providern eine Internetverbindung gehabt hätte. Redundanz in ihrer Internetanbindung hätte in diesen Fall keinen Ausfall des Webhosting-Dienstes zur Folge gehabt.

3.37 DE-CIX (17.10.2005)

Laut [69] ist „DE-CIX“ (http://www.de-cix.net) der gröste deutsche Internet-Knoten. Hier haben viele Internetprovider einen Zugang zum „Internet“, welches sich außerhalb Deutschlands befindet. Laut [69] gibt es dort drei Haupt-Switches.

Am Montag, dem 17.10.2005 soll ein Switch wegen eines Software-Fehlers um ca. 14:20 Uhr heruntergefahren worden sein.

Die Kunden, die nur einen (oder mehrere) Ports auf diesem Switch angemietet hatten, hatten war der DE-CIX-Knoten somit nicht mehr erreichbar.

Die betroffenen Kunden hatten aber noch alternative Zugangsknoten, so dass im Ganzen bei einigen eine Lasterhöhung zu bemerken war. Dies hatte allerdings keinerlei negative Auswirkungen.

3.38 Ausfall des Backbones bei Level 3 (21.10.2005)

Level 3 Communication ist ein börsennotiertes Unternehmen, welches eines der grössten Internet-Backbone-Netz betreibt. Level 3 hat ein sogenanntes Tier-1-Netzwerk: Level 3 hat es mit Peering-Abkommen geschafft, Zugang zum weltweiten Internet zu erhalten, ohne für IP-Transit zahlen zu müssen, da selbst viele Netzebetreiber sich an Level3s Backbone-Netz anschliessen möchten. Das Netzwerk von Level 3 erstreckt sich über die USA und einen grossen Teil vom westlichen Europas. Dabei sind die über 120 angebundenen Städte über 10 Gbit/s Glasfaserkabel verbunden. Zur transatlantischen Verbindung hat Level 3 Glasfaserkabel mit mehreren 100 Gbit/s auf dem Meeresgrund liegen. Geld verdient Level 3 hauptsächlich durch den Verkauf von Zugang zu ihrer Netzstruktur

Kurz vor neun Uhr deutscher Zeit am 21.10.2007 ist es zu einem Ausfall des Backbone-Netzes von Level 3 gekommen [57], [58]. Nach und nach haben sich verschiedene Netzabschnitte wieder zurückgemeldet. Nach ca. 3 Stunden ist der Ausfall endgültig behoben worden. Level 3 hat Details zu diesem Ausfall nicht genannt. Angeblich soll ein Konfigurations-Update für einen Router in Chicago (OSPF) Schuld gewesen sein [59]. Dieser Router hat dann schnell, viele OSPF-Update-Nachrichten ausgesandet, die andere Router empfingen. Diese Router hatten dann Schwierigkeiten diese Nachrichten zu verarbeiten. Dies hat zu “abnormalen” Bedingungen in Teilen von Level 3s Netz geführt. Ein anderes Gerücht ist, dass Level 3 absichtlich einen Ausfall proviziert hat, um angebundene Carrier zu zwingen, ausstehende Transitgebühren zu zahlen.

Die Folge dieses Ausfalles ist gewesen, dass für viele Nutzer aus Europa der Weg zu Rechnern in die USA abschnitten gewesen ist, wenn diese auf Level 3 angewiesen gewesen sind, um mit Amerika zu kommunizieren.

Der Ausfall hat nicht lange angedauert, maximal drei Stunden. Da Level 3 ein Backbone hat, an dem viele kleinere Provider sich ankoppeln, hat ein Ausfall von diesem Backbone grosse Auswirkungen.

Wenn Kommunikationspartner in Netzen sitzen, die nur über Level3s Backbone miteinander verbunden sind, nützen ihnen eine zweite Leitung zu einem anderen Provider nichts, solange der Provider auch Level3s Backbone benutzen muss. Als Gegenmassnahme hätten die betroffen Nutzer eine zweite Anbindung zu einem Carrier wählen sollen, der nicht Level 3 benutzt. Redundanz in der Verbindung hätte hier geholfen.

3.39 Westösterreichh (23.08.2005)

Nach [71] ist ein Murgang ein Strom aus Schlamm und Gesteinen im Gebirge. Solche Muren können große Verwüstungen bewirken. Muren treten in Gebirgen auf. Die „Telekom Austria“ (http://www.telekom.at) ist nach eigenen Angaben Österreichs führendes Telekommunikationsunternehmen.

Am 23.08.2005 um 13:02 Uhr meldete [70], dass eine Mure die zwei Hauptleitungen von „Telekom Austria“, die über den Arlberg führen zerstört habe.

Dies hatte zur Folge, dass viele Gemeinde in Voralberg nicht mit den Einsatzzentralen kommunizieren konnten. Zudem fiel die internetbasierte polizeiinterne Kommunikation aus. Dadurch kam es auch zu Überlastungen in den Mobilfunknetzen. Natürlich sind nicht nur die Kommunikationswege beeinträchtigt worden, sondern auch die normalen Verkehrswege. Nebenbeit fiel auch noch ein Stromnetz aus, wodurch ein weiteres Mobilfunknetz ausfiel.

Während der Reparaturarbeiten, sollte der Verkehr über eine Ersatzschaltung geleitet werden. Hier gab es aber auch zunächst Probleme, diese aufzubauen.

3.40 DNS-Problem mit Google (07.05.2005)

Google ist ein US-börsennotiertes Unternehmen, welches im Internet eine Suchmaschine betreibt. Google verdient sein Geld mit dem Schalten von Werbung in Verbindung zu bestimmten Suchwörtern. Diese Suchmaschine ist die meistgenutzte Suchmaschine, wenn es darum geht, an Informationen aus dem Internet zu gelangen. Viele Internetnutzer fangen mit der Google-Suchmaschine als Startseite ihres Browsers an und sind fast abhängig von der Erreichbarkeit von Google.

Laut [60] ist es am 07.05.2005 kurz vor Mitternacht MESZ weltweit nicht möglich gewesen DNS-Namen, die Google-Domains betreffen, in IP-Adressen aufzulösen. Der Grund scheint wohl im DNS-System zu liegen, da Google unter seinen IP-Adressen immer noch erreichbar gewesen ist. Ein Sicherheitsproblem oder einen Marketing-Gag wies Google von sich. Eine genauen Grund für diesen Ausfall der Namesauflösung hat Google aber nicht gegeben. Dieser Ausfall hielt eine Viertelstunde lang an.

Internetnutzer, die Google für ihre Internetrecherche nutzen, mussten auf andere Suchmaschinen ausweichen. Die Betreiber anderer Suchmaschinen werden sich über Googles Ausfall wohl gefreut haben. Unerfahrene Internetnutzer haben Panik bekommen, dass ihre Internetverbindung nicht funktioniert, da die bisher immer vorhandene Google-Seite nicht mehr aufrufbar gewesen ist.

Der Ausfall geschah an einem Samstag und hielt auch nur eine kurze Zeit lang an. Dies hat wohl nur geringen Schaden für Google verursacht.

Um diese Art von DNS-Ausfall vorzubeugen, könnten sich Nutzer von Google die IP-Adressen merken. Allzu häufig sollte Google dann nicht aber die IP-Adressen ihrer Suchmaschinenseite ändern.

3.41Schweiz DSL (14.04.2005)

„Swisscom“ (http://www.swisscom.com/GHQ/content?lang=de) ist das, nach eigenen Angaben, führende Telekommunikations-Unternehmen in der Schweiz.

Wie [72] am 14.04.2005 um 13:37 Uhr meldete, soll um ca. 10:15 Uhr desselben Tages eine Störung im Netz von „Swisscom“ aufgetreten sein soll, als dessen Ursache auf eine Störung im IP-Netz vermutet wird.

Dies hatte zur Folge, dass ungefähr 800.000 ADSL-Kunden keinen Zugang zum Internet hatten. Diese Störung soll aber zur Zeitpunkt der Meldung schon wieder behoben worden sein. Näheres ist nicht bekannt.

3.42 Ausfall des Satelliten Intelsat804 (14.01.2005)

“Intelsat 804” (auch IS-804 genannt) ist ein Kommunikationssatellit im geostationären Orbit ([62]). Er wurde im Dezember 1997 vom Betreiber Intelsat gestartet und bietet Telekommunikationsdienste für Staaten im Südpazifik (Cook Islands, Samoa, American Samoa, the Chatham Islands, Solomon Islands, Kiribati, Niue, Vanuatu, Tokelau, Tuvalu und Tonga) und der US-amerikanischen Forschungsstation “McMurdo” in der Antarktis. Andere Länder wie Südkorea und Vietnam benutzen auch Intelsat 804, haben aber noch andere Kommunikationsverbindungen ins Ausland.

Am 14.01.2005 um 17:32 (EST) gab es laut Intelsats Presseerklärung ([63]) eine “unerwartete Anomaly” in der Stromversorgung. Dieser führte zu einem Totalausfall von IS-804.

Freie Kapazitäten von anderen Satelliten haben die Kommunikationsverbindungen von IS-804 übernommen. Dazu müssten die Transmitter der betroffenen Kommunikationspartner auf andere Satelliten umpositionieren. Es dauerte aber einige Tage bis der Ausfall von IS-804 aufgefangen werden konnte.

Intelsat 804 hatte noch eine Buchwert von 73 Millionen Dollar und ist nicht versichert gewesen. Mehr als eine Millionen sind von diesem Ausfall Menschen betroffenen gewesen ([64]). Diese hatten keine Möglichkeit mehr, internationale Telefongespräche zu führen.

Die vielen kleinen Insel-Staaten im Südpazifik sind nur über IS-804 telefonisch erreichbar gewesen. IS-804 ist also ein Single-Point-of-Failure hier gewesen. Eine zweite alternative Verbindung zu anderen Satelliten hätten diesen Ausfall gemildert. Zumindest wären diese kleinen Insel-Staaten nicht telefonisch von der Aussenwelt getrennt gewesen.

3.43 Intelsat Americas 7 (29.11.2004)

Nach eigenen Worten ist Intelsat (http://www.intelsat.com/) der weltgrößte Anbieter von festen Satelliten-Diensten. Intelsat bietet sowohl Kommunikationsverbindungen über Satellit, als auch über Glasfaserkabel an. Das Netzwerk kann in der Abbildung 22 eingesehen werden. Des weiteren kann man sichauch nährere Informationen zu den einzelnen Satelliten unter [96] einholen. Aus dieser Quelle geht auch hervor, dass der Satellit G-27, früher IA-7, auf der Position 129 westlicher Länge über dem Äquator stationiert ist. Er deckt somit Nordamerika und Canada ab.

Intelsat-Netz mit Satellit G-27
Abbildung 22: Intelsat-Netz mit Satellit G-27. Graphic courtesy of Intelsat. Quelle: [96]

Am 29.11.2004 meldete [95], dass der Satellit wegen eines Versagen der Energiesysteme ausgefallen sei. Weitreichende Folgen sind allerdings nicht bekannt. Die Dienste wurden nach dem Ausfall auf umliegende Satelliten verlagert. Des weiteren war schon ein zweiter Satellit, damals IA-8, heute G-28, vorbereitet worden, der Teile der Funktionen von G-27 übernehmen sollte.

3.44 Telefoninfrastrukturausfall in Mittelhessen (10.11.2004)

Die Kreise Limburg-Weilburg und Lahn-Dill liegen in Mittelhessen nahe Frankfurt am Main. Deren Telefoninfrastruktur wird von der Deutschen Telekom gestellt.

Um ca. 15:00 am 10. November fing dieser Ausfall an [65]. Grund war ein Absturz der Vermittlungssoftware in einem zentralen Netzknoten in Weilburg. Nähere Details sind nicht bekannt gegeben. Um 10:00 Uhr des Folgetages war grösstenteils wieder die Telekommunikationsinfrastruktur funktionsbereit.

Die Vorwahlen 06471 und 06479 waren gestört. Auch waren die Notrufnummern von Polizei, Feuerwehr und Rettungsdiensten blockiert. Betroffen waren auch das Mobilfunknetz in dieser Region. Dieser Ausfall hat 19 Stunden gedauert. In dieser Zeit waren nur Ortsgespräche möglich, aber die betroffenen Menschen konnten keine Zugang zum Internet aufbauen.

Offiziel gab es “keine grösseren Schwierigkeiten” laut Polizeipräsidium und Rettungsleitstelle. Dennoch dürfte dieser Ausfall den Menschen in der betroffen Region ein harter Schlag gewesen sein, da sie ohne Vorwarnung über kein Telefon und keinen Internetzugang mehr verfügten.

Als Benutzer hätte man den Ausfall gut überstanden, wenn man mindestens eine weitere Verbindung gehabt hätte, die nicht über die Infrastruktur der Telekom, die von dem Ausfall betroffen gewesen ist, geführt hätte. Da in Deutschland die Telefoninfrakstruktur meistens der Telekom gehört, ist dies schwierig zu realisieren. Vorstellbar wäre eine redundante Anbindung per Satellit; der Normalverbraucher würde dafür ungern Geld ausgeben, aber Firmen, die auf eine funktionierende Telekommunikation angewiesen sind, könnten diese Lösung in Erwähnung ziehen. Ein Anbindung per Satellit wäre günstiger als das Verlegen von einer zweiten redundanten Leitung hin zu einem anderen Infrastruktur-Betreiber.

3.45 isp-service (24.08.2004)

Nach [73] gab es am 24.08.2004 bei dem Internet-Provider „isp-service“ (http://www.isp-service.de/) einen Ausfall an der zentralen Glasfaserleitung.

Dies hatte zur Folge, dass zahlreiche DSL-Zugänge gestört, bzw. nicht verfügbar waren. Zudem waren die Tochter-Unternehmen „NewDSl“ und „Expressnet“, die auch an diesem Backbone hingen, ebenfalls betroffen. Man konnte sich zwar noch über den RADIUS („Remote Authentification Dial-In User Service“)-Server anmelden, aber nicht mehr von dort aus über den Backbone ins Internet. Weiteres ist nicht bekannt.

3.46 Kein Mobilfunknetz von T-Mobile in MVP und Nordbrandenburg (27.02.2004)

T-Mobile ist die Mobilfunksparte der Deutschen Telekom und ist Marktführer in Deutschland. Sie betreibt ein Deutschland-weites Mobilfunknetz.

Am Freitag gegen halb acht am Morgen ist in grossen Teilen von Mecklenburg-Vorpommern und Nordbrandenburg das Mobilfunknetz von T-Mobile ausgefallen [74, 75]. Laut eines T-Mobile-Sprechers ist der Grund für dieses Ausfall ein Vermittlungsrechner in Rostock gewesen.. Dort trat bei Wartungsarbeiten ein Softwarefehler auf, der zu diesem grossflächigen Ausfall geführt hat. Nähere Details zu diesem Ausfall gibt es nicht. Nach viereinhalb Stunden ist der Schaden behoben worden.

Während dem Zeitraum des Ausfalls konnten Kunden von T-Mobile keine Mobilfunkgespräche führen. Dadurch erlitt T-Mobile einen Verlust an Umsatz. Kunden von T-Mobile werden sich über den Ausfall des Mobilfunknetzes ihrers Providers geärgert haben.

An einem Freitag vormittag wird in Betrieben noch gearbeitet und manche Betriebe werden auf dem Vorhandensein eines funktionieren Mobilfunknetz angewiesen sein. Dies dürfte die Kunden von T-Mobile in dieser Region verärgert haben. Da dieser Ausfall so lange gedauert hat, stellt sich die Frage, ob T-Mobile keine Backup-Systeme installiert gehabt hat.

In diesem Ausfall hätte der betroffene Mensch in dieser Region seine Erreichbarkeit erhalten können, indem er einen weiteren anderen Mobilfunkanbieter benutzt hätte, um somit Providerunabhängigkeit zu erreichen. Aber wohl nur die wenigsten Menschen werden sich einlassen, sich mit zwei oder mehr Mobilfunkgeräten von verschiedenen Anbietern auszustatten, nur um einen Mobilfunkausfall zu überleben, da solche Ausfälle nicht häufig stattfinden.

3.47 UK Internet traffic (25.11.2003)

Wie unter [90] nachzulesen ist, ist das TAT-4 die Abkürzung von Trans Atlantic Telephonecable Number 14. Es wurde am 21. März 2001 nach einer zweieinhalbjähriger Bauzeit eingeweiht. Nach eigenen Angaben ([89]) verbindet dieses Kabel die Vereinigten Staaten mit to dem Vereinigte Königreich (England), Frankreich, den Niederlanden, Deutschland und Dänemark. Wie der Karte in Abbildung 23 zu entnehmen ist, ist es eine doppelte Verbindung.

TAT-14 Landing Stations
Abbildung 23: TAT-14 Landing Station Map;Quelle: [92]

Nach der Spezifikation hat das Kabel eine Kapazität von 640Gbit über jedes dieser zwei Glasfaserkabel. Diese werden noch einmal von 2 weiteren Glasfasern mit einem Backup versehen. Die Länge ist nach [90, 91] 15.000 km und die Dicke 50mm.

[88] zufolge ist am Dienstag, den 25.11.2003, um 15:39 am Nachmittag eine Störung aufgetreten. Die Lokalität, an der die Störung auftrat, soll sich nach einem Sprecher von BT (http://www.bt.com/), einem Mitglied des Konsortiums zwischen Frankreich und den Niederlanden befinden. Am darauf folgenden Tag um 7:46 ist der Ausfallbehoben behoben [93]. Die Telefonverbindungen waren weniger betroffen als die Datenübertragung. Es wurden Verluste von 32Gibt/s an Daten gemeldet. Insgesammt mussten wohl mehrere englische Provider mit Störungen und Einbußen leben.

Die Störung sollte nach den Angaben eines Vernatwortlichen bis zum Ende der Woche behoben worden sein.

3.48 US-Kanadischer Blackout im August 2003 (14.08.2003)

Das sporadische Auftreten elektrischer Blackouts in den USA ist in den vergangenen Jahrzehnten zur Normalität geworden. Transformator- oder Leitungsausfälle bewirkten den Ausfall des gesamten Stromnetzes (englisch: electrical grid) mehrerer US-Staaten. Ein Beispiel ist der Blackout vom 14. August 2003. Südlich der Stadt Cleveland im Norden Ohios27 sackte gegen 15:05 Uhr EST28 die 345 kV Stromoberleitung Chamberlin-Harding nach unten und berührte einen Baum. Daraufhin ging die Leitung vom Netz. Die Netzspannung des Stromnetzes fiel kurzzeitig im Bereich Ohio. Die Alarmsysteme des Betreibers FirstEnergy signalisierten aufgrund mehrerer Hard- und Softwarefehler den Ausfall nicht. Das Netz versuchte nun die ausgefallene Leitung zu kompensieren. Die zusätzliche Last ließ eine weitere Stromoberleitung erhitzen und absacken. Wieder wurde ein Baum berührt, die Hanna-Juniper-Leitung fiel aus. Gegen 15:41 Uhr EST fielen in kurzer Folge eine 138 kV-, die 345 kV Star-South Canton-Verbindung und 15 weitere 138 kV-Leitungen in Ohio aus. Infolgedessen klinkte sich in einem Umspannwerk aus Selbstschutz ein Transformator aus, welcher die Netze der Unternehmen FirstEnergy und American Electric Power verbindet. Die eingebauten Leistungsschutzschalter und Schmelzsicherungen weiterer 345 kV-Stromoberleitungen, namentlich die Tidd-Canton Central und Sammis-Star, registrierten Unterspannung bzw. Überlast und (miss-)interpretierten dies als einen Kurzschluss. Beide Leitungen fielen anschließend aus. Die Region Ohio zog in direkter Reaktion darauf 2.000 Megawatt Energie von Michigan, um die unterschiedlichen Spannungszustände auszugleichen, verursachte aber dadurch mehrere Unterspannungs- bzw. Überlastzustände. Um 16:10 Uhr EST fielen in Ohio, Pennsylvania und New York noch mehr Hochspannungsleitungen aus, ebenso schalteten sich nun Strom generierende Kraftwerke aus, da durch die ausgefallenen Leitungen die Stromnachfrage nicht mehr vorhanden war. Nur wenige Sekunden später separierten sich die östlichen und westlichen Netze in Michigan voneinander, die Netze zwischen den Bundesstaaten Cleveland und Pennsylvania wurden ebenso getrennt. Aus dem am Eriesee gelegenen Netz flossen innerhalb einer Sekunde 3.700 Megawatt29 in westlicher Richtung nach Ontario30, Michigan und Ohio und verursachten einen Spannungsabfall. Der Energiefluss drehte nun seine Fließrichtung nach Osten und jagte 2.000 Megawatt von Michigan nach Ontario und änderte nochmals seine Richtung innerhalb weniger Sekunden. Weitere Verbindungen zwischen den Stromnetzen der (Bundes)staaten fielen aus und ließen weitere Kraftwerke herunterfahren. Der Blackout trat endgültig um 16:11Uhr EST ein.

Nach dem Vorfall wurde von den kanadischen und U.S.-amerikanischen Regierungen eine Arbeitsgruppe (englisch: task force) ins Leben gerufen. Sie untersuchte die Ursachen des Ausfalls und gab im April 2004 in ihrem Abschlussbericht 46 Empfehlungen zur Verhinderung oder Minimierung zukünftiger Ausfälle. Unter anderem wurde auch untersucht, ob der Ausfall einen cyber-terroristischen Hintergrund haben könnte. Das Expertenteam fand keine Hinweise auf einen Software oder Internet-basierten Angriff, gab jedoch Handlungsempfehlungen im Bereich IT-Sicherheit für die Stromnetzbetreiber und die staatlichen Behörden: Eine eindeutige Aufgabenverteilung, eine verbesserte Organisationsstruktur und die Umsetzung von IT-Management-Prozessen (auch IT-Governance genannt) sollten entwickelt und implementiert werden. Ebenso wurde die Einführung eines Risko-Managements (Risk Management) und die Einhaltung der vorgegebenen IT-Standards und Normen (Compliance) des North American Electric Reliability Council (NERC31, siehe auch Abschnitt 7.1) unter Androhung einer empfindlichen Geldstrafe von 1 Million U.S.-Dollar pro Tag der Nicht-Einhaltung empfohlen. Als zentrale Anlaufstelle für den Austausch von sicherheitsrelevanten Informationen und Analysen sollte das NERC Electricity Sector Information Sharing and Analysis Center (ES-ISAC) weiter ausgebaut werden [U.S04].

Insgesamt waren 55 Millionen Menschen von dem Ausfall betroffen: 1,5 Millionen Menschen mussten in Cleveland mit Wassertrucks durch die Nationalgarde versorgt werden, über 400 Flüge wurden gestrichen und ca. 300 Mitarbeiter übernachteten unfreiwillig im New York Stock Exchange. 120 nukleare und nicht-nukleare Kraftwerke waren abgeschaltet worden und mussten neu angefahren werden. Die zukünftigen Investitionen in das durchschnittlich über 50 Jahre alte Netz wurden auf 50 bis 100 Milliarden US-Dollar geschätzt [CBC03].

3.49 E-Plus (27.10.2000)

Am 27.10.2000 um 13:52 Uhr meldete [94], dass das Mobilfunknetz des deutschen Mobilfunkbetreibers E-Plus (http://www.eplus.de) bundesweit seit 8.15 Uhr desselben Tages abgestürzt sei. Grund sei ein Fehler in der Signalisierungssoftware der bundesweit 35 Vermittlungsstellen von E-Plus gewesen.

Als Folge konnten sich ein Viertel der Kunden nicht mehr in das Mobilfunknetz einwählen.

Einem Sprecher zufolge war die Störung aber zum Nachmittag hin wieder behoben.

3.50 Ausfall trotz USV bei Strato (22.12.1999)

Die Firma Strato bietet Kunden Webhosting-Dienste und Domains an. Dabei benutzt sie das Rechenzentrum vom Internet-Service-Provider XLink in Karlsruhe.

Am Mittwoch, den 22.12.1999, um 10 Uhr kam es zu einem Komplettausfall der von Strato gehaltenen Kundendomains [76, 77]. Auch die Strato-Homepage war nicht erreichbar. Grund war ein Stromausfall bei XLink. Eine Elektrofirma hat Wartungsarbeiten an der unterbrechungsfreien Stromversorgung (USV) durchgeführt. Dabei kam es zu einer Spannungsspitze durch einen Kurzschluss und dadurch zum Ausfall aller Strato-Domains. Das Rechenzentrum hat zwar eine USV, doch dieser Kurzschluss entstand hinter der USV, so dass die USV hier unnütz war. Diese Wartungsarbeiten sollen nicht mit XLink abgesprochen gewesen sein. Durch diesen Absturz müssen auf allen Systemen erst ein Filesystem-Check durchgeführt werden, welcher sehr lange dauert, da die einzelnen Rechner über ein konsistentes Dateisystem verfügen sollen, bevor die Domains wieder ansprechbar sein sollen. Um 16 Uhr waren die von Strato gehosteten Domains wieder ansprechbar.

Sechs Stunden dauerte dieser Ausfall. In dieser Zeit sind 400.000 Internet-Präsenzen bei Strato nicht erreichbar gewesen. Besonders tragisch ist gewesen, dass dieser Ausfall nicht nur in der Hauptverkehrszeit, sondern auch noch zur Weihnachtszeit eingetreten ist. Vielen Online-Shops, die bei Strato gehostet waren, entstanden dadurch Verluste; viele Kunden von Strato waren sehr verärgert. Verschlimmert wurde die Lage durch Stratos Kommunikationspolitik in dieser Krise: es wurde von Unternehmensseite nichts kommentiert. Stratos Hauptkonkurrent 1&1 PureTec wollte aus Stratos Pech Kapital schlagen und bot allen Strato-Kunden einen kostenlosen Wechsel ihrer Domain zu 1&1 an.

Im Sommer 1999 ist Strato noch mit Auszeichnungen überhäuft worden, wie z.B. “Web-Space-Provider des Jahres 1999” durch die Zeitschrift Internet World. In dieser Zeit des Internet-Booms wächst Stratos Kundenstamm um 30 Prozent jeden Monat. Strato ist wohl ein Opfer seines eigenen Erfolges: diese Firma ist schnell gewachsen – wahrscheinlich zu schnell. So sind auch die diverse Probleme mit der Technik bei Strato um den Jahreswechsel 1999/2000 herum zu erklären [77]. Der Kurzschluss mit der USV hätte eigentlich nicht passieren dürfen; auch ist es verwunderlich, wieso überhaupt eine Elektrik-Operation hinter der USV und noch dazu bei den Unternehmens-kritschen Rechnern erlaubt worden ist. Wahrscheinlich ist die Möglichkeit eines Auftretens eines Kurzschlusses unterschätzt worden.

Dieser Ausfall hätte vermieden werden können, wenn diese Elektrik-Wartungsarbeiten besser vorbereitet gewesen wären, d.h. die Rechner hätten vor einem Kurzschluss bei den Wartungsarbeiten noch geschützt werden. Wenn ein Kunde eine kommerziellen Web-Shop betreibt und von diesem sehr stark abhängig ist, sollte dieser Kunde überlegen, eine dedizierte Lösung zu finden und nicht bei einem Massen-Webhoster wie Strato seinen Shop zu halten. Vielleicht hätte der Web-Shop-Betreiber auch mit Strato in einem Vertrag festhalten können, dass er eine Mindest-Verfügbarkeit von Strato fordert wie z.B. 99,999% im Jahr. Das wäre sicherlich preislich teuerer für den Kunde, doch müsste bei einer Nicht-Verfügbarkeit die Firma Strato für den entstandenen Schaden zahlen.

3.51 T-Online (22.10.1997)

Für den Fall eines Notfalls wird der Web-Server bei T-Online (http://www.t-online.de komplett gespiegelt. So kann bei einer Storung einfach umgestellt werden.

Am 22.10.2007 war laut [97] der Webserver den ganzen Tag nicht zu erreichen. Dies lag daran, dass auch der Backup-Server eine Technische Störung hatte und somit das Umschalten nicht wie geplant funktioniert hat.

3.52 Keine .com und .net TLDs mehr (17.07.1997)

Die Firma “Network Solutions Inc.” (NSI) war zum betreffenden Ausfallszeitpunkt für die Verwaltung der Toplevel-Domains (TLD) .com und .net verantwortlich. Bei NSI konnte man sich zudem Domainnamen registieren lassen. Das Domain Name System (DNS) wird gebraucht, damit menschenlesbaren Domainnamen zu numerischen IP-Addressen umgewandelt werden können. NSI erzeugt auch die “zone files” von den .com- und .net-TLDs für die Root-Server. Diese “zone files” defineren im DNS eine Abbildung vom Domainname zu IP-Addressen.

Ab 2:30 Uhr (EDT) morgens funktionierte das Internet nicht mehr richtig. [78, 79, 80]. Das Problem began bereits am Vortag um 23:30 (EDT). Bei NSI in Virginia, USA, wird automatisch von einem Programm aus einer Datenbank heraus für die .com- und .net-TLDs “zone files” generiert. Diesmal klappte diese Generierung aber nicht, was die Einträge für .com- und .net-TLDs unbrauchbar machte. Aufkommende Alarme und Fehlermeldung des Programmes wurden vom verantwortlichen Mitarbeiter bei NSI ignoriert, so dass einem Aussenden dieser “zone files” nichts mehr im Wege stand. Um 2:30 (EDT) wurde dieses beschädigte Update für die Root Nameserver ausgesandt. Wegen dieser Unachtsamkeit eines einzelnen Person wurden so korrupte “zone files ” verteilt. Sieben von neun DNS-Root-Server waren von diesem kaputten Update betroffen. Von den DNS-Root-Server wurden diese kaputten Informationen dann weiter an andere Nameserver verteilt. Um 6:30 (EDT) wurde dieser teilweise Ausfall des DNS beseitigt, indem korrekte “zone files” an die Root-Server versandt wurden.

Die Folgen dieses missglückten Update war, dass die Domainnamen mit der TLDs .com und .net nicht mehr in ihre dazugehörige IP-Addresse auflösbar gewesen sind. DNS war also unbrauchbar für diese TLDs geworden. Vier Stunden hielt diese Störung an. Während dieser Zeit konnte keine Email, die an Adressen der betroffenen TLDs ging, zugestellt werden. Zuerst haben europäische Nutzer diesen Ausfall gespürt: tausende ihrer Emails wurden nicht angenommen. Weite Bereiche des Internets waren in den USA nicht erreichbar. Domainnamen von Webservern grosser Firmen waren ebenfalls nicht in IP-Adressen auflösbar.

Diese Störung ist die bis dahin grösste des Internets gewesen. Störungen von DNS-Root-Server haben massive Folgen auf das gesamte Internet. Da fast alle .com-TLDs betroffen waren, konnten E-Commerce-Seite nicht mehr gefunden werden. Dies dürfte zu Umsatzeinbussen bei den Betreibern geführt haben. Der “single point of failure” ist hier die Generierung der “zone files” gewesen: Nur ein einzelner Mensch ist für die Überwachung verantworlich gewesen. Aber nicht alle Internet-Teilnetze waren betroffen: einige haben einen eigenen DNS-Server betrieben, der über einen eigenen Cache von IP- und Domainname-Addressen verfügte. Diese Nameserver mussten also nicht die Root-Nameserver abfragen, da sie bisherige Antworten zwischengespeichert haben. Dadurch kamen sie nicht in den Kontakt mit den kaputten Datensätzen.

Als erste Gegenmassnahme wollte NSI mehr Schutzmassnahmen vor dem Verschicken der “zone files” einbauen. Ob dadurch kaputte “zone files” vermieden werden können, ist aber fraglich. Ein Benutzer kann sich vor derartigen DNS-Problemen schützen, indem er sich die IP-Addresse seines Kommunikationspartner merkt und sich nicht auf das Auflösen des Domainnames verlässt. Ein andere Lösung wäre das Betreiben eines eigenen Caching-DNS-Servers, der Antworten anderer DNS-Server zwischenspeichert. Hier muss man aber hoffen, dass DNS-Probleme schnell gelöst werden, denn irgendwann veralten auch die Einträge im Caching-DNS-Server. Dann ist auch dieser Server gezwungen, DNS-Anfragen weiterzuleiten, womit er auch kaputte Anwort-Datensätze erhalten kann.

3.53 AOL (08.08.1996)

Bei dem amerikanischen Internet Provider American OnLine (AOL) wurde am 07.08.2006 ein Software-Update bei den Routern und Switches des Netzwerkes eingespielt. Während dieser Periode wurden natürlich auch Updates bei den Routing-Tabellen vorgenommen.

Dabei kam es zu einem fehlerhaften Update der Routing-Tabellen, so dass das Netzwerk nicht mehr funktionsfähig war. Da während des Software-Updates auch die Netzwerkdiagnose-Software abgestellt wurde, kamen die Techniker zu dem fehlerhaften Schluss, dass das Software-Update Schuld an Disfunktionalität sei.

Dies hatte zur Folge, dass die Fehlerquelle erst nach 19 Stunden behoben wurde. In der Zeit vom 07.08.2006 16 Uhr bis 08.08.2006 11 Uhr konnten die 16 Mio. Benutzer keine Verbindung aufbauen. Als Entschädigung bekamen sie von AOL einen Tag kostenlose Dienste.

3.54 Ausfall von Vermittlungsrechner legt New Yorker Flughäfen lahm (17.09.1991)

AT&T war zum Unglückszeitpunkt der grösste Telefonanbieter in den USA und dominierte sowohl bei den Fern- als auch Ortsgesprächen den Markt. Zum Zeitpunkt dieses Unglücks hat AT&T “No. 4 Electronic Switching Systems” (4-ESS) in den betroffenen Vermittlungsstellen verwendet. 4-ESS ist bei seiner Einführung das erste digital elektronische Vermittlungrechner für Ferngespräche gewesen.

Am 17.09.1991 kam es zu einem internen Stromausfall in einem von AT&Ts Vermittlungscentern mit “4-ESS”-Systemen in Manhattan [81, 82]. Dieser Vermittlungscenter war für die Weiterleitung von Ferngesprächen und den lokalen Anschlüssen rund um Manhattan verantwortlich. Einer Theorie zur Folge war der Grund für diesen Stromausfall im Vermittlungscenter, dass AT&T dem Energieversorger “Consolidated Edison, Inc” (ConEd) helfen wollte: Am Tag des Ausfall herrschten sehr heisse Temperaturen in New York; durch die Verwendung ihrer internen Stromgeneratoren wollte AT&T dem Energieversorger entlasten. Doch es wurde irgendwie übersehen, dass diese Stromgeneratoren nicht richtig an das System angeschlossen waren und daher nicht hilfreich waren. Deshalb liefen das Vermittlungscenter für sechs Stunden auf Batterien: nach dieser Zeit waren die Batterien leer, so dass dieses Vermittlungscenter nicht mehr benutzbar geworden war und so ausfiel.

Die Anrufe wurden auf die zwei noch übrigen Vermittlungsstellen umgeleitet, doch diese konnten den ungewohnt hohen Verkehr nicht abarbeiten. Ca. 5 Millionen Telefongesprächen wurden als Folge blockiert. Betroffen waren Ferngespräche sowohl in die Stadt also auch aus der Stadt heraus. Die Funktürme der Flugleitungen der New Yorker Flughäfen wurden durch ein Netzwerk von Telephonkabel verbunden. Durch den Ausfall vom Vermittlungscenter war keine Kommunikation mehr mit diesen Funktürmen mehr möglich. Dies führte zur Schliessung aller drei New Yorker Flughäfen für vier Stunden, nämlich von 17 Uhr bis 21 Uhr. Dadurch wurden 1.174 Flüge entweder verzögert oder sogar abgesetzt.

Besonders tragisch and diesem Ausfall war, dass er an einem Dienstag nachmittag geschah, also mitten in der Woche und zur vollen Geschäftszeit. AT&T ist nicht fähig gewesen, die Gespräche auf andere Vermittlungsrechner umzuleiten. Dieser Vorfall zeigt, wie abhängig das Telefonnetzwerk von einzelnen funktionierenden Geräten ist. Zudem wird hier deutlich, dass Redundanz, alternative Vermittlungswege und Notstromgeneratoren, wie sie AT&T eingesetzt hat, immer noch nicht ausreichen, um einen solchen Ausfall zu verhindern. Wenn die Theorie stimmt, dass die internen Stromgeneratoren nicht korrekt an das System angeschlossen waren, wäre dies peinlich für AT&T.

Um in Zukunft einen solchen Ausfall zu vermeiden, kann AT&T ihrer Stromgeneratoren testen, ob diese auch richtig mit dem System verbunden sind. Auch sollte die Flugsicherung ein eigenes Telefonnetz betreiben, um mit ihren Funktürmen zu kommunizieren. Dann wären sie nicht von der Politik eines Telefonnetzbetreibers wie AT&T abhängig.

3.55 Programmkorrekturversuch (26.06.1991)

Wie [103] zu entnehmen war, fand bei dem Versuch einer Fehlerbehebung bei dem amerikanischen Telefonanbieter “Bell Atlantic“ eine Verschlimmerung des Fehlers statt. Dies kam daher, dass aus Sicherheitsgründen 4 Switches zusammengeschlossen wurden, um den Ausfall bei der Korrektur zu kompensieren. Leider breitete sich der Fehler durch das Verbinden auch auf die übrigen Switches aus, was zu einem Ausfall in dem Gebiet von Baltimore bis Washingtnon und West Virginia führte.

3.56 Störung der Telefoninfrastruktur in New Jersey (04.01.1991)

AT&T war zu diesem Zeitpunkt der grösste Telefonkonzern in den USA. Viele Ferngespräche hat diese Firma über Glasfaserkabel geführt.

Am 04.01.1991 um 9:30 Uhr haben Arbeiter von AT&T in der Stadt Newark, New Jersey, ein altes Kabel entfernt. Dabei wurde aber versehentlich ein Glasfaserkabel beschädigt, welches für ein reibungslosen Betrieb der Telefoninfrastruktur benötigt wurde [83]. Mindestens zwei Tage dauerte diese Störung an [84].

Diese Störung des Telefonnetzes begann an einem Freitag Vormittag, also zur Geschäftszeit. Das beschädigte Glasfaserkabel konnte ca. 100.000 Anrufe gleichzeitig übertragen. Dass plötzlich dieses Kabel nicht mehr benutzbar war, hatte u.a. zur Folge, dass die Warenterminbörse “New York Mercantile Exchange” schliessen musste. Ausserdem wurde die Kommunikation der Flugraumkontrolle im Raum New York, Washington und Boston lahm gelegt: lange Flugverzögerungen an den Flughäfen waren die Folge. So wurden 60% aller Telefonverbindungen von und nach New York blockiert. Aber auch Überseeverbindungen waren betroffen [84].

Dieser Ausfall ist weitreichend gewesen, denn er dauerte mindestens zwei Tage lang an und hat den Flugzeugverkehr und Handelsmarktplätze gestört. Das eine Trennung eines Glasfaserkabels solche Auswirkungen hat, sollte man nicht für möglich halten. Auch fragt man sich, ob AT&T keine Alternativroute schalten konnte.

Eine redundante Anbindung ans Telefonnetz hätte diese Störung gemildert. Vielleicht hätte eine Verbindung via Satellit schon ausgereicht, um auf mehreren Wegen erreichbar sein zu können. Extra für Redundanz in einer Stadt neue Kabel zu verlegen, mag zu aufwendig sein.

3.57 Störung AT&T (15.01.1991)

Wie [101] und [102] zu entehmen ist, fiel am 15.01.1990 das Telefonsystem des amerikanischen Telefondienstanbieters AT&T aus.

Der Grund hierfür war ein Fehler in einem einzelnen Computer-Programm. Es war fehlerhafter Code, der mit der neuen Software für die Prozessoren der Switches geladen wurde. Die Initialisierung der Switches danach dauerte 4-6 Sekunden. Danach wurden zwischen den Switches verschiedene Initialisierungsnachrichten verschickt, die schlussendlich dazu führten, dass die Switches glaubten, dass ihre Prozessoren nicht mehr korrekt funtkionierten und sich somit vorsorglich abschalteten, um das Problem nicht mit der Weiterreichung weiterer vermeintlich fehlerhafter Nachrichten zu vergrößern. Dies reichte sich in einer Kettenreaktion weiter.

Die Nachrichtenmenge wurde von AT&T verringert, so dass die Switches nicht mehr von zu vielen Initialisierungsnachrichten „verwirrt“ werden sollten.

3.58 Streckenausfall im ARPANET (12.12.1986)

Das ARPANET (Advanced Research Projects Agency Network) wurde vom US-Verteidigungsministerium ins Leben gerufen. Es ist das erste Computerkommunikationsnetzgewesen, welches Packetvermittlung einsetzte, und gilt als Vorläufer des heutigen Internets. Zum Zeitpunkt dieses Unglücks hatte das ARPANET knapp 10.000 Rechner [85]. Die Aufgabe des ARPANETs war die Verbindung von Forschungseinrichtungen in den USA.

Am 12.12.1986 um 1:11 Uhr Nachts (EST) bemerkte der Telekommunikationsinfrastrukturbetreiber AT&T eine Trennung eines Glasfaserkabels zwischen Newark, New Jersey, und White Plains, New York [86, 87]. Dieses Glasfaserkabel hat sieben logisch getrennte Einzelverbindungen (Trunks) repräsentiert. Doch wurden diese sieben Trunks durch das gleiche Glasfaserkabel geführt. Als das Kabel durchtrennt war, waren alle diese Trunks zerstört. Ursache für diese Trennung des Kabels ist nicht bekannt. Um 12:12 Uhr war der Schaden jedoch behoben.

Dieser Ausfall geschah an einem Freitag und dauerte elf Stunden lang, also zu einer Geschäftszeit. Das öffentliche Telefonnetz im Nordosten war getrennt vom restlichen Netzwerk. Auch MILNET, das Computernetz des US-Militärs war betroffen, doch nicht so stark wie das ARPANET, weil es über mehr Redundanzen verfügte. Emails mussten in den Warteschlagen stehen bleiben, bis der Leitungsschaden behoben wurde.

Für die betroffen Personen war es schwer zu verdauen, dass das ARPANET doch nicht so viel Redundanz hat, wie sie gehofft haben. Es liegt eine scheinbare Redundanz vor, wenn mehrere Einzelkabel den selben Weg gehen. Meistens zeigen Netzstruktur-Pläne immer die logische Topologie und nicht die physikalischen Wege, über die die Leitungen gehen. Logisch unterschiedliche Pfade können wie in diesem Fall den gleichen physikalischen Pfad haben. Das kann zur Augenwischerei führen, wenn die Zuverlässigkeit von Netzen bewertet werden soll. Es gibt aber auch einen Vorteil, mehrere logische Kabelverbindungen über ein Kabel zu leiten: Tritt ein Schaden am Kabel aus, merken es viele Menschen. Da es viele betroffene Menschen gibt, hat der Betreiber mehr Ehrgeiz den Schaden zu beheben als wenn nur eine einzige Person betroffen ist. Aus Sicht des Betreibers ist es zudem einfacher, einen einzigen Kanal auszugraben und dort mehrere Kabel zu verlegen, als jedes Kabel in einem eigenen Graben zu verbuddeln.

Dieser Ausfall zeigt, dass eine physikalische Trennung der Packetwege wichtig ist. Um in Zukunft einen solchen Ausfall zu verhindern, könnte man verschiedene Telekommunikationsanbieter benutzen. Dabei muss aber sichergestellt werden, das jeder Anbieter eine eigene und von anderen Anbietern getrennte Infrastruktur besitzen. Sonst braucht man diesen zweiten Anbieter gar nicht. Da es immer wieder vorkommt, dass ein Telekommunikationskabel gekappt wird, kann man erwägen, eine drahtlose Kommunikationsstrecke zu benutzen, z.B. via Satellit.

4. Sicherheit informationstechnischer Systeme

In den USA und in der EU existieren zentrale Einrichtungen - meistens in Form einer Behörde (englisch: agency), um Ausfälle und Störungen von Netzen zu sammeln und auszuwerten. Mit Hilfe dieser Informationen soll auf Krisensituationen schneller reagiert und die anschließende Instandsetzung besser koordiniert und kommuniziert werden.

4.1 Energienetze

Im Bereich der Energienetze zählt dazu die Non-Profit-Organisation North American Electric Reliability Corporation (NERC). Sie hat die Aufgabe, die Funktionsfähigkeit (englisch: reliability) der Stromerzeugungs- und Übertragungssysteme in Nordamerika sicherzustellen. Außerdem ist sie für den Schutz kritischer Infrastrukturen (englisch: Critical infrastructure protection (CIP)) zuständig.

Die Euopäische Union verabschiedete 2006 ein ähnliches Programm, das European Programme for Critical Infrastructure Protection (EPCIP). In diesem sollte bis 2011 ein IT-Netzwerks entstehen, das Critical Infrastructure Warning Information Network (CIWIN) [Eur12b]. Die bisherigen Umsetzungen und Fortschritte auch im Bereich der Zusammenarbeit zwischen den USA und der EU wurden ab Juni 2012 einem Bewertungsprozess (englisch: review) unterworfen [Eur12a]. Das Gegenstück zur NERC ist in Europa der Verband Europäischer Übertragungsnetzbetreiber (englisch: European Network of Transmission System Operators for Electricity (ENTSO-E)).

4.2 Kommunikationsnetze

Die europäische Behörde European Network and Information Security Agency (ENISA) mit Sitz auf Kreta soll seit 2005 eine hochgradige und effektive Netz- und Informationssicherheit in der Europäischen Union gewährleisten. Dazu steht sie als Ratgeber den EU-Institutionen zur Verfügung und sieht sich als Anlauf- und Sammelstelle für Sicherheitsprobleme von Behörden und Unternehmen innerhalb der EU. Die Tätigkeitsfelder reichen von dem Aufbau und der Schulung von Computer Emergency Response Teams (CERTs), der Hilfestellung von Betreiben von Critical Information Infrastructure Protection (CIIP)-Systemen (zum Beispiel Smart Grids, SCADA, Cloud Computing, Botnets) bis hin zum Begleiten des Risiko Managements [Eur13]. Darüber hinaus existieren in den Mitgliedsstaaten der EU weitere nationale Behörden für Fragen der IT-Sicherheit. In Deutschland ist das Bundesamt für Sicherheit in der Informationstechnik (BSI) mit dem beim BSI angesiedelten Nationalen Cyber-Abwehrzentrum (NCAZ) die zentrale Einrichtung im zivilen Bereich. Für militärische Zwecke unterhält die Bundeswehr das Kommando Strategische Aufklärung (KdoStratAufkl). Ähnliche Einrichtungen sind das britsche Government Communications Headquarters (GCHQ) [Gov13] und die französische Agence nationale de la sécurité des systèmes d’information (ANSSI) [Fre13].

Das Pendant zur ENISA ist in den USA die unabhängige Behörde Federal Communications Commission (FCC). Sie ist zuständig für den Rundfunk, Satelliten und Kabel-Kommunikation inklusive diverser Funkdienste, der öffentlichen Sicherheit und dem Heimatschutz (englisch: homeland security). Sie ist auch die Zulassungsbehörde für Radios, Fernseher und Computer. Die FCC stellt mit dem Disaster Information Reporting System (DIRS) und dem Network Outage Reporting System (NORS) den Betreibern von Kommunikationsnetzen zwei Online-Werkzeuge zur Verfügung. Während die Meldung durch die Betreiber im Katastrophenfall durch das DIRS freiwillig ist, müssen über das NORS Netzwerkausfälle gemeldet werden. Das DIRS stellt den Status ausgefallener Netzwerkdienste teilweise öffentlich zur Verfügung und dient der besseren Koordination zwischen den Betreibern und einer verbesserten Kommunikation mit der Bevölkerung während und nach einem Ausfall. Das NORS hingegen speichert die eingegebenen Informationen vertraulich und benutzt die Daten zu Analysezwecken [Fed13].

4.3 Offizielle Fehlerreports

Nach einem Ausfall erstellen die Dienstbetreiber in aller Regel einen Fehlerreport (auch Obduktionsbericht oder post mortem genannt). Dieser wird meistens nur einem unternehmensinternen Umfeld zur Verfügung gestellt. In den letzten Jahren ändert sich vor allem bei amerikanischen Firmen diese Vorgehensweise. So stellt zum Beispiel Amazon nach einem Ausfall seine Problemanalysen, Maßnahmen zur Behebung der Fehler sowie Strategien zur Vermeidung von zukünftigen Vorfällen öffentlich zur Verfügung (siehe dazu die Abschnitte 4.3 und 4.4. Diese Reports können Verantwortlichen und Administratoren beispielhaft zeigen, welche Gefahren und Fallstricke beim Design und Betreiben von Netzen lauern und wie man gegebenenfalls gegensteuern kann.

4.4 Werkzeuge

Die ständige Überwachung der Netzkomponenten ist in vielen Firmen fester Bestandteil der Unternehmenspolitik. Die Vielzahl an zu überwachenden Geräten führt oft zu einer (teil-)automatisierten Steuerung und Überwachung der Systeme. Dabei helfen Werkzeuge (englisch: tools) wie die IT-Infrastruktur-Monitoring-Software NAIGOS. Sie wird zum Beispiel in großen Kontrollzentren bei der Deutschen Telekom, in der Luft- und Raumfahrtindustrie, bei den Olympischen Spielen und auch im Rechenzentrum der Universität Hamburg78 eingesetzt.

5. Zukünftige Pflege der Homepage

Zusätzlich zur statischen Homepage des Lehrstuhls könnte ein Wikipedia-Artikel verfasst werden. Die Gründe hierfür wären eine kontinuierliche Erfassung vieler weiterer Events durch eine große Anzahl an potentiellen Mitarbeitern. Zukünftig könnten auf diesem Wege sogar noch unbekannte Lösungsansätze für Probleme zusammengetragen und diskutiert werden.

5.1 Wikipedia: Veröffentlichung und Lizenzen

Bevor dieser Schritt erfolgt sind die Konsequenzen aus diesem Schritt zu prüfen. Der offene Zugang zu den Inhalten ist bereits durch die Veröffentlichung im Internet erfolgt und daher meines Erachtens auch gewollt. Allerdings lägen die Rechte über die Inhalte wahrscheinlich bei der Universität Hamburg. Was passiert mit Wikipedia-Inhalten in Bezug auf ihre weitere private und kommerzielle Verwendung; kurz: unter welcher Lizenz stehen die Inhalte? Generell stehen alle Wikipedia-Inhalte unter der CC-by-sa-3.079- Lizenz. Diese stellt zur Bedingung, dass der Name der Urheber genannt werden muss. Zudem muss die Weitergabe unter gleichen Bedingungen erfolgen. Das bedeutet, das Werk muss nach Veränderungen unter der gleichen Lizenz weitergegeben werden. Alle Texte der Wikipedia stehen zusätzlich unter der GFDL80- Lizenz. Die Bedingungen inkludieren diejenigen der CC-by-sa-3.0 und ergänzen diese um ein Log-Gebot der Werk-Veränderungen sowie um die Erhaltung des vollständigen Lizenz-Textes und der Copyright-Hinweise. Die Lizenz schließt eine Kontrolle der Distribution und des Editierens der Inhalte durch Digital Rights Management (DRM) aus.

5.2 Wikipedia: Artikelnamen und Portierung

Mögliche Artikel-Namen könnten sein:

  • Ausfälle und Störungen des Internets
  • Ausfälle und Störungen im Internet
  • Ausfälle und Störungen von Kommunikationsnetzen
  • Störungen der Internetsicherheit
  • (Notable events)

Ein möglicher Fallstrick ist die 1:1-Übertragung einer wissenschaftlichen Arbeit in Wikipedia. Die Enzyklopädie hat den Anspruch ein neutrales, beschreibendes Lexikon zu sein. Dies widerspricht teilweise den Ansätzen einer Projektarbeit an einer Universität. Neben einer neutralen Darstellung wissenschaftlicher Fakten ist auch die kritische Auseinandersetzung mit den dargestellten Methoden und Fakten gefordert. Problematisch für Wikipedia ist also die eigene Meinung des Autors der Projektarbeit. Hinzu kommen große inhaltliche Überschneidungen: Diese Arbeit beschreibt beispielsweise das Unglück von Fukushima nebst vorangegangenen Erdbeben. In der Wikipedia findet/n sich allerdings bereits ein oder mehrere dementsprechende Artikel, so dass diese Inhalte nur stark gekürzt und mit einem Verweis auf den Hauptartikel versehen werden können.

Alles in Allem sprengt der Aufwand einer Portierung meiner Projektarbeit in die Wikipedia den Rahmen. Ich sehe daher von einer Portierung ab.

6. Kritik

All den in meiner Arbeit genannten Informationen zum Trotz können die von mir beschriebenen Fakten nicht darüber hinwegtäuschen, dass die detailliertesten Informationen und Fehlerreports nach großen, Millionen von Menschen betreffenden Ausfällen zur Verfügung gestellt wurden. Zudem wurden diese Ausfallanalysen meistens durch staatliche Stellen in Auftrag gegeben und der Öffentlichkeit zugänglich gemacht. Private Unternehmen jedoch scheinen die Veröffentlichung von post mortem-Analysen durch das Eingestehen ihrer Fehlern als schädlich für ihr Image zu halten. Gleichzeitig könnte die Angst einer erhöhten Angreifbarkeit durch das Offenlegen von detaillierten Ausfallberichten einer der Gründe für die starke Zurückhaltung der aktiven Kommunikationsarbeit der Unternehmen mit den betroffenen Kunden sein. Daher können einige von mir beschriebenen Ausfälle nicht mehr als eine oberflächliche Beschreibung der Vorfälle sein. Es gab schlicht keine weiteren Fakten zu bestimmten Ausfällen zu finden.

7. Fazit

Es gibt viele Ursachen für einen Netzausfall. Manche Ursachen sind dem Aufbau und Design des Netzwerks geschuldet. Viele Vorfälle im Bereich Internet werden durch fehlerhafte Patches mit ungeahnten Folgen seitens der Betreiber verursacht. Die Unterbrechung von Glasfaserkabeln zu See oder auf Land ist fast immer der Unkenntnis oder Unachtsamkeit des Verursachers zuzuschreiben. Große Naturkatastrophen sind für eine Kombination von Ausfällen und Störungen (nicht zuletzt auch für den Verlust von Menschenleben) verantwortlich, wobei sich die Reparatur- und Aufräumarbeiten zumeist über einen langen Zeitraum erstrecken.

Eine schnelle Behebung von Störungen braucht detaillierte Informationen über den Zustand des Netzes. Die ständige Überwachung der Netzkomponenten ist eine Selbstverständlichkeit, der Grad der Überwachung und das nötige Wissen der Mitarbeiter hingegen unterscheiden sich häufig deutlich. Ebenso wird in Zeiten des mobilen Internets und der immer schneller werdenden zwischenmenschlichen Kommunikation über soziale Medien auch eine zeitnahe und möglichst transparente Information der Kunden oder Benutzer durch den Betreiber eingefordert. Hierfür gibt es besonders im amerikanischen Raum Anzeichen eines Paradigmenwechsels zu mehr Offenheit bei Störungen oder Ausfällen von Diensten.

A. Anhang

Literatur

[ama11a]     amazon.com; amazon.com (Hrsg.): Summary of the Amazon EC2, Amazon EBS, and Amazon RDS Service Event in the EU West Region. http://aws.amazon.com/de/message/2329B7/. Version: 14.08.2011

[ama11b]     amazon.com; amazon.com (Hrsg.): Summary of the Amazon EC2 and Amazon RDS Service Disruption. http://aws.amazon.com/de/message/65648/. Version: 29.04.2011

[And13]     Andrews, M.: RFC 2308 - Negative Caching of DNS Queries (DNS NCACHE). https://tools.ietf.org/html/rfc2308. Version: 17.02.2013

[Ano11]     Anonymous ; YouTube (Hrsg.): Stellungnahme zur GEMA. http://www.youtube.com/watch?v=g-qFLX26-O8. Version: 17.06.2011

[Bes09]     Besbris, David: Today’s Gmail problems. http://gmailblog.blogspot.de/2009/09/todays-gmail-problems.html. Version: 01.09.2009

[BIT11]     BITKOM: SMS beliebt wie nie zuvor. http://www.bitkom.org/de/presse/64046_67951.aspx. Version: 15.05.2011

[BIT12]     BITKOM: Jeder Deutsche verschickt im Schnitt 700 SMS im Jahr. http://www.bitkom.org/de/markt_statistik/64046_74247.aspx. Version: 30.11.2012

[Blo11]     Blodget, Henry ; Business Insider (Hrsg.): Amazon’s Cloud Crash Disaster Permanently Destroyed Many Customers’ Data. http://www.businessinsider.com/amazon-lost-data-2011-4. Version: 28.04.2011

[BN03]     Bacher, Rainer D. ; Näf, Urs ; Bundesamt für Energie (BFE) (Hrsg.): Bericht über den Stromausfall in Italien am 28. September 2003. Version: 01.11.2003. http://www.bfe.admin.ch/php/modules/publikationen/stream.php?extlang=de\&name=de_117511357.pdf

[BPP+10]     Buldyrev, Sergey V. ; Parshani, Roni ; Paul, Gerald ; Stanley, H. E. ; Havlin, Shlomo: Catastrophic cascade of failures in interdependent networks. In: Nature 464 (2010), Nr. 7291, 1025–1028. http://www.nature.com/nature/journal/v464/n7291/full/nature08932.html

[Bun11]     Bundesnetzagentur ; Bundesnetzagentur (Hrsg.): Tätigkeitsbericht Telekommunikation 2010/2011: Marktbeobachtungsdaten Telekommunikationsmarkt. http://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/BNetzA/Presse/Berichte/2011/TaetigkeitsberichtTK20102011pdf.pdf?__blob=publicationFile. Version: 14.12.2011

[CBC03]     CBC News Online: Blackout Indepth: Power outage: Blackout by the Numbers. http://www.cbc.ca/news/background/poweroutage/numbers.html. Version: 19.11.2003

[Cha12]     Chang, Alexandra: SoftBank Unveils World’s First Phone With Radiation Detection. http://www.wired.com/gadgetlab/2012/05/softbank-unveils-worlds-first-phone-with-radiation-detection/. Version: 29.05.2012

[com11]     comScore Data Mine: Mobile Internet Traffic in Japan Spikes in Response to the Tsunami. http://www.comscoredatamine.com/2011/03/mobile-internet-traffic-in-japan-spikes-in-response-to-the-tsunami/. Version: 16.03.2011

[Cru09a]     Cruz, Acacio: Current Gmail outage. http://googleblog.blogspot.de/2009/02/current-gmail-outage.html. Version: 24.02.2009

[Cru09b]     Cruz, Acacio: Update on today’s Gmail outage. http://gmailblog.blogspot.de/2009/02/update-on-todays-gmail-outage.html. Version: 24.02.2009

[DEN10]     DENIC ; DENIC (Hrsg.): Partielle Nicht-Erreichbarkeit von .de-Domains. http://www.denic.de/denic-im-dialog/pressemitteilungen/pressemitteilungen/2732.html. Version: 12.05.2010

[Den12]     Denyer, Simon: Power thieves prosper in India’s patronage-based democracy. http://www.washingtonpost.com/world/asia_pacific/power-thieves-prosper-in-indias-patronage-based-democracy/2012/10/03/50d2d7e8-eadf-11e1-a80b-9f898562d010_story_1.html. Version: 05.10.2012

[dh12a]     dpa ; heise online: Bundesnetzagentur: Umsätze in Telekom-Branche weiter rückläufig. http://www.heise.de/newsticker/meldung/Bundesnetzagentur-Umsaetze-in-Telekom-Branche-weiter-ruecklaeufig-1439437.html. Version: 03.12.2012

[dh12b]     dpa ; heise online: SMS-Versand an Weihnachten und Neujahr brach Rekorde. http://www.heise.de/newsticker/meldung/SMS-Versand-an-Weihnachten-und-Neujahr-brach-Rekorde-127547.html. Version: 03.12.2012

[dh12c]     dpa ; heise online: Verband erwartet 300 Millionen SMS mit Neujahrsgrüßen. http://www.heise.de/newsticker/meldung/Verband-erwartet-300-Millionen-SMS-mit-Neujahrsgruessen-192618.html. Version: 03.12.2012

[DK12]     Dekker, Marnix ; Karsberg, Christoffer ; European Network and Information Security Agency (ENISA) (Hrsg.): Annual Incident Report 2011: Analysis of the Article 13a incident reports of 2011. Version: 11.10.2012. http://www.enisa.europa.eu/activities/Resilience-and-CIIP/Incidents-reporting/annual-reports/annual-incident-reports-2011

[DL12a]     Denyer, Simon ; Lakshmi, Rama: Huge blackout fuels doubts about India’s economic ambitions: In India, although power is restored, doubts remain. http://www.washingtonpost.com/world/asia_pacific/huge-blackout-fuels-doubts-about-indias-economic-ambitions/2012/08/01/gJQAtjeYOX_story.html. Version: 01.08.2012

[DL12b]     Denyer, Simon ; Lakshmi, Rama: Huge blackout fuels doubts about India’s economic ambitions: India blackout, on second day, leaves 600 million without power. http://www.washingtonpost.com/world/asia_pacific/huge-blackout-fuels-doubts-about-indias-economic-ambitions/2012/08/01/gJQA7j1LMX_story.html. Version: 01.08.2012

[DV12]     DFN-Verein ; DFN-Verein (Hrsg.): Wissenschaftsnetz X-WiN. http://www.dfn.de/xwin/. Version: 06.03.2012

[Eur12a]     European Commission (Hrsg.): Commission staff working document: On the review of the European Programme for Critical Infrastrutcure Protection (EPCIP). Version: 03.07.2012. http://ec.europa.eu/dgs/home-affairs/pdf/policies/crisis_and_terrorism/epcip_swd_2012_190_final.pdf

[Eur12b]     European Commission ; European Commission (Hrsg.): Critical infrastructure. http://ec.europa.eu/dgs/home-affairs/what-we-do/policies/crisis-and-terrorism/critical-infrastructure/index_en.htm. Version: 2012

[Eur13]     European Network and Information Security Agency (ENISA) ; European Network and Information Security Agency (ENISA) (Hrsg.): About ENISA. http://www.enisa.europa.eu/about-enisa. Version: 2013

[Fed13]     Federal Communications Commission (FCC) ; Federal Communications Commission (FCC) (Hrsg.): FCC Reporting Systems. http://transition.fcc.gov/pshs/services/cip/. Version: 2013

[Fin13]     Fink, Marius: LaTeX-Vorlage: Eine LaTeX-Vorlage für Abschlussarbeiten (an der Uni Hamburg) mit TeXlipse-Tutorial. http://www.mariusfink.org/index.php?link=latexvorlage. Version: 2013

[Fre13]     French Republic ; French Republic (Hrsg.): Agence nationale de la sécurité des systèmes d’information (ANSSI): French Network and Information Security Agency. http://www.ssi.gouv.fr/en/. Version: 05.03.2013

[Gob11]     Gobry, Pascal-Emmanuel ; Business Insider (Hrsg.): Amazon Cloud Goes Down, Takes Every Hot Startup With It. http://www.businessinsider.com/why-is-reddit-down-2011-4. Version: 21.04.2011

[Goc08]     Gockel, Tilo: Form der wissenschaftlichen Ausarbeitung: Studienarbeit, Diplomarbeit, Dissertation, Konferenzbeitrag: Begleitende Materialien unter http://www.formbuch.de. In: Form der wissenschaftlichen Ausarbeitung (2008)

[Gov13]     Government Communications Headquarters (GCHQ) ; Government Communications Headquarters (GCHQ) (Hrsg.): About us. http://www.gchq.gov.uk/AboutUs/Pages/index.aspx. Version: 2013

[hei]     heise Netze online: iMonitor – Internet-Störungen. http://www.heise.de/netze/netzwerk-tools/imonitor-internet-stoerungen/

[hei08a]     heise Netze: Arabische Welt beklagt nächsten Ausfall eines Glasfaser-Backbones. http://www.heise.de/netze/meldung/Arabische-Welt-beklagt-naechsten-Ausfall-eines-Glasfaser-Backbones-186486.html. Version: 04.02.2008

[hei08b]     heise Netze: Satellitenbilder klären Ursachen für Seekabelbeschädigungen. http://www.heise.de/netze/meldung/Satellitenbilder-klaeren-Ursachen-fuer-Seekabelbeschaedigungen-199574.html. Version: 15.04.2008

[hei08c]     heise Netze online: Erste Erkenntnisse zu jüngsten Seekabel-Beschädigungen. http://www.heise.de/netze/meldung/Erste-Erkenntnisse-zu-juengsten-Seekabel-Beschaedigungen-177071.html. Version: 07.02.2008

[hei08d]     heise Netze online: Unterwasser-Glasfaser-Backbones repariert. http://www.heise.de/netze/meldung/Unterwasser-Glasfaser-Backbones-repariert-178386.html. Version: 11.02.2008

[hei08e]     heise Netze online: Zwei Glasfaser-Backbones im Mittelmeer beschädigt. http://www.heise.de/netze/meldung/Zwei-Glasfaser-Backbones-im-Mittelmeer-beschaedigt-185180.html. Version: 30.01.2008

[hei09a]     heise online: Panne bei E-Mail-Service Gmail. http://www.heise.de/newsticker/meldung/Panne-bei-E-Mail-Service-Gmail-754103.html. Version: 02.09.2009

[hei09b]     heise online: Kabel BW behebt Großstörung nach fünf Tagen. http://www.heise.de/newsticker/meldung/Kabel-BW-behebt-Grossstoerung-nach-fuenf-Tagen-749769.html. Version: 04.08.2009

[hei09c]     heise online: Ausfall von Google-Mail: ”Unerwartete Seiteneffekte” als Ursache. http://www.heise.de/newsticker/meldung/Ausfall-von-Google-Mail-Unerwartete-Seiteneffekte-als-Ursache-200551.html. Version: 25.02.2009

[hei10a]     heise Autos: Versuch in der Lausitz: Elektroautos als Stromspeicher. http://www.heise.de/autos/artikel/Versuch-in-der-Lausitz-Elektroautos-als-Stromspeicher-1019936.html. Version: 10.06.2010

[hei10b]     heise online: DNS-Fehler legen Domain .de lahm [3. Update]. http://www.heise.de/newsticker/meldung/DNS-Fehler-legen-Domain-de-lahm-3-Update-999068.html. Version: 12.05.2010

[hei10c]     heise online: Rätselraten um den Ausfall der ”.de”-Domain. http://www.heise.de/newsticker/meldung/Raetselraten-um-den-Ausfall-der-de-Domain-999710.html. Version: 13.05.2010

[hei10d]     heise online: Fehlerhafte Nameserverdaten-Aktualisierung legte Domain .de lahm. http://www.heise.de/newsticker/meldung/Fehlerhafte-Nameserverdaten-Aktualisierung-legte-Domain-de-lahm-1000581.html. Version: 15.05.2010

[hei11a]     heise online: Blitz stört Amazons und Microsofts Cloud in Irland. http://www.heise.de/newsticker/meldung/Blitz-stoert-Amazons-und-Microsofts-Cloud-in-Irland-1319332.html. Version: 08.08.2011

[hei11b]     heise online: Blackberry-Dienste weiter gestört. http://www.heise.de/newsticker/meldung/Blackberry-Dienste-weiter-gestoert-1359311.html. Version: 11.10.2011

[hei11c]     heise online: US-Cloud von Amazon gestört. http://www.heise.de/newsticker/meldung/US-Cloud-von-Amazon-gestoert-1231873.html. Version: 21.04.2011

[hei11d]     heise online: BlackBerry-Kunden verlangen Schadensersatz für Blackout. http://www.heise.de/newsticker/meldung/BlackBerry-Kunden-verlangen-Schadensersatz-fuer-Blackout-1368174.html. Version: 28.10.2011

[hei11e]     heise Security: Anonymous legt GEMA-Seite lahm. http://www.heise.de/security/meldung/Anonymous-legt-GEMA-Seite-lahm-1327285.html. Version: 22.08.2011

[hei12a]     heise online: 36 Milliarden SMS in Deutschland im Jahr 2003. http://www.heise.de/newsticker/meldung/36-Milliarden-SMS-in-Deutschland-im-Jahr-2003-90781.html. Version: 03.12.2012

[hei12b]     heise online: Internet und Telefonie über Kabel BW gestört [Update]. http://www.heise.de/newsticker/meldung/Internet-und-Telefonie-ueber-Kabel-BW-gestoert-Update-749357.html. Version: 03.12.2012

[hei12c]     heise online: Neuer SMS-Rekord in deutschen Handynetzen. http://www.heise.de/newsticker/meldung/Neuer-SMS-Rekord-in-deutschen-Handynetzen-1243705.html. Version: 03.12.2012

[hei12d]     heise online: T-Mobile-Kunden verschicken 85 Millionen Gratis-SMS. http://www.heise.de/newsticker/meldung/T-Mobile-Kunden-verschicken-85-Millionen-Gratis-SMS-215823.html. Version: 03.12.2012

[hei12e]     heise online: T-Mobile-Netz bundesweit ausgefallen [Update]. http://www.heise.de/newsticker/meldung/T-Mobile-Netz-bundesweit-ausgefallen-Update-214564.html. Version: 03.12.2012

[hei12f]     heise online: Zulieferer-Insolvenz: Sammelrufnummer von Sipgate One nicht erreichbar. http://www.heise.de/newsticker/meldung/Zulieferer-Insolvenz-Sammelrufnummer-von-Sipgate-One-nicht-erreichbar-1665598.html. Version: 11.08.2012

[hei12g]     heise online: ENISA-Sicherheitsbericht: Ohne Strom nichts los. http://www.heise.de/newsticker/meldung/ENISA-Sicherheitsbericht-Ohne-Strom-nichts-los-1727624.html. Version: 11.10.2012

[hei12h]     heise online: CAST diskutiert strukturelle Defizite kritischer Infrastrukturen. http://www.heise.de/newsticker/meldung/CAST-diskutiert-strukturelle-Defizite-kritischer-Infrastrukturen-1728627.html. Version: 12.10.2012

[hei12i]     heise online: WLAN-Mesh als Notfunknetz. http://www.heise.de/newsticker/meldung/WLAN-Mesh-als-Notfunknetz-1676555.html. Version: 28.08.2012

[hei12j]     heise online: ICS-CERT warnt vor Angriffen auf industrielle Steuerungssysteme. http://www.heise.de/newsticker/meldung/ICS-CERT-warnt-vor-Angriffen-auf-industrielle-Steuerungssysteme-1738902.html. Version: 30.10.2012

[Hen08]     Henken, Gerrit ; Regionales Rechenzentrum (Hrsg.): Aller guten Dinge sind Drei: Das Hamburger Hochgeschwindigkeits-Rechnernetz (HHR). http://www.rrz.uni-hamburg.de/publikationen/rz-memobenutzerzeitung/ausgabe-20081/hhr.html. Version: 08.04.2008

[Her11a]     Herbst, Moira ; Reuters (Hrsg.): Analysis: RIM could face lawsuits for Blackberry problems. http://www.reuters.com/article/2011/10/19/us-rim-blackberry-lawsuits-idUSTRE79I7EI20111019. Version: 19.10.2011

[Her11b]     Herbst, Moira: RIM hit with consumer lawsuits over BlackBerry outage. http://www.reuters.com/article/2011/10/27/uk-rim-blackberry-lawsuits-idUSLNE79Q02F20111027. Version: 27.10.2011

[HT06]     Hiertz, Guido ; Trikaliotis, Spiro: Funknetze stricken: Gemeinsamkeiten und Unterschiede von WLAN und Mesh-Netzen. http://www.heise.de/mobil/artikel/Gemeinsamkeiten-und-Unterschiede-von-WLAN-und-Mesh-Netzen-223171.html. Version: 22.02.2006

[IEE11]     IEEE Spectrum: Hurricane Irene Tests Resilience of Communication Networks. http://spectrum.ieee.org/tech-talk/telecom/wireless/hurricane-irene-tests-resilience-of-communication-networks. Version: 30.08.2011

[Jap11]     Japan Atomic Industrial Forum (JAIF): 40 years estimated to scrap Fukushima plant. Version: 15.12.2011. http://www.jaif.or.jp/english/news_images/pdf/ENGNEWS01_1323921629P.pdf (Earthquake Report 291)

[Kel12]     Kelso, Paul ; The Telegraph (Hrsg.): London 2012 Olympics: tweeting spectators caused road race coverage shambles. http://www.telegraph.co.uk/sport/olympics/cycling/9436271/London-2012-Olympics-tweeting-spectators-caused-road-race-coverage-shambles.html. Version: 29.07.2012

[KK07]     Kulas, Martin ; Kunde, Aaron: Sammlung realer Ausfälle und Störungen von Kommunikationsnetzen. http://www.informatik.uni-hamburg.de/TKRN/world/tools/netzausfaelle/netzausfaelle.html. Version: 2007

[Kyo11]     Kyodo News: Gov’t warns of power shortage, utility to ration power by region. http://www.webcitation.org/5xA6mOY56. Version: 13.03.2011

[Mal11]     Malik, Om: In Japan, Many Undersea Cables Are Damaged. http://gigaom.com/2011/03/14/in-japan-many-under-sea-cables-are-damaged/. Version: 14.03.2011

[McM]     McMahon, Lalor: EAC Pacific. http://www.pacnet.com/about-pacnet/eac-pacific/

[Min12]     Ministry of Power (Hrsg.): REPORT OF THE INQUIRY COMMITTEE: ON GRID DISTURBANCE IN NORTHERN REGION ON 30th July 2012 AND IN NORTHERN, EASTERN & NORTH-EASTERN REGION ON 31st JULY 2012. Version: 16.08.2012. http://www.powermin.nic.in/pdf/GRID_ENQ_REP_16_8_12.pdf

[MR12]     Mehdudia, Sujay ; Ramachandaran, Smriti K.: Worst outage cripples north India. http://www.thehindu.com/news/national/article3702075.ece?homepage=true. Version: 30.07.2012

[Nat12]     National Police Agency of Japan: Damage Situation and Police Countermeasures associated with 2011Tohoku district - off the Pacific Ocean Earthquake. Version: 14.11.2012. http://www.npa.go.jp/archive/keibi/biki/higaijokyo_e.pdf

[Net11a]     Netzgruppe ; Regionales Rechenzentrum (RRZ) (Hrsg.): Informationen zum Hochschulnetz der UHH: Konfiguration des UHH-Backbones. http://www.rrz.uni-hamburg.de/kommunikation.html. Version: 10.01.2011

[Net11b]     Netzgruppe ; Regionales Rechenzentrum (RRZ) (Hrsg.): Multi Router Traffic Grapher (MRTG). http://earth.rrz.uni-hamburg.de/. Version: 16.05.2011

[Ng11]     Ng, Jason: Japan’s multiple network redundancy stands well post-quake. http://www.zdnet.com/japans-multiple-network-redundancy-stands-well-post-quake-2062207997/. Version: 23.03.2011

[Nip]     Nippon Telegraph and Telephone: Pacific Crossing - PC-1 Network. http://www.pc1.com/PC1_Network.cfm

[Ope]     OpenStreetMap ; OpenStreetMap (Hrsg.): Deutschland: Karte: Universität Hamburg. http://www.openstreetmap.de/karte.html?zoom=15\&lat=53.56499\&lon=9.98774\&layers=B000TT

[PM12]     Panitzek, K. Schweizer I. Bönning T. Seipel G. ; M., Mühlhäuser: First responder communication in urban environments. In: International Journal of Mobile Network Design and Innovation Vol. 4 (2012), Nr. No. 2, 109–118. http://inderscience.metapress.com/content/d7748951553h2127/fulltext.pdf

[Pre12]     Presse- und Informationsstab BMVg: bundeswehr.de: Afghanistan: Betreuungskommunikation wieder hergestellt. http://www.bundeswehr.de/portal/a/bwde/!ut/p/c4/NYzNCsIwEISfpQ9gtlXU4s1SEG_ixbaXsk2XGsxPSTcWxIc3OTgDc_lmBjqItvhWE7JyFjU00Ep1GlYxrCMJfHEgrWkRGJZ-JNOTsgvyBx5pGRvSWeKUTJZVzMkjOy9m51knEryPRKgR2ryoq-KY_1V8y2Z3uXWH7b6-Vvd0OHucDEJr3UaifBLMxpTrOct-WN98gg!!/. Version: 16.08.2012

[Reg13]     Regionales Rechnenzentrum (RRZ) ; Regionales Rechnenzentrum (RRZ) (Hrsg.): NAIGOS. https://rzpc5.informatik.uni-hamburg.de/nagios/. Version: 2013

[Reu08]     Reuters: UDPATE 3-Undersea cable breaks cut Internet in Mideast, Asia. http://www.reuters.com/article/2008/12/20/us-internet-idUSTRE4BJ0FV20081220. Version: 20.12.2008

[Ros11]     Rosoff, Matt ; Business Insider (Hrsg.): Amazon: Outage Enters Second Day – What Went Wrong? Inside Amazon’s Cloud Disaster. http://www.businessinsider.com/amazon-outage-enters-its-second-day-lots-of-sites-still-down-2011-4. Version: 22.04.2011

[Sch12]     Schaper, Eva: Fukushima: Falsches Gefühl der Sicherheit. http://www.greenpeace.de/themen/atomkraft/nachrichten/artikel/fukushima_falsches_gefuehl_der_sicherheit/. Version: 23.10.2012

[SHG11]     Spiegel Online ; Hamburg ; Germany: Energiekonzern rationiert Strom in Tokio. http://www.spiegel.de/panorama/liveticker-energiekonzern-rationiert-strom-in-tokio-a-750629.html. Version: 14.03.2011

[sip12]     sipgate Blog: sipgate one Mobilfunknummern waren am 10.08. vorübergehend nicht erreichbar. http://www.sipgateblog.de/sipgate-one-rufnummern/. Version: 21.08.2012

[Tec08]     Technology Review: Warum das Netz zusammenbrach. http://www.heise.de/tr/artikel/Warum-das-Netz-zusammenbrach-274898.html. Version: 08.02.2008

[Tel12]     TeleGeography: Submarine Cable Map. http://www.submarinecablemap.com/. Version: 01.08.2012

[TEP11]     TEPCO Inc. ; Amtssitz des Premierministers (Kantei)/Nuclear and Industrial Safety Agency (NISA) (Hrsg.): The Accident at TEPCO’s Fukushima Nuclear Power Stations: IV. Occurrence and Development of the Accident at the Fukushima Nuclear Power Stations. Version: 20.06.2011. http://www.kantei.go.jp/foreign/kan/topics/201106/pdf/chapter_iv_all.pdf

[The12]     The London Organising Committee of the Olympic Games and Paralympic Games Limited ; The London Organising Committee of the Olympic Games and Paralympic Games Limited (Hrsg.): London 2012 Olympics: Official London 2012 website. http://www.london2012.com/index-olympic.html. Version: 31.08.2012

[UCT03]     UCTE Investigation Committee ; Union for the Co-ordination of Transmission of Electricity (UCTE) (Hrsg.): Interim Report of the Investigation Committee on the 28 September 2003 Blackout in Italy. Version: 27.10.2003. http://www.bfe.admin.ch/php/modules/publikationen/stream.php?extlang=en\&name=en_123445299.pdf

[U.S04]     U.S.-Canada Power System Outage Task Force: Final Report on the August 14th Blackout in the United States and Canada: Causes and Recommendations. Version: 05.04.2004. https://reports.energy.gov/BlackoutFinal-Web.pdf

[U.S12]     U.S. Geological Survey (USGS): Magnitude 9.0 - NEAR THE EAST COAST OF HONSHU, JAPAN: 2011 March 11 05:46:24 UTC. http://earthquake.usgs.gov/earthquakes/recenteqsww/Quakes/usc0001xgp.php#summary. Version: 19.11.2012

[Wik12a]     Wikipedia ; Wikipedia (Hrsg.): 2008 submarine cable disruption. http://en.wikipedia.org/w/index.php?oldid=523816834. Version: 04.12.2012

[Wik12b]     Wikipedia ; Wikipedia (Hrsg.): Hurricane Irene. http://en.wikipedia.org/w/index.php?oldid=509338661. Version: 27.08.2012

[Wik13a]     Wikipedia ; Wikipedia (Hrsg.): Tohoku-Erdbeben 2011. http://de.wikipedia.org/w/index.php?oldid=114093511. Version: 11.02.2013

[Wik13b]     Wikipedia ; Wikipedia (Hrsg.): 2012 India blackouts. http://en.wikipedia.org/w/index.php?oldid=540382577. Version: 25.02.2013

[Wik13c]     Wikipedia ; Wikipedia (Hrsg.): SEA-ME-WE 4. http://en.wikipedia.org/w/index.php?oldid=535644692. Version: 30.01.2013

[Wil11]     Williams, Christopher ; The Telegraph (Hrsg.): BlackBerry services collapse. http://www.telegraph.co.uk/technology/blackberry/8818094/BlackBerry-services-collapse.html. Version: 10.10.2011

[Wöl11]     Wölbert, Christian ; heise online (Hrsg.): RIM will Nutzer nach Blackberry-Ausfall mit Apps besänftigen. http://www.heise.de/newsticker/meldung/RIM-will-Nutzer-nach-Blackberry-Ausfall-mit-Apps-besaenftigen-1362174.html. Version: 17.10.2011

[YS11]     Yasu, Mariko ; Shiraki, Maki: NTT Docomo, Japan Phone Operators Report Poor Services After Earthquake - Bloomberg. http://www.bloomberg.com/news/2011-03-11/ntt-docomo-japan-phone-operators-report-poor-services-after-earthquake.html. Version: 11.11.2011

[Zai08]     Zain, Asma A.: Cable damage hits one million Internet users in UAE. http://www.khaleejtimes.com/DisplayArticleNew.asp?section=theuae\&xfile=data/theuae/2008/february/theuae_february121.xml. Version: 04.02.2008

[Zie12]     Ziegler, Peter-Michael: IT bei den Olympischen Sommerspielen. In: c’t (2012), Nr. 10, 72–77. http://www.heise.de/ct/artikel/Olymp-der-IT-1564949.html

Literatur II

[1]
Heise.de,“Internet-Störungen”, http://www.heise.de/imonitor/
[2]
google.de, Web-Interface zu “comp.risks”, http://groups.google.de/group/comp.risks/about
[3]
heise.de,“Berichte: Kamerun seit einer Woche offline”, http://www.heise.de/netze/news/meldung/98557, 06.11.2007
[4]
Gerard Jensen,“Cameroon is offline for 8 days now”, http://www.namforum.com/blog/index.php?/archives/105-Cameroon-is-offline-for-8-days-now.html, 07.11.2007
[5]
Douala,“Internet access off in Cameroon for 7th day”, http://www.afriquenligne.fr/news/daily-news/internet-access-off-in-cameroon-for-7th-day-2007110610772/, 06.11.2007
[6]
Wikipedia,“The route of the combined SAT3-WASC/SAFE submarine communications cables.” http://en.wikipedia.org/wiki/Image:SAFE-SAT3-WASC-route.png
[7]
Martyn Williams,“Millions disconnected by NTT broadband outage”, http://www.networkworld.com/news/2007/051507-millions-disconnected-by-ntt-broadband.html, 15.05.2007
[8]
Jim Duffy,“Cisco routers caused major outage in Japan: report”, http://www.networkworld.com/news/2007/051607-cisco-routers-major-outage-japan.html, 16.05.2007
[9]
heise.de,“200 Millionen DSL-Kunden weltweit”, http://www.heise.de/netze/news/meldung/90737, 06.06.2007
[10]
wbztv.com, “Fire Shuts Down Longfellow Bridge For Hours”, http://wbztv.com/topstories/local_story_121202334.html, 01.05.2007
[11]
heise.de, “Rauchen gefährdet den Datenverkehr”, http://www.heise.de/netze/news/meldung/89258 04.05.2007
[12]
Chris Robbs Blog, “ Update on the Boston bridge fire” http://i2net.blogspot.com/2007/05/update-on-boston-bridge-fire.html 02.05.2007
[13]
Chris Robbs Blog, “Boston circuits update”, http://i2net.blogspot.com/2007/05/boston-circuits-update.html, 02.05.2007
[14]
internet2.edu, Internet 2 Network, http://www.internet2.edu/news/media/network_map.pdf, 09.02.2007
[15]
heise.de, “Estland wählt per Internet” http://www.heise.de/newsticker/meldung/85921, 27.02.2007
[16]
heise.de, “Unbekannte attackieren estländische Regierungs-Webseiten”, http://www.heise.de/security/news/meldung/89013, 28.04.2007
[17]
Jose Nazario, “Estonian DDoS Attacks - A summary to date”, http://asert.arbornetworks.com/2007/05/estonian-ddos-attacks-a-summary-to-date/, 17.05.2007
[18]
ZEIT online, “Estland: Demontage von Kriegerdenkmal in Tallinn begonnen”, http://www.zeit.de/news/artikel/2007/04/26/100758.xml, 26.04.2007
[19]
smh.com.au, “Cyber attacks force Estonian bank to close website”, http://www.smh.com.au/news/breaking-news/cyber-attacks-force-estonian-bank-to-close-website/2007/05/16/1178995171916.html, 16.05.2007
[20]
heise.de, “Estland beschuldigt Russland des Cyberterrorismus”, http://www.heise.de/newsticker/meldung/89857, 17.05.2007
[21]
heise.de, “DDoS-Angriffe auf estnische Server waren kein "Cyberwar“', http://www.heise.de/newsticker/meldung/91055, 12.06.2007
[22]
heise.de, “In Estland wurde der Cyber-Krieg getestet”, http://www.heise.de/newsticker/meldung/90340, 29.05.2007
[23]
heise.de, “NATO will sich gegen Cyber-Attacken rüsten”, http://www.heise.de/newsticker/meldung/91219, 16.06.2007
[24]
OpenBSD's packet filter pf about synproxy, “PF: Packet Filtering”, http://www.openbsd.org/faq/pf/filter.html, 07.05.2007
[25]
Syed Obaid Amin, Myung Soo Kang, Choong Seon Hong, “A Lightweight IP Traceback Mechanism on IPv6”, EUC Workshops, http://www.springerlink.com/content/nn008186672l1726/, 2006
[26]
abcnews.go.com, “Major BlackBerry Outage Leaves Millions Without E-Mail” http://abcnews.go.com/Business/story?id=3052158, 18.04.2007
[27]
news.com.com, “RIM offers explanation for massive outage”, http://news.com.com/2100-1039_3-6177829.html, 19.04.2007
[28]
news.com.com, “BlackBerry outage: RIM a victim of its own success?” http://news.com.com/BlackBerry+outage+RIM+a+victim+of+its+own+success/2100-1039_3-6177349.html, 18.04.2007
[29]
David Tran, “Optical Fiber Cable Links Three Nations”, http://www.nikkeibp.com/nea/may/maynam.html,
[30]
english.vietnam.vn, “11km lost undersea cable worth millions of USD”, http://english.vietnamnet.vn/tech/2007/05/692179/, 07.05.2007
[31]
english.vietnamnet.vn, “Over 11km undersea optical cable lost”, http://english.vietnamnet.vn/tech/2007/05/692047/, 07.05.2007
[32]
heise.de, “Diebe stehlen Seekabel vor Vietnam”, http://www.heise.de/netze/news/meldung/90357, 30.05.2007
[33]
thanhniennews.com, “Vietnam faces isolation following theft of undersea cable”, http://www.thanhniennews.com/features/?catid=10&newsid=28543
[34]
intellasia.com, “Navy ordered to stop underwater internet cable theft”, http://www.intellasia.com/news/english/articles/info-tech/111229153.shtml, 25.05.2007
[35]
english.vietnamnet.vn, “Losses from telecom cable breakup estimated at US$4mil”, http://english.vietnamnet.vn/tech/2007/05/700176/, 29.05.2007
[36]
photonics.com, “$500M Undersea Cable System to Link US, Southeast Asia”, http://www.photonics.com/content/news/2007/May/1/87466.aspx, 01.05.2007
[37]
Heise.de, „Google.de in fremder Hand [Update]“ http://www.heise.de/newsticker/meldung/84074/from/atom10, 23.01.2007
[38]
Heise.de, „Google.de in fremder Hand [Update]“ http://www.heise.de/netze/news/meldung/84080/from/atom10, 23.01.2007
[39]
Meldung bei Heise.de, “Mailservice beim Webhoster 1&1 gestört”, http://www.heise.de/newsticker/meldung/83737, 15.01.2007
[40]
Heise.de, „Internet in Asien wegen Erdbebenschäden verlangsamt“ http://www.heise.de/netze/news/meldung/82984/from/atom10, 27.12.2006
[41]
Heise.de, „"Rückfall ins Telefonzeitalter" nach Erdbeben“ http://www.heise.de/netze/news/meldung/83007/from/atom10, 28.12.2006
[42]
Heise.de, „Verizon will Übersee-Verbindungen vor Ausfällen sichern“ http://www.heise.de/netze/news/meldung/83091/from/atom10, 02.01.2007
[43]
Heise.de, „Reparatur an Unterseekabeln in Asien kommt nicht voran“ http://www.heise.de/netze/news/meldung/83742/from/atom10, 16.01.2007
[44]
http://www.smw3.com/
[45]
http://en.wikipedia.org/wiki/Image:SEA-ME-WE-3-Route.png
[46]
Heise.de, „Internetverkehr in Asien normalisiert sich“ http://www.heise.de/netze/news/meldung/84819, 05.02.2007
[47]
Meldung bei Heise.de, “Kabelbruch im Atlantik koppelt Island vom Internet ab” http://www.heise.de/netze/news/meldung/82700, 18.12.2006
[48]
Meldung bei businessportal24.com, “Kabelbruch koppelt Island vom Internet ab ”, http://www.businessportal24.com/de/Kabelbruch_Island_Internet_84674.html, 18.12.2006
[49]
Meldung bei Heise.de, “Island nach Kabelbruch stundenlang vom Internet getrennt”, http://www.heise.de/newsticker/meldung/11020, 02.08.2000
[50]
en.Wikipedia.org, “CANTAT-3”, http://en.wikipedia.org/wiki/CANTAT-3
[51]
en.wikipedia.org, “FARICE-1”, http://en.wikipedia.org/wiki/FARICE-1
[52]
www.satundkabel.de, “Überraschender Ausfall von Eutelsat W3 - Störung soll bald behoben sein”, http://www.satundkabel.de/modules.php?op=modload&name=News&file=article&sid=11629&mode=thread&order=0&thold=0
[53]
www.eutelsat.com, “FULL SERVICE RESTORED ON EUTELSAT's W3A SATELLITE”, http://www.eutelsat.com/news/compress/en/2006/pdf/PR4706StatementW3A.pdf
[54]
www.sat-index.com, “Chronology of satellite failures”, http://www.sat-index.com/failures/timeline.html
[55]
Golem.de, “Massiver Netzausfall bei Arcor”, http://www.golem.de/0608/46950.html, 03.08.2006
[56]
Heise.de, “Totalausfall beim Webhoster all-inkl.com”, http://www.heise.de/newsticker/meldung/65241 22.10.2005
[57]
heise.de, “Backbone-Ausfall bei Level 3” http://www.heise.de/newsticker/meldung/65202, 21.10.2005
[58]
NANOG mailing list, “Level3 problems”, http://www.merit.edu/mail.archives/nanog/2005-10/msg00970.html, 21.10.2005
[59]
NANOG mailing list, “Level 3 RFO”, http://www.merit.edu/mail.archives/nanog/2005-10/msg01034.html, 22.10.2005
[60]
heise.de, “Google-Geisterstunde: Nur eine DNS-Panne?” http://www.heise.de/newsticker/meldung/59375 08.05.2005
[61]
heise.de, “Satellitenausfall legt Telefonnetze im Südpazifik lahm”, http://www.heise.de/newsticker/meldung/55256, 18.01.2005
[62]
tse.edu, “Intelsat 804 – satellite fact sheet”, http://www.tse.edu/tse/online/sat_intelsat_804.html
[63]
intelsat.com, “Intelsat Reports Loss of IS-804 Satellite”, http://www.intelsat.com/_files/press_releases/intelsat/2005/2005-01.pdf, 16.01.2005
[64]
www.nzherald.co.nz, “Satellite link to Pacific Islands still down”, http://www.nzherald.co.nz/section/story.cfm?c_id=5&objectid=10007155, 19.01.2005
[65]
heise.de, “Software-Fehler legt Telefonnetz in Mittelhessen lahm”, http://www.heise.de/newsticker/meldung/53162, 11.11.2004
[66]
IT-News World.de, „Ganz Spanien für zwei Stunden offline?“ http://www.it-news-world.de/news_906/Ganz+Spanien+f\%FCr+zwei+Stunden+offline\%3F
[67]
Heise.de, „Spanien verschwand aus dem Web“ http://www.heise.de/newsticker/meldung/77478/
[68]
Heise.de, „GSM-Ausfall bei Tsunami-Übung“ http://www.heise.de/newsticker/meldung/73295
[69]
Heise.de, „Teilausfall am Internet-Knoten DE-CIX ohne gravierende Auswirkungen“ http://www.heise.de/newsticker/meldung/65007
[70]
Heise.de, „Überschwemmungen sorgen für Netzausfälle in Westösterreich“ http://www.heise.de/newsticker/meldung/63100
[71]
Wikipedia.de, „Murgang“ http://de.wikipedia.org/wiki/Mure
[72]
Heise.de, „DSL-Ausfall in der gesamten Schweiz“ http://www.heise.de/newsticker/meldung/58572
[73]
Heise.de, „Störung bei ISP-Service“ http://www.heise.de/newsticker/meldung/50337
[74]
Martin Fiutak, “Mehrstündiger T-Mobile-Netzausfall im Nordosten”, http://www.zdnet.de/news/tkomm/0,39023151,39120163,00.htm, 27.02.2004
[75]
heise.de, “T-Mobile-Netzausfall in Mecklenburg-Vorpommern und Nordbrandenburg”, http://www.heise.de/newsticker/meldung/45056, 27.02.2004
[76]
heise.de, “Komplettausfall bei Strato”, http://www.heise.de/newsticker/meldung/7354 22.12.1999
[77]
Frank Roselieb, “Der Online-GAU der Strato Medien AG - Ein Lehrstück für unzureichende Krisenkommunikation im Internet”, http://www.krisennavigator.de/akfo21-d.htm,
[78]
heise.de, “Beinahe-Blackout im Internet durch Unachtsamkeit”, http://www.heise.de/newsticker/meldung/1224 18.07.1997
[79]
Daniel Pouzzner in comp.risks (RISKS DIGEST 19.26), “Partial failure of Internet root nameservers”, http://groups.google.de/group/comp.risks/browse_frm/month/1997-07, 17.07.1997
[80]
John Markoff, “ Ignored Warning Leads to Chaos on the Internet”, http://query.nytimes.com/gst/fullpage.html?res=9507E3DC1F38F93BA25754C0A961958260&sec=technology&spon=&pagewanted=all, 18.07.1997
[81]
Peter G. Neumann in comp.risks (RISKS DIGEST 12.36), “AT&T phone failure downs three New York airports for four hours”, http://groups.google.de/group/comp.risks/browse_frm/month/1991-09, 18.09.1991
[82]
Edmund L. Andrews, “Breakdown Shows Tenuous Links in System”, http://select.nytimes.com/gst/abstract.html?res=F2061EF83D5F0C7B8DDDA00894D9494D81, 18.08.1991
[83]
Peter G. Neumann in comp.risks (Volume 10: Issue 75), “NY area fiber-optic telephone cable severed; extensive effects” http://groups.google.de/group/comp.risks/browse_frm/month/1991-01 18.09.1991
[84]
Tony Scandora in comp.risks (Volume 10: Issue 76) “Re: NY area fiber-optic telephone cable severed; extensive effects (PGN)” http://catless.ncl.ac.uk/Risks/10.76.html#subj5 08.01.1991
[85]
Computerhistory.org, “Computer History Museum - Exhibits - Internet History - 1980's”, http://www.computerhistory.org/exhibits/internet_history/internet_history_80s.shtml
[86]
Diskussion in der Newsgroup mod.protocols.tcp-ip, “Arpanet outage” http://groups.google.de/group/mod.protocols.tcp-ip/browse_frm/month/1986-12, Dezember 1986
[87]
Diskussion in der Mailing-Liste tcp-ip@sri-nic.arpa, “Arpanet outage” http://securitydigest.org/tcp-ip/archive/1986/12 Dezember 1986
[88]
ZDNet.co.uk, „Cable failure hits UK Internet traffic“ http://news.zdnet.co.uk/communications/0,1000000085,39118125,00.htm
[89]
TAT-14 Cable System, https://www.tat-14.com/tat14/index.jsp
[90]
Wikipedia.de, „TAT-14“ http://de.wikipedia.org/wiki/TAT-14
[91]
Spiegel.de, „Das fragile Netz“ http://www.spiegel.de/netzwelt/tech/0,1518,456682,00.html
[92]
tat-14.com, TAT-14 Landing ”StationMap“ https://www.tat-14.com/tat14/images/SprintMap1.jpeg
[93]
Thema in Newsgroup “alt.internet.providers.uk.aaisp”, “ TAT-14 failure”, http://groups.google.de/group/alt.internet.providers.uk.aaisp/browse_thread/thread/b522dac110265735/1b106387e6503866
[94]
Heise.de, „Bundesweiter Netzausfall bei E-Plus“ http://www.heise.de/newsticker/meldung/12786
[95]
Heise.de, „Kommunikationssatellit Intelsat Americas 7 ausgefallen“ http://www.heise.de/newsticker/meldung/53744
[96]
Intelsat, Satelliten-Netzwerk http://www.intelsat.com/network/satellite/
[97]
Heise.de, „Server-Ausfall bei T-Online“ http://www.heise.de/newsticker/meldung/1562
[98]
Heise.de,„America Online war offline“http://www.heise.de/newsticker/meldung/582
[99]
comp.risks, RISKS DIGESR 18.30, „America Off-Line“ http://groups.google.de/group/comp.risks/browse_thread/thread/8486777fa1c28f57/a6a89497a8fecb6e?lnk=gst&q=aol+outage&rnum=2&hl=de#a6a89497a8fecb6e
[100]
comp.risks, RISKS DIGESR 18.31, „Re:America Off-Line“ http://groups.google.de/group/comp.risks/browse_thread/thread/8fd3d8a1aeca882/41353385a32e154e?lnk=gst&q=aol+outage&rnum=1&hl=de#41353385a32e154e
[101]
comp.risks, RISKS DIGEST 9.61, „Telephone malpractice?“, 16.01.1990„AT&T Failure“, 17.01.1990 http://groups.google.com/group/comp.risks/tree/browse_frm/month/1990-01/f3e0cc96b88e6a03?rnum=1\&_done=\%2Fgroup\%2Fcomp.risks\%2Fbrowse_frm\%2Fmonth\%2F1990-01\%3F#doc_3c7ea6e975df1f87
[102]
comp.risks, RISKS DIGEST 9.62, „Cause of AT&T network failure“, 22.01.1990 http://groups.google.com/group/comp.risks/tree/browse_frm/month/1990-01/f3e0cc96b88e6a03?rnum=1\&_done=\%2Fgroup\%2Fcomp.risks\%2Fbrowse_frm\%2Fmonth\%2F1990-01\%3F#doc_214a77b0d7392211
[103]
comp.risks, RISKS DIGEST 12.02, „Bell Atlantic 26 June Failure“, 01.07.1991 http://groups.google.com/group/comp.risks/msg/db37b75a8c02690c?

Fußnoten

1siehe http://www.informatik.uni-hamburg.de/TKRN/world/tools/netzausfaelle/netzausfaelle.html

2Das Next Generation Network (NGN) ist eine paketvermittelnde, in vielen Fällen IP-basierte Netzinfrastruktur. Viele neue DSL-Anschlüsse basieren ebenso wie der im Jahre 2010 in Deutschland eingeführte neue Mobilfunkstandard Long Term Evolution (LTE) auf dieser für den Provider kostengünstigen technischen Grundlage. Der große Nachteil: Fällt die Internet- bzw. die Mobilfunkverbindung aus, so auch der Telefonanschluss mit all seinen Diensten.

3Der vorliegende Text ist auf Basis des Latex-Templates von [Fin13] mithilfe von [Goc08] erstellt.

4European Network and Information Security Agency

5Supervisory Control and Data Acquisition

6Computer Search Engine; http://www.shodanhq.com

7Every Routable IP Project; http://www.eripp.com

8Network Mapper; http://nmap.org/

9intelligenter Stromzähler mit Internetanbindung

10siehe dazu den Artikel ”Elektroautos als Energiespeicher”[hei10a]

11Indian Standard Time; UTC+5:30

12Uttar Pradesh ist mit seinen rund 200 Millionen Einwohnern der größte Bundesstaat in Indien (ungefähr 1,2 Milliarden Einwohner). Das bekannte Taj Mahal liegt dort ebenso wie Varanasi, die heiligste Stadt der Hindus. Er ist in 75 Distrikte unterteilt und ist politisch stark von regionalen Parteien geprägt, welche auf dem Kastensystem aufbauen. Uttar Pradesh zählt zu den ärmsten Bundesstaaten und ist stark landwirtschaftlich ausgerichtet.

13Der Hintergrund dieses Ausfalls ist ein politischer: Politiker einflussreicher Bundesstaaten weisen regelmäßig die regionalen Elektrizitätswerke an, bestimmte Distrikte 24 Stunden mit Strom zu versorgen. Dies geschieht aus Eigennutz, da so Verwandte oder politische Verbündete bevorzugt werden. Andere Politiker ziehen dann nach, die Stromversorger können sich den politischen Weisungen nicht entziehen. Das sowieso überlastete Netz bricht dann zusammen.

14Der Strompreis wird in Indien stark subventioniert. Landwirte bekommen so den Strom sogar kostenfrei. Diesen verkaufen sie illegal an Fabriken weiter. Ausbaden müssen diese Wählerbevorzugung die staatlichen Netzbetreiber: Sie sind so hoch verschuldet, dass diese teilweise den (privat) erzeugten Strom nicht bezahlen können.

15im östlichen Teil Indiens an der Grenze zu Bangladesch gelegen

16In vielen Teilen Indiens wird der Strom täglich für acht Stunden abgestellt, 300 Millionen Menschen haben gar kein Zugang zu Elektrizität.

17State Load Despatch Centers (SLDCs)

18Regional Load Despatch Centres (RLDCs)

19Multi Protocol Label Switching

202006 in Swissgrid übergegangen.

21Gestore della Rete di Trasmissione Nazionale

22Réseau de Transport d’Électricité

23Union for the Co-ordination of Transmission of Electricity; die Nachfolgeorganisation ist das European Network of Transmission System Operators for Electricity

24In einem unabhängigen einzelnen Netzwerk müsste eine große Anzahl von Knoten ausfallen, damit das Netzwerk zusammenbricht.

25Das Bilden von Clustern durch zufälliges Besetzen von Strukturen - in diesem Fall Knoten - wird auch Perkolation (englisch: percolation) genannt

26In einem unabhängigen einzelnen Netzwerk ist pc für eine breitere Gradverteilung kleiner.

27Cleveland liegt am Eriesee, dem viertgrößten der fünf Großen Seen.

28Eastern Standard Time; UTC-5

29mehr als das 10-fache an Last im Vergleich zu 30 Sekunden zuvor.

30in Kanada gelegen.

31wurde 2006 in North American Electric Reliability Corporation umbenannt.

32Dataport ist der IT-Dienstleister der öffentlichen Verwaltung von Schleswig-Holstein, Hamburg und Bremen.

33Eine ”dunkle Faser” ist eine ungenutzte Faser im Lichtwellenleiter (LWL)-Kabel, die bei Bedarf aktiviert werden kann.

34Anonymous benutzt als Erkennungszeichen neben den Guy Fawkes-Masken auch eine kopflose Person im Anzug. Sie symbolisiert den hierarchielosen Charakter des Kollektivs.

35Die (deutschen) YouTube-Benutzer bekommen statt des Videos eine Sperrmeldung “Leider ist dieses Video, das Musik von xyz beinhaltet, in Deutschland nicht verfügbar, da die GEMA die Verlagsrechte hieran nicht eingeräumt hat.” angezeigt.

36Amazon Elastic Compute Cloud http://aws.amazon.com/de/ec2/

37https://foursquare.com/

38http://www.reddit.com

39Amazon Elastic Block Store; http://aws.amazon.com/de/ebs/

40Obduktionsbericht eines Ausfalls oder einer Störung.

41Pacific Daylight Time; UTC-7

42Amazons Relational Database Service

43mehr zu NXDOMAIN siehe [And13].

44Die DB beinhaltet mittlerweile 13 Millionen Domains (25.02.2013).

45In Deutschland wurde bis Juni 2012 aufgrund eines Markenrechtsstreits der Name Googlemail für diesen Dienst genutzt.

46Laut heise online gab es weitere Probleme im Februar 2009 (siehe Abschnitt 4.7) sowie im April, August und Oktober des Jahres 2008.

47Mehr zur technischen Plattform und Topologie des Deutschen Forschungsnetzes (DFN) unter [DV12]

48englisch: first responders

49Ein vermaschtes Funknetz auf Grundklage von Mesh-Routing-Protokollen. Siehe dazu auch den heise mobil-Artikel ”Funknetze stricken” [HT06]

50https://github.com/raffaeleragni/android-wardrive

51Graph-Theoretic Network Analyser, ein Java-Framework zur Analyse von willkürlichen Netzwerktopologien

52Teilnetze

53Das Netz ist Behörden und Organisationen mit Sicherheitsaufgaben z.B. Polizei, Feuerwehr, THW und Katastrophenschutz vorbehalten und basiert auf dem TETRA (Terrestial Trunked Radio)-Standard. Das BOS ist das weltweit größte Netz seiner Art.

54IOC = Internationales Olympisches Komitee

55Research In Motion

56Blackberry Enterprise Services

57Schwarmintelligenz

58geschätzt

59Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V.

60Bereits zwei Tage vor dem Hauptbeben wurden mehrere Beben mit einer Stärke von über 6,0 bis 7,2 MW registriert. Nach dem Beben folgten wochenlang größere und kleinere Nachbeben (allein 72 Beben mit einer Magnitude von 6,0 MW oder größer.

61Momenten-Magnituden-Skala

62http://www.jma.go.jp/jma/indexe.html

63Der Einsatz von Robotern wird in einem hohen Maße praktiziert.

64Der Mobilfunkprovider SoftBank kündigte an, ein Android-Smartphone mit integriertem Geigerzähler zu verkaufen. (http://www.wired.com/gadgetlab/2012/05/softbank-unveils-worlds-first-phone-with-radiation-detection/)

65Freunde und Verwandte konnten ihre Angehörigen über den Google person finder (http://google.org/personfinder/japan) oder allgemeine Hilfe unter http://www.google.com/crisisresponse/japanquake2011.html suchen

66The Tokyo Electric Power Company Inc.

67über 28 Millionen Mobilfunkkunden; http://www.kddi.com/

68über 30 Millionen Mobilfunkkunden; http://www.softbankmobile.co.jp/en/

69über 50 Millionen Mobilfunkkunden; http://www.nttdocomo.com/

70rund 75 % aller Mobilfunkteilnehmer nutzen mobiles Internet und dessen Dienste

71China, Hongkong, Japan, Südkorea, Malaysia (nur APCN-2), Singapur, die Philippinen und Taiwan

72Das Netzwerk hat eine Gesamtlänge von 22.682 km

73Das Netzwerk hat eine Gesamtlänge von 20.900 km und eine Kapazität von von bis zu 1,8 TBit/s

74ein Marktforschungs- und Consultingunternehmen im Bereich Telekommunikation; http://www.telegeography.com

75Nach dem Erdbeben von Kobe 1995 wurden flexible, gegenüber Erdbeben resistente Kabelkanäle und -schächte zwischen Häusern und der Straßeninfrastruktur gebaut.

76Eine Seekabelreparatur dauert ca. 20 Stunden und kann nur von einem Spezialschiff vorgenommen werden. Dieses ortet zunächst mit einem Mini-U-Boot die genaue Lage der Bruchstelle und durchtrennt das Kabel gänzlich. Anschließend wird das Kabel an die Oberfläche geholt, geflickt und wieder ins Wasser hinab gelassen [Tec08].

77genauer: in der Nähe von Penang auf der Malaiischen Halbinsel

78https://rzpc5.informatik.uni-hamburg.de/nagios/

79Creative-Commons-Lizenz Attribution-ShareAlike 3.0 Unported
http://en.wikipedia.org/wiki/Creative Commons licenses

80GNU Free Documentation License http://en.wikipedia.org/wiki/GFDL


This document was translated from LATEX by TEX4ht
Valid XHTML 1.0 Transitional

Seiteninfo: Impressum | Letzte Aktualisierung am 17. Mar. 2013 durch heidtmann

Blättern: SeitenanfangZur vorangehenden SeiteZur nächsten Seite