Hochverfügbarkeit

Unter Hochverfügbarkeit versteht man die Fähigkeit eines IT-Systems, trotz Ausfalls einer seiner Komponenten mit einer hohen Wahrscheinlichkeit den Betrieb weiterhin zu gewährleisten. Oft auch als High Availability (HA) bezeichnet, sollte ein solches System also praktisch ständig zur Verfügung zu stehen. Gemessen wird eine Hochverfügbarkeit, in dem man feststellt, wie viel Prozent der Zeit ein System tatsächlich arbeitet, ohne auszufallen. Solche Systeme besitzen im Regelfall redundante Hardware-Komponenten, die bei einem Ausfall die Tätigkeiten der fehlerhaften Komponente umgehend übernehmen.

Die Harvard Research Group hat für die Hochverfügbarkeit Klassifizierungen erarbeitet, die AEC-0 bis AEC-5 (Availability Environment Classification) reichen. „Hochverfügbar“ heißt, dass ein System zu 99,999 Prozent verfügbar ist – innerhalb eines Jahres bedeutet das einen maximalen Ausfall von rund fünf Minuten pro Jahr (oder 864 Millisekunden pro Tag). Zum Vergleich: Ist System zu 99 Prozent der Zeit verfügbar (was sich eigentlich auch verdammt gut anhört) ergibt das bereits eine Ausfallszeit von rund vier Tagen jährlich.

Hochverfügbare Systeme sind im Regelfall recht teuer, da es beispielsweise nötig ist, dass alle wichtigen Teile doppelt vorhanden sind. Auch müssen diese bei laufendem Betrieb auswechselbar sein (Hot Swappable). Das betrifft vor allem die Bereiche Stromversorgungen, Lüfter, aber auch Prozessoren, Netzwerkkarten, internen Controller und so weiter. Durch die Verdopplung (oder Vervielfachung) von Komponenten vermeidet man auch die berüchtigten Single Points of Failure. Das sind Prozesse oder Komponenten, die nur einmal vorhanden sind und deren Ausfall deswegen einen Ausfall der gesamten Anlage auslöst. Nicht zuletzt muss auch die Management-Software, die das hochverfügbare System steuert, darauf vorbereitet sein. Sie muss Ausfälle sofort erkennen und schnell auch die noch intakten Komponenten umschalten.

Nach oben