Virtualisierung

Virtualisierung bezeichnet die Abstraktion physischer IT-Ressourcen. Klingt kompliziert, ist es aber gar nicht. Mit einer Virtualisierung wird vereinfacht gesagt eine simulierte (daher auch „virtuelle“) Computerumgebung hergestellt – und keine echte physische Umgebung. Im Zuge der Virtualisierung wird beispielsweise ein einzelner physischer Computer (der irgendwo in einem Serverraums steht) in mehrere virtuellen Computersysteme aufgeteilt. Das betrifft sowohl die Hardware als auch das Betriebssystem oder den Speicher. Jeder dieser virtuellen Computer kann dann einzeln interagieren und unterschiedliche Betriebssysteme oder Anwendungen ausführen, während er in Wirklichkeit nur die Ressourcen eines einzelnen (physischen) Hostcomputers nutzt. Der Anwender merkt dabei keinen Unterschied.

Durch Virtualisierung lassen sich die Ressourcen dynamischer verwalten, während gleichzeitig weniger Server in Anspruch genommen werden. Anstatt also mehrere Server jeweils für andere Aufgaben einzusetzen und ihre Kapazität so nur teilweise zu nutzen, können über einen einzelnen Server verschiedene Aufträge ausgeführt werden. Die Auslastung der vorhandenen Ressourcen steigt. Das heißt, es wird auch weniger Energie verbraucht und es fallen weniger Kosten für Infrastruktur und Wartung an.

Im Grunde unterscheidet man vier Virtualisierung-Hauptkategorien. Erstens die Desktopvirtualisierung, die es einem zentralisierten Server erlaubt, individualisierte Desktops zu liefern und zu verwalten. Nummer zwei ist die Netzwerkvirtualisierung, die dafür entwickelt wurde, Netzwerkbandbreite in mehrere Kanäle aufzuteilen. Die dritte Kategorie ist die Softwarevirtualisierung, die Anwendungen von der Hardware und dem Betriebssystem trennt. Und last but not least ist die Speichervirtualisierung die vierte Kategorie. Dabei werden mehrere Netzwerkspeicherressourcen miteinander kombiniert, sodass ein einzelnes Speichergerät entsteht, auf das mehrere Benutzer zugreifen können.

Nach oben