Virtualisierung ist eine Methode zur Bereitstellung von Rechenleistung, die durch eine von der Hardware abstrahierte Softwarelogik vereinheitlicht wird. Der Hauptzweck der Virtualisierung besteht darin, Rechenprozesse oder Gruppen spezifischer Aktivitäten, die in einem einzigen Gerät stattfinden, voneinander zu isolieren. Dementsprechend eignet sich die Methode für Bereiche, in denen es notwendig ist, die Hardware so weit wie möglich zu reduzieren, aber die Fähigkeiten der Software zu maximieren. Zum Beispiel in Datenzentren, beim Hosting. Auch an Arbeitsplätzen in großen Organisationen.
Haupttypen der Virtualisierung
Die Methode wird aus mehreren Gründen allgemein angewandt:
ein hohes Maß an Sicherheit;
Einsparung technischer Ressourcen;
eine relativ einfache Hypervisor-Konfiguration.
Der wichtigste Aspekt ist natürlich die Wirtschaft, denn der Jude ist in jedem Menschen lebendig. Da die Virtualisierung es ermöglichte, keine große Menge an Hardware anzuschaffen, sondern Computerressourcen aus der Ferne bereitzustellen, gab es viele Menschen, die bereit waren, den technischen Bedarf auf diese Weise zu decken. Was sind also die verschiedenen Arten davon?
Emulation
Diese Art der Virtualisierung begegnet uns immer wieder. Übrigens, haben Sie noch nie einen Sega-Emulator auf Ihrem Computer laufen lassen? Oder ein Smartphone? Ja, im Wesentlichen die Emulation eines anderen Geräts auf einem Gerät. Aus der Perspektive der Software, die im Emulator läuft, spielen wir ein Sega-Spiel, während wir in Wirklichkeit auf ein Smartphone schauen, das auf einem Laptop oder Tablet sitzt. Generell gilt: Alles, was das Herz begehrt, solange es sich um Software handelt. Diese Art der Virtualisierung ist nützlich und weit verbreitet, da es einfacher ist, einen Emulator zu betreiben als ein Gerät zu kaufen.
Speichervirtualisierung
Es ist die Art, die Normalsterbliche nicht sehr oft zu sehen bekommen. Es gibt einen Computer mit 32 GB RAM. Es gibt 10 Computer, die jeweils nur 16 GB haben. Die App verschlingt alle 32 GB Speicherplatz, aber alle PCs müssen mit ihr arbeiten. Was ist zu tun? So wird aus einem Computer mit 32 GB ein gemeinsam genutzter Cache, dessen Speicher von anderen Computern zu ihrem eigenen Vorteil genutzt wird.
Sollten wir es schwieriger machen? Wenn dies der Fall ist, fassen wir alle DRAM-Speicher in einem gemeinsamen Pool zusammen, so dass es für alle Computer im Cluster den Anschein hat, dass die DRAM-Population gleich der Summe der gesamten RAM im Cluster. Dadurch können ressourcenintensive Anwendungen innerhalb eines einzigen Arrays geladen werden. Das ist ein interessanter Weg, das zu tun. Irgendwann werde ich mehr über ihn schreiben.
Virtualisierung von Betriebssystemen
Dieser Typ ist weit verbreitet, da er sehr praktisch ist. Er ist überall zu finden, und zwar in den verschiedensten Varianten:
Software-Virtualisierung. Haben Sie Windows-Anwendungen unter Linux ausgeführt und umgekehrt? Wenn ja, dann wissen Sie, was ich damit meine. Wenn nicht, erkläre ich es Ihnen. Ein Software-Hypervisor wird erstellt. Die Befehle des Hauptbetriebssystems werden an das Gastbetriebssystem übertragen, und der Hypervisor ist für die korrekte Interpretation der Befehle verantwortlich.
Hardware. In diesem Fall gibt es eine Unterstützung auf Hardware-Ebene; der Hypervisor wird nicht auf, sondern unter dem System installiert. Das heißt, es ist die Grundlage, alle Betriebssysteme werden auf dem Hypervisor eingesetzt. In diesem Fall erhalten Sie Betriebssysteme, die wirklich voneinander isoliert sind.
Auf der Ebene des Betriebssystems. Einfach mehrere Schalen, die konventionell voneinander abstrahiert sind und parallel arbeiten. In diesem Fall gibt es keine vollständige Isolierung.
Im Allgemeinen verdient dieses Thema eine gesonderte Betrachtung. Es gibt viele nützliche Dinge zu sagen.
Software-Virtualisierung
Dieser Typ ist für die Ausführung von Software-Shells konzipiert, die voneinander isoliert sind. Praktisch identisch mit dem vorherigen Typ. Von den Eigenschaften her ähnelt es dem Terminalzugriff, aber aus Sicht des Betriebssystems sieht es so aus, als würden mehrere Anwendungen laufen, nicht nur eine. Für jeden Lauf desselben Programms wird ein separater Prozess zugewiesen.
Virtualisierung der Dateispeicherung
Wenn Ihr Ziel darin besteht, eine Reihe von Laufwerken als ein einziges physisches Laufwerk darzustellen, müssen Sie auf diese Weise virtualisieren. Es gibt die Blockvirtualisierung, die vor allem in SANs zu finden ist, und die Dateivirtualisierung, die vor allem in NAS zu finden ist.
Dazu können auch die folgenden Arten gehören:
Virtualisierung der Dateistruktur. Mit diesem Typ können Sie eine Datenschicht auf bestehenden, unterschiedlichen Dateisystemen erstellen. Machen Sie zum Beispiel ein einziges für verschiedene Betriebssysteme im Netzwerk.
Verteiltes Dateisystem. Ermöglicht den Zugriff auf bestimmte Dateien und Laufwerke von verschiedenen Geräten aus, wobei jede Struktur das Laufwerk als logisches Laufwerk darstellt. Das offensichtlichste Beispiel ist ein Netzlaufwerk.
Speichervirtualisierung. Zum Beispiel Emulator für optische Laufwerke, logische Laufwerke.
Virtualisierung von Daten
Eigentlich eine Methode zur Abstraktion von geordneten Strukturen vom physischen Medium, der Form, der Struktur. Ein sehr komplexes und relativ neues Thema in der IT-Welt. Verdient eine eigene Bewertung. Lassen Sie mich das in einfachen Worten erklären: Es gibt mehrere Informationspools, Tausende von Datenbanken, die unterschiedlich strukturiert sind und über verschiedene Medien verfügen. Verwaltung und Betrieb werden schwierig sein. Schafft man jedoch eine virtuelle Plattform, die die Informationen interpretiert und für die weitere Arbeit integriert, wird die Sache deutlich einfacher.
Eine solche Methode wurde bereits in der Vergangenheit angewandt, wird aber aufgrund der zunehmenden Komplexität der Datenstrukturen jetzt immer häufiger eingesetzt.
Netzvirtualisierung
Durch die Kombination von technischen und Software-Ressourcen in einem einzigen Netz schaffen wir ein so genanntes virtuelles Netz. Ein Netz kann entweder extern erstellt werden, wobei viele verschiedene Netze zu einem einzigen virtuellen Netz verbunden werden, oder intern, wobei ein virtuelles Netz zwischen Softwarekomponenten intern simuliert wird.
In welchen Bereichen wird die Virtualisierung eingesetzt?
In der Tat gibt es eine ganze Reihe von Bereichen, in denen diese Technologie eingesetzt wird. Es lohnt sich, die wichtigsten davon hervorzuheben, denn es macht keinen Sinn, alle Einzelfälle aufzulisten. Kommen wir also gleich zur Sache, um einen ohnehin schon langen Text nicht noch länger werden zu lassen.
Virtualisierung von Ansichten
Er stellt den Start virtueller Desktops dar, aber im Gegensatz zu einem Terminalserver ist die Gastsitzung von den anderen isoliert. Übrigens, die Sphären sind sehr nah beieinander, die Unterschiede sind minimal.
Der Hauptvorteil besteht darin, dass ein Gast nicht in den Bereich eines anderen Gastes eingreifen kann, wodurch kritische Fehler, Kompatibilitätsprobleme und viele andere unangenehme Aspekte, die bei Terminal-Lösungen allgegenwärtig sind, vermieden werden. Jede Anwendung wird in einer virtualisierten, isolierten Umgebung bereitgestellt. Alle Operationen werden vom Virtualisierungsserver ausgeführt. Der Benutzer erhält nur das Ergebnis. Im Prinzip gibt es, abgesehen von der isolierten Umgebung für jede Anwendung, keine Unterschiede zu Terminal-Lösungen.
Die Präsentationsmethode ist dieselbe wie bei Terminal-Lösungen: Ein Thick- oder Thin-Client – spezielle Geräte für die Eingabe/Ausgabe von Daten – wird für die Ferninteraktion mit dem Virtualisierungsserver verwendet. Eine große Leistung ist im Prinzip nicht erforderlich, denn oft ist der Einsatz von Virtualisierungsanwendungen mit Thin Clients viel billiger als die Ausstattung des Büros mit produktiven Computern. Neben dem Preis gibt es eine Reihe weiterer positiver Aspekte:
Leichtere Verwaltung. Sie können das Kopieren auf externe Medien für einzelne Benutzer verbieten, die Aktionen der Mitarbeiter verfolgen, die technischen Ressourcen nach Prioritäten auf die Mitarbeiter verteilen und eine automatische Sicherung aller Daten einstellen.
Es ist viel einfacher, mit Lizenzen umzugehen. Wenn nicht alle Mitarbeiter die Software gleichzeitig nutzen, können Sie eine Lizenz für Verbindungen oder Benutzer kaufen. Das bringt Ihnen eine spürbare Ersparnis. Aber Sie müssen für jedes Gerät eine eigene Lizenz kaufen.
Zentralisierung der Infrastruktur. Dies vereinfacht die Datenerfassung und -speicherung spürbar.
Anwendungsvirtualisierung
Sie müssen es verwenden, wenn Sie ein höheres Maß an Sicherheit benötigen. Jede Anwendung kann in einer Umgebung ausgeführt werden, die vollständig vom Betriebssystem isoliert ist. Dann können Sie leicht auf Viren und Schwachstellen prüfen und viele unangenehme Überraschungen vermeiden.
Server-Virtualisierung
Es ist auch möglich, Hardware auf Software-Ebene zu simulieren. Zunächst müssen Sie einen Hypervisor installieren. Die folgenden Komplexe sind geeignet:
VMware Workstation;
Microsoft Hyper-V;
Oracle VM Server;
Xen.
Es gibt eine Reihe anderer Hypervisoren. Sie alle haben ihre Vor- und Nachteile. Im Allgemeinen ist das Thema sehr umfangreich und verdient einen eigenen Artikel.
Dieser Komplex wird “vor” der Installation von Betriebssystemen eingesetzt, danach wird er angepasst und ermöglicht es Ihnen, bestimmte technische Merkmale, das Vorhandensein bestimmter Treiber zu simulieren, im Allgemeinen haben Sie eine virtuelle Maschine, aber mit ganz physischen Eigenschaften.
Auf einem Virtualisierungsserver können Sie viele virtuelle Maschinen installieren, die vollständig voneinander isoliert sind. Das auffälligste Beispiel ist der VPS-Hostingdienst (Virtual Server). Die Vorteile dieses Ansatzes liegen auf der Hand:
Hohe Sicherheit. Virtuelle Maschinen sind voneinander isoliert. Wenn eine virtuelle Maschine von Viren befallen oder falsch konfiguriert ist, hat dies keine Auswirkungen auf eine andere. Natürlich gibt es Schwachstellen, die es ermöglichen, auf die Hypervisor-Ebene vorzudringen, aber das ist ziemlich schwierig.
Verringerung des Verbrauchs. Nehmen wir an, Sie benötigen viele Maschinen mit geringem Stromverbrauch. Es ist teuer, sie einzeln zu kaufen. Schließlich kosten auch die Gehäuse und der Platz im Rack Geld. Es ist einfacher, eine leistungsstarke Maschine zu nehmen, die Emulation der erforderlichen Konfigurationen einzurichten und sie zu betreiben. Das spart erheblich Platz und Geld.
Die Verwaltung auf Hypervisor-Ebene vereinfacht die Verwaltung der technischen Infrastruktur erheblich.
Gute Skalierbarkeit. Sie können einen Cluster von Appliances erstellen, um die Anzahl der virtuellen Maschinen zu erhöhen.
Leider kann man auf die Nachteile nicht verzichten, man muss sich mit möglichen Problemen abfinden, obwohl es Möglichkeiten gibt, sie zu lösen, aber das ist eine zusätzliche Investition:
Geringes Maß an Fehlertoleranz. Alle technischen Ressourcen sind auf ein Gerät konzentriert, und im Falle eines Ausfalls sind alle betroffen. Der einzige Ausweg besteht darin, ein zweites Gerät zu bauen, was allerdings recht teuer ist.
Komplexe Bereitstellung. Das Einrichten eines Virtualisierungsservers ist schwierig. Man muss viel Zeit investieren und ein erfahrener Profi sein, um es richtig zu machen.
Der Rest der Mängel hängt von Ihren Zielen ab. Aber wie Sie sehen, gibt es so etwas wie ein makelloses Produkt nicht.
Benutzen Sie
Wie Sie sehen, ist die Virtualisierung für viele Aufgaben (wenn nicht sogar für die meisten) die beste Lösung. Sie haben dieses Konzept bereits kennengelernt und haben nun eine Vorstellung von der Methode. Wenn Sie also eine komplexe IT-Struktur qualitativ und wirtschaftlich aufbauen müssen, können Sie den in diesem Artikel beschriebenen Ansatz verwenden. Ich wünsche Ihnen einen schönen Tag, ich hoffe, ich konnte Ihnen helfen!