1.3 Historie 

Vor dem Siegeszug des PCs in Unternehmen war es Praxis, dass es zentrale Großrechner (Hostsysteme) innerhalb der EDV-Abteilungen gab und alle Anwendungen über »dumme« Terminals den Mitarbeitern zur Verfügung gestellt wurden. Dieses System funktionierte gut, jedoch hatte der Mitarbeiter vor Ort kaum Möglichkeiten, sich zu entfalten und selbst Ideen einzubringen oder Abläufe zu beeinflussen. Außerdem waren keine Grafiken verfügbar, sondern meist nur der zeichenorientierte »grüne Bildschirm«. Dann kamen die ersten PCs ins Unternehmen, und den Mitarbeitern standen buntere Anwendungen zur Verfügung. Es wurden Textverarbeitungsprogramme und kleinere Datenbankprogramme angeschafft.
Aber noch waren dies Einzelplatzlösungen. Immer mehr kam der Wunsch auf, die immer leistungsstärker werdenden PCs untereinander zu vernetzen. Mit den PCs vollzog sich eine Kehrtwendung weg vom funktionierenden System eines zentralen Hostrechners hin zu einem dezentralen Rechnerverbund. Mit dieser Entwicklung ging ein steigender Bedarf nach zentralen Speichern einher, so genannten »Fileservern«, auf denen die Daten zentral vorgehalten werden konnten.
Die steigende Anzahl der Server führte nicht nur zu enormen Wartungs- und Administrationskosten, sondern ließ auch Platz- und Energiebedarf (auch USV) und die damit verbundene Wärmeentwicklung stark ansteigen. Seit einiger Zeit zeichnet sich deshalb wieder eine Umkehr zurück zur Zentralisierung ab. Auf der Hardwareseite zeigt sich das z. B. durch die Verbreitung von 1 HE-Servern (Pizzabox) oder Bladeservern, auf der Softwareseite lässt sich diese Tendenz hauptsächlich am vermehrten Einsatz von Terminalservern ablesen.
Hier tritt nun die Virtualisierung auf den Plan, die den Bedarf nach Hardware minimiert, wodurch eine Vielzahl der geschilderten Probleme sich lösen lassen. Mittlerweile ist Virtualisierung in aller Munde, und selbst Chiphersteller wie Intel und AMD wollen ihre Prozessoren in naher Zukunft auf Virtualisierung trimmen. Auch IBM, Novell und RedHat stehen mit dem Unternehmen Xensource in Verhandlungen, um die Xen-Virtualisierungstechnologie in ihre Betriebssysteme zu integrieren.
In jüngster Zeit hat VMware mit verschiedenen anderen namhaften Soft- und Hardwareherstellern eine Initiative namens Virtual Machine Hypervisor Interface ins Leben gerufen, um Teile der Servervirtualisierung zu standardisieren.
Wie begann die Virtualisierung?
Im Unix-Bereich sind diese Virtualisierungen schon seit Jahren bewährte Praxis, z. B. im IBM AIX-Bereich.
Das Unternehmen Connectix brachte 1997 seine erste Version der Software Virtual PC für den Apple Macintosh. Später wurde dieses Produkt auch auf die Intel-Welt portiert. Ein Highlight des Produktes war die Unterstützung von OS/2 innerhalb der virtuellen Maschine.
VMware war dann 1999 das erste Unternehmen, das Produkte herstellte, mit deren Hilfe Rechner auf Intel Wirt-Systemen in virtuellen Umgebungen betrieben werden konnten. Damals kam die erste VMware Workstation-Version auf den Markt, anfangs nur für Linux, noch im selben Jahr aber auch für Windows. Sehr viele Windows- und Linux-Betriebssysteme wurden als Client-Betriebssystem innerhalb der virtuellen Maschinen unterstützt. Vor allem Universitäten und Entwicklungsabteilungen entwickelten sehr schnell ein enormes Interesse an den VMware-Produkten.
Zunächst waren diese Server allerdings eher für Test- und Entwicklungsumgebungen gedacht und für einen produktiven Einsatz noch nicht leistungsfähig genug. Als Testsystem bewährte sich dieses Produkt allerdings hervorragend. Ohne teure Hardwareanschaffung war es möglich, verschiedene Betriebssysteme und damit eine große Zahl von Anwendungen auf einem normalen Workstationsystem laufen zu lassen.
2001 erschienen dann die ersten Versionen des VMware GSX und des VMware ESX Servers auf dem Markt, aktuell sind die Server in den Versionen VMware GSX 3.2 und VMware ESX 2.5 erhältlich.
Mit letzteren Versionen waren nun sehr professionelle Virtualisierungslösungen und erstmals auch ein Remotemanagement möglich. 2003 folgte ein Verwaltungstool namens VMware VirtualCenter, mit dem große Virtualisierungslandschaften zentral gemanagt werden konnten.
Das Produkt des Unternehmens Connectix, ständiger Konkurrent von VMware Workstation, wurde 2003 von Microsoft aufgekauft und ist dort mittlerweile komplett in die Produktpalette integriert. Ein Jahr später kam Microsoft Virtual Server auf den Markt, aktuell ist die Version Microsoft Virtual Server 2005 erhältlich.
Microsoft Virtual PC unterstützt bis heute auch Apple Macintosh als Betriebssystem. Für den umgekehrten Fall, dass Sie MAC OS auf einem auf Intel x86 basierenden System in Betrieb nehmen möchten, gibt es ein Tool namens PEAR, das als Freeware vorliegt, sich allerdings noch in einem frühen Beta-Stadium der Entwicklung befindet.
Zudem gibt es zurzeit eine Vielzahl von Virtualisierungssoftware unter Linux, darunter Bochs und XEN, um nur die Bekanntesten zu nennen. Diese Virtualisierungsprodukte unterstützen allerdings genau wie alle VMware-Produkte und Microsoft Virtual Server nur ein Intel x86 basierendes System als Betriebssystem. Marktführer und quasi Standard auf dem Bereich der professionellen Servervirtualisierung ist allerdings nach wie vor VMware.
Ihre Meinung
Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an kommunikation@rheinwerk-verlag.de.