HatsuneMilku/ESXi | |
---|---|
Entwickler | VMware Inc. |
Lizenz(en) | Proprietär |
Erstveröff. | 23. März 2001 |
Akt. Version | 7.0 Update 3c (Build 19193900) (27. Januar 2022) |
Kernel | früher wurde ein Linux-Kernel genutzt, heutzutage ein proprietärer |
Kompatibilität | x86-64, ARM |
Installationsmedium | CD, USB, NetBoot, ISO/IMG |
Sprache(n) | Englisch, Deutsch, Französisch, vereinfachtes Chinesisch, traditionelles Chinesisch, Japanisch, Koreanisch, Spanisch |
https://vmware.com/products/esxi-and-esx.html |
VMware ESXi (früher ESX) ist ein Typ-1 Hypervisor, der für die Virtualisierung von Rechenzentren, Servern und Netzwerken eingesetzt wird.
ESXi war Teil der sogenannten VMware Infrastructure, ein umfassendes Angebot des Herstellers, welches neben der Software zur Virtualisierung von Rechenzentren und Netzwerken auch eine Management-Lösung (vCenter Server, früher VirtualCenter Server), Backup und Automatisierung beinhält.
Mit der Veröffentlichung von Version 5.0 hat das Unternehmen den Namen der Software auf ESXi umgeändert.[1]
VMware ESXi läuft direkt auf der Serverhardware, ohne ein darunterliegendes Betriebssystem.[2]
Namensgebung
BearbeitenESX stammt von "Elastic Sky X".[3] Diese Bezeichnung taucht aber, bis auf einige wenige Ausnahmen,[4] nicht in der offiziellen Dokumentation auf.
Technische Informationen
BearbeitenVMware, Inc. bezeichnet den Hypervisor von ESXi als "vmkernel"
Architektur
BearbeitenESXi läuft "Bare Metal" (also ohne ein zugrundeliegendes Betriebssystem).[5] Anders als andere VMware Produkte setzt es nicht auf einem anderen Betriebssystem auf (wie beispielsweise Photon OS, das Betriebssystem welches von vCenter Server genutzt wird).[6]
Bis zur Version 4.0 wurde beim Systemstart ein Linux Kernel geladen,[7] welcher im weiteren Bootprozess andere Komponenten zur Virtualisierung geladen hat. Der Kernel stellt dann die Service Console bereit. Ab Version 4.1, wird die Entwicklung von ESX nicht mehr fortgesetzt und stattdessen ESXi weiterentwickelt, welches ohne den Linux Kernel arbeitet.
Der vmkernel ist laut VMware ein Microkernel,[8] und hat drei Schnittstellen zur Außenwelt:
- Hardware
- Gastsysteme
- Service Konsole (Managementzugang)
Interface to hardware
BearbeitenDer vmkernel arbeitet direkt mit der CPU und dem RAM, setzt scan-before-execution (SBE) ein um spezielle oder privillegierte CPU Anweisungen zu erkennen und umzusetzen und SRAT (system resource allocation table) um die vergebenen Speicherbereiche zu überwachen.[9]
Der Zugriff auf andere Hardware (wie Netzwerk- oder Speichergeräte) erfolgt über Module. Einige der Module leiten sich von im Linux-Kernel verwendeten Modulen ab. Um auf diese Module zuzugreifen, stellt ein zusätzliches Modul namens vmklinux die Linux-Modulschnittstelle bereit. In der README-Datei heißt es: "Dieses Modul enthält die vom vmkernel verwendete Linux-Emulationsschicht."[10]
Der vmkernel verwendet folgende Gerätetreiber:
- net/e100
- net/e1000
- net/e1000e
- net/bnx2
- net/tg3
- net/forcedeth
- net/pcnet32
- block/cciss
- scsi/adp94xx
- scsi/aic7xxx
- scsi/aic79xx
- scsi/ips
- scsi/lpfcdd-v732
- scsi/megaraid2
- scsi/mptscsi_2xx
- scsi/qla2200-v7.07
- scsi/megaraid_sas
- scsi/qla4010
- scsi/qla4022
- scsi/vmkiscsi
- scsi/aacraid_esx30
- scsi/lpfcdd-v7xx
- scsi/qla2200-v7xx
Diese Treiber entsprechen größtenteils den in der Hardware-Kompatibilitätsliste[11] von VMware beschriebenen Treibern. Diese Module fallen unter die GPL-Lizenz. Diese Treiber wurden von Programmierern so angepasst, so dass sie mit dem vmkernel kompatibel sind.
Seit Version 7.0 gibt es keinen Support mehr für Geräte, die vmklinux Treiber benötigen.[12]
Service console
BearbeitenIn ESX stellt die Service-Konsole ein rudimentäres Betriebssystem dar, das in erster Linie als Bootstrap für den VMware-Kernel, vmkernel, und als Management-Schnittstelle dient. Beide Funktionen des Betriebssystems sind ab Version 5.0 nicht mehr beinhaltet, da VMware auf die integrierte ESXi-Managementschnittstelle umsteigt[13]. Die Service-Konsole ist das Betriebssystem, das für die Interaktion mit VMware ESX und den auf dem Server ausgeführten virtuellen Maschinen verwendet wird.
Linux Abhängigkeiten
BearbeitenESX verwendet einen Linux-Kernel, um zusätzlichen Code zu laden, von VMware oft als "vmkernel" bezeichnet. Die Abhängigkeiten zwischen dem "vmkernel" und dem Linux-Teil von ESX haben sich im Laufe der verschiedenen Versionen der Software drastisch verändert. In dem VMware-FAQ heißt es: "ESX Server enthält auch eine Servicekonsole, die auf einem Linux 2.4-Kernel basiert, der zum Booten der ESX Server-Virtualisierungsschicht verwendet wird". Der Linux-Kernel wird vor der Ausführung einer anderen Software auf einem ESX-Host ausgeführt. Bei den ESX-Versionen 1 und 2 laufen während des Startvorgangs keine VMkernel-Prozesse auf dem System. Nachdem der Linux-Kernel geladen wurde, lädt das S90vmware-Skript den vmkernel. VMware gibt an, dass der vmkernel nicht von Linux abgeleitet sei, räumt aber ein, dass es bestimmte Gerätetreiber von Linux-Gerätetreibern übernommen habe. Der Linux-Kernel läuft unter der Kontrolle des vmkernel weiter und stellt Funktionen wie das von ESX verwendete proc-Dateisystem und eine Umgebung zur Ausführung von Support-Anwendungen bereit. ESX Version 3 lädt den VMkernel aus der Linux Initrd (Linux Initial RAM Disk), also viel früher in der Boot-Sequenz als in früheren ESX-Versionen.
The ESX userspace environment, known as the "Service Console" (or as "COS" or as "vmnix"), derives from a modified version of Red Hat Linux, (Red Hat 7.2 for ESX 2.x and Red Hat Enterprise Linux 3 for ESX 3.x). In general, this Service Console provides management interfaces (CLI, webpage MUI, Remote Console).
As a further detail which differentiates the ESX from other VMware virtualization products: ESX supports the VMware proprietary cluster file system VMFS. VMFS enables multiple hosts to access the same SAN LUNs simultaneously, while file-level locking provides simple protection to file-system integrity.
Purple diagnostic screen
BearbeitenIn the event of a hardware error, the vmkernel can 'catch' a Machine Check Exception.[14] This results in an error message displayed on a purple diagnostic screen. This is colloquially known as a purple diagnostic screen, or purple screen of death (PSOD, cf. Blue Screen of Death (BSOD)).
Upon displaying a purple diagnostic screen, the vmkernel writes debug information to the core dump partition. This information, together with the error codes displayed on the purple diagnosic screen can be used by VMware support to determine the cause of the problem.
vMotion: live migration
BearbeitenLive migration (vMotion) in ESX allows a virtual machine to move between two different hosts. Live storage migration (Storage vMotion) enables live migration of virtual disks on the fly.[15] During vMotion Live Migration (vLM) of a running virtual machine (VM) the content of the (RAM) memory of the VM is sent from the running VM to the new VM (the instance on another host that will become the running VM after the vLM). The content of memory is by its nature changing all the time. ESX uses a system where the content is sent to the other VM and then it will check what data is changed and send that, each time smaller blocks. At the last moment it will very briefly 'freeze' the existing VM, transfer the last changes in the RAM content and then start the new VM. The intended effect of this process is to minimise the time during which the VM is suspended; in a best case this will be the time of the final transfer plus the time required to start the new VM.[16][17]
Versionen
BearbeitenVMware ESX war in zwei Versionen erhältlich, allerdings wird seit ESXi Version 5 nur noch ESXi weiterentwickelt.
ESX und ESXi unterstützen Windows 8 bzw. Windows Server 2012 erst ab Version 5.0.[18]
VMware ESXi
BearbeitenVMware ESXi is a smaller footprint version of ESX that does not include ESX's Service Console. It is available as a free download from VMware though certain features are disabled[19] without the purchase of a vCenter license.
VMware ESXi was originally a compact version of VMware ESX that allowed for a smaller 32 MB disk footprint on the Host. With a simple configuration console for mostly network configuration and remote based VMware Infrastructure Client Interface, this allows for more resources to be dedicated to the Guest environments.
There are two variations of ESXi, VMware ESXi Installable and VMware ESXi Embedded Edition. The same installation media will install to either one or the other of these installation modes depending on the size of the target media.[20] It has the ability to upgrade to VMware Infrastructure 3[21] or VMware vSphere 4.0 ESXi.
Originally named VMware ESX Server ESXi edition, through several revisions the product finally became VMware ESXi 3. New editions then followed: ESXi 3.5, ESXi 4 and now ESXi 5.
To virtualize Windows 8 or Windows Server 2012 as guest operating systems, the ESXi version must be 5.x or greater.[18]
Version release history:[19]
- VMware ESX 3.0.0 GA (Build 27701) (Vorlage:Release date)
- VMware ESX 3.0.1 GA (Build 32039) (Vorlage:Release date)
- VMware ESX 3.0.2 GA (Build 52542) (Vorlage:Release date)
- VMware ESX 3.0.3 GA (Build 104629) (Vorlage:Release date)
- VMware ESXi 3.5 GA (Build 64607) (Vorlage:Release date)
- VMware ESXi 3.5 Update 1 (Build 82663) (Vorlage:Release date)
- VMware ESXi 3.5 Update 2 (Build 103909) (Vorlage:Release date)
- VMware ESXi 3.5 Update 3 (Build 123629) (Vorlage:Release date)
- VMware ESXi 3.5 Update 4 (Build 153875) (Vorlage:Release date)
- VMware ESXi 3.5 Update 5 (Build 207095) (Vorlage:Release date)
- VMware ESXi 4.0 GA (Build 164009) (Vorlage:Release date)
- VMware ESXi 4.0 Update 1 (Build 208167) (Vorlage:Release date)
- VMware ESXi 4.0 Update 2 (Build 261974) (Vorlage:Release date)
- VMware ESXi 4.0 Update 3 (Build 403554) (Vorlage:Release date)
- VMware ESXi 4.0 Update 4 (Build 403554) (Vorlage:Release date)
- VMware ESXi 4.1 GA (Build 260247) (Vorlage:Release date)
- VMware ESXi 4.1 Update 1 (Build 351620) (Vorlage:Release date)
- VMware ESXi 4.1 Update 2 (Build 502767) (Vorlage:Release date)
- VMware ESXi 4.1 Update 3 (Build 800380) (Vorlage:Release date)
- VMware ESXi 5.0 GA (Build 469512) (Vorlage:Release date)
- VMware ESXi 5.0 Update 1 (Build 623860) (Vorlage:Release date)
- VMware ESXi 5.0 Update 2 (Build 914586) (Vorlage:Release date)
- VMware ESXi 5.0 Update 3 (Build 1311175) (Vorlage:Release date)
- VMware ESXi 5.1 GA (Build 799733) (Vorlage:Release date)
- VMware ESXi 5.1 Update 1 (Build 1065491) (Vorlage:Release date)
- VMware ESXi 5.5 GA (Build 1331820) (Vorlage:Release date)
Related or additional products
BearbeitenVorlage:External links The following products operate in conjunction with ESX:
- vCenter Server, enables monitoring and management of multiple ESX, ESXi and GSX servers. In addition, users must install it to run infrastructure services such as:
- vMotion (transferring virtual machines between servers on the fly whilst they are running, with zero downtime)[16][17]
- svMotion aka Storage vMotion (transferring virtual machines between Shared Storage LUNs on the fly, with zero downtime)[22]
- enhanced vMotion aka evMotion (a simultaneous vMotion and svMotion, supported on version 5.1 and above)
- DRS (automated VMotion based on host/VM load requirements/demands)
- HA (restarting of Virtual Machine Guest Operating Systems in the event of a physical ESX Host failure)
- Fault Tolerance (Almost instant stateful fail over of a VM in the event of a physical host failure)[23]
- Converter, enables users to create VMware ESX Server- or Workstation-compatible virtual machines from either physical machines or from virtual machines made by other virtualization products. Converter replaces the VMware "P2V Assistant" and "Importer" products — P2V Assistant allowed users to convert physical machines into virtual machines; and Importer allowed the import of virtual machines from other products into VMware Workstation.
- vSphere Client (formerly VMware Infrastructure Client), enables monitoring and management of a single instance of ESX or ESXi server. After ESX 4.1, vSphere Client was no longer available from the ESX/ESXi server, but must be downloaded from the VMware web site.
Cisco Nexus 1000v
BearbeitenNetwork-connectivity between ESX hosts and the VM's running on it relies on virtual NIC's (inside the VM) and virtual switches. The latter exists in two versions: the 'standard' vSwitch allowing several VM's on a single ESX host to share a physical NIC and the 'distributed vSwitch' where the vSwitches on different ESX hosts form together one logical switch. Cisco offers in their Cisco Nexus product-line the Nexus 1000v as an advanced version of the standard distributed vSwitch. A Nexus1000v consists of two parts: a supervisor module (VSM) and on each ESX host a virtual ethernet module (VEM). The VSM runs as a virtual appliance within the ESX cluster or on dedicated hardware (Nexus 1010 series) and the VEM runs as module on each host and replaces a standard vDS (virtual distributed switch) from VMWare. Configuration of the switch is done on the VSM using the standard NX-OS CLI. It offers capabilities to create standard port-profiles which can then be assigned to a virtual machines with vCenter.
There are several differences between the standard vDS and the N1000v, one is that the Cisco switch has generally full support for network technologies such as LACP link aggregation or that the Vmware switch supports new features as route based on physical NIC load. However the main difference lies in the architecture: Nexus 1000v is working in the same way as a physical Ethernet switch does while vDS is relying on informations from ESX. This has consequences for example in scalability where the limit for a N1000v is 2048 virtual ports against 60000 for a dVS. The Nexus1000v is developed in co-operation between Cisco and VMWare and uses the API of the vDS[24]
Third party management tools
BearbeitenBecause VMWare ESX is market leader on the server-virtualisation market[25] software and hardware-vendors offer a range of tools to integrate their products or services with ESX. Examples are the products from Veeam with backup- and management-applications[26] and a plugin to monitor and manage ESX using HP OpenView,[27] Quest Software with a range of management and backup-applications and most major backup-solution providers have plugins or modules for ESX. Using Microsoft Operations Manager (SCOM) 2007/2012 with a Bridgeways ESX managementpack gives you a realtime ESX datacenter healthview.
Also hardware-vendors such as HP and Dell include tools to support the use of ESX(i) on their hardware platforms. An example is the ESX module for Dell's OpenManage management platform.[28]
Even when ESX itself is running on a Linux base there is no vSphere client available for the Linux Desktop. VMware have added a Webclient[29] since v5 but it will work on vCenter only and contains not all features.[30] vEMan[31] is a Linux application which is trying to fill that gap. These are just a few examples: there are numerous 3rd party products to manage, monitor or backup ESX infrastructures and the VM's running on them[32]
Known limitations
BearbeitenKnown limitations of VMware ESXi, as of June 2013, include the following:
Designlimitationen
BearbeitenEinige der Limitationen von VMware ESXi 7.0 können die Gestaltung von Rechenzentren beeinflussen:[33][34]
- Maximaler RAM des Gastsystems: 24 TB
- Maximaler Arbeitsspeicher des Hosts: 24 TB
- Anzahl der Hosts in einem High Availability- oder Distributed Resource Scheduler-Cluster: 96
- Maximale Anzahl von Prozessoren pro virtueller Maschine: 768
- Maximale Anzahl von Prozessoren pro Host: 768
- Maximale Anzahl von virtuellen CPUs pro physischem CPU-Kern: 32
- Maximale Anzahl von virtuellen Maschinen pro Host: 1024
- Maximale Anzahl von virtuellen CPUs pro Fault Tolerant virtueller Maschine: 8
- Maximaler Gastsystem-RAM pro Fault Tolerant virtueller Maschine: 128 GB
- Maximale VMFS6-Volume-Größe: 64 TB, aber maximale Dateigröße ist 62 TB - 512 Bytes
- Maximaler Videospeicher pro virtueller Maschine: 4 GB
Performance limitations
BearbeitenWas die Leistung angeht, so ist Virtualisierung mit zusätzlichen Kosten verbunden, da die CPU zusätzliche Arbeit leisten muss, um die zugrunde liegende Hardware zu virtualisieren. Anweisungen, die diese zusätzliche Arbeit ausführen, sowie andere Ressourcen, die eine Virtualisierung erfordern, sind in der Regel in Betriebssystemaufrufen enthalten. In einem unveränderten Betriebssystem verursachen die Betriebssystemaufrufe den größten Teil des Virtualisierungs-"Overheads", also der doppelten Benutzung von Ressourcen.
Paravirtualisierung oder andere Virtualisierungstechniken können bei diesen Problemen helfen. VMware hat zu diesem Zweck die Schnittstelle für virtuelle Maschinen (Virtual Machine Interface - VMI) entwickelt, die derzeit von einigen Betriebssystemen unterstützt wird. Ein Vergleich zwischen vollständiger Virtualisierung und Paravirtualisierung für den ESX Server zeigt[35], dass die Paravirtualisierung in einigen Fällen wesentlich schneller ist.
Network limitations
BearbeitenWhen using the advanced and extended network capabilities by using the Cisco Nexus 1000v distributed virtual switch the following network-related limitations apply:[24]
- 64 ESX/ESXi hosts per VSM (Virtual Supervisor Module)
- 2048 virtual ethernet interfaces per VMWare vDS (virtual distributed switch)
- and a maximum of 216 virtual interfaces per ESX/ESXi host
- 2048 active VLAN's (one to be used for communication between VEM's and VSM)
- 2048 port-profiles
- 32 physical NIC's per ESX/ESXi (physical) host
- 256 port-channels per VMWare vDS (virtual distributed switch)
- and a maximum of 8 port-channels per ESX/ESXi host
See also
Bearbeiten- Comparison of platform virtual machines
- KVM Linux Kernel-based Virtual Machine – an open source hypervisor platform
- Hyper-V – a competitor of VMware ESX from Microsoft
- Xen – an open source hypervisor platform
- Virtual appliance
- Virtual machine
- Virtual disk image
- VMware VMFS
- x86 virtualization
References
BearbeitenExternal links
BearbeitenVorlage:Virtualization products
- ↑ https://www.techtarget.com/searchvmware/definition/VMware-ESXi
- ↑ ESX Server Architecture. Vmware.com, archiviert vom am 7. November 2009; abgerufen am 22. Oktober 2009.
- ↑ "What does ESX stand for?"
- ↑ Glossary. In: Developer’s Guide to Building vApps and Virtual Appliances: VMware Studio 2.5. VMware Inc, 2011, S. 153, abgerufen am 9. November 2011: „ESXi[:] Elastic Sky X (ESX) pared down to a bare-metal server [...]“
- ↑ "ESX Server Datasheet"
- ↑ ESX Server Architecture. Vmware.com, archiviert vom am 29. September 2007; abgerufen am 1. Juli 2009.
- ↑ ESX machine boots. Video.google.com.au, 12. Juni 2006, abgerufen am 1. Juli 2009.
- ↑ Support for 64-bit Computing. Vmware.com, 19. April 2004, abgerufen am 1. Juli 2009.
- ↑ VMware ESX Server 2: NUMA Support. VMware Inc, 2005, S. 7, abgerufen am 29. März 2011: „SRAT (system resource allocation table) – table that keeps track of memory allocated to a virtual machine.“
- ↑ https://www.vmware.com/download/open_source.html
- ↑ https://www.vmware.com/resources/compatibility/search.php
- ↑ https://kb.vmware.com/s/article/77304
- ↑ https://blogs.vmware.com/vsphere/2009/06/esxi-vs-esx-a-comparison-of-features.html
- ↑ "KB: Decoding Machine Check Exception (MCE) output after a purple diagnostic screen |publisher=VMware, Inc."
- ↑ The Design and Evolution of Live Storage Migration in VMware ESX
- ↑ a b VMWare Blog by Kyle Gleed: vMotion: what's going on under the covers, 25 February 2011, visited: 2 February 2012
- ↑ a b VMware website vMotion brochure. Retrieved 3 February 2012
- ↑ a b VMWare KBArticle Windows 8/Windows 2012 doesn't boot on ESX, visited 12 September 2012
- ↑ a b VMware ESX and ESXi 4.1 Comparison. Vmware.com, abgerufen am 9. Juni 2011.
- ↑ ?
- ↑ Free VMware ESXi: Bare Metal Hypervisor with Live Migration. Vmware.com, abgerufen am 1. Juli 2009.
- ↑ http://www.vmware.com/files/pdf/VMware-Storage-VMotion-DS-EN.pdf
- ↑ http://www.vmware.com/files/pdf/VMware-Fault-Tolerance-FT-DS-EN.pdf
- ↑ a b Overview of the Nexus 1000v virtual switch, visited 9 July 2012
- ↑ VMWare continues virtualization market romp, 18 April 2012. Visited: 9 July 2012
- ↑ About Veeam, visited 9 July 2012
- ↑ Veeam Openview plugin for VMWare, visited 9 July 2012
- ↑ OpenManage (omsa) support for ESXi 5.0, visited 9 July 2012
- ↑ VMware info about Webclient – VMware ESXi/ESX 4.1 and ESXi 5.0 Comparison
- ↑ Availability of vSphere Client for Linux systems – What the webclient can do and what not
- ↑ vEMan website vEMan – Linux vSphere client
- ↑ Petri website 3rd party ESX tools, 23 December 2008. Visited: 9 July 2012
- ↑ https://blogs.vmware.com/vsphere/2020/09/whats-new-with-vmware-vsphere-7u1.html
- ↑ VMware Configuration Maximum tool. Abgerufen am 27. Mai 2022.
- ↑ https://www.vmware.com/pdf/VMware_VMI_performance.pdf