VMware


VMware ESXi 6.x auf PCEngines APU2

Nachdem der letzte Proof-of-Concept „VMWare ESXi auf Alix Nachfolger APU1c und APU1c4 installieren“ auf reges Interesse gestossen ist möchte ich es nicht unterlassen, dasselbe Konzept mit der neuen APU2 Version nochmals aufzugreifen.

Die neue APU2 setzt auf einen AMD Embedded G series GX-412TC CPU und verfügt wieder über 2GB respektive 4GB RAM. Als Netzwerkkarte kommt in der neuen Version entweder eine Intel i211AT oder eine i210AT zum Einsatz. Dies hat den Vorteil, dass die Netzwerkkarte direkt von ESXi unterstützt wird (dank des igb Treibers). Es ist also kein mühsames Nachinstallieren des NIC-Treibers notwendig.

Teile dieses Tutorials basieren auf dem ursprünglichen Artikel und sind mit neuen Inputs (z.B. dem Embedded Host Client) ergänzt.

Benötigte Software / Hardware

ESXi Installation auf USB Stick mit VMWare Workstation

Für die Erstellung des ESXi USB Sticks verwende ich in diesem Tutorial VMWare Workstation. Unter Umständen kann die Installation auch mit dem kostenlosen VMWare Player vorgenommen werden. Dazu ist jedoch ein VM Template notwendig. Die Erstellung des notwendigen Templates kann auch online erfolgen. Google ist hierbei die beste Unterstützung.

VMWare ESXi installieren

Die virtuelle Maschine benötigt keine Festplatte, da die Installation auf einen USB Stick erfolgt. Beim Starten der virtuellen Maschine muss nun noch der USB Stick verbunden werden:

ESXi Setup  USB Stick

Wichtig ist hierbei, dass der angesteckte USB Stick an die virtuelle Maschine durchgereicht wird.

ESXi Setup ESXi Setup

ESXi Setup ESXi Setup

Ist der USB Stick korrekt angeschlossen steht dieser entsprechend zur Auswahl.

ESXi Setup

Im Anschluss das gewünschte Tastaturlayout auswählen und das root-Kennwort definieren:

ESXi Setup ESXi Setup

Für die Basis-Installation sind nun alle Informationen vorhanden. Die Installation kann gestartet werden.

ESXi Setup ESXi Setup

ESXi Setup ESXi Setup

ESXi Setup

ESXi starten

VMWare Workstation kann über die neu verfügbare EFI-Boot-Option auch ab USB Stick starten. Ich bevorzuge hierbei jedoch den Plop Boot Manager.
Dazu wird der virtuellen Maschine die CD plpbt.iso zugewiesen und anschliessend gestartet. Um den ESXi zu starten kann nun im Auswahlmenü USB ausgewählt werden.

Plop Boot Manager

Nach dem Start und der entsprechenden Konfiguration der Management IP Adresse kann direkt auf den seit ESXi 6.0 U2 integrierten „Host Embedded Client“ zugegriffen werden. Der Zugriff erfolgt dabei ohne installierten vSphere Client direkt via Webbrowser. Über die Adresse https://ip-des-esxi-servers/ui/ kann auf den neu installierten ESXi zugegriffen werden.

Host Embedded Client

ESXi Konsole auf seriellen Port umleiten

Da die PCEngines APU keine Grafikkarte besitzt muss auf dem neuen ESXi entsprechend die serielle Ausgabe auf com1 konfiguriert werden. Die serielle Ausgabe kann wie folgt aktiviert werden:

 

  • Stellen Sie eine Verbindung mit dem ESXi Server UI her (Host Embedded Client)
  • Klicken Sie links auf die Registerkarte Verwalten
  • Klicken Sie rechts auf Erweiterte Einstellungen
  • Wählen sie den Eintrag VMkernel.Boot.tty2Port aus und klicken sie auf Option bearbeiten
  • Unter Neuer Wert nun com1 eintragen und mit Speichern bestätigen

Serielle Ausgabe aktivieren  Serielle Ausgabe aktivieren

Weitere Details zu dieser Einstellung finden sie im VMWare Dokumentationscenter.

Die virtuelle Maschine kann nun heruntergefahren werden. Alle für den Betrieb auf der APU2 notwendigen Anpassungen sind gemacht.

 

PCEngines APU2 vorbereiten

Zu Beginn empfiehlt es sich, das aktuellste BIOS auf die APU aufzuspielen. Die Anleitung dazu findet sich auf der PC Engines Webseite unter TinyCore.

Wichtig ist ebenfalls, dass die Boot-Reihenfolge auf der APU richtig konfiguriert ist.
Um die Boot-Reihenfolge anzupassen kann beim Start der APU auf der Konsole mittels F10 -> 3. Payload [setup] die gewünschte Reihenfolge konfiguriert werden.

Boot-Reihenfolge

ESXi auf der APU starten

Dank der umgeleiteten Datenausgabe wird nun während dem Startvorgang der komplette Output auf die serielle Konsole umgeleitet. Der Startvorgang kann je nach verwendetem USB Stick durchaus ein paar Minuten in Anspruch nehmen.

ESXi starten ESXi starten

Design-Technisch nicht das schönste, aber normalerweise sieht man die ESXi-Konsole genau einmal – bei der initialen Konfiguration des Management Netzwerks.

ESXi Konsole ESXi Konsole

Alles weitere erfolgt mittels vSphere Client oder neuerdings Host Embedded Client

Host Embedded Client

Wie ESXi konfiguriert und der vSphere Client / Host Embedded Client bedient wird, ist nicht teil dieses Beitrages. Alles notwendige wird jedoch ausführlich im Dokumentationscenter von VMWare beschreiben.

Viel Spass!

Die problemlose Installation von ESXi 6 dank der nun unterstützten Intel-NICs und der stärkeren CPU machen die APU zu einem optimalen Virtualisierungsserver für kleine Serveraufgaben. Natürlich ist die APU nicht ein Leistungsbolide – je nach Einsatzzweck aber genau das richtige :)


Host Disconnects mit VMWare 5.5.0U2 / VMware 6.x und IBM Storwize

Neue VMFS Heartbeat Methode

VMWare nutzt seit ESXi 5.5.0 Update 2 eine neue Methode für die VMFS-Heartbeat Überwachung. In Kombination mit einem IBM Storwize Storage-System kann dies zu unerwünschten Disconnects führen.

Wenn der Fehler auftritt, wird im Virtual Center folgender Fehler geloggt:

Lost access to volume <uuid><volume name> due to connectivity issues. Recovery attempt is in progress and the outcome will be reported shortly

Zusätzlich wird im vmkernel.log ein entsprechender Eintrag generiert:

ATS Miscompare detected beween test and set HB images at offset XXX on vol YYY

ATS heartbeat deaktivieren und Einstellung überprüfen

Um den Fehler zu umgehen muss auf dem jeweiligen ESXi-Host das sogenannte „ATS heartbeat“ deaktiviert werden. Dazu muss auf dem CLI des ESXi-Hosts folgender Befehl ausgeführt werden:

Für VMFS5 Datastores:

#Einstellung setzen
esxcli system settings advanced set -i 0 -o /VMFS3/UseATSForHBOnVMFS5

#Einstellung überprüfen
esxcli system settings advanced list -o /VMFS3/UseATSForHBonVMFS5

#Die Ausgabe sieht dann wie folgt aus:

Path: /VMFS3/UseATSForHBOnVMFS5
Type: integer
Int Value: 0 #check this value, 0=ATS ausgeschaltet, 1=ATS eingeschaltet
Default Int Value: 1
Min Value: 0
Max Value: 1
String Value:
Default String Value:
Valid Characters:
Description: Use ATS for HB on ATS supported VMFS5 volumes

Für VMFS3 Datastores:

#ATS für VMFS3 Datastores deaktivieren
esxcli system settings advanced set -i 1 -o /VMFS3/UseATSForHBOnVMFS5

#Einstellung für VMFS3 Datastores prüfen
esxcli system settings advanced list -o /VMFS3/UseATSForHBonVMFS3

#Die Ausgabe sieht dann wie folgt aus:

Path: /VMFS3/UseATSForHBOnVMFS3
Type: integer
Int Value: 0 #Check this value, 0=ATS ausgeschaltet, 1=ATS eingeschaltet
Default Int Value: 0
Min Value: 0
Max Value: 1
String Value:
Default String Value:
Valid Characters:
Description: Use ATS for HB on ATS supported VMFS3 volumes

WICHTIG: Diese Einstellung wird bei jedem ESXi Upgrade (z.B. 5.5.0 auf 6.0.0) überschrieben und muss nach dem Update des ESXi-Hosts neu gesetzt werden!

2015-09-14 10_15_26

Mehr Informationen zu diesem Fehler

IBM hat zu diesem Fehler ein Supportdokument erstellt. Auch bei VMWare ist der Fehler in der KnowledgeBase beschrieben.


Proxmox Virtualisierungsumgebung auf PCEngines APU

Vor kurzem habe ich einen Artikel veröffentlicht, wie man eine ESXi Virtualisierungsumgebung auf der PCEngines APU zum laufen bekommt.

Eine alternative Virtualisierungsumgebung, welche im Gegensatz zu VMWare ESXi komplett auf Open-Source basiert und keine Zusatzkosten verursacht (ausser man möchte gerne eine Subscription lösen) nennt sich Proxmox.

2014-06-15 16_08_38

Proxmox Virtual Einvironment

Proxmox ist eine auf Debian basierte Virtualisierungsumgebung welche sowohl mit Windows- wie auch mit Linux-Gastsystemen klar kommt und mit einigen Nettigkeiten im Bereich der Verwaltung aufwartet.

Benötigte Software / Hardware

  • PC Engines APU1c oder PC Engines APU1c4
  • mSATA SSD mit mindestens 16GB Kapazität (wenn die VMs auf einem externen Speicher liegen, ansonsten empfiehlt sich 32GB oder 64GB)
  • Spezielles Debian Installation-Image
  • USB Stick mit mindestens 1GB Speicherplatz
  • SUSE ImageWriter
  • Putty

Debian installieren

Der original Debian-Installer lässt leider keine Installation via Serieller Konsole zu. Daher habe ich auf Basis der Scripts von Stanislav Sinyagin ein für die Bedürfnisse von Proxmox angepasstes Installations-ISO erstellt (siehe Spezielles Debian Installations-Image). Dieses kann mit dem SUSE ImageWriter auf einen beliebigen USB Stick mit mindestens 1 GB Kapazität geladen werden. Die angepassten Profil-Dateien für alle die selbst ein entsprechendes Image nach der Anleitung von Stanlislav Sinyagin machen möchten können hier heruntergeladen werden.

USB Stick für die Installation erstellen

Dazu das ISO herunterladen und die Endung von .iso auf .raw umbenennen. Anschliessend den ImageWriter starten, gewünschtes Image sowie Ziel wählen und das Image auf den USB Stick übertragen.

SUSE Image Writer

ACHTUNG: Der USB Stick wird dabei komplett überschrieben. Es sollten sich also keine benötigten Daten auf dem USB Stick befinden.

Installation starten

Die Boot-Reihenfolge der APU sollte so eingestellt sein, dass zuerst ab mSATA SSD und als zweite Option ab USB Stick gestartet wird.

Den USB Stick an die APU anschliessen, APU starten und im Boot-Prompt mittels F12 USB als Startoption auswählen. Die Installation erfolgt vollautomatisch. Die Fehlermeldung betreffend dem „Invalid Videomode“ kann ignoriert werden, die Installation startet automatisch nach den erwähnten 30 Sekunden.  Die Installation erfordert eine Internetverbindung weshalb ein Netzwerkkabel an der ersten Buchse (neben dem seriellen Anschluss) angeschlossen sein muss. Die Installation dauert ca. 10 Minuten in Abhängigkeit von der Internet-Geschwindigkeit.

ACHTUNG: Der Installer installiert automatisch Debian 7.5 amd64 auf die interne mSATA SSD! Alle Daten auf der SSD werden zuvor gelöscht.

Nach der Installation startet die APU automatisch neu und Debian ist einsatzbereit.

Bei der Installation handelt es sich um eine Standard Debian 7.5 amd64 Minimal-Installation mit wenigen Anpassungen / Optimierungen für den Betrieb einer SSD. Bei der Installation wird automatisch der Midnight Commander sowie SSH eingerichtet.

Folgende Konfiguration ist nach der Installation gegeben:
Root-Kennwort: pcengines
IP-Adresse: DHCP
Hostname: apu

Nach dem ersten Start

Nach dem Start kann sofort via SSH auf die neue Installation zugegriffen werden. Als erstes sollte man eine feste IP Adresse vergeben und das Kennwort (mittels Befehl passwd) ändern.

Installation von Proxmox

Die Installation von Proxmox entspricht grundsätzlich der offiziellen Anleitung zur Installation von Proxmox auf einem Debian Wheezy System -> http://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Wheezy

Einige Tipps…

Nachfolgend ein paar Abweichungen von der offiziellen Anleitung damit direkt die neuste Version installiert wird plus ein paar Stolpersteine im Umgang mit der APU umgangen werden können.

Direkt die neuste Version installieren:

Um direkt die neuste Proxmox-Version (3.2.x) zu erhalten kann anstelle des in der Anleitung erwähnten Repositorys  :

# PVE repository provided by proxmox.com, only for installation (this repo will stay on 3.1)
deb http://download.proxmox.com/debian wheezy pve

direkt das No-Subscription-Repository verwendet werden:

# PVE pve-no-subscription repository provided by proxmox.com, NOT recommended for production use
deb http://download.proxmox.com/debian wheezy pve-no-subscription

Durch das veränderte Repository muss der Befehl für die Installation des Proxmox VE Kernels angepasst werden.

# Befehl für die Installation nach offizieller Anleitung (Alte Version):
apt-get install pve-firmware pve-kernel-2.6.32-26-pve
apt-get install pve-headers-2.6.32-26-pve

# Befehl für die Installation der neusten Version aus dem No-Subscription Repo (Neue Version):
apt-get install pve-firmware pve-kernel-2.6.32-29-pve
apt-get install pve-headers-2.6.32-29-pve

Beim anschliessenden Neustart gemäss Anleitung ist zu beachten, dass via serieller Konsole die Pfeiltasten unter Umständne nicht wie gewünscht funktionieren. Um den richtigen Kernel auszuwählen (den neu installierten PVE Kernel) kann mit der Taste v und ^ der richtige Kernel ausgewählt werden.

Deaktivieren des Enterprise-Repositorys

Nach der Installation der Proxmox VE Packages empfiehlt es sich in der Datei  /etc/apt/sources.list.d/pve-enterprise.list das neue Repository für die Enterprise Updates zu deaktivieren:

Repository ist aktiv:
deb https://enterprise.proxmox.com/debian wheezy pve-enterprise

Repository ist ausgeschaltet:
#deb https://enterprise.proxmox.com/debian wheezy pve-enterprise

Bleibt das repository aktiv kann es bei einem Update-Versuch zu Fehler kommen da keine gültige Enterprise-Subscription verfügbar ist.

 

Proxmox auf der PC Engines APU

Wenn alles klappt hat man in weniger als 30 Minuten eine voll funktionsfähige Virtualisierungsumgebung auf Basis von freier Software.

Im Vergleich zu ESXi sparsamer Ressourcenverbrauch Proxmox Konsole auf der APU

Voll funktionsfähige Proxmox Installation auf der APU Proxmox 3.2 auf der APU - die Paketversionen

Im Vergleich zu VMWare ESXi läuft Proxmox gefühlt schneller und ressourcensparender auf der APU. Gerade der RAM-Verbrauch hat mich äusserst positiv überrascht. Das System reagiert schnell auf Eingaben und die Performance der Gastsysteme reicht für die meisten Anwendungen einwandfrei aus.


VMWare ESXi 5.5 Image für PC Engines APU1c und APU1c4

pfSense, ipFire, Endian UTM, Sophos UTM…

Bekanntlich verfügen die Geräte der APU Reihe über keine Grafikkarte. Für einige Firewall-Lösungen wie pfSense oder ipFire ist dies kein Hindernis. Andere Lösungen wie Endian UTM oder Sophos UTM lassen sich jedoch nicht ohne weiteres über eine serielle Schnittstelle installieren / konfigurieren. Für all diejenigen habe ich ein Tutorial geschrieben, wie man eine komplette Virtualisierungsumgebung auf einer PC Engines APU installieren kann.

Anmerkung zur Sicherheit beim Betrieb einer virtualisierten Firewall-Lösung

Beim Betrieb einer Firewall-Lösung auf einer virtualisierten Umgebung ist zu beachten, dass im Gegensatz zu einer direkt installierten Lösung mehr Angriffsfläche geboten wird. Obwohl die Hersteller der Virtualisierungslösungen alles daran setzen ihre Lösungen gegen Fehler und Sicherheitslücken abzusichern, so bleibt trotzdem ein geringes Restrisiko bestehen.

Inzwischen kann jedoch davon ausgegangen werden, dass der Betrieb einer virtualisierten Firewall durchaus als „sicher“ zu betrachten ist. Vorausgesetzt, auf dem Virtualisierungshost (in diesem Fall der PC Engines APU) wird nur die Firewall betrieben. Nicht zuletzt bieten alle namhaften Anbieter von Sicherheitslösungen mittlerweile direkt virtuelle Versionen ihrer Lösungen an.

Vorbereitung

Folgende Software und Hardware wird benötigt:

Fertiges ESXi 5.5 Image für die PC Engines APU herunterladen

Wer sich den ganzen Aufwand für die Installation von VMWare ESXi auf der PC Engines APU ersparen möchte, für den habe ich das im Tutorial entstandene Image nachfolgend zum Download.

Image Konfiguration:

Benutzername:
root

Kennwort:
vmwareesxi

IP-Adresse:
Automatisch via DHCP

-> Download ESXi 5.5 Image für die PC Engines APU – 8GB Image (USB Image Tool-Edition)

Image auf den USB Stick übertragen

Mit dem „USB Image Tool“ kann das heruntergeladene und entpackte Image auf einen beliebigen USB Stick mit mindestens 8GB Kapazität übertragen werden.

Dazu öffnen im geöffneten „USB Image Tool“ den gewünschten USB Stick auswählen und anschliessend auf „Restore“ klicken. Dann das heruntergeladene und entpackte Image auswählen (PCEngines_APU_ESXi_5-5_8GB-SDCARD-UBIT.img), den folgenden Dialog nach genauer Prüfung des Zieldatenträgers bestätigen und schon läuft der Restore.

Sollte eine Warnung betreffend zu geringem Speicherplatz erscheinen, empfiehlt es sich einen grösseren  USB Stick zu verwenden. Nicht jeder USB Stick (auch wenn 8GB Kapazität angegeben wird) hat auch wirklich die angegebene Kapazität :)

 

USB Image Tool

ACHTUNG: Wird der falsche Ziel-Datenträger angeklickt sind die auf dem Datenträger gespeicherten Daten unwiderruflich gelöscht. Daher lieber doppelt überprüfen, ob der richtige Datenträger ausgewählt ist!

Starten der ESXi Plattform auf der APU

Dazu den USB Stick an die APU anstecken, einschalten und falls notwendig die Startreihenfolge im APU-Bios konfigurieren. Damit ESXi automatisch ab USB Stick gestartet wird muss auch der USB1/USB2 als erste Startoption konfiguriert sein:

APU Bootreihenfolge

Ist die Startkonfiguration korrekt, kann ESXi gestartet werden.

Management IP anpassen

Sobald der ESXi gestartet ist, kann in der Konsole mittels F2 die Konfiguration aufgerufen werden. Es empfiehlt sich hierbei, für das Management eine fixe IP Adresse einzutragen.

Wenn die gewünschte Management-IP gesetzt ist, kann auch via vSphere Client zugegriffen werden.

ROOT Kennwort ändern

Der einfachste Weg zum ändern des Root-Kennworts ist die Konsole. Wiederum mittels F2 anmelden und den ersten Punkt „Configure Password“ auswählen. Anschliessend das aktuelle Kennwort (vmwareesxi) sowie das gewünschte neue Kennwort eingeben. Mit OK bestätigen und schon ist das gewünschte Kennwort gesetzt.

Kennwort ändern Kennwort ändern

Weiteres Vorgehen

Die nächsten Schritte sind natürlich das einrichten eines Datastores (entweder eine lokale mSATA Festplatte oder ein NFS Laufwerk), die korrekte Konfiguration des Log-Verzeichnisses sowie das definitive konfigurieren der Netzwerkkarten.

Wie diese Schritte funktionieren ist am besten der ausführlichen Dokumentation auf der VMWare Seite zu entnehmen.

Viel Spass

Die ESXi Plattform ist einsatzbereit. Auch wenn die APU sicherlich nicht mit enormer Leistung punkten kann, so eröffnet die Möglichkeit der Virtualisierung doch viele weitere Einsatzmöglichkeiten. Gerade für Firewalls oder Serveranwendungen im Home und Small-Business Bereich reicht die gebotene Leistung meist bestens aus.

Zudem , ein Virtualisierungsserver welcher gerade einmal maximal 12W Strom verbraucht, muss sich nicht verstecken und ist für den einen oder anderen Interessierten genau das richtige Gadget, um im Dauerbetrieb genutzt zu werden.

 

Betrieb des Images nur auf der APU1c4

Für den Betrieb des Images empfiehlt sich die 4GB RAM Variante der APU zu verwenden. Bei der 2GB RAM Variante startet das von mir zur Verfügung gestellte Image nicht einwandfrei.

 

**Nachtrag vom 10. Juni 2014**

Danke an Holger Bauer für die Erstellung und das zur Verfügung stellen eines neuen Images mit „USB Image Tool“. Dieses Image sollte nun sowohl auf USB Stick wie auch auf SD-Karten mit mindestens 8GB Speicherkapazität funktionieren. Das Image steht ab sofort zum Download bereit und die Anleitung wurde entsprechend überarbeitet.

Der bekannte Fehler „No Hypervisor found“ sollte somit der Vergangenheit angehören.

 

Sollte das wiederherstellen fehlschlagen empfiehlt es sich mittels Diskpart vorgängig den Zieldatenträger zu löschen.


VMWare ESXi auf Alix Nachfolger APU1c und APU1c4 installieren

Die neue Version der Alix (APU1c und APU1c4) verfügt nebst schnelleren Netzwerkanschlüssen nun auch über einen AMD G series T40E Prozessor, welcher die gängigen Virtualisierungen (beispielsweise VMWare ESXi oder Proxmox) unterstützt. Der Betrieb einer Virtualisierungslösung ermöglicht zudem die Installation beliebiger Betriebssysteme / Firewall-Lösungen und ist flexibler in der Verwaltung.

Benötigte Software / Hardware

Image mit VMWare Workstation erstellen

Für die Erstellung des ESXi Images verwende ich in diesem Tutorial VMWare Workstation. Natürlich kann auch VirtualBox verwendet werden :)

Konfiguration der virtuellen Maschine

Einstellungen der virtuellen Maschine3

VMWare ESXi installieren

Die virtuelle Maschine benötigt keine Festplatte, da die Installation auf einen USB Stick erfolgt. Beim Startne der virtuellen Maschine muss nun noch der USB Stick verbunden werden:

USB Stick verbinden

Wenn der USB Stick korrekt verbunden ist erscheint ein grüner Punkt auf dem Icon:

USB Stick ist verbunden

Anschliessend kann die ESXi Installation gestartet werden:

ESXi Installation starten ESXi Installation starten

ESXi Installation starten ESXi Installation starten

Ist der USB Stick korrekt angeschlossen steht dieser entsprechend zur Auswahl:

Disk Auswahl

Da wir eine neue Installation vornehmen wählen wir entsprechend „(X) Install“ aus:

Install auswählen

Anschliessend Tastaturlayout und Kennwort eintragen:

Gewünschtes Tastaturlayout wählen Gewünschtes Kennwort eingeben

 

Nun kann die Installation gestartet werden:

Installation starten Installation läuft

Installation abgeschlossenNeustart

ESXi starten

VMWare Workstation kann nicht direkt ab einem USB Stick starten. Um dieses Manko zu umgehen kommt der „Plop Boot Manager“ zum Einsatz. Dazu wird die virtuelle Maschine ab dem plpbt.iso gestartet. Im Auswahlmenü kann nun USB ausgewählt werden und die virtuelle Maschine startet ab dem zuvor verbundenen USB Stick.

Ab USB Stick starten

Nach dem Start und der entsprechenden Konfiguration der IP Adresse (Management Interface) kann via vSphere Client auf den ESXi zugegriffen werden.

Realtek Treiber installieren

Damit die Netzwerkkarten der PC Engines APU funktionieren müssen zuerst die entsprechenden Treiber installiert werden.

SSH und ESXi Shell aktivieren

Dazu auf der ESXi Konsole anmelden und in den Einstellungen unter „Troubleshooting Mode Options“ sowohl ESXi Shell als auch SSH aktivieren:

SSH und ESXi Shell aktivieren

Treiber Pakete auf ESXi übertragen

Mittels WinSCP lassen sich die Treiberdateien auf den ESXi übertragen:

WinSCP VIB Dateien kopieren

 

Die Treiber liegen also im Verzeichnis /vib-pakete/

Installieren der VIB Dateien

Mittels Putty eine SSH Verbindung zum ESXi aufbauen:

SSH Verbindung aufbauen ESXi Shell

Anschliessend muss der Software Acceptance Level auf CommunitySupported umgestellt werden, ansonsten können die Netzwerktreiber nicht installiert werden.

~ # esxcli software acceptance set --level=CommunitySupported

Nun können die Treiber mit folgenden Befehlen installiert werden:

 ~ # esxcli software vib install -v /vib-pakete/VMware_bootbank_net-r8168_8.013.00-3vmw.510.0.0.799733.vib
 ~ # esxcli software vib install -v /vib-pakete/VMware_bootbank_net-r8169_6.011.00-2vmw.510.0.0.799733.vib

Ab dem nächsten Neustart werden die in der PC Engines verbauten Netzwerkkarten zur Verfügung stehen.

ESXi Konsole auf seriellen Port umleiten

Da die PC Engines APU keine Grafikkarte besitzt muss der gesamte Konsolen-Output auf den seriellen Port umgeleitet werden.  Dazu sind folgende Schritte notwendig

  1. Stellen Sie vom vSphere-Client aus eine Verbindung mit vCenter Server her und wählen Sie den Host in der Bestandsliste aus
  2. Klicken Sie auf die Registerkarte Konfiguration
  3. Klicken Sie unter „Software“ auf Erweiterte Einstellungen
  4. Erweitern Sie im linken Bereich die VMkernel-Liste und wählen Sie Starten
  5. Stellen Sie sicher, das die Felder VMkernel.Boot.logPort und VMkernel.Boot.gdbPort nicht für die Verwendung des COM-Ports eingestellt sind, an die Sie die direkte Konsole umleiten möchten
  6. Legen Sie VMkernel.Boot.tty2Port auf den seriellen Port fest, an die Sie die direkte Konsole umleiten möchten: com1
  7. Klicken Sie auf OK

VMkernel.Boot.tty2Port

Weitere Details dazu finden sich im VMWare Dokumentationscenter.

Die virtuelle Maschine kann nun heruntergefahren werden. Alle für den Betrieb auf der PC Engines APU notwendigen Anpassungen sind gemacht.

PC Engines APU vorbereiten

Damit der ESXi auf der PC Engines APU automatisch korrekt startet muss zuerst das BIOS auf den neusten Stand gebracht werden. Die Anleitung dazu findet sich auf der PC Engines Webseite unter TinyCore.

Anschliessend muss die APU so konfiguriert werden, dass direkt ab USB Stick gestartet wird. Dazu beim Start der APU auf der Konsole mittels F12 -> 3. Payload [setup] die Startreihenfolge wie folgt anpassen:

APU Bootreihenfolge

Nun kann der ESXi Boot-Stick an die APU angeschlossen werden.

ESXi auf PC Engines APU starten

Wird die APU nun gestartet, wird der gesamte Startvorgang und anschliessend die ESXi Konsole über den seriellen Port ausgegeben.

Der Startvorgang kann durchaus ein paar Minuten in Anspruch nehmen…

ESXi Boot auf APU ESXi Boot auf APU

Design-Technisch nicht das schönste, aber normalerweise sieht man die ESXi Konsole genau einmal – bei der initialen Konfiguration des Management Netzwerks.

ESXi Konsole ESXi Konsole

Alles weitere erfolgt mittels vSphere Client:

Zugriff mit vSphere Client Zugriff mit vSphere Client

Zugriff mit vSphere Client Zugriff mit vSphere Client

 

Wie ESXi konfiguriert und der vSphere Client bedient wird, ist nicht teil dieses Beitrages. Alles notwendige wird jedoch ausführlich im Dokumentationscenter von VMWare beschreiben.

Viel Spass!

Dank dem Einsatz von Virtualisierung – erst noch kostenlos – eröffnen sich einige neu Anwendungsmöglichkeiten für die neuen PC Engines APU’s. Viel Spass beim ausprobieren, testen und einsetzen.


Proxmox Virtual Environment

Der Hype rund um Virtualisierung von Systemen zur besseren Ausnutzung der Hardware oder einfacheren Verwaltung mehrerer Systeme hält nach wie vor an! Neben den bekanntesten Vertreter in dieser Welt (VMWare, Citrix XenServer oder Microsoft Hyper-V) gibt es eine ganze Reihe von Anbietern welche nischenprodukte zur Teil- oder Vollvirtualisierung anbieten. Auf der Suche nach einem Leistungsfähigen System welches wenig Systemressourcen für die Eigenverwaltung benötigt und von Vorteil noch kostenlos ist bin ich auf die Lösung von Proxmox Virtual Environment gestossen.


Die Software basiert komplett auf frei verfügbaren Komponenten und bietet einige äusserst interessante Funktionen welche normalerweise nur bei kostenpflichtigen Lösungen zur Verfügung stehen.

Dazu zähle ich:

  • Sichern der virtuellen Maschine im Betrieb
  • Einfaches online verwalten mehrere Server (Cluster Betrieb)
  • Verschieben der virtuellen Maschinen im Betrieb (Cluster Betrieb)
  • Breiter Support unterstützter Guest-Systeme ohne Installation zusätzlicher Software

Verwaltung / Web-Interface

Proxmox lässt sich komplett per Browser verwalten. Das Webinterface ist einfach gehalten, beinhaltet jedoch alle für den Betrieb notwendigen Informationen.

Proxmox unterstützt sowohl OpenVZ Virtualisierung wie auch KVM Virtualisierung. Auf meinem Server verwende ich primär die KVM Virtualisierung da diese mehr Betriebssysteme unterstützt.

Die Angaben in der VM Übersicht zeigen jeweils den effektiven RAM Verbrauch der jeweiligen VM. Die angezeigte Disk-Kapazität entspricht nur bedingt (je nach Typ der VM) der Realität. Proxmox unterstützt als Disk-Format das sogenannte qcow2 welches ein „wachsendes“ Disk Medium generiert. Genau genommen verbrauchen alle VMs zusammengezählt mehr Festplattenspeicher als der physische Server zur Verfügung stellt. Dies jedoch nur wenn alle VMs den zur Verfügung gestellten Disk Speicherplatz vollumfänglich ausnutzen was unwahrscheinlich ist. Trotzdem sollte man mit der Overallocation von Speicherplatz sorfgfälltig umgehen und stehts die Auslastung des Datenvolumes im Auge behalten.

VNC als Konsole / QEMU

Für die Konsole verwendet Proxmox eine vollständig integrierte VNC Installation. Dadurch wird auf dem jeweiligen Client lediglich eine installierte Java JRE vorausgesetzt. Die Bediengeschwindigkeit ist sehr flüssig und bei angemessener Netzwerkbandbreite lassen sich problemlos mehrere VM-Konsolen gleichzeitig bearbeiten.

Verwendet man die KVM / QEMU Virtualisierung hat man direkt aus dem Webinterface heraus die Möglichkeit direkt auf den QEMU Monitor (Task) der jeweiligen VM zuzugreifen. Dies sollten jedoch nur Anwender tun, welche etwas von QEMU verstehen da sich falsche Eingaben fatal auf die jeweilige VM auswirken können.

Fazit

Nach diversen Tests verschiedener Virtualisierungslösungen auf meinem Server habe ich mich für den künftigen Einsatz von Proxmox entschieden. Dies aus den unten genannten Gründen.

  • Durchschaubare Technologie / schnelle Installation
  • Unkomplizierte Konfiguration
  • Memory sharing / Disk overallocation
  • Backup / Recovery
  • Breites Spektrum an unterstützten Storage Systeme

In meinen Test (und teilweise auch Produktiv-) Umgebungen habe ich auch Citrix Xenserver (zu kompliziert, nicht für Standalone-Virtualisierung angedacht), Microsoft Hyper-V (Nicht kostenfrei, proprietäre Technologie und mittelmässiger Support fremder Betriebssysteme) sowie VMWare ESXi (unbrauchbares Backup-Konzept, Nur mit kostenpflichtigem Zusatz sinnvoll verwaltbar) eingesetzt. Keines der genannten Systeme bot mir jedoch die Einfachheit und Leistungsfähigkeit wie Proxmox.

Ich bin gespannt was die nächste Version von Proxmox bringen wird. Glaubt man der Roadmap dürften noch einige interessante Zusatzfunktionen auf uns zukommen.

Mehr Informationen

Sind auf dem Wiki von Proxmox zu finden –> http://pve.proxmox.com


Microsoft Hyper-V kostenlos!

Am heutigen Montag kündigt das Unternehmen die Verfügbarkeit von zwei neuen Produkten innerhalb der nächsten 30 Tage an: Der System Center Virtual Machine Manager 2008 soll Microsofts Management-Werkzeuge ergänzen. Er verwaltet außer den hauseigenen Lösungen zur Virtualisierung Hyper-V und Virtual Server laut Microsoft auch „VMwares Virtual Infrastructure 3“.

Das zweite neue Produkt heißt „Hyper-V-Server 2008“. Dabei dürfte es sich um eine abgespeckte Version des Windows Server 2008 handeln, der auf die Rolle des Hypervisors reduziert ist; genaue Details sind noch offen. Diesen Server will Microsoft kostenlos zum Download bereitstellen. Das Unternehmen bewirbt ihn damit, dass sich damit Windows- und Linux-Workloads auf einem Server konsolidieren ließen. Für den Einsatz beliebiger Linux-Versionen liefern die Redmonder aber immer noch keine Integration Components für die endgültige Version von Hyper-V, die beliebige Linux-Gastsysteme an den Hyper-V-Betrieb anpassen würde; lediglich eine Vorabversion für ausgewählte Distributionen hatte es als Beta-Version gegeben.

Solange Microsoft mit Hyper-V nicht dieselbe Linux Unterstützung bietet wie VMWare mit VMWare Server oder ESX/ESXi werden meine VMs weiterhin mit VMWare betrieben.

Mehr Informationen:

>> Microsoft Virtualization

>> VMware VIrtualization

(via Heise.de)