VMware Remote Console [VMRC]

Wenn man mit dem ESXi Virtualiesierungssystem arbeitet gibt es immer ein Problem. Will man nur schnell eine laufende VM verwenden um etwas nachzusehen oder zu testen benötigt man immer den vSphere Client um die Konsole zu öffnen.
Um diesen Umstand zu beseitigen braucht man nur im Internet etwas suchen und man erhält die Aufrufparameter für die VMware Remote Console (vmrc).
Dort wird dann beschrieben wie man einen Link erstellt unter Windows mit den passenden Parametern.

Das sieht dann ungefähr so aus:
„… erstellen Sie eine neue Verknüpfung zur vmware-vmrc.exe auf dem Desktop mit dem Kontextmenü …“
„… bearbeiten Sie das Ziel der Verknüpfung und fügen die folgenden Parameter hinzu:“

Resultat
Link mit Ziel:
„C:\Program Files (x86)\Common Files\VMware\VMware VMRC Plug-in\Internet Explorer\vmware-vmrc.exe“ -h <ESX-IP> -u <user> -p <password> „[DATASTORE] /VMxy/VMxy.vmx“

Nun wenn man nur 1 oder 2 VMs auf dem ESX-System hat mag das ja noch praktikabel sein. Bei 5 oder mehr sollte man jedoch daran denken die zu automatisieren.
Mit Hilfe der VMware vSphere PowerCLI geht das wunderbar.
Das folgende Script muss innerhalb der PowerCLI ausgeführt werden, es meldet sich beim ESX an und erstellt dann für jede VM einen solchen Link auf dem Desktop des angemeldeten Benutzers, abschließend trennt es die Verbindung wieder.


$WshShell = New-Object -comObject WScript.Shell

$esxhost = "10.10.47.11"
$esxuser = "your user"
$esxpass = "user password"
$vmrcpath = "%programfiles%\Common Files\VMware\VMware VMRC Plug-in\Internet Explorer\vmware-vmrc.exe"

$server = Connect-VIServer $esxhost -User $esxuser -Password $esxpass

Foreach ($VM in (Get-VM | Sort Name | Get-View)){
$MyDetails = "" | Select-Object VMName,VMXLocation
$MyDetails.VMName = $VM.Name
$MyDetails.VMXLocation = $VM.Config.Files.VmPathName

$Shortcut = $WshShell.CreateShortcut("%userprofile%\desktop\" + $esxuser + "_" + $MyDetails.VMName + ".lnk")
$Shortcut.TargetPath = $vmrcpath
$Shortcut.Arguments = "-h " + $esxhost + " -u " + $esxuser + " -p " + $esxpass + " " + """" + $MyDetails.VMXLocation + """"
$Shortcut.Save()
}

Disconnect-VIServer -Server $server -Force -Confirm:$false

Auf eines muss ich noch hinweisen: Bitte verwendet nicht den root zugang für dieses Script!! Der Benutzer und das Passwort sind bei diesen Links klartextparameter. Richtet also vorher ein Benutzerkonto auf dem ESX ein.

VMLinks Script [Download]

Update: Um die VMRC ohne die Fehlermeldung „VMWare Player ist nicht korrekt installiert. Bitte Installieren Sie diesen neu.“ verwenden zu können, muss der vSphere Client mit der Version 5.0.0-623373 installiert sein. Ist nur die Version 5.1.x installiert funktioniert es nicht.

Protokollanalyse mit Linux (Teil1)

Dies ist eine Schritt für Schritt Anleitung zum Einrichten von Linux zur Analyse des Netzwerkverkehrs zwischen verschiedenen Komponenten.

Eine Analyse des Netzwerkverkehrs kann dazu eingesetzt werden Fehler in der Kommunikation von Komponenten (Soft- sowie Hardware) aufzudecken und zu beseitigen. Einer anderen Anwendung soll dieses Beispiel nicht dienen!

Testumgebung

  • Laptop mit Linux (Debian 6.0.6)
  • USB-Ethernet Adapter (Apple)
  • USB-WLAN Adapter (Realtek 8187)
  • DHCP-Server
  • Aircrack-NG Suite
  • Wirshark

Ich gehe davon aus das Debian 6 (Squeeze) bereits auf dem Laptop installiert ist und man sich in einem Terminal unter GNOME / KDE / etc. befindet.

WICHTIG!
Für diese Anleitung ist es Erforderlich das die Schritte als ROOT ausgeführt werden.
Es sollte daher mit Bedacht vorgegangen werden, da der Spruch „Ich bin root, ich darf das!“ nicht von ungefähr kommt.
Daher hafte ich für keinerlei Schäden die ihr dem System zufügt.
Wenn ihr ganz sicher gehen wollt macht das in einer VM in die ihr die USB-Adapter durchreicht.

Schritt 1: Installation der benötigten Pakete

apt-get install build-essential curl libssl-dev libsqlite3-dev
apt-get install iw wireless-tools wireshark bridge-utils isc-dhcp-server

Schritt 2: Herunterladen des aktuellen Aircrack-NG Suite Quellcodes

wget http://download.aircrack-ng.org/aircrack-ng-1.1.tar.gz

Schritt 3: Entpacken und patchen des Quellcodes

Entpacken

tar –zxvf aircrack-ng-1.1.tar.gz

Patchen

cd aircrack-ng-1.1
nano common.mak

Aus der Zeile „CFLAGS ?= -g -W -Wall -Werror -03“ das „-Werror“ entfernen da sich sonst Aircrack nicht kompilieren lässt.

Schritt 4: Kompilieren und installieren der Aircrack-NG Suite

Kompilieren

make sqlite=true

Installieren

make sqlite=true install

Schritt 5: Update der OUI-Datei

airodump-ng-oui-update

Schritt 6: Monitor Modus von wlan1 starten

airmon-ng start wlan1

Schritt 7: Einen WLAN-Accesspoint mit airbase starten

airbase-ng -e FreeWifi -c 11 mon0 &

Schritt 8: Einrichten der Schnittstellen

ifconfig at0 up
ifconfig eth1 up

Einrichten der Netzwerkbrücke

brctl addbr wifibr0
brctl addif wifibr0 at0
brctl addif wifibr0 eth1
ifconfig wifibr0 10.0.0.254 netmask 255.255.255.0
ifconfig wifibr0 up

Schritt 9: Routing und IP_FORWARDING einrichten

echo „1“ > /proc/sys/net/ipv4/ip_forward
route add net 10.0.0.0 netmask 255.255.255.0 gw 10.0.0.254
iptables –flush
iptables –table nat –flush
iptables –delete-chain
iptables –table nat –delete-chain
iptables -P FORWARD ACCEPT
iptables -t nat -A POSTROUTING -o eth0 -j MASQERADE

Schritt 10: DHCP Server einrichten und starten

Bindung des DHCP-Servers an die Netzwerkbrücke

nano /etc/default/isc-dhcp-server

Als INTERFACES wifibr0 eintragen. (INTERFACES=“wifibr0″)

DHCP Einstellungen bearbeiten

nano /etc/dhcp/dhcpd.conf

ddns-update-style ad-hoc;
default-lease-time 600;
max-lease-time 7200;
authoritive;

subnet 10.0.0.0 netmask 255.255.255.0 {
    range 10.0.0.10 10.0.0.30;
    option netmask 255.255.255.0;
    option routers 10.0.0.254;
    option broadcast-address 10.0.0.255;
    option domain-name-servers 8.8.8.8;
}

DHCP Server starten

/etc/init.d/isc-dhcp-server restart

Schritt 11: Start der Analyse mit Wireshark

wireshark -i wifibr0 –k &

NFS Speicher in VMware ESXi einbinden

In meinem letzten Artikel ging es um das Einrichten eines NFS Servers.
Dieser findet nun Verwendung in einer VMware ESXi Umgebung.

Wie man die NFS Freigabe dort einbindet zeigt folgendes Video:
[YouTube-Link]:NFS Freigabe in VMware ESXi einbinden Achtung! Fullscreen

Wenn dieser Datenspeicher mehreren ESX-Servern, die zu einem HA-Cluster zusammengeschlossen sind, zur Verfügung steht hat man die Möglichkeit der Migration von Virtuellen Maschinen innerhalb des Clusters. Die Migration einer VM kann während des betriebs durchgeführt werden und der Nutzer bemerkt höchstens ein zucken, falls er Remote darauf zugreift.

ESXi Network connection with 65535Mbps [solved]

During the last days I had the problem on my ESXi Server that it was not reachable.

The Server itself and the VMs were running fine. So it was no crash or something like that. After I took a closer look at the problem with the support console, I noticed that my management network connection had some weird values.

Link: Up <- with the cable disconnected?

Linkspeed: 65535Mbs <- Hmm, cool in an Gigabit network

Duplex: Half

The first thing I tried was to restart my management network via the menu but this time it doesn’t helped. So I tried my luck in the support console by typing esxcfg-nics -a vmnic0.

The result was that my Server was reachable again and the values of the network connection were back to normal.

To automate this action I wrote a little Python Script which detects these abnormal values and resets them to normal by executing esxcfg-nics –a <interface>.

All I had to do is to place the script on the ESXi Server in a directory which is not deleted or overwritten if the server gets restarted and to add it as a cronjob which is executed every 30minutes.

In my case I placed the Script on the VMFS-Data storage.

The only thing which is left to do is to save the cronjobs so that they were persistent even if I reboot the Server. But I didn’t figured this out how to do it.

The Script is available here to Download: nic_check.py

ESXi Netzwerkverbindung mit 65535Mbps [gelöst]

Bei meinem ESXi Server hatte ich das Problem das er nach ein paar Tagen nicht mehr erreichbar war.

Der Server selbst und die VMs waren aber nicht betroffen. Kein Absturz oder sowas.

Als ich mit der Support Konsole mir das Problem näher angesehn habe, musste ich feststellen dass mein Netzwerkadapter für das Management etwas komische Werte hatte.

Link: Up <- auch bei abgezogenen Netzwerkkabel ?

Linkspeed: 65535Mbs <- bei einem Gigabit Netzwerk ?

Duplex: Half

Da ein neustart des Management Netzwerks nichts gebracht hat versuchte ich mein Glück mit esxcfg-nics -a vmnic0.

Das resultat war das die werte wieder korrekt waren und der Server wieder mit dem vSphere Client erreichbar war.

Damit ich nicht immer zum Server hinrennen muss hab ich ein kleines Python Script geschrieben das dass Management Netzwerk automatisch wieder zurechtrückt.

Das Script: nic_check.py
Viel Spaß

ESXi 4.0 Disaster recovery

Einer der Schlimmsten Fälle ist wenn das Virtualisierte Produktivsystem einem im stich lässt.

Hier der Problemfall:

Aufgrund eines Systemfehlers wird der Datastorage auf dem die virtuellen Maschinen liegen nicht mehr erkannt und im vSphere Client wird dieser beim versuch ihn hinzuzufügen als leer dargestellt.

Lösungsansatz:

Da die Partition (Datastorage) mit den virtuellen Maschinen ein für Windows unbekanntes Dateisystem (vmfs) ist, entfällt die Möglichkeit die Daten über diesen Weg zu sichern.

Für Linux ist das VMFS-Dateisystem zwar auch nicht von haus aus lesbar, aber es gibt die so genannten vmfs-tools bei einigen Distributionen direkt im Repository um genau dies zu ermöglichen.

Für die Rettung der Maschinen empfehle ich die Debian 6 Distribution, da diese ausreichend getestete und stabile Pakete im Repository hat.

Nun aber auf zur Rettung der VMs:

  • ESXi System herunterfahren (sofern nicht schon geschen)
  • Eine zusätzliche Festplatte in das System einbauen

Die Festplatte sollte groß genug sein um die virtuellen Maschinen aufzunehmen!

  • Debian 6 mit SSH aber ohne Desktop auf der neuen Festplatte installieren
  • Als root anmelden und die vmfs-tools installieren. (apt-get install vmfs-tools)
  • Mit fdisk -l sich die Partitionen anzeigen lassen
    • Beispiel: VMFS Partition ist /dev/sda3
  • Mounten der VMFS Partition mit vmfs-fuse
    • zuerst modprobe fuse ausführen
    • Mountpoint in /media erstellen
    • Partition mounten
      vmfs-fuse /dev/sda3 /media/<mountpoint>

Wenn die Partition erfolgreich eingebunden wurde kann man jetzt die virtuellen Maschinen einfach auf die Linuxpartition kopieren.

Um die so gesicherten VMs direkt auf einen neuen ESXi Server (4.1) zu kopieren, aktiviert dessen SSH zugriff in den Troubleshoot Options.

Kopiert jetzt die gesicherten VMs mit Hilfe von scp auf den neuen ESXi.
scp -r <VM_directory> root@<your_ESXi_Server_IP>:/vmfs/volumes/<DataStorageName>

Im nächsten Schritt muss man die so auf den ESXi kopierten VMs mit Hilfe des vSphere Clients einbinden um diese starten zu können.

  1. Starten Sie den vSphere Client und melden sich am ESXi als root an
  2. Öffnen Sie in der Übersicht der Bestandsliste das Kontextmenü des Datenspeichers auf den Sie die VMs kopiert haben und wählen Sie den Punkt „Datenspeicher durchsuchen…“ aus.
  3. Navigieren Sie nun zu einer der kopierten VMs und öffnen den Ordner
  4. Öffnen Sie das Kontextmenü der .vmx Datei und wählen den Punkt „Zur Bestandsliste hinzufügen“ aus

ESXi 4: SSH und SNMP

SSH

Um beim VMWare ESXi 4 Server die SSH Konsole zu aktivieren gehen Sie wie folg vor:

  • Drücken Sie in der Konsole [ALT]+[F1]
  • Geben Sie unsupported ein und drücken Sie [ENTER]
  • Geben Sie das Passwort des Benutzers „root“ ein um sich einzuloggen
  • Wechseln Sie in das Verzeichnis /etc und öffnen Sie mit „vi inetd.conf“ die Konfigurationsdatei für den Start der Dienste.
  • Scrollen Sie nach unten bis Sie einen Eintrag finden der mit #SSH beginnt und löschen das führende „#“ mit drücken der [ENTF]-Taste.
  • Um die Datei abzuspeichern Drücken Sie zunächst [ESC] und geben dann „:wq“ ein. Bestätigen Sie die Eingabe mit [ENTER] und die Datei wird gespeichert.

Um den SSH Zugang zu aktivieren muss der INETD-Superserver neu gestartet werden. Dazu können Sie den ESXi entweder neu Starten oder den inetd Daemon selbst neu starten um eventuell laufende VMs nicht beenden zu müssen. Gehen Sie dazu wie folgt vor:

  • Geben Sie in der Konsole „ps | grep inetd“ ein

Die Ausgabe sollte folgendermaßen aussehen:
"4864 4864 busybox inetd" (Die Ziffern können abweichen)

  • Geben Sie jetzt in der Konsole „kill 4864“ ein um den Daemon „abzuwürgen“
  • Um den Daemon neu zu starten geben Sie einfach „inetd“ ein

SNMP

Um SNMP zu aktivieren wechseln Sie zunächst in das Verzeichnis /etc/vmware und öffnen die Datei „snmp.xml“ mit Hilfe des „vi„.

Die Datei sollte „unkonfiguriert“ wie folgt aussehen:

<config><snmpSettings><enable>false</enable><communities></communities><targets></targets></snmpSettings></config>

Ersetzen Sie „false“ gegen „true“ und tragen sie direkt hinter <communities> "public" ein.

Jetzt sollte die Datei wie folgt aussehen:

<config><snmpSettings><enable>true</enable><communities>public</communities><targets></targets></snmpSettings></config>

Zum Schluss müssen die Dienste neu gestartet werden, um dies zu erreichen geben Sie „services.sh restart“ in der Konsole ein.