Schlagwort: kvm (Seite 3 von 5)

Proxmox VE 2.x: Problem mit Windows 7 x64 und SATA

Mir ist nun schon auf zwei unterschiedlichen PVE-Hosts folgendes begegnet:

Es wird eine neue virtuelle Maschine mit Windows 7 Professional x64 inkl. SP1 mit SATA als Festplattenschnittstelle installiert. Nach erfolgreicher Installation wurden Microsoft Updates installiert. Nach dem Neustart bootet Windows nicht mehr bzw. bootet direkt in die Systemstartreparatur.

Weiterlesen

Proxmox VE 2.x – USB-Weiterleitung

An virtuelle Maschinen, die auf dem Hypervisor kvm laufen, können USB-Anschlüsse bzw. USB-Geräte weitergeleitet werden.

Dies ist auch mit wenigen Handgriffen bei Proxmox VE der Fall. Anbei die notwendigen Schritte für die aktuelle Version 2.x um einen USB-Anschluss weiterzuleiten.

Weiterlesen

ArchivistaVM: PXE-Boot

Vor einer Weile hatte ich mal versucht, ArchivistaVM via PXE zu booten. Der Beweggrund war zum einen reine Neugierde, ob es denn funktioniert und zum anderen der Gedanke, das man auf diese Art und Weise ohne zu den Servern laufen zu müssen, die neueste Version verteilen könnte.

Zwischenzeitlich hat Urs Pfister von Archivista sich der Sache angenommen und ca. 20 Stunden Arbeit investiert, um PXE-Boot zu ermöglichen.

Eine Kurzanleitung für (Debian-)Linux findet sich im Forum. In diesem Artikel wird der Weg unter Windows mit Hilfe von Tftpd32 beschrieben.

Weiterlesen

ArchivistaVM: Aufbau eines Zwei-Knoten-Clusters

Anbei ein paar Notizen zum Aufbau eines Zwei-Knoten-Clusters unter ArchivistaVM. Die Informationen stammen zum Teil aus einem Vortragsskript, aus dem Forum und eigenen Tests.

Weiterlesen

ArchivistaVM: Screenshot zu noVNC

So sieht die noVNC-Integration in ArchivistaVM aus:

Spannend nicht wahr? 😉 Die Konsole öffnet wesentlich schneller als früher, klar, es muss ja kein Java zuvor geladen werden. Performance ist ok. Generell habe ich das Gefühl, das man über die WebGUI und nun auch mit noVNC wesentlich zügiger arbeiten kann als es z.B. beim vSphere Client von VMware oder dem Hyper-V Manager von Microsoft der Fall ist. Es entfallen schlicht die relativ langen Ladezeiten der jeweiligen Clients.

ArchivistaVM – Jetzt auch mit ohne GUI

ArchivistaVM gibt es jetzt ganz neu auch ohne GUI, d.h. ohne lokale grafische Oberfläche. Das spart nochmal ein paar MB ein und so schrumpft die Größe der ISO-Datei auf 71,1 MB. Dennoch sind alle Features vorhanden und auch bei der Ersteinrichtung ändert sich nichts.

Weiterlesen

KW37/2012 – Eine Woche voller Virtualisierung

Da war die Woche ja einiges los in Sachen Virtualisierung. Die für mich persönlich wichtigsten Anbieter haben neue Versionen mit neuen Funktionen und neuer Lizenzierung veröffentlicht.

Weiterlesen

Virtualisierung: Intel VT-d und AMD Vi (IOMMU)

Bei Intel VT-d und AMD Vi (IOMMU) handelt es sich um Technologien, um PCI-Geräte an virtuelle Maschinen weiterreichen zu können. Um diese Option erfolgreich nutzen zu können, muss hardware- wie softwareseitig die Funktionalität vorhanden und unterstützt werden.

Bislang scheinen VMware ESXi, KVM und Xen diese Technik zu beherrschen. Seitens Microsoft gilt für Hyper-V sogar die best-practice, die Funktionen im BIOS des Servers zu deaktivieren.

Anbei ein paar Informationen zu dem Thema in Bezug auf den jeweiligen Hypervisor:

KVM: http://www.linux-kvm.org/page/How_to_assign_devices_with_VT-d_in_KVM

Microsoft Hyper-V: http://www.windowsitpro.com/article/server-virtualization/windows-server-2008-r2-hyperv-intel-vtd-hardware-features-139493

VMware ESXi: http://www.thomas-krenn.com/de/wiki/VMware_VMDirectPath_zum_Durchreichen_von_PCI_Karten

Xen: http://wiki.xensource.com/xenwiki/VTdHowTo

Persönliche Anmerkung:

Ob solche Techniken einen Sinn ergeben oder nicht, ist Bestandteil vieler Diskussionen. Ich selbst konnte diese Möglichkeiten noch nicht testen.

Proxmox VE 2.1 veröffentlicht

Für die Virtualisierungslösung Proxmox VE wurde gestern die Version 2.1 veröffentlicht. Neben Fehlerbehebung und Optimierung zog als neues Feature die Konfigurationsmöglichkeit ein, virtuelle Maschinen mit dem Host-System starten und herunterfahren zu lassen. Die Startreihenfolge lässt sich frei einstellen.

Offizielle Meldung

Virtual Machine Startup and Shutdown Behavior

Proxmox VE 2.0: Two-Node Cluster mit DRBD – DRBD-Utils aktualisieren

Bei Proxmox VE 2.0 (und anderen Lösungen) besteht die Möglichkeit, auf ein externes shared storage für den HA-Cluster zu verzichten, wenn zwischen zwei Nodes ein Netzwerk-RAID1 mit DRBD hergestellt wird.

Weiterlesen

Proxmox VE 2.0 Final veröffentlicht

Die finale Version von Proxmox VE 2.0 wurde gestern veröffentlicht. Die offizielle Meldung mit vielen Links zu Dokumentation, Video uvm. findet sich hier.

Neben einer neuen Oberfläche gegenüber der Version 1.x wurde ein neues Cluster-Konzept und viele weitere Änderungen eingeführt.

« Ältere Beiträge Neuere Beiträge »

© 2026 Andy's Blog

Theme von Anders NorénHoch ↑