sanXaler/TerraXcaler und S2D Micro-Cluster – Hyperkonvergenz aus Deutschland

Warum sollte man einen oder mehrere klassische Server durch ein hyperkonvergentes System ausstauschen oder sich generell mit dem Thema auseindersetzen wird sich der eine oder andere Frage. Anhand eines Praxisbeispiels gehe ich diesem Thema nach.

Vorwort

Dieser Beitrag wurde bereits im Oktober 2018 begonne. In der Zwischenzeit ist einiges geschehen, von daher sind manche Angaben nicht mehr aktuell. Dennoch soll der (grundsätzliche) Erfahrungswert geteilt werden. Einen aktuelleren Stand findet sich im Update vom 06.06.2019.

Vorgeschichte und der Weg zu Losstech

Bei einem Kunden kämpfen wir bereits seit drei bis vier Jahren mit diversen Schwierigkeiten die Performance der Branchenanwendung betreffend.

Als wir den Kunden übernommen hatten, stand dort ein Server von HP. Im Hyper-V, seinerzeit noch auf Basis von Windows Server 2008 (ohne R2), gab es nur eine virtuelle Maschine der ersten Generation und Windows 7 Home. Ferner bestand das RAID5 aus klassischen Festplatten. Insgesamt war das System immer irgendwie unrund.

Nach den ersten Massnahmen zum Geradeziehen der Umgebung wurden zwei virtuelle Maschinen mit Windows Server 2008 (die Lizenz gibt’s ja her) angelegt. Einmal als Fileserver, die andere als Terminalserver, da die Kundenanfordung darin bestand die klassischen Arbeitsplätze durch ThinClients abzulösen und von unterwegs bzw. dem Homeoffice aus arbeiten zu können. Soweit so gut.

Nachdem allerdings zu diesem Zeitpunkt es mit dem Bestandssystem nicht irgendwie weiterging, kam es zunächst zu einer Teststellung eines unserer Supermicro-Server, der bereits mit SSDs bestückt war. Hier zeigte sich, das die Situation schonmal ein bischen besser war. Zwischenzeitlich sprach man immer wieder mit dem Hersteller der Branchenanwendung, was man in Sachen Performance noch tun könnte. Es folgten viele Telefonate, E-Mails und ein Außendienstmitarbeiter-Besuch des Herstellers. Daraus resultierte dann, das nach Ansicht dieses Mitarbeiters „Domäne Sch… ist, da es alles langsamer macht“.

Ende 2017 fiel dann die Entscheidung ein komplett neues System SSD-only und mit Windows Server 2016 als auch mit ohne Domäne, wegen der zuvor geannten „Empfehlung“ zu machen. Das half wieder ein Stückchen, aber so richtig rund war’s immer noch nicht.

By the way: Die üblichen Verdächtigen an Spaß- äh Performancen-Bremsen wie z.B. Virenscanner wurden vorab bereits ausgeschlossen.

Vor ein paar Monaten dann auf einer Schulung erwähnte ein Kollege (Hallo Olli) den sanXaler von Losstech und seine Erfahrung damit im DATEV-Umfeld. Wer DATEV, vor allen in Steuerberaterkanzleien kennt, der weiß wie lahm das Ganze ist. Die Vorgeschichten ähneln sich: Immer größere schnellere Hardware hingestellt, immer den Hersteller-Empfehlung gefolgt, usw. aber keine wirkliche Verbesserung. Dem sollte ein Ende gesetzt werden.

Klassisch vs. Hyperkonvergent

Klassiche Server funktionieren und erfüllen ihren Zweck. Das steht soweit erstmal außer Frage. Wenn es allerdings klemmt, muss man schauen, was man tun kann. Ein „weiter so“ kann und darf es nicht geben, da es weder dem Kunden noch dem IT-Betreuer hilft!

Was aber ist nun anders?!

IO und Bandbreite ist nicht alles, es kommt schlicht und ergreifend auch auf die Latenz an. Denn was nützt einem eine hohe Bandbreite, wenn die Daten nicht schnell ankommen. Genau das wirkt sich auf die gefühlte sowie reale Geshwindigkeit aus. Sehr gut sehen kann man das beim Wechsel von klassicher mechanischer Festplatte zu SSD. Ähnlich kann es einem dann ebenfalls bei Server-Architekturen ergehen.

Losstech erfindet so gesehen das Rad nicht neu, aber die Kombi macht’s! Es ist aber nicht einfach nur „Blech“ was man bekommt, sondern ein nennen wir’s mal schlüsselfertiges System. Je nach Anspruch und Größenordnung ein bis x Server, bei Single-Node ohne Hochverfügbarkeit, bei zwei oder mehre Knoten dann als Hyper-V-Cluster. Das Ganze nach vorigem Sizing entsprechend vorbereitet inkl. der IP-Adressen passend zum Kunden-Netz.

Als shared storage kommt DataCore oder S2D zum Einsatz. So reichen bereits zwei Knoten aus, um einen Hochverfügbarkeits-Cluster zu bauen. Was die Performance angeht dürfte DataCore mit seiner Parallel IO-Technik da ebenfalls einiges raus reißen gegenüber einfacheren Techniken, da nicht einfach nur Speicherplatz zur Verfügung gestellt wird. Das generelle Thema bei SDS (software-definied storage) und hyperkonvergenz das heiße Daten, also die, die gerade am ehesten/dringensten benötigt werden, von langsameren zu schnelleren Speicher umgeschaufelt wird tut sein übriges.

Nicht ganz von der Stange

Losstech setzt auf Hardware von Supermicro, als Hypervisor kommt Hyper-V auf Basis von Windows Server 2016 zum Einsatz, für das Shared Storage wird bei den größeren Systemen bzw. wenn es um Hochverfügbarkeit, wie bereits erwähnt, auf DataCore gesetzt.

Wer nun meint, das kann man alles selbst einkaufen und zusammenschrauben kann, der hat nur zum Teil recht, denn die eingesetzte Software von DataCore entspricht nicht dem regulären Produkt. Auch an Windows selbst wird in Sachen Tuning und Performance-Verbesserung gedreht.

Letztlich erwirbt man ein Gesamtpaket aus vorkonfigurierten und abgestimmten Komponenten. Das System läuft quasi out-of-the-box, so das man direkt damit anfangen kann seine virtuelle Maschinen zu installieren oder falls schon welche vorhanden sind, diese zu migrieren.

Das Konzept kommt jedem zugute, der nicht ständig Server und schon gar nicht Cluster baut, nicht Tief genug in der Materie drinsteckt oder schlicht keine Zeit hat. Vorallem kleinere IT-Systemhäuser profitieren meiner Meinung nach davon. So kann man sich auf das eigentliche Tagesgeschäft oder die Spezialisierung konzentrieren und muss sich keine Gedanken über die Server-Infrastruktur machen.

Für jeden was dabei

Wer nun keine Hochverfügbarkeit und zudem etwas kompakteres und kleineres sowie leiseres benötigt, der greift zum microXaler. Dieser entspricht in etwa den Maßen von z.B. einem Wortmann Terra Miniserver und reicht laut Herstellerangabe für 20 DATEV-Anwender. Selbst der microXaler kann geclustert werden. Wie immer kommt es auf die Ansprüche darauf an. Soll’s etwas günstiger sein, wird statt DataCore auf Storage Spaces (Direct) gesetzt, dies ist auf jedem Fall beim Single-Node so.

Rund-um-sorglos-Paket

Man bekommt aber nicht einfach nur ein Stück vorkonfigurierte Hardware bzw. Software. Vielmehr bietet der Hersteller während der Laufzeit entsprechenden Support als auch Monitoring an. Man muss sich, salopp ausgedrückt, um nichts kümmern, außer um seine virtuelle Maschinen selbst.

Hyper-V bzw. den Cluster updaten macht Losstech halbjährlich selbst. Dann kommen nur zuvor getestete und freigegebene Updates aller verwendeter Software drauf. Darunter fallen Treiber, Windows Updates als auch Aktualisierungen für DataCore. Monitoring macht Losstech übrigens via Server-Eye.

Testen, testen, testen

14 Tage Teststellung oder nach Absprache auch länger ist grundsätzlich möglich. Ursprünglich sollte es bei uns „nur“ ein microXaler werden. Da dieser aber nicht zur Verfügung stand, erhielten wir einen sanXaler RS4-G2, kurzum eine größere Kiste, wie man im Bild sehen kann.

Kurz erwähnt zur Teststellung sei, das diese in einem Transportcase kommt. Mit dieser Maschine also zwei Server samt Switch, Steckdosenleiste und Schublade, kann man direkt loslegen. Die Cluster-Nodes erhalten per DHCP eine IP, die virtuellen Maschinen für’s Active Directory starten automatisch. Läuft. Selbstverständlich muss man das eine oder andere für den realen Livebetrieb anpassen.

Für die Tests kommt in der Regel Iometer zum Einsatz. Unabhängig davon, sollte selbstverständlich das eigene Szenario auf Herz und Nieren geprüft werden. Idealerweise spürt man bereits bei der Nutzung des Explorers eine Verbesserung. Wie groß die Differenzen ausfallen, hängt natürlich vom Altsystem ab. Beim Kunden waren die Unterschiede bei der allgemeinen Schwuppdizität erstmal nicht allzu groß, richtig spürbar war’s dann allerdings bei der Branchenanwendung.

Nebenbei bemerkt: So schlecht war/ist das Storage beim Kunden übrigens nicht (Aussage von Jonas, einem Techniker bei Losstech). Wir haben also nichts falsch gemacht, aber es geht halt nunmal auch besser.

Kleiner Blick in die nahe Zukunft

Ab 2019 gibt es, dann wohl auf Basis von Intel Mainboards bzw. Barebones, bei Wortmann entsprechende Maschinen und Schulungen. Support und Untersützung kommen nach wie vor von Losstech selbst.

Fazit

Alte Bekannte aber dennoch anders. Auch wenn, zumindest für mich, abgesehen von DataCore lauter geläufige Produkte zum Einsatz kommen, macht’s die Kombi und der Service.

Hyperkonvergenz muss nicht kompliziert sein, das beweisst Losstech mit seinem Produkt. Sofort loslegen zu können, ohne vorab shared storage, cluster services, etc. einrichten zu müssen spart Zeit und ggf. Nerven.

Kurz und knackig: Ein tolles Produkt von einem symphatischen Unternehmen.

Danksagung

Vielen Dank an Olli für den Tipp, das es Losstech gibt. Vielen Dank auch und vorallem an Christian, Jonas, Olaf und alle die jenigen die bevor, während und nach der Teststellung unterstützt haben.

Noch was zum lesen

CRN – Losstech gewinnt German Innovation Award

sanXaler – Auf einen Blick (PDF)

Update 06.06.2019

Wie eingangs erwähnt wurde dieser Beitrag bereits im Oktober 2018 geschrieben. Durch die relativ turbulenten Eregnisse um die Insolvenz der Losstech GmbH und der Übernahme durch WORTMANN bzw. die nue gegründete TerraXaler GmbH (an der Wortmann beteiligt ist) kam es letztlich bislang nicht zu einem Auftrag.

Persönlich hoffe ich, das alle (ehem.) Losstech-Mitarbeiter einen neuen Job gefunden haben, die bisherigen Partner und Kunden weiterbetreut und das Produkt als solches weiterbesteht. Technisch wie auch persönlich überzeugte die Lösung.

In wie weit Wortmann die Produktpalette als Ganzes weiterführt war bislang nicht zu erfahren. Als es seinerzeit hieß, das Wortmann die sanXaler bauen wird war zum einen die Rede davon, das die Intel-Basis gegenüber Supermicro nicht ganz so performant sei und zum anderen wollte Wortmann den microXaler nicht bauen, da man im eigenen Haus Konkurrenz zum Miniserver sah.

Ich für meinen Teil bin der bisherigen Erfahrung nach mit den Miniservern im Vergleich zum Test mit san- bzw. microXaler der Meinung, das es sich bei beiden um unterschiedliche Konzepte und damit auch unterschiedliche Ausrichtungen handelt und damit nicht direkt vergleichbar ist und somit auch keine Konkurrenz darstellt.

Leider kam seitens Wortmann trotz mehrmaliger Nachfragen die letzten Wochen keinerlei Antwort zum Thema sanXaler bzw. nun neben TerraXaler. Schade, dennoch habe ich heute erneut nachgefragt.

Ein möglicher Plan B oder bereits C, wenn auch vmtl. etwas anders bietet Thomas Krenn mit seinen S2D Micro-Cluster an.

Grundsätzlich, gerade wegen unserer kleineren Kunden, würde mich nach wie vor ein Single-Node Hyperconverged System interessieren. Ob es sowas von den genannten Anbietern (wieder) geben wird bleibt offen.

Quellen:

ChannelObserver – Wortmann führt sanXaler-Technologie fort

Update 13.09.2019

Seit 01.09.2019 hat Wortmann den TerraXaler Mini im Angebot:

Wortmann – Terra – Server – TerraXaler

Danke an Oleg für den Hinweis. Anbei noch ein paar Links zum Thema:

terraXaler.de

Offenbar sind weitere Modelle geplant, wie man auf dieser Seite sehen kann:

terraXaler.de – Modelle

Weitere Infos folgen, sobald ich welche bekomme.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.