Auch in diesem Winter gab es einiges Computer-mäßiges zu tun.
Ich bin zwei Dinge angegangen, die mir schon lange im Hinterkopf brannten.

  1. Die Webseite zu einem besseren (schnelleren) Hoster umziehen
  2. Den Cloud-Server in eine VM migrieren

1. Migration der Webseite

Die Ladezeiten meiner Website waren indiskutabel. Ca. 5 Sekunden bis die Startseite vollständig geladen war. Auch das Arbeiten im Backend war sehr zäh - kein GZIP und HTTP2.

OK, ich nutze Joomla und ein Template, welches auch nicht optimal ist. Aber ich hatte alles eingesetzt, was mit vertretbarem Aufwand zu bewerkstelligen war. Bilder kleingerechnet und Caching und Adaptive Images eingesetzt.
Die Server-Architektur meines Hosters ist veraltet und ist nicht skalierbar.

Also habe ich, basierend auf dem Hoster-Vergleich in der ct, einige angeschaut und mir für dem mir sehr guter Verfügbarkeit und Performance entschieden. Nur bietet er kein DynDNS für Domains.
Somit bin ich mit meiner Cloud-Domain bei dem alten Hoster geblieben und habe nur diese und die AJS & Matchless Website umgezogen.

Durch Akeeba-Backup war der Umzug mit nur 15 Minuten Downtime erledigt. Und der Performance-Unterschied ist gewaltig. Ladezeiten deutlich unter einer Sekunde zeigen eine Beschleunigung um fast den Faktor 10.

Ich bin zufrieden!

Der nächste große Schritt wird die neue Joomla 4 Version mit neuem Template werden. Aber das ist etwas für die nächste Winterbastelei.

2. Der Cloud-Server in der VM

Meine Nextcloud-lief auf einem HPE MicroServer mit Ubuntu Server Installation. Jedes Update, ob Nextcloud oder Ubuntu barg das Risiko des Verlustes der Cloud. Und dies ist mir mehrmals passiert. Gefolgt von einer genervten Session, um die Cloud wieder zum Laufen zu bringen.
Auch meine aktuelle Installation hatte, durch ein schiefgegangenes PHP-Update einige latente Fehlermeldungen und Sicherheitswarnungen.

Die Idee kam auf, die Cloud in einen Container oder eine Virtuelle Maschine umzuziehen. Da die Container-Lösung mir doch etwas fremd war habe ich nach Virtualisierungslösungen geschaut. Zuerst hatte ich mir KVM auf Ubuntu-Server angeschaut. Ein Tipp meines Freundes Jo doch VirtualBox zu benutzen, da die Lernkurve deutlich geringer ist und sich der Erfolg schneller einstellt. Dies bedingt allerdings ein Ubuntu Desktop als Host.

VirtualBox auf WHS2011

Zunächst wollte ich erst mal ausgiebig testen wie es mit der VM funktioniert und möglichst alle Fehler im Vorfeld erkennen und ausräumen. Die bestehende Nextcloud Installation wollte ich nicht gefährden und die Tests unabhängig von dieser machen. Als Zuhause für die Tests diente mein FSC Server mit WHS2011. Dort wurde VirtualBox installiert und eine VM mit Ubuntu Server aufgesetzt. Dann getestet wie der SSH Zugriff darauf funktioniert. Das war alles sehr einfach und bei den ersten versuchen funktionsfähig. Auch wurde testweise der Zugriff von außen in dem Router freigeschaltet und geschaut, ob die VM via DynDNS erreichbar ist, was auch klappte. Der nächste Schritt war eine saubere Nextcloud Installation, wieder auf Basis der Beschreibung von C. Rieger(https://www.c-rieger.de). Als auch dies geschafft war, wurde diese Installation aktiv geschaltet und als Cloud genutzt. Der HPE-Server konnte abgeschaltet werden und die VM auf WHS2011 wurde nun benutzt. Hier musste ich noch die LightsOut Erweiterung abschalten, damit die Cloud immer erreichbar war. Dies war jedoch nur der erste Schritt.

HPE-Server als neuer Host

Als Nächstes sollte der HPE Server ein Ubuntu Desktop bekommen und auf dies Remote im internen Netzwerk zugegriffen werden. Dies erwies sich als die größte Hürde. Ich versuchte es zuerst mit xRDP, da ich für Windows bereits mit RDP arbeite. Die Standard Installation wie auf den Ubuntu Seiten beschrieben funktionierte gar nicht. Erst eine Beschreibung samt Script von einem Belgier (https://c-nergy.be/blog/?p=14093) brachte es zum Laufen. Allerdings war es nicht möglich Admin Reche über die Remote Administration zu haben. Alle Tipps hierzu funktionierten einfach nicht.
Also habe ich nach anderen Lösungen geschaut.X2Go war der nächste Kandidat, der getestet wurde. Die Installation war sehr einfach, zeigte jedoch einen gravierenden Fehler. X2Go über meinen Win10 Desktop-PC funktioniert einwandfrei, aber mein ThinkPad 25 zeigte immer nur einen Ausschnitt des remote Desktops. Beim Versuch diesen auf Vollbild zu schalten oder das Fenster aufzuziehen wurde X2Go kommentarlos beendet. Guacamole von Apache bekam ich als SSH Client zum Laufen, der Aufwand mit einem zusätzlichen Server war mir aber zu aufwendig. Somit investierte ich nicht die Zeit den Remote Desktop-Zugriff umzusetzen. Über die nächsten tage habe ich immer mal wieder nach möglichen Kandidaten oder Lösungen gegoogelt und ich fand eine Lösung für mein Problem mit X2Go. Es hatte mit der Kompatibilitätseinstellung für „Override high DPI scaling behavior“ zu tun.

Die Nextcloud VM zieht um

Als der Remote-Zugriff von Desktop-PC und ThinkPad 25 funktionierte konnte es mit den Tests weitergehen. Ich fertigte einen Export einer Ubuntu-Server VM an und importierte diese auf dem HPE Server. Die Netzwerkkarte wurde richtig umgesetzt, die IP-Adresse ist mitgewandert und SSH Zugriff war möglich. Nun konnte der finale Schritt ausgeführt werden – die aktuelle Nextcloud VM wurde exportiert und auf den HPE Server mit Ubuntu Desktop importiert. Das ganze dauerte keine 2 Stunden (Export- /Import-Zeit), dann war die VM auf dem neuen Server. Der WHS2011 konnte sich nun wieder mit der LightsOut Erweiterung schlafen legen und nur bei Bedarf aus dem lokalen Netz aufwachen.

Vor Updates oder Modifikationen an dem laufenden Nextcloud werden Snapshots erstellt und stellen sicher, dass die Cloud lauffähig bleibt.

Neue Versionen können mit einem Klon getestet und bei Erfolg aktiv geschaltet werden.

Auch können nun weitere Server per VM auf dem HPE Server einziehen. Ideen gibt es schon – z.B. PiHole in einer VM umzusetzen oder für den GPS Tracker einen eigenen Server zu benutzen.