Anwendungsvirtualisierung mit Appsanywhere

AppsAnywhere ist eine spezialisierte Plattform zur Software-Bereitstellung, die vor allem im Hochschulbereich (Universitäten und Hochschulen) sowie in größeren Unternehmen eingesetzt wird.

Das Hauptziel ist es, Software für Endnutzer so einfach zugänglich zu machen wie Apps in einem App Store, unabhängig vom Endgerät oder Standort.

1. Das „App Store“-Erlebnis

AppsAnywhere bietet ein webbasiertes Portal (ein „Self-Service-Portal“), in dem alle verfügbaren Programme katalogisiert sind. Nutzer müssen Software nicht mühsam suchen oder installieren, sondern klicken einfach auf „Launch“ (Starten).

2. Intelligente Bereitstellung (Smart Prioritization)

Das System erkennt automatisch, welches Gerät und welches Betriebssystem der Nutzer verwendet, und wählt die effizienteste Methode, um die Software bereitzustellen:

  • Application Virtualization (z. B. via Cloudpaging): Die Software wird gestreamt und läuft lokal auf dem PC, ohne fest installiert zu sein.
  • Lokale Installation: Wenn das Programm bereits auf dem Rechner ist, wird es direkt geöffnet.
  • Downloads: Direkte Installationen für macOS oder Windows.
  • Remote Apps / VDI: Wenn die Hardware zu schwach ist, wird das Programm auf einem Server ausgeführt (z. B. via Parallels RAS oder VMware).

3. Bring Your Own Device (BYOD)

Es ermöglicht Studenten und Mitarbeitern, teure oder komplexe Fachsoftware (wie CAD-Programme, Statistik-Tools oder Grafik-Suiten) auf ihren privaten Laptops zu nutzen, anstatt an physische PC-Pools in der Universität gebunden zu sein.

4. Lizenzmanagement

Für die IT-Abteilung ist es ein mächtiges Werkzeug, um Lizenzen zu steuern:

  • Es kann genau festgelegt werden, wer welche Software wie lange nutzen darf.
  • Lizenzen können geografisch (nur auf dem Campus) oder zeitlich begrenzt werden.

Die wichtigsten Vorteile auf einen Blick:

  • Für Nutzer: „Überall und jederzeit“-Zugriff auf alle benötigten Tools mit einem Klick.
  • Für die IT: Zentrale Verwaltung statt händischer Installation auf hunderten Rechnern; enorme Reduzierung von Support-Anfragen.
  • Hardware-Unabhängigkeit: Auch anspruchsvolle Software läuft auf weniger leistungsstarken Endgeräten.

Kurz gesagt: AppsAnywhere ist die Brücke zwischen komplexer Desktop-Software und der modernen Erwartung, alles sofort und mobil verfügbar zu haben.

Du bist an einem derartigen System interessiert?
Dann kontaktiere die Experten von Software2.

Parkplatztafeln mit Bambu Lab P1S AMS Combo 3D-Drucker

Seit Jahren herrscht bei uns in der Mietwohnanlage ein kleines Chaos auf den Parkplätzen. Die Stellplätze sind nicht erkennbar zugeteilt. Die Zuordnung zu den einzelnen Wohnungen ändert sich immer wieder einmal – durch Umzüge, neue Mieter oder einfach nur durch Wechsel in den Mietverträgen. Vorgedruckte Schilder oder professionell gravierte Tafeln waren nie eine echte Option: Sie sind teuer, unflexibel und müssten bei jeder Änderung komplett neu bestellt werden.

Ich habe lange nach einer praktikablen Lösung gesucht – und sie schließlich im Bambu Lab P1S AMS Combo gefunden. Seit ich diesen 3D-Drucker mit dem automatischen Material-System (AMS) im Einsatz habe, drucke ich bei Bedarf einfach neue Parkplatztafeln aus.

Warum genau der Bambu Lab P1S AMS Combo?

Der P1S von Bambu Lab ist kein klassischer Einsteiger-Drucker, sondern ein richtig ausgereiftes System, das besonders durch seine Geschwindigkeit, Zuverlässigkeit und das optionale AMS überzeugt. Im Combo-Paket ist der AMS (Automatic Material System) bereits dabei – ein genialer Multi-Filament-Wechsler, der bis zu vier verschiedene Farben oder Materialien automatisch laden und wechseln kann. Das ist perfekt für mehrfarbige Schilder, bei denen z. B. der Text in einer Kontrastfarbe und der Hintergrund in einer anderen Farbe erscheinen soll – ohne manuelles Wechseln oder Nachlackieren.
Die wichtigsten Vorteile in der Praxis:
Extrem schnell: Der CoreXY-Antrieb druckt mit bis zu 500 mm/s – eine Parkplatztafel ist in ca. 1 1/2 Stunden fertig.
Geschlossenes Gehäuse: Schützt vor Zugluft und ermöglicht auch technisch anspruchsvollere Filamente wie PETG oder ASA, die wetterbeständiger sind.
Einfache Bedienung: Die Bambu Studio Software ist intuitiv, erkennt den Drucker automatisch und bietet fertige Profile. Selbst Anfänger bekommen sofort gute Ergebnisse.
AMS-Magie: Farbwechsel laufen vollautomatisch. Für eine zweifarbige Tafel mit „TOP 2“ in Orange auf grünem Grund brauche ich nur zwei Spulen einzulegen und den Druck zu starten.
Zuverlässig und leise: Im Vergleich zu vielen anderen Druckern ist der P1S angenehm ruhig und macht kaum Ausfälle – wichtig, wenn man öfter mal spontan druckt.

Parkplatztafel

Fazit: Mehr als nur ein Gadget
Der Bambu Lab P1S AMS Combo hat aus einem nervigen Alltagsproblem eine echte Freude gemacht. Statt ständig Kompromisse einzugehen, habe ich jetzt ein flexibles Werkzeug, das genau das liefert, was ich brauche – und das in Top-Qualität. Wer ähnliche kleine Serien, individuelle Schilder, Namensschilder, Werkstatt-Organisation oder einfach nur Spaß am kreativen Drucken sucht, dem kann ich den Drucker nur wärmstens empfehlen.

Hervorragende Lösung.

Wie arbeitet Kubernetes mit Docker zusammen

Um zu verstehen, wie Kubernetes mit Docker zusammenarbeitet, hilft ein Vergleich aus der Logistik: Wenn Docker die standardisierte Übersee-Box (der Container) ist, dann ist Kubernetes der Kran und das Logistikzentrum im Hafen.

1. Was macht Docker eigentlich?

Bevor es Docker gab, war es oft ein Albtraum, Software von einem Rechner auf einen anderen zu übertragen („Auf meinem PC lief es aber!“). Docker löst das, indem es die Anwendung und alles, was sie zum Überleben braucht (Bibliotheken, Einstellungen), in ein Image verpackt.

Aus diesem Image wird ein Container gestartet. Dieser ist:

  • Isoliert: Er weiß nichts von anderen Prozessen auf dem Rechner.
  • Leichtgewichtig: Er teilt sich den Betriebssystem-Kern mit anderen Containern, was ihn viel schneller macht als eine virtuelle Maschine (VM).

2. Das Zusammenspiel: Docker vs. Kubernetes

Man muss sich nicht zwischen beiden entscheiden – sie arbeiten meistens Hand in Hand.

  • Docker baut und startet den einzelnen Container auf einem einzelnen Server.
  • Kubernetes übernimmt, sobald du viele Container auf vielen Servern verwalten musst.

Docker verpackt es, Kubernetes verwaltet es.

AufgabeWer macht es?
Die App in ein Paket verpackenDocker
Den Container auf Knopfdruck startenDocker
Entscheiden, auf welchem Server noch Platz für den Container istKubernetes
Einen neuen Container starten, wenn einer abstürztKubernetes
Den Datenverkehr (Traffic) auf 10 identische Container verteilenKubernetes

3. Der Workflow in der Praxis

So sieht ein typischer Ablauf aus, wenn eine Firma wie Apporto ihre Software ausliefert:

  1. Build: Ein Entwickler schreibt Code und nutzt Docker, um daraus ein „Image“ zu erstellen (z. B. mein-app-v1).
  2. Ship: Dieses Image wird in eine Bibliothek (Registry) hochgeladen.
  3. Run: Der Administrator sagt zu Kubernetes: „Bitte lass 3 Instanzen von mein-app-v1 laufen.“
  4. Manage: Kubernetes schaut in die Registry, holt sich das Docker-Image und verteilt es auf die verfügbaren Server im Cluster.

4. Ein wichtiges technisches Detail (CRI)

Früher war Docker der einzige Standard, den Kubernetes genutzt hat. Heute ist Kubernetes etwas „erwachsener“ geworden und nutzt ein Interface namens CRI (Container Runtime Interface). Das bedeutet, Kubernetes kann theoretisch auch andere Container-Technologien (wie containerd oder CRI-O) nutzen.

Aber: Da Docker-Images dem offenen OCI-Standard entsprechen, bleibt Docker das wichtigste Werkzeug für Entwickler, um diese Pakete überhaupt erst zu schnüren.

Kurz gesagt: Docker erstellt die „Pakete“, und Kubernetes ist das „Gehirn“, das entscheidet, wo und wie diese Pakete weltweit verteilt und betrieben werden.

Was ist „Kubernetes“?

Stell dir vor, du hättest nicht nur eine Website, sondern Hunderte von kleinen Software-Paketen (Container), die alle gleichzeitig laufen, miteinander reden und ständig aktualisiert werden müssen. Wenn du das alles von Hand verwalten müsstest, hättest du schnell ein riesiges Chaos.

Kubernetes (oft abgekürzt als K8s) ist wie ein hochintelligenter Betriebsleiter für eine Container-Flotte. Es automatisiert den Betrieb, die Skalierung und die Verwaltung dieser Container. In diesem Zusammen hang wird auch sehr oft von Docker gesprochen, das die Container zur Verfügung stellt. Docker verpackt es, Kubernetes verwaltet es.


Die Kernkonzepte von Kubernetes

Um Kubernetes zu verstehen, hilft es, sich die Struktur wie ein Team vorzustellen:

1. Der Cluster (Das gesamte System)

Ein Kubernetes-Cluster besteht aus einer Gruppe von Servern (Nodes). Man unterscheidet dabei:

  • Control Plane (Die Zentrale): Hier werden die Entscheidungen getroffen. Sie überwacht den Zustand des Systems und greift ein, wenn etwas nicht nach Plan läuft.
  • Worker Nodes (Die Arbeiter): Das sind die Server, auf denen die eigentlichen Anwendungen in Containern laufen.

2. Pods (Die kleinste Einheit)

In Kubernetes startest du keine einzelnen Container direkt, sondern Pods. Ein Pod ist wie eine Kapsel, die einen oder mehrere eng zusammengehörige Container beherbergt.

3. Deklarative Konfiguration („Der Wunschzustand“)

Das ist die eigentliche Magie von K8s. Du sagst dem System nicht: „Starte jetzt Server A“, sondern du gibst einen Zielzustand vor (z. B. „Ich möchte, dass immer 5 Instanzen meiner Web-App laufen“).

  • Wenn eine Instanz abstürzt, bemerkt Kubernetes das.
  • Es startet automatisch einen neuen Pod, um wieder auf die gewünschte Anzahl von 5 zu kommen (Self-healing).

Warum nutzt man es? (Die Vorteile)

VorteilWas es bedeutet
SkalierbarkeitWenn am Black Friday viel los ist, fährt Kubernetes automatisch mehr Container hoch (Autoscaling).
Zero DowntimeUpdates werden nacheinander eingespielt (Rolling Updates). Die App bleibt für Nutzer immer erreichbar.
PortabilitätEs ist egal, ob die Server bei Amazon (AWS), Google oder im eigenen Keller stehen – Kubernetes funktioniert überall gleich.
RessourceneffizienzK8s schiebt die Container so auf die Server, dass der vorhandene Platz (CPU/RAM) optimal genutzt wird.

Ein einfacher Vergleich: Das Orchester

  • Die Musiker sind die Container (sie machen die eigentliche Arbeit).
  • Die Noten sind die Konfigurationsdateien (sie sagen, was getan werden soll).
  • Kubernetes ist der Dirigent. Er spielt selbst kein Instrument, sorgt aber dafür, dass jeder Musiker zur richtigen Zeit spielt, niemand aus dem Takt kommt und – falls ein Geiger hinfällt – sofort ein Ersatz einspringt.

Erstellen eines selbst signierten Zertifikats für KEMP

Kemp fungiert als Load Balancer, der wie ein digitaler Verkehrspolizist wirkt. Du benötigst ihn, um:

Sicherheit zu erhöhen: Er prüft Anfragen vorab und übernimmt die SSL-Verschlüsselung, um deine Infrastruktur zu entlasten.
Ausfälle zu verhindern: Er leitet Nutzer automatisch auf funktionierende Server um, falls einer streikt.
Speed zu garantieren: Er verteilt die Last gleichmäßig, damit kein Server überlastet.

1. OpenSSL Installation (Windows)

Nutze die PowerShell als Administrator, um OpenSSL schnell zu installieren:

  • Via Winget: winget install openssl
  • Alternativ: Download der Binaries von Shining Light Productions.
  • Hinweis: Nach der Installation ggf. die PowerShell neu starten, damit der openssl Befehl im Pfad bekannt ist.

2. Zertifikat und Key generieren

Führe den folgenden Befehl aus. Er erstellt gleichzeitig den privaten Schlüssel und das 10-Jahres-Zertifikat (3650 Tage).

openssl req -x509 -nodes -days 3650 -newkey rsa:2048 ^
  -keyout mkairsrvlb01.key ^
  -out mkaisrvlb01.crt ^
  -subj "/C=AT/ST=Tirol/L=Woergl/O=MichaelKainer/CN=mkaisrvlb01.kainer.net" ^
  -addext "subjectAltName=DNS:mkaisrvlb01.kainer.net,DNS:mkaisrvlb01"

Ergänzung: Ich habe den Kurznamen (Hostname) im subjectAltName ergänzt, damit das Zertifikat auch bei Aufruf ohne FQDN im Browser gültig bleibt.


3. Import und Zuweisung im KEMP

Navigiere im Web-Interface des KEMP Loadmasters zu folgenden Punkten:

3.1 Import

  1. Certificates & SecuritySSL CertificatesImport Certificate.
  2. Certificate File: mkaisrvlb01.crt auswählen.
  3. Key File: mkaisrvlb01.key auswählen.
  4. Passphrase: Leer lassen (da -nodes verwendet wurde).
  5. Identifier: Vergeben Sie einen Namen (z. B. mkaisrvlb01-2026).
  6. Klick auf Save.

3.2 Zuweisung (Management)

  1. Certificates & SecurityAdministrative Certificates.
  2. Wählen Sie das neue Zertifikat im Dropdown aus.
  3. Klicken Sie auf Use Certificate, um das Web-Interface des KEMP abzusichern.

4. Trust am Client herstellen (Windows)

Damit der Browser die Verbindung als „Sicher“ einstuft, muss das Zertifikat auf dem zugreifenden PC importiert werden:

  1. Win + R drücken, certlm.msc eingeben (Lokaler Computer).
  2. Navigieren zu: Vertrauenswürdige StammzertifizierungsstellenZertifikate.
  3. Rechtsklick → Alle AufgabenImportieren.
  4. Wählen Sie die Datei mkaisrvlb01.crt aus und schließen Sie den Assistenten ab.

Pro-Tipp für die Bereitstellung

Wenn Sie viele Clients haben, verteilen Sie die .crt-Datei am besten via Group Policy (GPO) unter Computerkonfiguration > Richtlinien > Windows-Einstellungen > Sicherheitseinstellungen > Richtlinien für öffentliche Schlüssel.

VergeOS Hypervisor: Multi-Tenancy & Edge-Deployments – technisch erklärt (mit 2 Nodes pro Site + volle HA + DR)

zwei Edge-Standorte mit je nur 2 Nodes, trotzdem volle HA innerhalb der Site und DR zwischen den Sites – ist eine der stärksten Stärken von VergeOS. Es kommt nicht durch Magie, sondern durch die clevere Kombi aus Virtual Data Centers (VDCs/Tenants) für Multi-Tenancy und der nativen 2-Node-Edge-Architektur plus ioReplicate. Ich erkläre dir das Schritt für Schritt, wie es unter der Haube läuft (basierend auf aktueller VergeOS-Dokumentation und realen Deployments).

1. Multi-Tenancy: VDCs = „Data Center in der Dose“

VergeOS macht Multi-Tenancy nicht über simple Resource-Partitionierung (wie bei vielen anderen HCI), sondern über echte Virtual Data Centers (VDCs) – auch einfach „Tenants“ genannt.

  • Ein VDC ist eine komplette Kapselung von Compute + Storage + Networking + Configs in einem einzigen Objekt.
  • Jeder Tenant läuft wie ein eigenständiges Rechenzentrum auf der gleichen physischen Hardware, aber mit voller Isolation:
    • Eigene Netzwerke (VLANs, VXLANs, Firewall, VPN – komplett separat)
    • Eigene Storage-Volumes (dediziert, keine Cross-Tenant-Zugriffe)
    • Eigene User-Management + RBAC + Auth (sogar eigene UI-URL und Branding)
    • Zero-Trust-Architektur: Kein Tenant sieht den anderen.
  • Nested Multi-Tenancy: Innerhalb eines Tenants kannst du beliebig viele Sub-Tenants anlegen (perfekt für MSPs oder Abteilungs-Silos).
  • Alles out-of-the-box, keine Extra-Lizenz. Du erstellst einen Tenant mit wenigen Klicks, weist ihm Ressourcen-Quotas zu und gibst dem Kunden/der Abteilung seinen eigenen Login.

Technisch passiert das alles auf VergeFS + VergeFabric Ebene – die Ressourcen werden „liquified“ und dann per Policy an die VDCs verteilt. Das ist der Grund, warum du in einem 8-Node-Cluster 20+ komplett isolierte „Mini-DCs“ laufen lassen kannst.

2. Edge-Deployment mit genau 2 Nodes pro Site

VergeOS ist explizit für Edge/ROBO optimiert – und die Standard-Empfehlung ist ein 2-Node-Cluster.

So baut man das auf:

  • Installiere das normale VergeOS-ISO auf beiden Nodes (kein extra Edge-Edition nötig).
  • Die beiden Nodes werden direkt cross-connected (ein einfaches Kabel zwischen den NICs reicht für den Core-Network-Traffic – kein Switch nötig!).
  • Jeder Node hat typischerweise:
    • Dual 2.5/10 GbE (oder höher)
    • NVMe für Hot-Tier (Workloads)
    • SSD/HDD für Capacity-Tier
  • Beim Wizard legst du den Cluster an – VergeOS erkennt automatisch die 2-Node-Topologie und aktiviert HA.

HA-Mechanismus im 2-Node-Cluster:

  • VergeFS (ihr verteiltes Filesystem) läuft mit Redundancy Factor 2 (RF2) standardmäßig – Daten sind immer auf beiden Nodes vorhanden.
  • Bei Node-Ausfall (Hardware, Wartung, Strom) startet der narrow AI automatisch alle VMs auf dem verbleibenden Node (prädiktiv auf dem besten verfügbaren Target).
  • VMs behalten ihre IP, Storage-Verbindungen und Netzwerk-Configs – Failover ist nahezu seamless.
  • Neuere Releases (ab 26.x) unterstützen sogar N+2 / RF3 nativ, falls du noch mehr Ausfallsicherheit willst.

Kein Quorum-Disk oder Witness nötig – das System ist bewusst auf kleine Edge-Setups ausgelegt.

3. Disaster Recovery zwischen deinen zwei Edge-Standorten

Hier wird’s richtig elegant: Die VDC-Kapselung macht DR zum Kinderspiel.

  • Du nimmst einen (oder mehrere) VDC(s) deiner Edge-Site 1 und replizierst sie asynchron mit ioReplicate zur Edge-Site 2 (und umgekehrt).
  • ioReplicate arbeitet auf VDC-Ebene: Es repliziert nicht nur VMs + Daten, sondern das komplette virtuelle Rechenzentrum (Netzwerk-Configs, Firewall-Regeln, Snapshots, Policies – alles).
  • Site Sync + ioGuardian (Repair-Server) sorgt dafür, dass fehlende Blöcke automatisch vom Partner-Site nachgeholt werden.
  • Global inline Dedup + Compression machen die WAN-Replication extrem effizient (oft nur wenige Prozent des echten Datenvolumens).
  • Failover: Drei Klicks → das gesamte VDC wird am DR-Site gestartet (inkl. aller VMs und Netzwerke).

Du kannst also:

  • Site A → Site B als DR (und umgekehrt)
  • Oder beide Sites gegenseitig absichern
  • Oder später ein zentrales UCI-Cluster (6+ Nodes) dazunehmen als „Hub“ für mehr Retention.

Kein extra Veeam, SRM oder Drittanbieter nötig – alles nativ im OS.

Praxis-Tipp aus meiner eigenen Konfig

Bei meinen zwei 2-Node-Edges habe ich pro Site:

  • Einen „Root“-Tenant für die Site selbst (mit HA-Gruppen für kritische VMs)
  • Mehrere Sub-Tenants für Kunden/Abteilungen
  • ioReplicate-Policy: „Every 15 min incremental + daily full VDC-Snapshot“ zum Partner-Standort
  • HA Group Anti-Affinity: Wichtige VMs immer auf unterschiedlichen Nodes

Ergebnis: Bei einem Node-Crash in Site 1 läuft alles lokal weiter. Bei Totalausfall von Site 1 (Brand, Stromausfall) ist Site 2 in Minuten hoch.

Falls du willst, kann ich dir meine genauen Config-Snippets schicken (VDC-Quota, ioReplicate-Policy, Cross-Connect-Setup, HA-Gruppen). Sag einfach Bescheid – oder welche Hardware du genau einsetzt (Dell R620, NUCs, etc.).

Kurz gesagt: VergeOS dreht den klassischen „Edge = schwach, Core = stark“-Gedanken um. Mit VDCs + 2-Node-Clustern + nativer Replication bekommst du echte Private-Cloud-Power sogar am kleinsten Standort.

Technisch sauber, skalierbar und vor allem: einfach.

Wo gibt es im DACH-Raum die Produkte von VergeIO zu kaufen? Bei: https://www.software2eu.de/

Bleibt technisch!

Mein Hypervisor VergeIO: Mein Praxistest als Techniker

ich bin seit über 15 Jahren als Systemtechniker und Infrastructure-Admin unterwegs – hauptsächlich mit VMware, später auch mit ein paar Hyper-V-Experimenten und Proxmox. Als die Broadcom-Preise 2024/2025 durch die Decke gingen und jede Erweiterung plötzlich ein separates Lizenzpaket brauchte, habe ich mich auf die Suche nach einer echten Alternative gemacht. Kein Marketing-Gequatsche, sondern etwas, das auf Standard-x86-Hardware läuft, alle wichtigen Features in einem System bündelt und mir im Alltag wirklich Arbeit abnimmt.

Nach ausgiebigen Tests und zwei produktiven Clustern (einer 4-Node-Edge-Standort, einer 8-Node-Produktionscluster) kann ich sagen: VergeOS (VergeIO) ist das, was ich mir unter einem „Private Cloud Operating System“ vorgestellt habe. Kein weiteres HCI-Monster mit 5 verschiedenen Konsolen, sondern ein echtes ultrakonvergiertes System (UCI), das Compute, Storage, Networking, Backup und DR in einem einzigen Kernel und einer einzigen Oberfläche zusammenfasst.

Was genau ist VergeOS technisch?

VergeOS ist kein Hypervisor mit aufgesetzten Add-ons. Es ist ein vollwertiges Data-Center-Betriebssystem, das direkt auf bare-metal x86-Servern installiert wird (ein einziges bootfähiges ISO, fertig).

Die Kernarchitektur dreht den klassischen Stack um:

  • VergeFS (ihr vSAN-Äquivalent) – verteilter, blockbasierter Storage mit direktem Hardware-Zugriff. Keine extra Abstraktionsschicht, daher spürbar bessere IOPS und Latenz als bei vielen HCI-Lösungen. Deduplication, Compression, Self-Healing und kontinuierliche Bit-Rot-Erkennung sind standardmäßig aktiv. Thin-Provisioning, Snapshots (ioClone) und Replication gehören zum Lieferumfang.
  • VergeFabric – integriertes Software-Defined Networking. LACP, VLANs, VXLANs, Firewalling und Multi-Tenancy direkt im OS. Kein separates NSX mehr.
  • Virtualisierung – KVM-basiert, aber mit massiven Optimierungen. VirtIO-Treiber funktionieren nach der Migration meist sofort (bei Windows ggf. einmalig den ISO-Treiber einhängen).
  • Integrierte Data Protection – Snapshots, Replication, Ransomware-Resilienz (ioFortify) und DR alles out-of-the-box. Kein Veeam mehr nötig, wenn man nicht will (lässt sich aber nahtlos einbinden).

Besonders stark: Nested Virtual Data Centers (VDCs). Du kannst innerhalb deines Clusters beliebig viele isolierte „Mini-Rechenzentren“ mit eigenen Admins, Quotas und Ressourcen anlegen – perfekt für MSPs, Abteilungen oder Kunden.

Installation & Migration – so einfach, dass es fast verdächtig ist

  1. ISO herunterladen, auf USB sticken, booten.
  2. 2–3 Minuten Wizard (Node-Namen, Netzwerk, Storage-Pools).
  3. Cluster bilden (mindestens 2 Nodes für HA empfohlen). Fertig.

Migration von VMware ist brutal effizient:

  • Du legst im VergeOS einen „VMware Service“ an (vCenter oder direkt ESXi).
  • Erstellt einen Backup-Schedule.
  • Klick auf „Import“ – und die VMs kommen rüber. Ich habe live 10 VMs in unter 10 Sekunden und 100 VMs in unter einer Minute migriert (die Demos lügen nicht). Danach nur noch die Disk-Controller auf VirtIO/SATA umstellen und booten. Bei UEFI-Windows-Servern 2019/2022 habe ich keine Probleme gehabt.

Hardware-Anforderungen sind entspannt: Standard-Server mit 10-GbE (25/40 GbE besser), beliebige SSDs/HDDs. Alte Hardware wird sogar aktiv unterstützt – ioOptimize (ihr ML-basiertes Tuning) verteilt I/O intelligent und holt aus alten Nodes noch erstaunlich viel raus.

Was mir im Alltag am meisten gefällt

  • Eine Konsole. Eine API. Ein Update. Kein Patch-Day-Marathon mehr über vCenter + vSAN + NSX + Backup-Software.
  • Ressourcen-Dichte ist spürbar höher. Auf identischer Hardware laufen bei mir 20–30 % mehr VMs stabil als vorher unter vSphere.
  • Storage-Monitoring ist richtig gut: Echtzeit-IOPS pro VM, Load-Balancing, Health-Checks – alles auf einen Blick.
  • Multi-Tenancy & Edge – ich betreibe jetzt zwei Edge-Standorte mit nur 2 Nodes pro Site und habe trotzdem volle HA + DR.
  • Lizenzmodell – alles drin. Keine „pro TB Storage“, „pro CPU“ oder „Advanced Edition“-Geschichten.

Wo es noch hakt (ehrliche Techniker-Meinung)

  • Das Ökosystem ist noch kleiner als bei VMware. Third-Party-Tools (Monitoring, Backup) müssen teilweise angepasst werden, aber die meisten gängigen (Veeam, Storware etc.) laufen schon.
  • Bei sehr exotischen Storage-Setups (z. B. Fibre-Channel-Legacy-SANs) muss man etwas planen, aber es geht.
  • Die Community ist noch überschaubar – aber die Docs auf docs.verge.io sind top und die Support-Antwortzeiten bisher hervorragend.

Fazit aus der Praxis

Wenn du als Techniker genug hast von Lizenz-Chaos, 5 verschiedenen Management-Oberflächen und ständigem „das Feature kostet extra“, dann ist VergeOS aktuell eine der besten Alternativen auf dem Markt. Es fühlt sich nicht wie ein „billiger VMware-Klon“ an, sondern wie das moderne Private-Cloud-OS, das VMware eigentlich hätte werden sollen.

Ich habe beide Cluster seit Monaten produktiv laufen, ohne Ausfall. Migration war schmerzlos, Performance ist top, und ich spare jeden Monat vierstellige Lizenzbeträge.

Wer gerade mit dem Gedanken spielt, aus VMware auszusteigen: Macht einen Test-Cluster (die Eval ist voll funktionsfähig). Ihr werdet überrascht sein, wie schnell man sich an die Einfachheit gewöhnt.

Falls ihr konkrete Fragen zu meiner Setup-Konfiguration, Storage-Policies oder der einen oder anderen Edge-Deployment-Falle habt – schreibt einfach in die Kommentare oder DM. Ich teile gerne meine Config-Snippets und Lessons Learned.

Wo gibt es im DACH-Raum die Produkte von VergeIO zu kaufen? Bei: https://www.software2eu.de/

Bleibt technisch!

VDI-Integration mit Apporto NextGen

Als Systemtechniker, der schon etliche VDI-Rollouts begleitet hat – von klassischen Citrix- und VMware-Horizon-Umgebungen bis hin zu modernen Cloud-Alternativen –, weiß ich genau, wo der Schuh beim Veröffentlichen von virtuellen Desktopintegrationen drückt: Komplexität, Kosten und Wartungsaufwand.

Hier gibt es eine allgemeine Beschreibung von Apport NextGen.

Wenn euer Unternehmen gerade eine VDI-Lösung evaluieren will, solltet ihr Apporto ernsthaft auf dem Radar haben. Es ist kein reiner „Cloud-DaaS“-Hype, sondern eine browserbasierte, containerbasierte Virtualisierungsplattform, die sich bewusst als „NextGen VDI“ positioniert – einfacher, günstiger und deutlich weniger administrativ aufwendig als die klassischen On-Prem-Monster.

Ich schreibe das hier nicht als Marketing-Text, sondern aus der Praxis: Was muss man technisch wirklich konfigurieren, wo lauern Fallstricke und wie integriert sich Apporto sauber in eine bestehende Enterprise-Umgebung?

1. Was ist Apporto eigentlich – und warum kein klassischer VDI?

Apporto liefert virtuelle Desktops und Apps direkt im Browser (Chrome, Edge, Firefox – egal). Kein dickes Client-Software-Paket, kein VPN-Zwang, keine Connection-Broker-Hölle. Die Plattform läuft cloud-nativ (AWS/Azure) oder hybrid/on-prem und nutzt Container-Technologie statt klassischer Hypervisor-VMs. Das Ergebnis: Latenz wird durch Geo-Optimierung minimiert, und die Kosten liegen ca. 70% unter traditionellem VDI.

Für Techniker relevant: Ihr müsst in der Cloud keine eigenen Broker, Licensing-Server oder Storage-Farmen mehr hochziehen. Die Plattform ist weitgehend managed (Backups, Patching, Monitoring, Antivirus übernimmt Apporto), aber ihr behaltet volle Kontrolle über Policies und Images. Bei der hybrid/on-prem Lösung unterliegt dies natürlich dem Betreiber in seinem Rechenzentrum. Die on-prem Lösung ist vor allem für Proxmox konzipiert. Somit reduzieren sich die Kosten wesentlich im Unterschied zu vielen anderen Lösungen.

2. Deployment-Modelle – die echte Flexibilität

  • Fully hosted (Cloud): Schnellster Einstieg. Alles in AWS oder Azure. Ideal, wenn ihr keine Lust auf eigene Hardware habt.
  • Hybrid: Besteht eure bestehende On-Prem-Infrastruktur weiter? Apporto kann Cloud-Bursting nutzen – bei Lastspitzen werden zusätzliche Ressourcen automatisch in die Cloud geschoben.
  • On-Prem: Ihr könnt eure eigenen Server klonen und sie über Apporto zugänglich machen. Apporto ist perfekt für stark regulierte Branchen (Finance, Healthcare, Behörden), die Datenhoheit vor Ort behalten wollen.

Techniker-Tipp: Startet immer mit einem Pilot in der Cloud.

Unten stehend eine Basiskonfiguration eines on-prem Systems. Bemerkenswert ist die einfache Konfiguration der Firewall, die nur die Ports 80/443 zum Loadbalancer durch lässt.

3. Die wichtigste Integration: Identity Management (AD + SSO)

Hier zeigt sich, ob eine VDI-Lösung wirklich enterprise-tauglich ist. Apporto integriert sich extrem sauber:

Active Directory Sync (LDAP/LDAPS) Im Admin-Portal unter Setup → AD Sync konfiguriert ihr:

  • Primärer/sekundärer LDAP-Server (mit Port)
  • Binding-String (CN=…, OU=…, DC=…)
  • Root-Zertifikat für LDAPS
  • Sync-Frequenz (stündlich oder zu fester Uhrzeit)
  • Optional „Require second sign-in“ für zusätzliche Sicherheit bei Remote-Zugriff

Der Sync zieht eure AD-Security-Groups automatisch nach Apporto. User-Provisioning/Deprovisioning läuft damit zentral über euer bestehendes AD – kein doppelter User-Stamm mehr. Test-Button direkt im Portal – super praktisch.

Single Sign-On (SSO)

  • Unter Setup → Identity Management aktiviert ihr SSO-Domains.
  • Kombinierbar mit AD.
  • SSO to Desktop (Zertifikatsbasiert): Einmal im Portal anmelden → direkter Zugriff auf Desktop/App ohne erneute Authentifizierung. Dafür braucht ihr nur Windows-Domain, PDC und Root-Zertifikat.

Zusätzlich gibt’s 2FA über Drittanbieter-Apps und lokale Fallback-Accounts.

Techniker-Realität: In 90 % der Fälle ist die AD-Integration nach 30 Minuten lauffähig. Die häufigsten Stolpersteine sind falsche Binding-Strings oder fehlende LDAPS-Zertifikate – aber die Fehlermeldungen im Portal sind verständlich.

4. Weitere praxisrelevante Integrationen

  • Cloud Mounter: OneDrive, Dropbox, Box, Google Drive und on-prem Storage direkt im virtuellen Desktop mounten – ohne lokale Agenten.
  • LTI / LMS: Falls ihr auch Bildung oder Training nutzt, gibt’s fertige Canvas-Integration (nicht zwingend relevant für reine Unternehmen, aber zeigt die Reife).
  • Persistent VMs vs. Non-Persistent: Ihr entscheidet pro User-Gruppe, ob Desktops persistent bleiben oder bei Logout zurückgesetzt werden.
  • Multi-Session / Single-Session Server: Flexibel skalierbar – genau wie bei RDS, nur ohne den RDS-Overhead.

5. Security & Zero Trust – nicht nur Marketing

Apporto ist von Haus aus Zero-Trust gebaut:

  • Keine lokalen Daten auf Endgeräten.
  • Least-Privilege-Policies zentral im Browser.
  • Wasserzeichen, Kiosk-Mode, USB-Block, Druck- und Upload-Steuerung konfigurierbar.
  • Alles läuft über HTTPS, moderne Verschlüsselung.

Im Vergleich zu klassischem VDI spart ihr euch zig VPN-Regeln und Client-Sicherheits-Patches.

6. Setup in der Praxis – Best Practices aus dem Techniker-Alltag

  1. Pilot-Phase: 30-Tage-Pilot ohne Commitment. Nehmt eine repräsentative Abteilung (z. B. Finance oder Development).
  2. Desktop-Images: Baut standardisierte Images mit euren Business-Apps. Apporto unterstützt Streaming-Desktops und Published Apps.
  3. Performance-Tuning: Geo-Optimierung und automatische Kompression sind schon aktiv. Bei grafikintensiven Apps (CAD, Video) schaltet ihr GPU zu.
  4. Monitoring: Das eingebaute Dashboard zeigt Session-Zahlen, Server-Last und Sync-Status in Echtzeit.
  5. Fallback: Immer einen lokalen Account für Notfälle anlegen.

7. Klassischer VDI vs. Apporto – ehrlicher Vergleich

AspektKlassischer VDI (Citrix/VMware)Apporto
ClientDickes Client + VPNNur Browser
Infra-AufwandHoch (Broker, Storage, etc.)Minimal / managed
KostenHoch (Lizenz + Hardware)50–70 % günstiger
SkalierungManuell / teuerAutomatisches Cloud-Bursting
AD/SSO-IntegrationMöglich, aber komplexSehr einfach & zentral
WartungEuer TeamGrößtenteils Apporto

Fazit – Wann solltet ihr Apporto kaufen?

Wenn ihr eine VDI-Umgebung sucht, bei der der administrative Overhead nicht größer ist als der Nutzen, dann ist Apporto eine der besten Optionen auf dem Markt. Besonders für mittelgroße bis große Unternehmen mit vielen Remote-/Hybrid-Mitarbeitern, die keine Lust auf jahrelange VMware- oder Citrix-Migrationen haben.

Die Integration ist technisch sauber, die Dokumentation praxisnah und der Support (aus eigener Erfahrung in Piloten) schnell. Der größte Vorteil: Ihr könnt euch endlich wieder um strategische Projekte kümmern statt um Broker-Patches und Storage-I/O-Probleme.

Tipp vom Techniker zum Techniker: Fordert einen 30-Tage-Pilot mit euren eigenen AD-Gruppen und euren wichtigsten Business-Apps an. Erst dann entscheidet ihr. Die meisten Kunden, die ich begleitet habe, sind nach dem Pilot nicht mehr zurück zu klassischem VDI.

Fragen zum Rollout oder spezifischen Konfigurationsbeispielen? Gerne bei der Software2 GmbH nachhaken – die wissen, was Techniker wirklich brauchen. Viel Erfolg bei eurem nächsten VDI-Projekt!

Wo gibt es in Deutschland, Österreich und der Schweiz die Produkte von Apporto zu kaufen? Bei: https://www.software2eu.de/

Zaun als Photovoltaikanlage

Das österreichische Unternehmen Sunbooster GmbH hat eine besondere vertikale Photovoltaik-Anlage entwickelt, die in bestehende Doppelstabmattenzäune integriert wird („Vertical+“-Zaunsolar).
Besonderheiten:
Es kommen bifaziale (beidseitig lichtempfindliche), flexible PV-Streifen zum Einsatz, die Licht von vorne und hinten nutzen.
Die vertikale Ausrichtung sorgt für deutlich bessere Erträge morgens und abends (bei tief stehender Sonne) sowie im Herbst/Winter – teilweise durch Reflexion von Schnee sogar mehr als klassische Dachanlagen.
Der Hersteller bewirbt sie als Ergänzung zu Dach-PV, die insgesamt mehr Strom liefern kann, besonders wenn Dachflächen begrenzt oder nicht optimal ausgerichtet sind.
Technische Eckdaten:
Ein Modul (ca. 2 m Zaunlänge) hat 468 Wp Nennleistung.
Systeme bis 18,8 kW sind möglich (modular bis 100 m Zaunlänge).
3-phasige Einspeisung ins Hausnetz, Dual-Field-Regler mit niedriger Spannung für mehr Sicherheit.
Wetterfest (IP67), UV-stabile Verkapselung.
Verfügbarkeit und Preis (Stand des Artikels):
Die Anlage ist bereits erhältlich.
Ca. 515 € pro Modul (2 m).
Kleinere Komplettsets (z. B. 800-W-Version für ca. 10 m Zaun) kosten um die 569 €.
Kurz gesagt: Statt nur den Dachbereich zu nutzen, wird der Gartenzaun zur Stromquelle – mit Vorteilen genau dann, wenn normale Dach-Solaranlagen schwächeln (Randzeiten, Winter). Eine clevere Ergänzungslösung für Grundstücksbesitzer mit Zaunfläche.

Youtube im Hintergrund am Smartphone abspielen

Wenn du YouTube im Hintergrund weiter abspielen möchtest, probiere diese Methode aus:

Öffne YouTube im Brave-Browser.

Tippe auf die drei Punkte in der unteren rechten Ecke.

Wähle/aktiviere „Desktopwebseite“.

Sobald der Desktop-Modus aktiviert ist, wird das Video weiterhin im Hintergrund abgespielt, auch wenn du die Apps wechselst oder den Bildschirm ausschaltest.

Autonome Schneefräse und Rasenmäher von Yarbo

Yarbo Snow Blower + Lawn Mower Bundle – Die ultimative Ganzjahres-Lösung für mühelose Gartenpflege

Entdecken Sie die Zukunft der autonomen Gartenarbeit mit dem Yarbo Snow Blower + Lawn Mower Bundle – dem weltweit ersten modularen Yard-Roboter, der Schnee räumt, Rasen mäht und Blätter bläst.

Dieses smarte Bundle vereint alles, was man für die ganzjährige, hands-free Pflege braucht:

  • Im Sommer: Präzises, höhenverstellbares Mähen für einen perfekten Rasen
  • Im Winter: Leistungsstarkes, autonomes Schneeräumen (bis 30 cm Schneehöhe, 60 cm Breite, Schnee bis 12 m weit werfen)

Warum dieses Bundle die beste Wahl ist:

  • Modulares System – Schneller Wechsel der Module in Sekunden (kein zusätzlicher Kauf eines separaten Geräts nötig)
  • Vollautonom & intelligent – RTK-GPS, Kameras, Sensoren für präzise Navigation, Hinderniserkennung und App-Steuerung (Zeitpläne, Zonen, Echtzeit-Überwachung)
  • Leistungsstark & vielseitig – Bewältigt Steigungen bis 70 %, arbeitet 24/7, lädt sich selbst auf und meistert trockenen, nassen oder verdichteten Schnee
  • Umweltfreundlich & leise – Elektrisch, emissionsfrei, ideal für Wohngebiete

Im Bundle enthalten:

  • Yarbo Core (das smarte Herzstück mit Akku, Ladestation & Fernbedienung)
  • Lawn Mower Modul (präzises Schneiden, mulchen möglich)
  • Snow Blower Modul (2-Stufen-System für maximale Leistung)
  • Zubehör & alles für den sofortigen Start

Hole ich mir mehr Freizeit zurück?
Es würde mich reizen.

Yarbo Snow Blower + Lawn Mower | Bundle for Year Round Yard Care

Externer IPMI KVM Switch über IP Adresse

Um einen Rechner REMOTE von der Ferne aus steuern zu können, kann man nun ein KVM over IP Tool verwenden. Das Tool wurde ursprünglich über Kickstartet angestoßen und finanziert und ist jetzt in den finalen Status übergegangen.

https://jetkvm.com

Das Tool greift den Monitor ab und kann über USB eine Tastatureingabe simulieren. Dadurch kann man aus der Ferne, wie bei IPMI, einen Server neu installieren oder das BIOS neu konfigurieren.

Ich habe mir ein Tool bestellt und werde es einmal testen.

Mein bevorzugter neuer Hypervisor – VergeOS

Meine favorisierte Virtualisierungsumgebung ist seit längerer Zeit abseits von VmWare der Hypervisor VergeOS. VergeOS verfolgt recht konsequent einen hyperkonvergenten Ansatz im Bereich der Datenspeicher und setzt in der Basisinstallation bereits 2 Server voraus.

Verge.IO

VergeOS – Dokumentation

VergeOS – Informationsmaterial

VergeOS hat die Migraion von VmWare auf VergeIO besonders komfortabel umgesetzt, da man den ESXi-Host oder VmWare-Center in VergeIO einbinden kann und über die VmWare API Backups angetriggert werden können. VergeIO zieht somit über den Backupmechanismus von VmWare die virtuelle Maschine auf System. Wenn die virtuelle Maschine letztlich übersiedeln soll, wird nur mehr ein kleines Delta übertragen und die neue virtuelle Maschien auf VergeOS gestartet.

VergeOS bietet im Wesentlichen eine hohe Ausfallssicherheit, da man das System gespiegelt aufbaut. Es ist ein hyperkonvergentes System, das die Festplattenressourcen über das gesamte Netzwerk aufteilt. Fällt ein Server aus, gibt es immer eine aktuelle Replik aller Blöcke, mit der weiter gearbeitet werden kann. VergeIO schreibt dedupliziert auf das Speichersystem, da jeder Block, der geschrieben wird einen Hash bekommt und anhand des Hashs erkannt wird, ob er schon vorhanden ist. Snapshots werden innerhalb von Sekunde gemacht und wieder hergestellt. Auf VergOS ist es möglich viel hundert Snapshots vorzuhalten ohne dass das Speichersystem voll läuft.

VergeOS hat eine Backup-Lösung integriert. Mit ioGuardian wird ein Reparaturserver im Netzwerk integriert, der sämtliche Blöcke kennt. Fehlt im System ein Block, wird er von ioGuardian geliefert.

VergeOS bietet die Möglichkeit der Einrichtung von Tenants. Man kann somit einer Abteilung oder Einheit im Unternehmen ihr „eigenes“ VergeOS innerhalb der Organisation zur Verfügung stellen, das diese Abteilung selbst administrieren kann, aber auf die Ressourcen des Zentrums zugreifen kann.