Internetzugriff auf Proxmox VMs / Docker Container hinter OPNsense mit Reverse Proxy

spooner

Member
Sep 7, 2022
41
8
13
Hallo Zusammen,
ich muss den Zugriff auf mehrere VMs auf einem Proxmox Host übers Internet freischalten.
Als Firewall ist eine OPNsense auf einer eigenen Hardware im Einsatz.
Außerdem soll ein Reverse Proxy auf dern OPNsense eingerichtet werden.
Vlans sind auch im Einsatz und werden noch erweitert.
Jetzt sollen auch noch Docker Installation eingerichtet werden.

Nun meine Frage an euch:
Um das ganze Konstrukt möglich sicher zu machen sollten die Docker Container in einer eigenen VM laufen und nicht direkt auf dem Proxmox Host?
So sind alles VMs von einanderen isoliert und auch die Software im Docker Container, richtig?

Gruß Arthur
 
Meine Empfehlung ist auch docker auf einer VM, wenn du die Forum Suche genutzt hast müssten dir dazu einige treffen angezeigt werden
 
Jetzt wirklich aus Interesse: wieso? Was ist verkehrt an Docker?
Es läuft standardmäßig als root, der rootless-Modus wurde erst später drangeflanscht. podman kann die gleichen Images laufen lassen und ist da besser durchdacht. So braucht podman keinen sls root laufenden Dienst und ist gut mit systemd integriert. Folgender Artikel ist etwas älter, gibt aber einen guten Überblick:
https://www.linux-magazin.de/ausgaben/2020/09/podman/

Leider kann man nicht direkt compose-Files verwenden, außer über Skripte zum Konvertieren oder den ( Aussage der podman-Entwickler) Hack podman-compose.

Ich habe schon länger auf meiner todo meine docker-Container zu podman zu konvertieren, bin da aber bisher nicht dazu gekommen *sigh*
 
  • Like
Reactions: Browbeat
Das ist mir bewusst, aber wie du erwähnt hast, kann man ja Docker rootless laufen lassen. Man kann auch rootless Images verwenden. Und man muss ja auch nicht den Docker Socket durchreichen :D
Ich hab auf meiner Todoliste Podman und Docker rootless stehen und vielleicht mal NixOS ausprobieren :)..... Also erstmal beides genau angucken und eventuell IRGENDWANN umstellen. Für mich ist es keine wirklich Alternative alles einzeln zu installieren. Da ist man ja nur noch mit der Pflege beschäftigt.
 
Jetzt wirklich aus Interesse: wieso? Was ist verkehrt an Docker?
Virtualisierung soll m.E. Virtualisierungs-Host und VMs so strikt wie möglich trennen. Genau das tut Docker eben so bzw. nicht das mir schwindelig wird. Stattdessen holst du dir Probleme ins Haus, die man echt nicht braucht.
Selbst LXCs trennen nur halbgar und sind in meinen Augen ungeeignet für eine verlässliche Virtualisierung.
 
Das ist mir bewusst, aber wie du erwähnt hast, kann man ja Docker rootless laufen lassen. Man kann auch rootless Images verwenden. Und man muss ja auch nicht den Docker Socket durchreichen :D
Ich hab auf meiner Todoliste Podman und Docker rootless stehen und vielleicht mal NixOS ausprobieren :)..... Also erstmal beides genau angucken und eventuell IRGENDWANN umstellen. Für mich ist es keine wirklich Alternative alles einzeln zu installieren. Da ist man ja nur noch mit der Pflege beschäftigt.
Verstehe ich nicht. Wenn du deine Dienste sauber getrennt haben willst, dann bleibt halt nichts anderes als die isolierten VMs einzeln unter Wind zu halten. Irgendwie klingt das nach "Wasch mir den Pelz, aber mach mich nicht nass"
 
Ich glaube das würde hier den Thread sprengen. Ich sehe halt das Problem nicht, wenn ich mehrere Anwendungen auf einer VM in Docker laufen lassen. Also wo ist da die fehlende Isolation. Wenn man Podman oder Docker rootless nutzt, dann haben die Anwendungen doch auch keine Rechte um überhaupt was machen zu können. Aber wie gesagt, das geht in dem Thread vielleicht zu weit am Thema vorbei. Und vielleicht fehlen mir auch einfach die Kenntnisse um das zu verstehen. Ich bin halt kein Admin. Ich kenn Proxmox nur aus dem Homelab.
 
Virtualisierung soll m.E. Virtualisierungs-Host und VMs so strikt wie möglich trennen. Genau das tut Docker eben so bzw. nicht das mir schwindelig wird.
Wenn man docker in einer vm laufen lässt, tut man das doch? Wenn der OP die docker-Container direkt auf dem Host laufen lassen wollen würde oder in lxcs könnte ich das Argument ja nachvollziehen, aber das ist ja gerade nicht die Frage
 
Wenn man docker in einer vm laufen lässt, tut man das doch? Wenn der OP die docker-Container direkt auf dem Host laufen lassen wollen würde oder in lxcs könnte ich das Argument ja nachvollziehen, aber das ist ja gerade nicht die Frage
Klar. Mir wäre aber der potentielle Stress mit mehren Docker-Container innerhalb eines "Docker-Hosts" schon zuviel. Deshalb eine VM pro Docker, falls die SW nur als Docker geliefert wird.
 
  • Like
Reactions: Johannes S
Ich glaube das würde hier den Thread sprengen. Ich sehe halt das Problem nicht, wenn ich mehrere Anwendungen auf einer VM in Docker laufen lassen. Also wo ist da die fehlende Isolation. Wenn man Podman oder Docker rootless nutzt, dann haben die Anwendungen doch auch keine Rechte um überhaupt was machen zu können. Aber wie gesagt, das geht in dem Thread vielleicht zu weit am Thema vorbei. Und vielleicht fehlen mir auch einfach die Kenntnisse um das zu verstehen. Ich bin halt kein Admin. Ich kenn Proxmox nur aus dem Homelab.
Die Isolation fehlt dann nur in deinem "Dockerhost". Läuft dort eine Docker-Anwendung Amok, sind alle anderen womöglich mitbetroffen. Kann man mit Leben, denn man hat ja ein Backup des "Docker-VM-Hosts".
Mir gefällt es nicht. Ist irgendwie doppelgemoppelt.
 
Mir wäre aber der potentielle Stress mit mehren Docker-Container innerhalb eines "Docker-Hosts" schon zuviel.
Welcher Stress? Ich hatte da noch nie ein Problem. Wenn ein Container mal nicht wollte, dann hatte es noch nie Auswirkungen auf einen anderen Container. Hast du da mal ein konkretes Beispiel?
Läuft dort eine Docker-Anwendung Amok, sind alle anderen womöglich mitbetroffen.
In wiefern? Wenn ich der Anwendung die Ressourcen zuweise, dann kann sie auch nicht mehr RAM verbrauchen oder CPU oder sonst was. An die Daten anderer Anwendungen kommt die ja auch nicht. Jedes Compose erzeugt ja schon per default ein eigenes Bridge Netzwerk => Können nicht kommunizieren, außer man packt sie selber ins selbe Netz.
Auch da... Hast du ein Konkretes Beispiel?
 
Stress mit Netzwerk, Portweiterleitung, NAT, Mounting oder gar dem zugrundeliegenden Hypervisor reichen mir schon. Inwieweit nun einzelne Docker sich innerhalb einer Dockerumgebung gegenseitig beeinflussen steht auf einem anderen Blatt.
Schon das "russsische Püppchen"-Prinzip stößt mir aber sauer auf.
Aber wie bereits erwähnt kann man das machen...
Wenn Dockeranwendungen nun alle ihre benötigten libs mitbringen, warum nicht gleich als einzelne KVM-VM betreiben, sondern sich zusätzliche Fehlerquellen wie Docker ins Boot holen?
Wie schon Cäsar sagte: divide et impera.
 
Stress mit Netzwerk, Portweiterleitung, NAT, Mounting oder gar dem zugrundeliegenden Hypervisor reichen mir schon.
Noch nie erlebt..... Weiß auch um ehrlich zu sein nicht wie das passieren sollte.
Wenn Dockeranwendungen nun alle ihre benötigten libs mitbringen, warum nicht gleich als einzelne KVM-VM betreiben, sondern sich zusätzliche Fehlerquellen wie Docker ins Boot holen?
Genau das seh ich halt anders. Docker bringt eben genau das alles mit was die Anwendung braucht. Man muss eben nicht genau die Version erst installieren. Es ist für die Entwickler auch viel einfach support zu geben. Man geht nämlich immer von der selben Umgebung aus. Auch Updates sind um einiges einfacher. Statt z.B. Redis, PostgreSQL und die Anwendung selber zu updaten und auch immer auf die richtige Version, reicht bei Docker ein Befehl. Das selbe mit einem downgrade. Gut PostgreSQL ist da ein schlechtes Beispiel, aber glaube es wird klar was ich meine. Vor allem trennt man so auch die Daten und die Anwendung selber. Umzug Daten kopieren und Container hochfahren und es läuft alles wie vorher. Das schafft man eben nicht so leicht und schnell, wenn man alles nativ installiert. Und da sehe ich auch keinen Vorteil mehr.
Wie gesagt, vielleicht fehlt mir das Wissen, aber ich sehe keinen Vorteil bei vielen Anwendungen wenn man es nativ installiert. Gerade im Homelab. Da würden die Ressourcen die ich habe nicht reichen für die ganzen Container.
Du hast leider auch keine Konkreten Beispiel genannt wo das ein echtes Problem wäre oder gab. Nur, dass du es nicht magst.
 
  • Like
Reactions: Johannes S
Die möglichen Probleme stecken immanent in einer weiteren Zwischenschicht.
Wenn du schon soetwas wie Proxmox am Start hast, gibt es keinen Grund ohne Not diese zusätzlich einzubauen.
Man kann es technisch umsetzen. Gut ist es aber nicht.
Zum Schluss hat du zwar einen ordentlichen Host, aber die Dockeranwendungslieferenten sind womöglich zu faul. Wieviele Dockeranwendungen willst du denn im Auge behalten, statt einmal die Basis aktuell zu halten und dem Anwendungsanbieter auf die Füsse zu treten sein Programm gefälligst zu aktualisieren.
Da wedelt doch der Schwanz mit dem Hund.
Wenn der Anbieter hartleibig und partout nicht ersetzbar ist, läuft seine Anwendung eben in einer KVM-VM und Proxmox liefert die Userumgebung. Dazu brauche ich kein halbseidenes Docker, wenn ich einen PVE am Start habe.
 
Last edited:
Guten Morgen Zusammen und frohe Ostern wünsche ich.
Vielen Dank für die Infos.

Ich hab bisher auch wenig Erfahrungen mit Docker, weil ich bisher einfach auch immer eher eine VM vorgezogen habe, als ein Docker Container.
Obwohl das Prinzip eines Docker Container natürlich nicht schlecht ist.

In meinem Fall, eine Business Produktiv Umgebung, steht die Sicherheit im Vordergrund und nicht die was einfacher oder schneller eingerichtet ist.

Also zusammenfassend, nach Möglichkeit alles in einer eigenen VM, wenn Docker nicht erforderlich ist.
Ansonsten pro Docker Anwendung eine eigene VM.

Danke euch.

Gruß Arthur
 
  • Like
Reactions: cwt and UdoB
Naja die Grundsatzdebatte um das Für- und Wider von Containern (ob mit docker oder anders) gehört hier eigentlich nicht her (da kein Proxmox-Thema) wurde aber auch schon öfter diskutiert:


Egal wie man da selbst zu steht, muss man aber zugeben, dass der Trend zu Kubernetes (für große Umgebngen) und docker-/podman-Containern (für kleine Umgebungen) weiter anhält und das auch aus nachvollziehbaren Gründen. Bei einen klassischen Linuxserver ist es es relativ krampfig das System mit neueren Anwendungen zu bestücken als von der Distribution vorgesehen. Das muss nicht unbedingt ein Nachteil sein, wenn man z.B. nur einen relativ simlen Web- oder Dateiserver betreiben will, freut man sich darüber, dass man sich für die Supportdauer um nichts kümmern muss, trotzdem Securityupdates, aber keine breaking Changes bekommt. Will man neue Software, dann muss man entweder ausgewählte neue Pakete (sofern verfügbar) installieren (nicht ganz risiko los das in https://wiki.debian.org/DontBreakDebian gilt so auch für Sachen wie RHEL, SLES oder Rocky/AlmaLinux obwohl die im RPM statt DEB-Ökosystem beheimatet sind) oder den jeweiligen Entwicklungszweig (Debian Unstable, Centos Stream ) oder eine rolling release Distribution (wie ArchLinux oder Gentoo, OpenSuSe Tumbletweed) nehmen, die dafür auch ein größeres Risko an breaking changes haben.
Außerdem läuft man dann unter Umständen in das Problem, dass eine nicht über die Distribution installierte Software gerne eine neuere Libary hätte, die Software der Distribution dagegen weiterhin eine ältere. Ja, man kann das auch alles irgendwie hinkriegen, aber es wird dann halt irgendwann sehr frickelig.

Dagegen haben container den Vorteil, dass sie ja ihre Dependencies alle mitbringen und alles außerhalb ihrer Umgebung gar nicht berühren. Das hat mehrer Vorteile:
  • Entwickler können sich sicher sein, dass ihr "bei mir geht es" in den meisten Fällen auch für die Endanwender funktionieren wird
  • Man kann die Anwendung samt Abhängigkeiten "in einen Rutsch" aktualisieren
  • Da bei docker/podman/kubernetes Containern Nutz- und Anwendungsdaten strikt getrennt sind, ist es trivial möglich bei Problemen den Container wegzuwerfen und neu zu erstellen, ohne Auswirkung auf die Daten
  • Keine Probleme mehr durch schieflaufende Updates:
    • Vor Update Backup der Nutzdaten machen
    • container updaten und testen
    • Test erfolgreich? Backup wegwerfen
    • Test geht schief? Backup einspielen, alte Version der Container ausrollen

Das macht (gerade in großen Umgebungen!) das Leben deutlich einfacher. Nur kommt man dann irgendwann an den Punkt, wo man für diverse Container einen Haufen VMs (samt Overhead) betreibt. Könnte man das nicht alles in einer Umgebung laufen lassen? Theoretisch ja, alle auf einer VM oder Host, aber dann muss man weder wegen Security aufpassen. Das ist eines der Probleme, die kubernetes löst: Es schaltet mehrere Server zu einen Cluster zusammen, dessen Ressourcen über eine einheitliche API sicher (also mit sauberer Abgrenzung und Trennung voneinander) zur Verfügung gestellt werden. Das geht aber auch mit einer entsprechend gestiegenenen Komplexität einher, die gerade für kleine Operating-Teams nicht leistbar ist. Die Lösung dafür ist dann entweder die Leistung (als managed kubernetes) einzukaufen oder eben die Nummer kleiner (VMs mit docker/podman-Containern) zu fahren. Im Umkehrschluß gilt aber auch: Je größer die Umgebung wird, desto eher lohnt sich die Komplexität von kubernetes, weil man darüber dann auch Sachen abbilden kann, die eine rein auf vms mit docker/podman basierende Umgebung nicht oder nur mit Mehrwaufwand (man muss selbst Zeug entwicklen, was kubernetes schon gelöst hat) einher geht.
Mir ist eine Umgebung bekannt, wo insgesamt 400 VMs mit docker und mehr oder weniger identischen tomcat-Applicationservern laufen. Da ist mittelfristig geplant die Richtung kubernetes zu migrieren, eben weil diese 400 VMs von Hand zu managen auch schmerzhaft ist und am Ende des Tages die Verantwortlichen eigentlich keine Server betreiben möchten, sondern eben Fachanwendungen für bestimmte Verwaltungsprozesse zur Verfügung stellen. Außerdem kann man kubernetes auch direkt auf Servern installieren (gibt dafür eigene Distributionen), sodass man dann nicht mehr unbedingt einen Hypervisor wie ProxmoxVE oder vmware benötigt. Wenn der Großteil der Workloads eh in kubernetes läuft, kann man damit ordentlich Kosten sparen und behält dann den Hypervisor (stark reduziert) nur noch für die verbleibenden Legacy-/Windows-Anwendungen (sofern man die nicht über Kubernetes eigenen Virtualisierungsdienst in kubevirt) laufen lässt.
Anderes Beispiel: Kleine Firma hat sechs ITLer, man könnte diese dafür bezahlen selbst Kubernetes oder einen vmware/ProxmoxVE-Cluster zu betreiben. Dann hat man aber noch nichts gewonnen, außer dass man diesen Cluster hat. Es wäre vermutlich für die Firma besser sich einen Kubernetes- oder ProxmoxVE-Cluster als managed Dienst einzukaufen und die sechs ITler statt dessen dafür zu bezahlen Business-Logik auf Basis des managed Service zu entwickeln.
Kleiner Handwerksbetrieb, die "IT" gibt es eigentlich nur für das Office der Buchhaltung und envtl. damit die Monteure Einsätze im Außendienst über ihr Smartphone dokumentieren können. Da wäre Kubernetes oder auch nur eine eigene IT-Abteilung völlig drüber, aber ein vom Systemhaus des Vertrauens bereitgestelltes Office365 sowie ein vom selben Systemhaus aufgesetztes NAS mit einigen docker-Containern (paperless, frigate und co sind auch für kleine Unternehmen praktisch) aber trotzdem nötig.
 
  • Like
Reactions: micneu and *alx*
Naja die Grundsatzdebatte um das Für- und Wider von Containern (ob mit docker oder anders) gehört hier eigentlich nicht her (da kein Proxmox-Thema) wurde aber auch schon öfter diskutiert:


Egal wie man da selbst zu steht, muss man aber zugeben, dass der Trend zu Kubernetes (für große Umgebngen) und docker-/podman-Containern (für kleine Umgebungen) weiter anhält und das auch aus nachvollziehbaren Gründen. Bei einen klassischen Linuxserver ist es es relativ krampfig das System mit neueren Anwendungen zu bestücken als von der Distribution vorgesehen. Das muss nicht unbedingt ein Nachteil sein, wenn man z.B. nur einen relativ simlen Web- oder Dateiserver betreiben will, freut man sich darüber, dass man sich für die Supportdauer um nichts kümmern muss, trotzdem Securityupdates, aber keine breaking Changes bekommt. Will man neue Software, dann muss man entweder ausgewählte neue Pakete (sofern verfügbar) installieren (nicht ganz risiko los das in https://wiki.debian.org/DontBreakDebian gilt so auch für Sachen wie RHEL, SLES oder Rocky/AlmaLinux obwohl die im RPM statt DEB-Ökosystem beheimatet sind) oder den jeweiligen Entwicklungszweig (Debian Unstable, Centos Stream ) oder eine rolling release Distribution (wie ArchLinux oder Gentoo, OpenSuSe Tumbletweed) nehmen, die dafür auch ein größeres Risko an breaking changes haben.
Außerdem läuft man dann unter Umständen in das Problem, dass eine nicht über die Distribution installierte Software gerne eine neuere Libary hätte, die Software der Distribution dagegen weiterhin eine ältere. Ja, man kann das auch alles irgendwie hinkriegen, aber es wird dann halt irgendwann sehr frickelig.

Dagegen haben container den Vorteil, dass sie ja ihre Dependencies alle mitbringen und alles außerhalb ihrer Umgebung gar nicht berühren. Das hat mehrer Vorteile:
  • Entwickler können sich sicher sein, dass ihr "bei mir geht es" in den meisten Fällen auch für die Endanwender funktionieren wird
  • Man kann die Anwendung samt Abhängigkeiten "in einen Rutsch" aktualisieren
  • Da bei docker/podman/kubernetes Containern Nutz- und Anwendungsdaten strikt getrennt sind, ist es trivial möglich bei Problemen den Container wegzuwerfen und neu zu erstellen, ohne Auswirkung auf die Daten
  • Keine Probleme mehr durch schieflaufende Updates:
    • Vor Update Backup der Nutzdaten machen
    • container updaten und testen
    • Test erfolgreich? Backup wegwerfen
    • Test geht schief? Backup einspielen, alte Version der Container ausrollen

Das macht (gerade in großen Umgebungen!) das Leben deutlich einfacher. Nur kommt man dann irgendwann an den Punkt, wo man für diverse Container einen Haufen VMs (samt Overhead) betreibt. Könnte man das nicht alles in einer Umgebung laufen lassen? Theoretisch ja, alle auf einer VM oder Host, aber dann muss man weder wegen Security aufpassen. Das ist eines der Probleme, die kubernetes löst: Es schaltet mehrere Server zu einen Cluster zusammen, dessen Ressourcen über eine einheitliche API sicher (also mit sauberer Abgrenzung und Trennung voneinander) zur Verfügung gestellt werden. Das geht aber auch mit einer entsprechend gestiegenenen Komplexität einher, die gerade für kleine Operating-Teams nicht leistbar ist. Die Lösung dafür ist dann entweder die Leistung (als managed kubernetes) einzukaufen oder eben die Nummer kleiner (VMs mit docker/podman-Containern) zu fahren. Im Umkehrschluß gilt aber auch: Je größer die Umgebung wird, desto eher lohnt sich die Komplexität von kubernetes, weil man darüber dann auch Sachen abbilden kann, die eine rein auf vms mit docker/podman basierende Umgebung nicht oder nur mit Mehrwaufwand (man muss selbst Zeug entwicklen, was kubernetes schon gelöst hat) einher geht.
Mir ist eine Umgebung bekannt, wo insgesamt 400 VMs mit docker und mehr oder weniger identischen tomcat-Applicationservern laufen. Da ist mittelfristig geplant die Richtung kubernetes zu migrieren, eben weil diese 400 VMs von Hand zu managen auch schmerzhaft ist und am Ende des Tages die Verantwortlichen eigentlich keine Server betreiben möchten, sondern eben Fachanwendungen für bestimmte Verwaltungsprozesse zur Verfügung stellen. Außerdem kann man kubernetes auch direkt auf Servern installieren (gibt dafür eigene Distributionen), sodass man dann nicht mehr unbedingt einen Hypervisor wie ProxmoxVE oder vmware benötigt. Wenn der Großteil der Workloads eh in kubernetes läuft, kann man damit ordentlich Kosten sparen und behält dann den Hypervisor (stark reduziert) nur noch für die verbleibenden Legacy-/Windows-Anwendungen (sofern man die nicht über Kubernetes eigenen Virtualisierungsdienst in kubevirt) laufen lässt.
Anderes Beispiel: Kleine Firma hat sechs ITLer, man könnte diese dafür bezahlen selbst Kubernetes oder einen vmware/ProxmoxVE-Cluster zu betreiben. Dann hat man aber noch nichts gewonnen, außer dass man diesen Cluster hat. Es wäre vermutlich für die Firma besser sich einen Kubernetes- oder ProxmoxVE-Cluster als managed Dienst einzukaufen und die sechs ITler statt dessen dafür zu bezahlen Business-Logik auf Basis des managed Service zu entwickeln.
Kleiner Handwerksbetrieb, die "IT" gibt es eigentlich nur für das Office der Buchhaltung und envtl. damit die Monteure Einsätze im Außendienst über ihr Smartphone dokumentieren können. Da wäre Kubernetes oder auch nur eine eigene IT-Abteilung völlig drüber, aber ein vom Systemhaus des Vertrauens bereitgestelltes Office365 sowie ein vom selben Systemhaus aufgesetztes NAS mit einigen docker-Containern (paperless, frigate und co sind auch für kleine Unternehmen praktisch) aber trotzdem nötig.
Du betrachtest doch eher Outsourcing vs. Inhouse. Wenn du mir jemanden nennen kannst, der dir die externe Dienstleistung kubernetes spürbar günstiger als externes Proxmoxclustering anbietet, wäre das sogar eine Überlegungen wert.
Ich bleibe dabei, dass Docker primär die Verantwortlichkeit Richtung Hersteller verschiebt, der sich einen Scheißdreck um die BS-Basis kümmern *will*, der dich aber trotzdem im Fehlerfall für irgendwas in deiner Infrastruktur zur Verantwortung ziehen will!

Klagst du dann? Ich stelle im Fehlerfall einfach die Vorversions-VM her und informiere den Hersteller über einen Misserfolg, statt an meinem Virtualisierungshost rumzuschrauben.
Der Laden läuft aber weiter.

Die Anbieter selbst nutzten einfach weiter den kalten Kaffee von vor 10J, bis es richtig kracht.
Was soll man von so einem Anbieter denn halten?
Anbieter, die nicht in der Lage sind, ihre SW an die aktuellen Anforderungen des Betriebssystems anzupassen, sondern lieber ihre kleine Bubble installieren, sollten eher als Pornoregisseure abeiten.

Ich bleibe dabei, dass Docker eine völlig überflüssiger potentielle Problembär in einer vorhandenen Virtualisierungsumgebung ist.

P.S.:
Welcher Cloudanbieter garantiert denn minimale Ausfallzeiten ohne deine Abläufe zu kennen?
MS vielleicht für ein popeliges Officepaket, welches auch auf dem Desktop immer für Sorgenfalten sorgt. Sonst ist "Cloud" nichts anderes, als gewisse Dienste an einen RZ-Betreiber mit fetter Netzanbindung auszulagern. Dein internes Netz hast du immer noch an der Backe.
 
Last edited: