Webspace, Managed Hosting, Server

  • Beim Hosting gibt es prinzipiell mehrere "Ausbaustufen"


    1) Webspace

    Ich miete mir einen Speicherplatz für eine Internetseite und lege einfach los.

    Bei einem reinen Webspace ist die Leistung oft begrenzt. Die verfügbaren Ressourcen verteilen sich auf alle Webspaces, die auf dem Server gehostet werden.


    In der Regel gilt das Fair-Use-Prinzip:

    Jeder Webspace bekommt alle verfügbaren freien Ressourcen, wenn sie benötigt werden ... aber ... der Ressourcenverbrauch sollte nicht dauerhaft zu hoch sein, so dass für die anderen Spaces auch immer noch genügend Reserven bereit stehen


    Das Prinzip klappt, weil nie alle Webspaces gleichzeitig und gleichstark Ressourcen benötigen.

    Befinden sich bei einem Hoster jedoch zu viele Webspaces auf dem gleichen Server, sinkt ganz automatisch auch die Performance überall.


    Die Kontrollmöglichkeit bei einem Webspace ist in der Regel auf ein Mindestmaß beschränkt. Man kann kaum etwas falsch machen, weil man keinen entsprechenden Zugriff bekommt.

    Ideal für den Einstieg und zum Testen eines neuen Internetauftritts.


    Einen Webspace kann man schon für wenige Euro pro Monat bekommen. Je günstiger er ist, desto eher muss man sich aber daran gewöhnen, dass es häufiger zu Performance-Problemen oder Totalausfällen kommen kann.


    2) Managed Hosting

    Wer sich nicht mit dem technischen Kram belasten will, der braucht jemanden, der diese Arbeit für ihn erledigt.

    Hierbei hat man die Wahl zwischen ganz individuellen Lösungen und diversen Standardpaketen.


    Standardpakete schränken in der Regel sehr stark ein.

    Zwar bekommt man oft Features, die normalerweise aufpreispflichtig sind, wird dann jedoch in anderen Bereichen massiv eingeschränkt.


    So kann der Hoster zum Beispiel zur Bedingung machen, dass nur Software aus seinen eigenen Quellen installiert wird. Alles andere wird als unsicher betrachtet und ist daher nicht installierbar.


    Der Sinn ist natürlich klar:

    Man möchte alle externen Risiken ausschließen. Automatisch bedeutet das auch, dass man kaum wirklich eine Aufgabe hat als regelmäßig alle Updates auf alle Spaces zu verteilen. Das macht man schon seit vielen Jahren vollautomatisch.


    Der Vorteil für den Kunden ist, dass er sich nicht um die Basics kümmern muss.

    Je nach gewähltem Standardpaket zahlt man rund 30-150 Euro pro Monat. Es kann aber natürlich noch viel günstiger oder teurer werden.


    Individuelle Lösung

    Hierbei wird zunächst von einer Basis ausgegangen, Diese wird dann um die entsprechenden Rechte/Funktionen erweitert. Je mehr (Service) man benötigt, desto teurer wird es.

    Wer die vorher genannten Kosten von 150 Euro schon als hoch betrachtet, wird sich wundern, was dieser individuelle Service kosten kann.


    Für beide Arten gilt: Sonderwünsche können oft individuell zusätzlich beauftragt werden. Die Kosten dafür werden nach Aufwand berechnet.


    3) "eigener Server"

    Wer jetzt denkt, dass ein "eigener Server" ein bestimmtes Stück Hardware ist, das man ganz gezielt mieten kann, der liegt leider falsch. Oft ist es jedoch sogar besser, weil man sich dann nicht mit den Hardware-Problemen herum schlagen muss.


    virtueller dedizierter Server

    Ein Server wird in mehrere Bereiche aufgeteilt, die dann den Mietern zur Verfügung gestellt werden. Eigentlich ist es das gleiche Prinzip wie bei einem Webspace, nur jedoch auf höherer Server-Ebene.

    Alle virtuellen Server teilen sich gemeinsam die Hardware-Ressourcen.

    Im Gegensatz zum Webspace werden die Ressourcen jedoch einzeln festgelegt und es findet kein Fair-Use-Prinzip statt.


    Man muss also vorher ganz genau wissen, welche Ressourcen man eventuell braucht. Sind die Ressourcen ausgelastet, gibt es keinen "Nachschub" von den anderen virtuellen Servern.

    Bei einer DDoS-Attacke würde das bedeuten, dass dein eigener virtueller Server durch die Attacke lahm gelegt wird, während die anderen ganz normal weiter laufen.

    Jetzt müsstest du "geeignete Maßnahmen" ergreifen, damit dein Server wieder erreichbar wird.


    dedizierter Server

    Jetzt hast du endlich deinen wirklich eigenen Server, der irgendwo in einem Rechenzentrum steht. Du bestimmst die Hardware, Performance und Anbindung ans Internet. Du kannst auf dem Server alles machen, was du willst.

    Du hast die volle Kontrolle und Verantwortung dafür. Keine Vorschriften oder Einschränkungen.


    Für beide Versionen wird oft auch "managed" angeboten.

    Das ist dann nötig, wenn man zwar zwangsweise einen eigenen Server benötigt, jedoch keine Lust an technischen Sachen hat.


    inhouse hosting Server

    Kauf dir einen eigenen Server nach deinen eigenen Vorstellungen. Vereinbare einen Tarif für die Datenübertragung und miete dir einen Platz für deinen Server in einem Rechenzentrum (RZ) .

    Obwohl es deine persönliche Hardware ist, zahlst du dafür dann aber durchaus viel mehr als wenn du einen Server aus dem RZ gemietet hättest.


    Der Grund dafür ist oft, dass man die fremde Hardware auch anders anschließen/überwachen/warten muss als hauseigene Server. Der Aufwand ist also viel höher und rechtfertigt dann auch viel höhere Gebühren.


    Was ist eigentlich ein Server ?

    Grundsätzlich sind es keine großen Rechner, sondern ganz kleine flache Teile, die in ein Rahmengestell (Rack) geschoben werden.

    Ein Server hat 2-3 HE (Höheneinheiten) und enthält nur das Minimum, was ein Computer benötigt.

    Ein kleiner Prozessor ... selbst billige Smartphones haben schon leistungsfähigere Prozessoren.

    Ein paar GB RAM ... auch hier hat ein Smartphone oft schon mehr zu bieten.

    Eine kleine Festplatte ... die Speicherkarten für Smartphones sind oft schon größer


    Das "Geheimnis eines Servers" und wieso er trotzdem so schnell ist, ist, dass er erstens kein schwergewichtiges Betriebssystem hat .... Windows-Server gibt es schon nicht mehr ... und dass auf einem Server keine Programme ablaufen.

    Jede nötige Funktion ist in PHP "programmiert". PHP ist eigentlich nur eine Aufeinanderlistung von verschiedenen kleinen einzelnen Befehlen, die keinen RAM benötigen und Stück um Stück in Windeseile abgearbeitet werden können.

    Dazu natürlich auch noch eine Datenbank, in denen alles in ganz einfachen Tabellen abgelegt wird.


    Verbindet man jetzt die Komponenten mit entsprechend leistungsfähigen BUS-Systemen, hat man einen "unterirdisch schlechten Computer", der aber Hochleistungscomputern aus dem Heimbereich durchaus überlegen sein kann.


    Natürlich hat ein Rechenzentrum viel bessere Datenübertragungen als man sie zu Hause haben könnte.

    Würde man mit so einem "miesen Server" einen Angriff auf einen "Hochleistungs-Heimrechner" starten, würde er ihn in Sekundenbruchteilen überlasten können. Die Daten kommen einfach schneller rein, als sie der "Hochleistungscomputer" verarbeiten kann.


    Echter Server bei sich zu Hause ?

    Kann man natürlich gerne machen. Er ist aber nie mit einem Server vergleichbar, der in einem Rechenzentrum steht. Selbst wenn du einen Server aus einem RZ holst und zu Hause anschließt, "stinkt er gewaltig ab".


    Grund:

    - Deine Internetleitung hat nie den Upload, den der Server in einem RZ hat.

    - Deine Internetleitung hat keine zugesicherte Bandbreite und Geschwindigkeit.

    - Dein ISP kann dir jederzeit den Saft abdrehen. Einmal in 24 Stunden Dauerbetrieb wird sich sowieso von allen ISP vorbehalten


    Alles zusammen genommen würde Server zu Hause einfach nur lahm sein. Dazu kommt noch, dass sich deine Internet-Ressourcen auf alle zugreifenden Nutzer aufteilen.

    1 Nutzer bei einem Upload von 50 MBit/s = 50 MBit/s für ihn

    2 Nutzer = 25 MBit/s für jeden

    10 = 0,5 MBit/s für jeden.

    "DSL 1000" wäre schon doppelt so schnell im Download gewesen wie dieser Homeserver jetzt noch liefern kann.


    Der "Server zu Hause" reicht also allenfalls dafür aus, um aus der Ferne (vielleicht zusammen mit Freunden/Familie) auf die Daten zugreifen zu können.


    Cloud-Server ?

    Sie sind nichts anderes als ein Server-Verbund, der gemeinsam alle Ressourcen zur Verfügung stellt. Braucht man mehr, schaltet man einen weiteren Verbund hinzu.

    Cloud-Server können aus diesem Grund nicht überlastet werden, so lange man weitere Rechner-Verbünde zuschalten kann.


    ABER


    Wenn die Server-Steuerung versagt, fällt der ganze Verbund gleichzeitig komplett aus- So schon geschehen bei Amazon-, Google- und Microsoft-Cloud-Servern. Beim Ausfall dieser Cloud-Server sind jeweils Millionen Internetseiten gleichzeitig offline gegangen.


    Wie ist es mit der Sicherheit der Daten auf Webspaces und Servern bestellt ?

    Jeder Hoster hat automatisch auch Zugriff auf die Daten, die auf den Servern liegen. Der Zugriff auf die Datenbänke wird in der regel dadurch erschwert/behindert, dass man die Daten dort verschlüsselt ablegen lässt. Damit sind sie auch vor so einem Zugriff weitgehendst geschützt.


    Der Hoster oder das Rechenzentrum kann die Daten aber abfangen, bevor sie verschlüsselt abgelegt werden. Auch wenn die Daten per HTTPS gesendet werden, gibt es doch immer noch den Zwischenschritt, wo die Daten entschlüsselt werden, um sie verarbeiten zu können und bis sie erneut verschlüsselt werden.


    In den USA gibt es schon lange ein Gesetz, das die Betreiber von Serverfarmen dazu verpflichtet, "staatlichen Stellen" so eine Schnittstelle einzurichten. Das Gesetz bezieht sich auf alle Server und nicht nur auf die, die sich auch substanziell in den USA befinden.

    Damit sind Daten bei US-Server-Anbietern auf keinen Fall sicher aufgehoben.


    Ähnliche Gesetze existieren in Großbritannien, Frankreich und China.

    Überall dort ist von "Datensicherheit" also keine Rede.


    Wer wirklich "auf Nummer sicher" gehen will, darf also nicht bei Anbietern hosten, die durch landeseigene Gesetze verpflichtet werden (können), Zugang zu den Serverdaten zu verschaffen.