Server und Storage – Grundlagen

In diesem Artikel informieren wir über die Grundlagen der Servertechnologie, erläutern Server- und Storage-Hardwarekomponenten sowie die unterschiedliche Einsatzgebiete und Verwendungen von Server- und Speicherlösungen.

Was ist ein Server?

Leistungsstarker Netzwerkcomputer, der seine Ressourcen für andere Computer oder Programme meist über ein Netzwerk bereitstellt.

Ein Server ist wie ein PC zunächst ein Computer. Allerdings ist ein Server für Dauerbetrieb mit hoher Ausfallsicherheit konzipiert. Daher hat ein Server wesentlich leistungsstärkere Komponenten, die zudem für die Ausfallsicherheit mehrfach (redundant) vorhanden und im laufenden Betrieb auswechselbar sind. Hierbei gibt es mehrere Optionen:

  • Hot Add: Hinzufügen neuer Hardware
    Beispiel: zusätzlicher Arbeitsspeicher (RAM) in DIMM-Steckplätze
  • Hot Swap: Austausch von Hardware-Komponenten, die nicht mit Software interagieren
    Beispiel: Lüfter, Festplatte
  • Hot Plug: Austausch von Hardware, die mit Software interagiert (meist Betriebssystem)
    Beispiel: Schnittstellen, wie USB, SCSI, eSATA / SAS, Bluetooth, etc.
  • Hot Switch: Wechseln bzw. Umschalten zwischen (redundanten) Hardware-Komponenten
    Beispiel: Zweites Netzteil, das redundant mit verwendet wird;

In Servern können auch viel mehr Komponenten verbaut werden, was auch die teilweise andere Bauform bedingt. Server laufen mit einer eigenen Betriebssystemsoftware, sind also zum Beispiel nicht für PC-Betriebssysteme wie Microsoft Windows 10 ausgelegt.
Weltweit werden ca. 70 Prozent der Websites auf Servern mit der Open-Source-Plattform Linux in verschiedenen Distributionen ausgeführt. Dem gegenüber steht Microsoft mit Windows Server mit diversen Editionen.

Wozu wird ein Server verwendet?

Je nach Einsatzzweck gibt es unterschiedliche Server-Arten, wie Datei-Server, Datenbank-Server, E-Mail-Server, Domain Controller, Web-Server und Terminal-Server, die wir hier vorstellen.

1. Datei-Server (File-Server)

Ein Dateiserver stellt Dateisysteme ganz oder teilweise mehreren Rechnern in einem Rechnernetzwerk zur Verfügung, um mehreren Benutzern den Zugriff auf Dateien zu ermöglichen. Dabei können unterschiedliche Benutzer unterschiedliche Berechtigungen haben, um Dateien zu öffnen/lesen, modifizieren, löschen oder neue, eigene Dateien auf den Server hochzuladen. Durch Versionierung werden Konflikte hinsichtlich der jeweiligen Aktualität von Dateien verhindert.
Der Datei-Server ist ein zentraler Speicherort für die Nutzerdateien der an den Server angeschlossenen Datenträger. Der Server verwaltet und speichert jedoch nicht nur Dateien, er ist auch Ablageort für Programme, die mehreren Benutzern im Netzwerk zugänglich sind. Ein File-Server ist auch gleichzeitig als Backup-Server geeignet. Wenn er an das Internet angebunden ist, ist auch Fernzugriff über Protokolle, wie FTP (File Transfer Protocol), die verschlüsselte Version SFTP (Secure FTP) oder alternativ SCP (Secure Copy) und WebDAV (HTTP-basiert) möglich.

Dateiserver im Überblick:

  • einfache Organisation aller Dateien
  • sehr übersichtlich
  • einfache Datei-Freigabe
  • Nutzerübergreifendes Bearbeiten ohne Versionskonflikte
  • Zentralisierter großer Speicherplatz: Entlastung der Client-Computer
  • Fernzugriff via Netzwerkprotokolle (FTP, SFTP, SCP, WebDAV)
  • Datenschutz und -sicherung unter eigener Kontrolle

Beispiele:
YouTube, SoundCloud, Instagram, etc.

2. Datenbank-Server

Ein Datenbankserver ist ein Rechner, auf dem eine Datenbank bzw. ein Datenbanksystem (DBS) installiert ist. Der Server ermöglicht anderen Rechnern über Datenbankverwaltungsdienste den Zugriff auf die Datenbank. Die Datenbank selbst ist ein elektronisches Verwaltungssystem für die effiziente Verwaltung großer Datenmengen, um Daten ein- und auszugeben, sie richtig, sicher und dauerhaft zu speichern, wiederzufinden und nach Bedarf Nutzern oder Programmen (= Clients) zur Verfügung zu stellen.

Beispiele:
Warenwirtschaftssystem mit Einkauf, Lagerbestand und Verkauf erstellt automatisch Lieferscheine und Rechnungen, informiert über Liefertermine, etc. (z. B. JTL)

3. E-Mail-Server

Ein E-Mail-Server oder Mail-Server empfängt, sendet und leitet E-Mails weiter und speichert sie für spätere Abrufe. Betrieben wird der Mailserver von einem Anbieter, bei dem die E-Mail-Adresse angemeldet wurde. Für die Übertragung und ordnungsgemäße E-Mail-Verwaltung sind weitere Elemente erforderlich, wie Mail Transfer Agent (Annahme und Weiterleitung), Mail Retrieval Agent (Abruf von anderen Servern) und Mail Delivery Agent (Verteilung in die richtigen Postfächer) sowie Übertragungsprotokolle. Grundlegende Protokolle sind Simple Mail Transfer Protocol (SMTP) für das Senden und Weiterleiten, Post Office Protocol (POP) für das Herunterladen und Internet Message Access Protocol (IMAP) als Netzwerkdateisystem. Außerdem sorgen Filter für die automatische Erkennung und Separierung von Schadprogrammen, Spam-Mail und anderen Bedrohungen.

Beispiele: Microsoft Outlook, Mozilla Thunderbird, web.de, GMX, Yahoo, GMail, Hotmail, etc.

4. Domain Controller

Ein Domain Controller (DC, dt. Bereichssteuerung) ist ein Server, der im Netzwerk (Domain) die Benutzerkonten, Berechtigungen, Computer und gemeinsame Ordner verwaltet. Domain Controller enthalten die Daten zur Regelung und Validierung von Netzwerkzugriffen inklusive aller Computernamen und Gruppenrichtlinien. Verschiedene Rechner und Endgeräte werden zu eigenständigen Bereichen, den Domains, zusammengefasst. Domain Controller überprüfen Anmeldeinformationen, wie Benutzernamen und Kennwörter und lassen den Zugriff zu oder verwehren ihn.

Vorteilhaft ist dies für Unternehmen, wo für alle Mitarbeiter genau definiert werden kann, für welche Netzwerkressourcenzugriffe sie jeweils berechtigt sind, d. h. über die Zugehörigkeit zu einer Domain ist klar festgelegt, wer im Unternehmen auf welche Daten und Funktionen zugreifen kann. Außerdem können sich die Mitarbeiter von jedem Rechner mit Zugriff auf die Domäne mit ihren Benutzerdaten anmelden und Administratoren haben weniger Arbeit: die Zuweisung von Mitarbeitern zu den unterschiedlichen Domänen macht die jeweils einzelne lokale Einrichtung der Benutzerkonten an allen Arbeitsplätzen überflüssig. Gleichzeitig ist mit DCs eine einheitliche Anpassung aller Benutzerrechte und Sicherheitsbestimmungen im Netzwerk möglich und DCs sind mit der Netzwerkgröße skalierbar bzw. replizierbar. Außerdem können Benutzerdaten verschlüsselt werden.

Um das Netzwerk und die darin laufenden Prozesse aufrecht zu erhalten, sollten Domain Controller redundant vorhanden sein, also parallel betrieben werden (höhere Verfügbarkeit und bessere Lastverteilung). Domain Controller sind zudem häufig Ziel von Cyberattacken, da dort die sensiblen Informationen, wie Anmelde- und Zugriffsdaten, hinterlegt sind. Administratoren müssen daher stets auf dem aktuellen Stand sein, was Updates und Sicherheitsmerkmale ihrer Benutzersysteme betrifft.

Beispiele: Active Directory oder AzureAD (Microsoft), Samba (Linux)

5. Web-Server

Ein Web-Server ist zum einen ein Hardware-Gerät bzw. ein Computer (Host), auf dem eine Software bzw. ein Dienst mit den Komponenten und Inhalten einer Internetseite läuft. Zum anderen wird diese Software ebenfalls als Web-Server bezeichnet und ist der eigentliche Dienst für das Bereitstellen von Websites. Wenn Sie eine Internetseite aufrufen, schickt der Web-Server die einzelnen Seiten-Bestandteile an Ihren Rechner, auf dem Sie die Website angezeigt bekommen. Zu diesem Zweck muss der Web-Server immer unterbrechungsfrei online sein. Die meisten nutzen Web-Server großer Anbieter für Ihre privaten Zwecke, manche Unternehmen betreiben eigene Web-Server für Ihr Intranet und Internet. Um Daten zu übermitteln, wird das Protokoll HTTP (bzw. verschlüsselt als HTTPS) verwendet. Damit kann ein Web-Server vielen unterschiedlichen Rechnern bzw. Browsern eine Website simultan bereitstellen.
Web-Server, auch HTTP-Server genannt, wurden 1989 am CERN u. a. von Tim Berners-Lee entwickelt, der 1990 mit „CERN httpd“ den ersten Web-Server vorstellte und maßgeblich an der Entwicklung von Internetgrundlagen, wie HTTP und HTML, beteiligt war. Er gilt daher als der Begründer des World Wide Web.

Beispiele: Apache Webserver (kostenlose Open-Source-Plattform), Microsoft Internet Information Services (IIS) (nur für Windows Server), Nginx (kostenloser Webserver mit Reverse Proxy zur Host-Entlastung für schnelleres Arbeiten), Apache Tomcat (Java, Open Source), Lite Speed Webserver (Unix, Linux)

6. Terminal-Server

Ein Terminal-Server ist im Grunde ein gewöhnlicher PC, an dem mehrere Endgeräte (Terminals) angeschlossen sind, sodass mehrere Benutzer über die Terminals gleichzeitig mit bzw. an diesem einen PC arbeiten können, d. h. die Terminals teilen sich die Kapazität des Terminal-Servers. Benutzer, wie die Mitarbeiter eines Unternehmens verschiedener Standorte, können orts- und zeitunabhängig auf die Unternehmensressourcen zugreifen. Die Wartung ist weniger aufwändig (da nur ein zentrales Gerät), und mittels zentraler Anzeige (Dashboard) ist auch die Verwaltung und Überwachung einfach. Da Anwendungen nur einmal auf dem Terminal-Server installiert werden müssen, entfällt die lokale Installation und Aktualisierung von Programmen auf jedem Einzelgerät im Netzwerk. Lizenzkosten werden reduziert (Concurrent-Lizenz statt Pro-Gerät-Lizenz), und mit Thin Clients (kleinere Computer mit wenig Kapazität, da sie über ein Netzwerk mit einem Server verbunden sind und dessen Ressourcen nutzen) als Endgeräte können auch Anschaffungs- und Energiekosten gespart werden.
Die Datenübertragung zwischen Terminal-Server und Clients erfolgt über das Remote Desktop Protocol (RDP) und einem Terminal-Server-Client-Programm auf den Remote-Clients.

Beispiele: Remote Desktop Services (RDS) (Microsoft), Citrix WinFrame, MetaFrame und Citrix Presentation Server Client (Citrix), Linux Terminal Server Project (LTSP) (Linux/Open Source), Sun Ray (Sun/Oracle)

Wer benötigt Servertechnologie?

Im Grunde braucht heutzutage jede Organisation eine Datenbereitstellungs-, Datenverwaltungs- und Datensicherungslösung. Aber auch für Privatpersonen kann ein Server sinnvoll sein. Die Art des Servers bzw. des damit zu erstellenden Netzwerks variiert stark je nach Branche, Unternehmensgegenstand, Unternehmensgröße, Anwendung und Anforderungen (Verfügbarkeit, Sicherheit, etc.).

  • Kleine Unternehmen:
    Ärzte, Steuerberater, Ingenieursbüros, Online-Händler, etc.
  • Mittlere Unternehmen und Großkonzerne:
    Produktionsbetriebe, Dienstleister, etc.
  • Öffentliche Einrichtungen:
    Städte und Gemeinden, (Hoch)Schulen, religiöse Einrichtungen, etc.
  • IT-Dienstleister und IT-Händler

Server oder Cloud?

Die sogenannte Cloud ist eine IT-Infrastruktur, die als Dienstleistung für Speicherplatz, Rechenleistung und Software von verschiedenen Anbietern im Internet ausgeführt wird. Man unterscheidet entsprechend zwischen:

  • Software-as-a-Service (SaaS): Nutzung von fertig eingerichteter Software
  • Plattform-as-a-Service (PaaS): Fertig eingerichtete Umgebung für eigene Software
  • Infrastructure-as-a-Service (IaaS): Eigene Hardwareauswahl, Installation, Betrieb

Server:
Mit dem Kauf eines eigenen Servers haben Sie die IT vollständig unter Ihrer Kontrolle, müssen sich jedoch auch darum kümmern. Durch das eigene Netzwerk sind Sie unabhängig von der Internetverbindung, was speziell in ländlichen Gebieten mit schlechtem Empfang bzw. geringer Bandbreite interessant sein kann. Außerdem ist es Ihr Server, d. h. Sie können alle Ressourcen und Kapazitäten für Ihre Anwendungen alleine nutzen und müssen sich nicht die Performance mit anderen teilen. Stichpunkt Leistung: Bei den meisten Servern können Sie durch Erweiterungen und Skalierung die Serverleistung nach Bedarf erhöhen. Gleiches gilt für die Sicherheit (Upgrades, Erweiterungen, et.).

Bei Fragen zum Serverkauf oder wenn Sie Beratung zu IT-Infrastrukturen benötigen, wenden Sie sich einfach an Serverhero. Wir sind per E-Mail, Telefon oder direkt im Kundenchat (hier auf der Seite) für Sie da. Als einer der wenigen zertifizierten Gold-Partner namhafter Hersteller können wir Ihnen Projektkonditionen mit bis zu 40 % Rabatt anbieten!

Cloud:
Mit dem Erwerb eines cloudbasierten Dienstes für Ihren Speicher-, Netzwerk- und Storage-Bedarf müssen Sie sich nicht mit technischen Fragen der Installation und Bereitstellung oder der Sicherheit auseinandersetzen. Es ist weder eigene Server-Expertise noch eigenes Administrationspersonal nötig. Sie sparen sich die Anfangsinvestitionen für Server und die IT-Infrastruktur allgemein, haben keinen Verwaltungs- und Wartungsaufwand und können Ihre Cloud-Lösung flexibel je nach Bedarf erweitern. Sie sind jedoch abhängig von dem Unternehmen, das Ihre Cloud hostet, d. h. Sie haben wenig Einfluss auf IT-Verwaltung und IT-Sicherheit und darauf, wer außer Ihnen noch die Ressourcen des Anbieters nutzt, was z. B. bei sicherheitsrelevanten Anwendungen eine Rolle spielen kann – wie auch die Frage, in welchem Land die Cloud-Dienste gehostet werden, d. h. welche Datenschutzbestimmungen jeweils gelten.

Welche Arten von Servern gibt es?

Es gibt unterschiedliche Server von unterschiedlichen Herstellern. Ein Merkmal ist die Bauform: Rack und Tower. Außerdem gibt es noch eine Sonderform: Blade-Server.

Rack

Rack-Server

Tower

Tower-Server

Blade

Blade-Server

Rack-Server werden vorwiegend in Rechenzentren verwendet. Sie sind kompakt und lassen sich aufgrund ihrer einheitlichen Bauform und mit „Höheneinheiten“ (HE, engl. units = U) genormten Größen modular und systematisch in Schränken, den sogenannten „Racks“ (19 Zoll), unterbringen: 1 HE, 2 HE, 3 HE, etc. (1 HE entspricht 1¾ Zoll = 44,45 Millimeter). So kann viel Rechenleistung optimal auf geringer Stellfläche untergebracht werden.

Tower-Server hingegen eignen sich eher für die IT-Infrastruktur kleiner Unternehmen, wo sie als „Abteilungsserver“ zum Beispiel in Filialen verwendet werden, da der größere Platzbedarf gepaart mit der für den Rack-Einbau ungünstigen Geometrie (im Vergleich zu Rack-Servern) und die etwas umständlichere Verkabelung sie meistens uninteressant für Rechenzentren machen.

Blade-Server (auch High-Density-Server) sind im Grunde eine Weiterentwicklung der Rack-Server, benötigen allerdings weniger Platz und Energie. Im Gegensatz zum Rack-Server sind Blades keine eigenständigen Server. Es handelt sich um dünne Leiterplatten in einem Gehäuse (Chassis), die sich eine Stromquelle teilen (geringer Energieverbrauch) und einzeln gekühlt werden (z. B. HPE ProLiant XL190r Gen10 oder HPE Apollo XL170r Gen10 etc.). Sie sind meist dezidiert für eine Anwendung vorgesehen. Blades werden erst als Einschubeinheit in einem entsprechenden Gehäuse mit den Komponenten/Funktionen, über die die einzelnen Blades nicht verfügen, zu einem voll funktionsfähigen System (gemeinsame Stromversorgung, Storage, etc.).

Weitere Unterscheidungsmerkmale von Servern sind die verwendeten Bauteile, wie die Art der Festplatten mit Large Form Factor (LFF; 3,5 Zoll) oder Small Form Factor (SFF; 2,5 Zoll) für Hard Disc Drive (HDD, mechanisch drehende Magnetfestplatten) und Solid State Drives (SDD, virtueller Flash-Speicher), die Erweiterbarkeit mit Festplatten, der Arbeitsspeicher und die CPU, die Ausfallsicherheit durch Hot-Plug-fähige Komponenten, wie redundante Netzteile, Festplatten, Lüfter und RAID-Controller.

Diese zwei Videos veranschaulichen den Aufbau und die Komponenten von Servern in einer Explosionsdarstellung. Die einzelnen Komponenten werden anschließend erläutert.

https://www.youtube.com/watch?v=JFZNQPTyV_I&feature=emb_logo

https://www.youtube.com/watch?v=Slyf25fYZic

Wenn Sie Interesse am Kauf eines Servers haben oder Beratung zu einer ganzen IT-Infrastruktur benötigen, wenden Sie sich an uns! Mit unserem Server Konfigurator können Sie sich Ihren maßgeschneiderten Wunsch-Server auch selbst zusammenstellen. Schon gewusst? Serverhero ist einer der wenigen zertifizierten Gold Partner namhafter Hersteller in Deutschland, wie Hewlett Packard Enterprise, Fujitsu, Dell, Lenovo, etc. – dies ermöglicht uns besonders attraktive Preisgestaltungen bei Projekten. Fragen Sie also auf jeden Fall nach den Projektkonditionen mit bis zu 40 % Rabatt!

Was ist der Unterschied zwischen Server und Workstation und PC?

Eine Workstation unterscheidet sich – wie ein PC – von einem Server, indem eine Workstation keine Ressourcen für andere Rechner bereitstellt. Hinsichtlich der verbauten Komponenten und der Leistung befinden sich Workstations jedoch in der Nähe von Servern. Workstations haben höherwertige und teilweise mehr Bauteile als ein PC, zum Beispiel (mehrere) CPUs mit mehreren Kernen und höheren Frequenzen (schnellere Datenverarbeitung) sowie mehr Arbeitsspeicher und Festplatten. Ähnlich wie Server sind Workstations mit sehr zuverlässigen und redundant vorhandenen Komponenten, wie hochleistungsfähige Grafikkarten, auf Ausfallsicherheit und sehr anspruchsvolle Anwendungen (CAD, Simulation, Animation, Videobearbeitung, etc.) ausgelegt und daher auch meistens deutlich teurer als PCs.

Workstation, Server, PC
Von links nach rechts: Workstation, Server, PC

Workstations bewegen sich also hinsichtlich Leistung, Technologie und Anwendungen im Bereich zwischen PC und Server.

Wie ist ein Server aufgebaut?

Im Gehäuse des Servers befinden sich zahlreiche Komponenten, wie Mainboard, CPU, Kühler, Lüfter, Arbeitsspeicher, Festplatten, RAID-Controller, Adapterkarten für Netzwerk, Storage, etc., DVD-Laufwerk und Netzteil(e).

Innenleben eines Servers
Innenleben eines Servers

Diese Komponente haben bestimmte Funktionen und Technologien, die im Folgenden erläutert werden.

1. Was ist ein Mainboard?

Das Mainboard, auch Hauptplatine oder Motherboard genannt, stellt die Infrastruktur für die anderen Komponenten bereit. Als die zentrale Platine in einem Computer bzw. Server sorgt sie für die Verbindung der meisten Serverkomponenten untereinander und fungiert dabei ähnlich wie ein Straßennetz. Von Servern kommende Datenströme werden dabei über verschiedene Anschlüsse und Steckplätze realisiert, wie SAS [Serial Attached Small Computer System Interface (SCSI)] und SATA [Serial ATA (Advanced Technology Attachment)]. Die Hauptaufgabe eines Mainboards ist also die Sicherstellung einer fehlerfreien Zusammenarbeit der untereinander verbundenen Komponenten.

Abhängig von der Verwendung, für die ein Motherboard vorgesehen ist, gibt es unterschiedliche Größen und Typen. Die Größe und Abmessungen eines Mainboards werden als Formfaktor bezeichnet. In Anlehnung an gängige Desktop-Computer werden Server-Mainboards in Rechenzentren in der Regel mit dem ATX-Formfaktor (305 x 244 mm) verwendet. Außerdem sind Server-Mainboards für Rechenzentren in verschiedenen Formfaktor-Varianten erhältlich, wie das etwas größere Format E-ATX mit zusätzlichem Platz für mehr Komponenten und das kleine ITX (Mini, Nano, Pico). Die Auswahl des Formfaktors hängt jedoch grundsätzlich vom Servertyp ab.

Mainboard-Größen (ATX und ITX)
Mainboard-Größen (ATX und ITX) (commons.wikimedia)

Jedes Motherboard hat einen BIOS-Chip, der das zugrundeliegende Betriebssystem für die Hardware enthält. Das Basic Input Output System (BIOS) informiert das Betriebssystem darüber, welche Hardware auf dem Mainboard installiert ist und wie es mit ihr arbeiten soll. Während des Hochfahrens („Booten“) wird überprüft, ob alle angeschlossenen Geräte auch funktionsfähig und einsatzbereit sind. Dafür sorgt ein „CMOS-Static-RAM“-Speicherelement (Complementary Metal-Oxide Semiconductor), das die BIOS-Parameter enthält und den Computer mit einer eigenen kleinen Batterie versorgt, wenn er vom Netz getrennt ist.

2. Was ist eine CPU?

Das „Herzstück“ eines Computers ist die zentrale Rechen- und Steuereinheit: der (Haupt-)Prozessor bzw. die Central Processing Unit (CPU).

Die CPU sitzt auf einem Sockel auf dem Mainboard und auf der CPU befindet sich ein Kühler, meist mit einem Ventilator (Lüfter) zur Kühlung wärmeerzeugender Rechen- und Steuerungsoperationen im Rechen- und Steuerwerk der CPU.

Datenleitungen (Busse) ermöglichen die Kommunikation mit anderen Komponenten. So findet ein Datenaustausch mit dem Arbeitsspeicher über den Datenbus statt, während der Adressbus die Speicheradressen weitergibt und der Steuerbus (Kontrollbus) u. a. festlegt, ob Daten geschrieben oder gelesen werden.

CPUs benötigen für ihre Vorgänge einen Zwischenspeicher für die zuletzt verarbeiteten Befehle bzw. Daten: der sogenannte Cache (aus dem Französischen für „Verstecken“, „Verbergen“), der sich direkt auf oder sehr nah an der CPU befindet und Bestandteil des Arbeitsspeichers ist. (Der Arbeitsspeicher wird nachstehend erläutert.)
Dabei werden bis zu vier Stufen unterschieden: Level-1-Cache bis Level-4-Cache (Level-4-Cache, wenn vorhanden, befindet sich meist außerhalb der CPU).

Moderne CPUS sind stark integriert, d. h. die früheren Co-Prozessoren, wie Gleitkommaeinheit sowie Sound- und Grafikprozessor, sind nicht mehr separate Bauteile, sondern Bestandteile der CPU. Des Weiteren kann die CPU selbst weiter in feinere logische Untereinheiten (Kerne) unterteilt werden, um mehr Rechenleistung zu erzielen. Diese als Mehrkern-Prozessoren bezeichneten CPUs haben mehrere unabhängige Einheiten mit eigenem Rechen-/Steuerwerk, um die herum weitere Elemente angeordnet sind, wie Caches und die Memory Management Unit (MMU). Die MMU stellt sicher, dass alle Caches auf dem gleichen Stand sind (Cache-Kohärenz).

Darüber hinaus sind moderne Prozessoren auch fähig für Multithreading bzw. Hyperthreading (dt. „Mehrfädigkeit“). Dabei werden auf jedem Prozessorkern parallel mehrere Prozesse (Programme oder Teile von Programmen) ausgeführt. Dies ist möglich, indem per Software dem Betriebssystem mehr Rechenwerke angegeben werden als Prozessorkeren vorhanden sind, um langsame Vorgänge in parallele „Threads“ aufzuspalten und schneller zu bearbeiten, zum Beispiel Textbearbeitung mit parallel laufender Rechtschreibprüfung.

Aktuell haben CPUs bis zu 64 Kerne mit bis zu 128 Threads, wie die EPYC-Serie von AMD.

EPYC-Prozessor
EPYC-Prozessor mit max. 64 Cores bzw. 128 Threads (Quelle: AMD)

Der Prozessortakt bzw. die Taktrate (engl. clock rate) ist die Frequenz in Megahertz bzw. Gigahertz, mit der ein Prozessor Signale verarbeitet. Dabei gibt eine Quarzkristall-Schaltung (Taktgenerator) die Zahl der Impulse pro Sekunde vor. Die Taktrate basiert auf dem Grundtakt des Mainboards, ist aber ein Multiplikator dessen. Grundtakt und Multiplikator können bei manchen Herstellern vom Benutzer verändert werden. Bei Reduzierung spricht man von Untertakten und analog umgekehrt bei Erhöhung von Übertakten. Meist wird übertaktet, weil sich der Benutzer mehr Rechenleistung davon verspricht, allerdings ist die Rechengeschwindigkeit auch abhängig von der Peripherie, wie Arbeitsspeicher (RAM), Cache und Datenleitungen, etc.


Info-i
WARNHINWEIS: Übertakten kann zu Überhitzung und Beschädigung der CPU bzw. generell zu Hardwareschäden führen!


3. Was ist ein Kühler?

Um zu verhindern, dass die CPU bei rechenintensiven Anwendungen überhitzt und beschädigt wird, ist auf der CPU ein Prozessorkühler (engl. heatsink) installiert, der meist aus Aluminium [und manchmal auch (teilweise) aus Kupfer] besteht und dessen Oberfläche ähnlich wie die Kühlrippen eines PKW-Kühlers mit vielen Lamellen stark vergrößert ist, um einen besseren Wärmeabtransport zu erreichen. Es wird unterschieden zwischen Luftkühlung (passiv, semi-passiv und aktiv) und Wasserkühlung (passiv, aktiv und manchmal auch sog. Siedekühlung und Trockeneiskühlung).

 Prozessorkühler            Wasserprozessorkühler
      Prozessorkühler                                   Wasserprozessorkühler

4. Was ist ein Lüfter?

Um nicht auf einen rein passiven Abtransport der CPU-Wärme an die Umgebung beschränkt sein zu müssen (Wärmeströmung bzw. Konvektion), werden Ventilatoren direkt auf den CPUs installiert, um die Abwärme mittels des vom Ventilator erzeugten Luftstroms schneller von der CPU abzuleiten. Der Ventilator wird bei Computern und Servern als Lüfter bezeichnet. Lüfter werden einzeln oder in Kombination mit einem Kühler als fertige Einheit angeboten. Der Nachteil ist die Geräuschentwicklung des sich drehenden Lüfterrads.

Neben direkt auf der CPU angebrachten Lüftern gibt es auch Konzepte mit in der Gehäusewand integrierten Lüftern, die das gesamte Gehäuseinnere und das ganze Mainboard mit kühlerer Umgebungsluft kühlen (semi-passiv). Dies findet häufig Anwendung bei 1-HE-Rack-Servern mit Front-to-Back-Lüftung: mehrere Lüfter nebeneinander erzeugen von vorne nach hinten einen Luftstrom durch das Servergehäuse. Durch eine Anordnung der Kühlrippen sowie der übrigen Mainboard-Komponenten (z. B. Speicherriegel) parallel zum Luftstrom wird eine hohe Kühlleistung erreicht.

Semipassiver Chassis-Kühler
Semipassiver Chassis-Kühler (HP ProLiant ML110 Gen9)

5. Was ist Arbeitsspeicher?

Die Verarbeitung aktuell laufender Rechenvorgänge (Programme oder Programmteile und Daten) muss kurzfristig gespeichert werden, um verarbeitbar zu sein. Dafür ist der Hauptspeicher oder Arbeitsspeicher (engl. Random Access Memory, RAM) zuständig. Der Arbeitsspeicher ist die Speicherschnittstelle zwischen dem Langzeitspeicher (Festplatte) und der CPU mit Cache, also quasi das Kurzzeitgedächtnis eines Computers.

Der Arbeitsspeicher ist als Hardware-Komponente ausgeführt. Die offizielle Bezeichnung ist DIMM [Dual Inline Memory Module, dt. (vertikales) doppelreihiges Speichermodul], jedoch werden die Arbeitsspeicher-Komponenten hierzulande oft als RAM-Riegel oder Speicher-Riegel bezeichnet.

PC-Nutzer kennen den Arbeitsspeicher vom Zwischenspeichern eines Programmes, zum Beispiel ein Microsoft-Word-Dokument, eine Bilddatei oder wenn man einen Textausschnitt aus einem Dokument kopiert, um ihn an anderer Stelle wieder einzufügen: Das kopierte Element befindet sich solange im Arbeitsspeicher, bis etwas neues zwischengespeichert oder der Computer ausgeschaltet wird (da RAM ein flüchtiges Speichermedium ist). Die Datenübertragung zwischen CPU und dem Arbeitsspeicher erfolgt über sogenannte Bus-Systeme (s. auch 2. Was ist eine CPU?).

Die neueste Generation der Arbeitsspeicher ist DDR4-RAM (Double Data Rate Random Access Memory). Seit 2014 löst DDR4 mit doppelter Geschwindigkeit (Transferrate von 2133 MHz statt 1066 MHz) und mit vierfacher Speichergröße (4 GB statt 1 GB) zunehmend die Vorgängergeneration DDR3 ab. Ein weiterer Vorteil: Der Stromverbrauch wurde mit einer reduzierten Betriebsspannung verringert (1,2 V statt 1,5 V).

Speicherriegel (DIMM)
Speicherriegel (DIMM) mit DDR4-RAM und 16 GB (HPE)

In Servern werden viele RAM-Riegel verbaut, um für anspruchsvolle Workloads große Zwischenspeicherkapazitäten bereitzustellen. Auf diese Weise werden die 4, 8 oder 16 bis 32 GB RAM, die für einen durchschnittlichen PC-Nutzer ggf. viel sind (und meistens nicht benötigt werden), mit mehreren Terrabyte (TB) RAM eines Industrie-Standardservers schnell in den Schatten gestellt.


Info-i
HINWEIS: Mit der Tastenkombination [STRG] + [ALT] + [ENTF] rufen Sie den Task-Manager Ihres PCs auf, wo Sie die aktuelle RAM-Auslastung sehen und laufende Anwendungen zwangsschließen können.

Task-Manager
Task-Manager mit u. a. Arbeitsspeicherauslastung (Microsoft Windows-PC)


Eine Erklärung des Arbeitsspeicher-Konzepts finden Sie in diesem Video.

6. Was ist eine Festplatte?

Zur dauerhaften Speicherung von Daten ist der Arbeitsspeicher aufgrund seines flüchtigen Charakters und seiner begrenzten Speicherkapazität nicht geeignet. Hierfür gibt es andere Ansätze bzw. Technologien, wie HDD und SSD.

HDD:
Als Langzeitspeicher werden in Computern bzw. Servern Festplatten (Hard Disc Drive, HDD) verwendet. Es handelt sich dabei traditionell um Magnetspeicher, wie man dies auch von Ton- und Videobändern oder Disketten kennt.

Dabei werden beim Schreiben die Daten berührungslos von einem Arm auf die sich drehenden Scheiben gespeichert, indem diese dauerhaft magnetisiert werden. Umgekehrt tastet beim Lesen ein Sensor im Arm die magnetisierte Scheibe berührungslos ab und gibt die Werte in Form lesbarer Daten aus. Die Speicherung eines Datensatzes erfolgt blockweise (à 512 Byte oder 4096 Byte) über die gesamte(n) Festplatte(n) verteilt, d. h. über längere Zeiträume gewachsene Datenmenge führen dazu, dass die Blöcke eines Datensatzes aufgrund der Verteilung weiter auseinanderliegen, was die Zugriffszeit (Latenz) erhöht. Dann ist es an der Zeit für eine sogenannte Defragmentierung der Festplatte(n), um die einzelnen Blöcke wieder näher zusammenzuführen.

Festplatten gibt es in zwei Baugrößen: 2,5 Zoll (Small Form Factor, SFF) und 3,5 Zoll (Large Fom Factor, LFF). Die Anschlüsse sind SAS und SATA oder in letzter Zeit auch zunehmend die schnelleren PCIe-Schnittstellen (Peripheral Component Interconnect express ist ein Standard zur Verbindung von Peripheriegeräten mit dem Chipsatz eines Hauptprozessors).

Magnetfestplatte (HDD)
Magnetfestplatte (HDD) mit Lese-/Schreib-Arm

Vorteile:

  • Speicherung großer Datenmengen
  • Günstig im Preis
  • Haltbar (bei stationärer Verwendung)
  • Zuverlässig

Nachteile:

  • Langsam, speziell bei Abruf größerer Dateien
  • Blockspeicherung führt zu Fragmentierung und Arbeitsaufwand (Defragmentierung)
  • Hoher Energieverbrauch und Wärmeentwicklung: Kosten
  • Mechanik anfällig für physische Beeinträchtigungen (Stöße, Stürze), speziell wenn die Platte verwendet wird und rotiert: Beschädigung und Datenverlust möglich
  • Mechanik potenziell anfällig für Temperaturbereiche und -schwankungen

SSD:
In den letzten Jahren wurde die Alternative zu mechanischen HDDs zunehmend erschwinglicher, sodass sie auch im privaten Bereich Einzug hält: Solid-State-Drive (SSD).
SSDs haben keine mechanischen beweglichen Teile, die Verschleiß, Wärme- und Geräuschemissionen mit sich bringen, vielmehr werden die Daten in Halbleiterelementen gespeichert. Bekanntestes Beispiel ist der USB-Stick als Wechselspeichermedium.

Eine Solid State Disk verfügt in der Regel über einen flashbasierten Speicher, auch NAND-Flash genannt. Dies ist ein in löschbaren und neu programmierbaren Speicherblöcken von 4, 8 oder 16 Kilobyte organisierter, nichtflüchtiger Halbleiterspeicher. Er behält seinen Speicherinhalt auch ohne Stromversorgung und verbraucht wenig Energie. Es werden Single-Level-Cells (SLCs), Multi-Level-Cells (MLCs) oder Triple-Level-Cells (TLCs) unterschieden:
SLCs speichern ein Bit pro Zelle und MLCs oder TLCs speichern zwei, drei oder mehr Bits pro Zelle. Mehr Bits pro Zelle bedeuten eine höhere Speicherdichte, also mehr Speicherplatz.

Um bei Datenabrufen durch SAS-/SATA-Schnittstellen bedingte Engpässe zu vermeiden, wird meistens für SSDs das neuere und schnellere PCIe verwendet.

SSD „Nytro“
SSD „Nytro“ (SATA) mit 1,92 TB (Seagate)

Vorteile:

  • hohe Speicherdichte: geringer Platzbedarf
  • Keine Mechanik:
    - Lautlos
    - Geringeres Gewicht
    - Widerstandsfähig gegen Stöße, Stürze, Temperaturbereiche und -schwankungen
    - Geringes Ausfallrisiko
    - Geringe Wärmeentwicklung = geringer Kühlbedarf (Energiekosten!)
    - Kurze Zugriffsdauer
    - Keine Verzögerungen, da kein Starten von Festplatten

Nachteile:

  • Begrenzte Anzahl von Lese-/Schreibvorgängen der Halbleiterspeichermedien
  • Teurer als HDDs

7. Was ist ein RAID-Controller?

In Servern und in Storage-Systemen sind mehrere Speichermedien vorhanden, aber physisch voneinander getrennt. In der Gesamtheit bieten Sie jedoch mehr Kapazität als die Summe der einzelnen Speichermedien erreichen kann.

Ausgehend von traditionellen Festplatten (HDDs) als Speichermedium, die verschleißen und daher ausfallen können, kam die Notwendigkeit auf, diesen potenziellen Ausfällen vorzubeugen, um die Verfügbarkeit von Systemen aufrecht zu erhalten. Dies wird durch das Zusammenschalten von Festplatten zu einem logischen Verbund erreicht, der sich als einzelnes Laufwerk darstellt. Dieser neu entstandene Festplattenspeicherverbund wird RAID genannt:
Redundant Array of Independent Disks (Redundante Anordnung Unabhängiger Speichermedien; früher: Redundant Array of Inexpensive Disks, dt. Redundante Anordnung Günstiger Speichermedien).

Die Verwaltung und Kommunikation (z. B. Steuerung der Lese- und Schreibzugriffe) übernimmt ein RAID-Controller.

RAID-Controller
RAID-Controller (Fujitsu)

Dies kann eine Hardware-Komponente (teils mit eigenem Prozessor) oder eine Software sein. Zweck dieser logischen Speicherzusammenführung ist die Verbesserung der Ausfallsicherheit bzw. der Verfügbarkeit, die Erhöhung der Datenübertragungsgeschwindigkeit und die Verbesserung der Speicherkapazität. Dabei ist der RAID-Controller in der Regel redundant ausgeführt, um zu verhindern, dass bei Ausfall des Controllers das gesamte RAID-System nicht mehr funktioniert.

In einem RAID können HDDs und SSDs über SATA- oder SAS-Schnittstellen kombiniert verwendet werden, wobei der RAID-Controller quasi als „Vermittler“ zwischen dem Rechner-Betriebssystem und den physikalischen Festplatten eine Abstraktionsschicht bildet. Zur Ausfall- und Datensicherung wird ebenfalls das Verbundkonzept zugrunde gelegt, um verschiedene RAID-Level zu erreichen:
RAID 0, RAID 1, RAID 5, RAID 10 etc..

RAID 0 – Striping:

Dies ist im Grunde kein echtes RAID, da hier noch keine Redundanz erzeugt wird. Es werden zwei Festplatten benötigt. Die Festplatten werden in Blöcke gleicher Größe (sog. stripes) unterteilt und auf diese Stripes wird jeweils parallel zugegriffen.

RAID 0
RAID 0 mit Stripes A1 bis A8

Dies erhöht die Transferraten durch verringerte Zugriffszeiten. Fällt jedoch nur eine Festplatte aus, gehen normalerweise alle Daten verloren, da sich die Stripes nicht mehr zusammenführen lassen. Das ist ähnlich wie bei einem Reißverschluss, wo ein Zahn an einer Stelle des Reißverschlusses fehlt und deswegen alle danach folgenden Zähne nicht mehr geschlossen werden können. Der Vorteil von RAID 0 liegt demnach in der höheren Geschwindigkeit, aber im Grunde ist es nur ein „AID“ („Array of Independent Discs“, ohne „Redundant“).

RAID 1 – Spiegelung

Es werden (mindestens) zwei Festplatten verwendet, wobei die Daten einer Festplatte vollständig auf die zweite Festplatte kopiert werden, daher nennt man dies auch Spiegelung (engl. mirroring).

RAID 1
RAID 1 mit Spiegelung

Auf diese Weise wird vollständige Redundanz aller Daten erreicht, d. h. bei Ausfall einer Festplatte ist noch alles auf der zweiten vorhanden. Vorteilhaft ist die Einfachheit, da beide Platten identisch beschrieben sind und daher jede Platte auch einzeln in einem anderen Rechner verwendet werden kann. Der Nachteil besteht darin, dass aufgrund der Spiegelung nur die Hälfte des gesamten Speicherplatzes zur Verfügung steht.

RAID 5 – Striping mit Parität

Hierbei werden (mindestens) drei Festplatten für die schnelle Speicherung großer Datenmengen verwendet. Die Daten werden zusammen mit einer Paritätsfunktion über mehrere Festplatten hinweg auf Blockebene aufgeteilt (Block-Level-Striping).

RAID 5
RAID 5 mit Paritätsinformationen pro Festplatte

Datenblöcke mit der gleichen Adresse der Festplatten bilden eine logische Gruppe, wobei ein Datenblock einer Gruppe die Paritätsinformationen enthält und die restlichen Datenblöcke die Nutzdaten. Die Paritätsinformationen stellen sicher, dass die Daten im Falle eines Abrufs alle korrekt zusammengeführt werden. Der Nachteil ist, dass die Paritätsinformationen insgesamt die Kapazität einer Festplatte einnehmen, d. h., wenn drei Festplatten mit je 1 TB im RAID-5-Verbund vorhanden sind, können von den insgesamt 3 TB nur 2 TB für Nutzdaten verwendet werden, da 1 TB für die Speicherung der Paritätsinformationen verwendet wird.

RAID 10 – Spiegelung und Stripes

Dies ist eine Kombination aus einem RAID 1 und einem darüber geschaltetem RAID 0 (daher „10“, weil „1“ und „0“ kombiniert werden). Hierfür werden mindesten vier Festplatten benötigt.

RAID 10
RAID 10 mit Spiegelung (RAID 1) und Stripes (RAID 0)

Zwei Festplatten werden mittels RAID 1 gespiegelt. Diese zwei RAID-1-Verbünde werden dann mit einem RAID 0 in Stripes zerlegt. RAID 10 vereint den Vorteil der Ausfallsicherheit von RAID 1 und die hohe Geschwindigkeit von RAID 0. Jedoch können nur 50 Prozent der gesamten Speicherkapazität verwendet werden, d. h. bei zum Beispiel vier Festplatten mit je 1 TB können nur zwei Festplatten bzw. von den gesamten 4 GB nur 2 TB zur Datenspeicherung verwendet werden.

Wir haben hier die vier häufigsten RAIDs aufgeführt, es existieren jedoch noch viele weitere RAID-Varianten, zum Beispiel RAID 0+1 mit drei oder vier Platten, RAID 2, RAID 3, RAID 4, RAID 6 und RAID 03, RAID 05, RAID-30-Verbund, RAID 1.5, RAID 5EE, Matrix-RAID und viele weitere Optionen und Mischformen.

8. Was ist eine Adapterkarte (Netzwerkkarte)?

Eine Netzwerkkarte, auch Network Interface Card (NIC) genannt, dient der Verbindung von mindestens zwei Geräten zu einem Netzwerk über Ethernet (LAN-Kabel) oder Drahtlosnetzwerk/WLAN (WLAN-Netzwerkadapter). Es handelt sich also um eine Hardware-Komponente zur Bereitstellung von Netzwerkkonnektivität. Wegen der vielfältigen Einsatzmöglichkeiten wurden verschiedene Arten von Netzwerkkarten für den Markt entwickelt, wie z. B. PCIe-Karten und Server-Netzwerkkarten. Je nach Region und/oder Verwendungskontext gibt es vielfältige Bezeichnungen, die aber allesamt dasselbe meinen:

Netzwerkadapter, LAN-Karte, Ethernet-Karte, Netzwerk-Adapterkarte (NAC) oder Netzwerk-Schnittstellencontroller.

Netzwerkkarte mit Befestigungsblech
Netzwerkkarte mit Befestigungsblech (FS)

Server-Netzwerkkarten verwalten und organisieren den Datenverkehr in einem Netzwerk. Anders als eine PC-Netzwerkkarte für weniger anspruchsvolle Anwendungen benötigt eine Server-Netzwerkkarte meist höhere Datenübertragungsgeschwindigkeiten (10G, 25G, 40G bzw. bis zu 100G). WLAN-Adapter finden bei Servern aufgrund der geringeren Datenübertragungsgeschwindigkeit in Drahtlosnetzwerken selten Verwendung. Eine weitere Ausnahme bei Server-Adaptern ist, dass sie einen speziellen Netzwerk-Controller haben, der viele Aufgaben von der CPU übernehmen kann, um die CPU-Auslastung zu verringern. Bei PCs sind Netzwerkkarten heutzutage integriert, d. h. sie befinden sich bereits fest verlötet auf dem Mainboard, während sie früher als Steckkarten in einem Erweiterungssteckplatz angeschlossen wurden (Erweiterungssteckplätze für zusätzliche Erweiterungen oder Peripheriegeräte können dennoch bei PCs vorhanden sein).

Bei Servern ist dies anders. Da Server individuell konfigurierbar und erweiterbar sind, werden auch die Adapterkarten als austauschbares Bauteil ausgeführt. Die Netzwerkkarte wird mit Twisted-Pair-Kabeln und RJ45-Steckern an einen Switch angeschlossen, die Datenübertragung erfolgt über das Bus-System PCI Express (PCIe).

9. Was ist ein Netzteil?

Um eine hohe Verfügbarkeit (im Idealfall 100 %) zu gewährleisten, muss für Ausfallsicherheit gesorgt werden. Neben den Hardware- und Software-basierten Redundanzen für die Datensicherung muss dabei auch an die Energieversorgung gedacht werden.
Server verfügen über zusätzliche Steckplätze für redundante Netzteile, sodass der Serverbetrieb nicht unterbrochen wird, wenn ein Netzteil beschädigt ist und ausfällt. Häufig sind die Netzteile Hot-Plug-fähig, d. h. sie können im laufenden Betrieb ausgetauscht werden.

Außerdem gibt es USV-Module (Unterbrechungsfreie Stromversorgung, engl. UPS, Uninterruptible Power Supply) mit verschiedenen Leistungsaufnahmen (Wattzahl) für potenzielle Stromausfälle auf dem Servermarkt, die wie ein Akku mit Strom aufgeladen werden, um im Bedarfsfall einen Stromausfall zu überbrücken. Auch hier werden viele Modelle verschiedener Hersteller mit unterschiedlichen Leistungsmerkmalen angeboten.

10. Weitere Server-Komponenten

Je nach Server-Typ bzw. Hersteller verfügen Server noch über ein DVD-Laufwerk (zum Aufspielen eines Server-Betriebssystems) und Benutzerschnittstellen [Tastatur und Bildschirm mit Graphical User Interface (GUI) zur Konfiguration bzw. Setup des Servers].

Was ist Storage?

Ein Gerät zur Speicherung von Daten, das die ihm zur Verfügung gestellten Daten eigenständig verwaltet.
Die Anforderungen an die Datenspeicherung sind je nach Person bzw. Organisation und Anwendung unterschiedlich. Um Daten sicher und effizient zu speichern, gibt es unterschiedliche Konzepte und Speicherarchitekturen, die wir hier erläutern.

1. Verschiedene „klassische“ Speicherlösungen

Es gibt grundsätzlich drei Arten von Speicherlösungen: Direct Attached Storage (DAS), Network Attached Storage (NAS) und Storage Attached Network (SAN).

Direct Attached Storage (DAS)
An einen Server direkt angeschlossene Festplatten, die sich in einem separaten Gehäuse befinden

Direct Attached Storage
Direct Attached Storage (eigene Darstellung)

Das Speichermedium wird direkt über SAS [Serial Attached SCSI (Small Computer System Interface)] oder FC-P2P (FibreChannel Point to Point), also nicht über das Netzwerk, an einen einzelnen Rechner oder Server angeschlossen (Punkt-zu-Punkt-Verbindung). Vorteile sind u. a. Schnelligkeit, einfache Verwendung, günstiger Preis und geringe Latenzen. Nachteile sind u. a., dass jede Festplatte einen eigenen Hardwareanschluss benötigt, die Entfernung vom Host zum Server begrenzt ist (SAS: 10 m) und ein Direct Attached Storage nur wenig skalierbar ist (nur vertikale Skalierung). Das einfachste Beispiel für ein DAS ist eine externe Festplatte oder auch nur einen einfachen USB-Stick direkt an einen Computer bzw. Server anzuschließen.
Anwendungen sind zum Beispiel Datenbanken, Caching und E-Mail-Server.

Network Attached Storage (NAS)
Im Netzwerk bereitgestellter Speicher (für PCs und Server)

Network Attached Storage
Network Attached Storage (eigene Darstellung)

Eine Festplatte ist bzw. mehrere Festplatten sind eigenständig, d. h. sie funktionieren mit eigener Stromversorgung unabhängig vom Rechner/Server und stehen über eine Netzwerkschnittstelle mit diesem in Verbindung. NAS-Systeme sind für viele Netzwerkprotokolle geeignet, am meisten wird jedoch das iSCSI-Protokoll (internet Small Computer System Interface) verwendet. Häufig ist die für den Betrieb benötigte Software bereits vorinstalliert.

Die Vorteile bestehen darin, dass ein NAS flexibel und skalierbar ist, der Speicherplatz aufgrund der direkten Ethernet-Verbindung für Clients im Netzwerk schnell und einfach verfügbar ist, wodurch verschiedene Endgeräte problemlos auf die Daten zugreifen können. Es ist für Archivierung und Desaster Recovery (Notfallwiederherstellung) geeignet. Nachteile sind der hohe Stromverbrauch (bei Dauerbetrieb), und dass bei einem Ausfall des NAS nicht mehr auf die Daten zugegriffen werden kann. NAS-Anwendungen sind Storage-Konsolidierung, Videoüberwachung, Streaming bzw. Medienserver (z. B. Plex), etc.

Storage Attached Network (SAN)
Storage, die über ein spezielles Netzwerk für mehrere Server bereitgestellt wird

Storage Attached Network
Storage Attached Network (eigene Darstellung)

Die dritte „traditionelle“ Speichermöglichkeit SAN ist eine Erweiterung von Direct Attached Storage (DAS), wobei einem Server über ein Netzwerk Kapazitäten der Speichermedien zugeordnet werden. Dank dynamischer Festplatten-Subsystemen (Disk-Arrays) kann (einem anderen Server) Speicherplatz hinzugefügt oder entnommen werden. Ein Storage Area Network (SAN) verbindet mehrere Server über ein Netzwerk mit mehreren Speichersystemen (auch über große Entfernungen) – im Gegensatz zu DAS, wo ohne Netzwerk eine direkte Verbindung zwischen einem Server und einem Datenspeicher besteht.

Vorteilhaft sind die größeren Entfernungen für die Datenübertragung (Glasfaser), die hohe Datensicherheit aufgrund der Redundanz mit mehreren physischen Datenspeichern und die Bündelung von Kapazitäten durch virtuell zusammengefasste physische Datenspeicher, etc.
Nachteile sind u. a. die Komplexität (höhere Kosten) und potenzielle Kompatibilitätsprobleme (wenn viele Komponenten unterschiedlicher Hersteller verwendet werden).

2. Virtualisiertes SAN (vSAN) und Software Defined Storage
    (SDS)

Seit circa 10 Jahren werden die hardwarebasierten Speicherkonzepte zunehmend in software-basierte Architekturen überführt. Ermöglicht wurde dies durch erhebliche Verbesserungen in der Speichertechnologie mit leistungsstärkeren Arbeitsspeichern (RAM) und Caches von heutzutage mehreren Hundert Gigabyte und der Nutzung von PCIe zur schnelleren Übertragung per FibreChannel (FC) oder iSCSI (internet Small Computer System Interface) und anderen Entwicklungen.

Virtualisiertes SAN (vSAN):

Virtualisiertes Storage Attached Network
Virtualisiertes Storage Attached Network (eigene Darstellung)

Dies ist ein per Abstrahierung logisch zusammengefasster Verbund von Speichermedien (Festplatten), um über Partitionen den Datenverkehr (Traffic) in bestimmten Bereichen eines SAN isoliert zu lenken. Auf diese Weise wird ein virtuelles Speichernetzwerk geschaffen, das gegenüber starren, monolithischen Hardware-basiertem Speicher linear skalierbar ist, die Ressourcen effizienter nutzt, mittels Gast-Betriebssystemen (Operating System Environment, OSE) in Form von virtuellen Maschinen (VMs) mehr Clients im Netzwerk ermöglicht, die Zugriffzeiten verkürzt, etc.
Sie entscheiden, welche Hardware Sie verwenden, da Sie nicht mehr an Hersteller gebunden sind und können mit Industriestandardservern arbeiten statt mit Produkten verschiedener Anbieter. Aufgrund der Migrierbarkeit und Skalierbarkeit haben Sie mit einem vSAN eine nachhaltige Speicherstrategie, die zukunftsfähig ist.

Software Defined Storage (SDS):
Bei Software-definiertem Speicher (SDS) wird die Datenspeicherung zentral über Software verwaltet, wodurch eine Trennung zwischen Speicher(-Software) und darunterliegender Hardware erreicht wird. Dabei handelt es sich nicht um eine physikalische Trennung, sondern um eine rein logische Trennung mit einer „Softwareschicht“ zwischen dem physikalischen Speicher und der Datenanforderung.

Im Grunde zählt SDS nicht zur Storage-Virtualisierung, da bei SDS die Speichersoftware durch Abstrahierung vom Gerät selbst getrennt wird, während bei virtualisiertem SAN (vSAN) die Kapazitäten mehrere Storage-Geräte zusammengeführt werden, sodass es nur scheinbar ein einziges Storage-Gerät ist. Vorteile von SDS sind die Hardwareunabhängigkeit, Kosteneffizienz, Flexibilität, Automatisierung, und Skalierungsfreiheit. Nachteilig sind die gestiegene Anforderungen an Fachwissen bzw. an die IT-Kenntnisse zur Einrichtung des virtuellen SDS. Software Defined Storage kann sehr flexibel für verschiedene Anwendungen eingesetzt werden, wie zum Beispiel Object Storage, Rich Media Storage, Container, Cloud, Big Data Analytics, Hyper-Converged Infrastructure (HCI), u.v.m.

Wenn Sie Storage-Lösungen suchen oder Beratung zum Kauf von Storage, Server oder Netzwerkprodukten benötigen, wenden Sie sich einfach per E-Mail, Telefon oder im Kundenchat (gleich hier auf der Seite) an uns – Sie sprechen immer direkt mit unseren zertifizierten Expert*innen!

Wir haben für Sie auch viele weitere interessane Informationen und Artikel auf unserer Website, zum Beispiel zu den Themen „Speicherkonzepte“ oder „Unterschied zwischen BTO und CTO“, „NVIDIA-GPUs und zugehörige Lizenzen“, „Übersicht zum neuen Lizenzierungsmodell von VMware“ sowie interessante Steuer-Spartipps und „Digital Jetzt“-Förderungen für IT-Innovationen und vieles mehr! Auch bei diesen Themen beraten wir jederzeit! Und falls Sie in einer Schule tätig sind, nutzen Sie unsere Beratung zu den Vorteilen des Digitalpakts der Bundesregierung! Informationen zu staatlichen Fördergeldern für Technologieinnovationen in Krankenhäusern finden Sie in unserer Übersicht Krankenhauszukunftsgesetz (KHZG) für die Digitalisierung von Krankenhäusern.

Serverhero ist deutschlandweit einer der wenigen zertifizierten Partner namhafter Hersteller wie Hewlett Packard Enterprise, Aruba, Fujitsu, Lancom, Dell, Lenovo, Supermicro etc., daher können wir erhebliche Vergünstigungen anbieten – fragen Sie nach unseren Projektkonditionen mit bis zu 40 Prozent Nachlass! Kennen Sie schon unseren Server Konfigurator, mit dem Sie sich auf unserer Seite mit ein paar Klicks Ihren maßgeschneiderten Wunsch-Server zusammenstellen können? Probieren Sie es aus. Auch hierbei unterstützen wir Sie jederzeit!

Serverhero. Wir sind keine Verkäufer. Wir sind IT Experten.

Markus Blatt

Haben Sie Fragen zu einem Produkt,
oder Sie benötigen Hilfe?

Sie erreichen uns unter: +49 2234 2196 500 Kostenloser Rückruf Service Rückruf anfordern

Fragen?

Wir rufen gern zurück! Einfach Telefonnummer und Name eintragen und gewünschte Zeit auswählen.

Haben Sie Fragen zu einem Produkt,
oder Sie benötigen Hilfe?

Wir freuen uns auf Ihre E-Mail: info@serverhero.de Wir freuen uns auf Ihre Nachricht: Kontaktformular

Wir freuen uns auf Ihre Nachricht. Bitte füllen Sie das nachfolgende Formular aus.

Absenden

Weitere Kontaktmöglichkeiten: