Rheinwerk Computing < openbook > Rheinwerk Computing - Professionelle Bücher. Auch für Einsteiger.
Professionelle Bücher. Auch für Einsteiger.

Inhaltsverzeichnis
Geleitwort
1 Warum eine neue Server-Version?
2 Editionen und Lizenzen
3 Hardware und Dimensionierung
4 Protokolle
5 Was ist .NET?
6 Installation
7 Die Core-Installationsoption
8 Active Directory-Domänendienste
9 Netzwerkdienste im AD-Umfeld
10 Active Directory Lightweight Directory Services (AD LDS)
11 Active Directory-Verbunddienste (Federation Services)
12 Active Directory-Zertifikatdienste
13 Active Directory-Rechteverwaltungsdienste (AD RMS)
14 »Innere Sicherheit«
15 Dateisystem und Dateidienste
16 Drucken
17 Webserver (IIS)
18 SharePoint Foundation und SharePoint Server
19 Remotedesktopdienste (Terminaldienste)
20 Hochverfügbarkeit
21 Datensicherung
22 Servervirtualisierung mit Hyper-V
23 Windows PowerShell
Stichwort

Jetzt Buch bestellen
Ihre Meinung?

Spacer
Windows Server 2012 R2 von Ulrich B. Boddenberg
Das umfassende Handbuch
Buch: Windows Server 2012 R2

Windows Server 2012 R2
Rheinwerk Computing
1392 S., 4., aktualisierte Auflage 2014, geb.
59,90 Euro, ISBN 978-3-8362-2013-2
Pfeil 3 Hardware und Dimensionierung
Pfeil 3.1 Serverhardware
Pfeil 3.1.1 Prozessoren
Pfeil 3.1.2 Serverarchitektur
Pfeil 3.1.3 Hauptspeicher
Pfeil 3.1.4 Festplatten
Pfeil 3.1.5 Netzwerkkonnektivität
Pfeil 3.1.6 Überwachung
Pfeil 3.2 Storage-Architekturen
Pfeil 3.2.1 SAN, NAS, iSCSI
Pfeil 3.2.2 SAN-Architektur
Pfeil 3.2.3 Premium Features von Storage-Systemen
Pfeil 3.2.4 Virtualisierung
Pfeil 3.3 Netzwerk
Pfeil 3.3.1 Netzwerkstrukturen und Verfügbarkeit
Pfeil 3.3.2 Anbindung von entfernten Nutzern
Pfeil 3.3.3 Netzwerkmanagement
Pfeil 3.4 Das Rechenzentrum
Pfeil 3.4.1 Zugangskontrolle
Pfeil 3.4.2 Feuer, Wasser ...
Pfeil 3.4.3 Räumliche Anforderungen
Pfeil 3.4.4 Stromversorgung
Pfeil 3.4.5 Redundante Rechenzentren
Pfeil 3.5 Mein Freund, der Systemmonitor
Pfeil 3.5.1 Leistungsindikatoren, Objekte und Instanzen
Pfeil 3.5.2 Protokoll erstellen
Pfeil 3.5.3 Protokoll untersuchen
Pfeil 3.5.4 Leistungsmessung über Computergrenzen hinweg
Pfeil 3.6 Dimensionierung und Performance
Pfeil 3.6.1 Festplatte & Co.
Pfeil 3.6.2 Hauptspeicher
Pfeil 3.6.3 Prozessor
Pfeil 3.6.4 Netzwerkkonnektivität

3Hardware und Dimensionierung Zur nächsten Überschrift

Doch mir gebt die Tochter zurück, und empfahet die Lösung,
Ehrfurchtsvoll vor Zeus ferntreffendem Sohn Apollon.
Drauf gebot beifallend das ganze Heer der Achaier,
Ehrend den Priester zu scheun, und die köstliche Lösung zu nehmen.
Aber nicht Agamemnon, des Atreus Sohne, gefiel es

In jedem Projekt stellt sich irgendwann die Frage, auf welcher Hardware der neue Windows Server 2012/R2 denn nun laufen soll. Im Klartext lautet die Frage der Kunden: »Uli, wie soll ich den Server dimensionieren?« Diese Frage lässt sich freilich in einem Buch nur recht schwierig beantworten, weil jeder Fall zwangsläufig individuell ist. Ich möchte Ihnen aber gern einige Hinweise geben, wie Sie sich an eine optimale Dimensionierung heranarbeiten.

Dieses Kapitel beginnt daher mit einem kurzen Hardwareüberblick und steigt dann in die Dimensionierung und in den Umgang mit dem Performance-Monitor ein.


Rheinwerk Computing - Zum Seitenanfang

3.1 Serverhardware Zur nächsten ÜberschriftZur vorigen Überschrift

Als Serversysteme für die Microsoft-Plattform kommt nur Hardware mit Intel- oder Intel-kompatiblen Prozessoren (also AMD-Prozessoren) infrage. Daran hat sich übrigens auch bei Windows Server 2012 nichts geändert – ein Variantenreichtum wie zu NT4-Zeiten, als neben der Intel-Plattform auch PowerPC-, MIPS- und Alpha-Versionen zur Verfügung standen, kehrt nicht zurück.


Rheinwerk Computing - Zum Seitenanfang

3.1.1 Prozessoren Zur nächsten ÜberschriftZur vorigen Überschrift

Der Prozessor bzw. sind die Prozessoren sind gewissermaßen das Herzstück eines Servers. Heute (August 2013) sind im Prinzip drei verschiedene Prozessorfamilien auf dem Markt:

  • IA-32: die 32-Bit-Prozessoren (Sie gibt es zwar noch, sie werden aber schon seit Server 2008 R2 nicht mehr unterstützt.)
  • x64: Intel Xeon EM64T- oder AMD Opteron-Prozessoren
  • Itanium: Diese Prozessoren werden seit Windows Server 2012 nicht mehr unterstützt.

Ich habe nicht vor, die genaue Architektur jeder Prozessorfamilie im Detail vorzustellen – ich gehe in den nächsten Abschnitten vielmehr auf die Bedeutung der jeweiligen Prozessortypen in heutigen Servern ein.

IA32-Prozessoren

Bei dieser Prozessorfamilie handelt es sich um die »klassischen« 32-Bit-Prozessoren, die mittlerweile millionenfach verbaut sind. Aktuell gibt es kaum noch 32-Bit-Prozessoren zu kaufen – und schon gar nicht im Serverumfeld. Daher sind diese Erläuterungen eher »historisch« zu sehen.

Es existieren vier Serverproduktlinien, die mit Prozessoren dieser Architektur erhältlich waren:

  • Einstiegsserver mit einem Prozessor: Diese Produkte zielten auf Kleinstfirmen mit sehr einfachen IT-Anforderungen. Server dieses Typs wurden mit einem Pentium 4- oder Pentium D-Prozessor geliefert; ein Mehrprozessorbetrieb ist nicht möglich.
  • Midrange-Server mit bis zu zwei Xeon-Prozessoren: Für viele Anwendungen mit mittleren Anforderungen eignen sich die Serversysteme mit bis zu zwei Xeon-Prozessoren.
  • Server mit bis zu vier Xeon MP-Prozessoren: Für leistungsintensive Anwendungen sind von allen Markenherstellern Server erhältlich, die mit bis zu vier Xeon MP-Prozessoren bestückbar sind.
  • Server mit mehr als vier Prozessoren: Auch im IA-32-Bereich sind Server mit mehr als vier Prozessoren verfügbar.

Eines der Hauptprobleme von 32-Bit-Systemen ist, dass das Betriebssystem nur 4 GB Speicher adressieren kann (232 = 4.294.967.296). Standardmäßig wird das Betriebssystem für den »Eigenbedarf« 2 GB reservieren und den übrigen Speicher, also ebenfalls 2 GB, für Anwendungen bereitstellen. Dieses Verhalten kann mit dem /3GB-Parameter in der boot.ini-Datei zwar dahingehend verändert werden, dass die Aufteilung zwischen Betriebssystem und Anwendungen im Verhältnis 1:3 geschieht. Aber auch das bringt letztendlich nicht den großen Durchbruch, wenn man eigentlich fünf oder zehn Gigabyte Hauptspeicher benötigen würde.

Die Adressierbarkeit von Speicher oberhalb von 4 GB lässt sich durch AWE bewerkstelligen. AWE bezeichnet die in Windows Server enthaltene Address Windowing Extension. Anwendungen können Speicher als Nonpaged Memory anfordern, der dann dynamisch in den 32-Bit-Adressraum eingeblendet wird. Mittels dieser Technologie konnte beispielsweise Windows Server 2003 Enterprise bis zu 32 GB virtuellen Speichers verwalten, und die Datacenter-Edition schaffte bis zu 64 GB.

Dieses Speichermanagement verursacht natürlich für das Betriebssystem einen gewissen Verwaltungsaufwand, der sich in Performance-Nachteilen niederschlagen könnte – natürlich abhängig vom jeweiligen Anwendungsszenario.

Weiterhin sind die Anwendungsszenarien limitiert, da das 32-Bit-Betriebssystem nicht plötzlich eine Welt mit beispielsweise 12 GB Hauptspeicher für alle Anwendungszwecke bereitstellen kann – trotz AWE. SQL Server 2005 kann den über AWE bereitgestellten Speicher nur für die Verwaltung von Page Buffers verwenden und nicht für das Caching von Queries, für das Sortieren, Joinen etc.

Auch wenn es noch das ein oder andere 32-Bit-System zu kaufen gibt und Sie vielleicht noch das ein oder andere System in Ihren Racks haben, gibt es nur ein Fazit: Bei Neubeschaffungen Finger weg von 32-Bit-Systemen!

Die 64-Bit-Welt

Die Welt der Intel-64-Bit-Prozessoren besteht aus zwei Technologie-Familien:

  • x64: Hier finden sich die 64-Bit-Prozessoren von Intel (Xeon 64Bit und Pentium mit EM64T) und AMD (Opteron und Athlon64). »x64« ist übrigens die von Microsoft geprägte Bezeichnung für diese Prozessorfamilie.
  • IA64: Ein Mitglied dieser Familie ist der Itanium-Prozessor.

Bei diesen beiden 64-Bit-Familien handelt es sich um unterschiedliche, vor allem nicht zueinander kompatible Technologieansätze! x64 ist im Grunde eine erweiterte x86-Architektur, während Itanium auf EPIC basiert. EPIC ist das Kürzel für Explicitly Parallel Instruction Computing, eine Technik, die vereinfacht gesagt darauf basiert, dass bereits bei der Programmierung die Parallelisierung der Befehle eines Instruktionsstroms explizit vorgenommen wird.

In dem Absatz oben sind drei Wörter besonders wichtig, nämlich »nicht zueinander kompatibel«. Vor einigen Jahren mussten Sie sehr genau untersuchen, welche der Architekturen konkret am besten zu Ihrer Umgebung passte, denn für Itanium-Maschinen beschaffte Software lief nicht auf x64-Systemen – und umgekehrt.

Letztendich spielt Itanium keine Rolle mehr, weil Windows Server 2012 dafür nicht mehr erhältlich ist.

x64

Schon lange sind Server, die mit 64-Bit-Xeon- oder 64-Bit-Opteron-Prozessoren ausgestattet sind, im »Massenmarkt« angekommen. Wenn Sie heute eine Zwei- oder Vierprozessor-Maschine beschaffen, wird diese bereits mit einem 64-Bit-Xeon-Prozessor oder dem AMD-Gegenstück ausgerüstet sein. Die Prozessoren werden Prozessoren mit zwei bis acht Kernen sein, was bedeutet, dass zwei bzw. acht vollwertige Prozessorkerne in einem Gehäuse sitzen. Lediglich der Bus und einige Cachebereiche werden zwischen den Prozessorkernen geteilt.

Für x64-Systeme sprechen folgende Punkte:

  • Entsprechende Serversysteme sind recht preiswert erhältlich, weil sie mittlerweile Massenartikel geworden sind.
  • Die Anzahl der für diese Plattform verfügbaren Softwareprodukte steigt immens. Bereits jetzt gibt es viele Microsoft Server-Produkte nur noch als x64-Versionen.
  • Ältere 32-Bit-Applikationen werden performant ausgeführt, da der Prozessor auch deren Code »versteht«.

Generell gilt natürlich für 64-Bit-Systeme:

  • Die Applikationen können mehr Speicher verwenden – auch ohne Maßnahmen wie AWE. Der adressierbare Speicher beträgt 264 Bits (= 18.446.744.073.709.551.616 Bits, das entspricht 2.147.483.648 Gigabytes).
  • höhere Geschwindigkeit durch schnellere Busse
  • höhere Anzahl von Prozessoren bei besserem Skalieren

Rheinwerk Computing - Zum Seitenanfang

3.1.2 Serverarchitektur Zur nächsten ÜberschriftZur vorigen Überschrift

Der Prozessortyp, die Prozessoranzahl oder die Taktfrequenz sind zwar für die letztendliche Performance des Servers entscheidend – genauso wichtig sind aber auch die Leistung des Systembusses, Parameter wie die Anzahl und der Typ der PCI-Busse und vieles andere mehr. Die Hardware-Hersteller fertigen nun zwar keine Systeme, bei denen der verwendete Prozessor nicht zu den sonstigen Komponenten passen würde, trotzdem ist es wichtig, dass Sie nicht nur auf den Prozessor, sondern auf das Gesamtsystem schauen. Einige Aspekte:

  • Wenn zwar der Prozessor sehr schnell ist, das System ansonsten aber nur mit einem PCI-Bus ausgestattet ist, entsteht bei einem sehr IO-lastigen Nutzungsprofil ein Flaschenhals. Hier würden beispielsweise Serversysteme mit mehreren PCI-Bussen helfen.
  • Zu prüfen ist, ob der Server PCI Express x8 unterstützt und entsprechende Karten auch mit dieser Geschwindigkeit verwendet oder ob er sie lediglich mit der x4-Geschwindigkeit betreibt. Sofern die hohe Transferleistung nicht benötigt wird, ist dies natürlich kein Kriterium.
  • Erweiterbarkeit: Wenn Sie laut heutigen Anforderungen lediglich ein Zwei-Prozessor-System benötigen, aber damit rechnen, dass während der Verwendungszeit des Servers eine höhere Prozessorleistung erforderlich wird, müssen Sie natürlich ein entsprechend erweiterbares System beschaffen.

    Hinweis zur Erweiterbarkeit

    Ein Hinweis zum letzten Punkt der Aufzählung: Wenn Sie heute ein System beschaffen, das voraussichtlich während der Verwendungszeit aufgerüstet werden muss, sollten Sie überlegen, eventuell bereits jetzt alle benötigten Prozessoren und sämtlichen Speicher zu beschaffen. Gerade in der recht schnelllebigen Xeon-Welt kann es passieren, dass Sie einen heute aktuellen Prozessor in zwei Jahren nur noch auf dem sehr teuren Ersatzteilweg beschaffen können – und dann zahlen Sie kräftig drauf.

    Weiterhin müssen Sie darauf achten, dass die Kombinationen unterschiedlicher Stepping-Werte zueinander passen. Das Stepping ist eine Art Chargennummer eines Prozessors. Grundsätzlich können Prozessoren mit unterschiedlichen Steppingwerten in einem Mehrprozessorsystem gemeinsam betrieben werden, trotzdem könnte (!) es nicht unterstützte Kombinationen geben. Dies ist zwar eher in den Anfangszeiten der Intel-basierten Mehrprozessorsysteme der Fall gewesen, auszuschließen ist es aber auch heute nicht.

    Beachten Sie, dass Sie beim Nachkauf von Prozessoren kein bestimmtes Stepping auf Ihrer Bestellung angeben können. Aus diesem Grund lautet die Empfehlung aus der Praxis, ein System lieber direkt voll zu bestücken.


Rheinwerk Computing - Zum Seitenanfang

3.1.3 Hauptspeicher Zur nächsten ÜberschriftZur vorigen Überschrift

Eine alte »IT-Weisheit« besagt, dass man nie genug Hauptspeicher haben kann. Dies ist natürlich speziell im Datenbankumfeld der Fall. Letztendlich wird der benötigte Speicherausbau ein Ergebnis des Sizing-Prozesses sein. Wenn die empfohlene Speichermenge ermittelt ist, sind einige technische Aspekte zu beachten:

  • Aus Gründen der Performance unter Last (!) wird im Allgemeinen empfohlen, möglichst Speicher-Kits identischer Größe zu verwenden. Die Server-Hersteller geben in der Regel Whitepapers heraus, die die optimale Speicherbestückung für die jeweiligen Systeme beschreiben.
  • Auch im Speicherumfeld gilt, dass es problematisch sein wird, für ein älteres System noch zu vertretbaren Kosten zusätzlichen Speicher zu erhalten. Falls Sie (beispielsweise nach zwei Jahren) Speicher auf dem Ersatzteilweg beschaffen müssen, ist das unverhältnismäßig teuer.

Ein Serversystem, das die Bezeichnung »Server« verdient, verfügt heute über fehlertoleranten Speicher (ECC = Error Checking and Correction). Vereinfacht gesagt werden zusätzliche Paritätsbits verwendet, anhand derer »gekippte« Bits erkannt und wenn möglich korrigiert werden.

Größere Server unterstützen zusätzliche Möglichkeiten der Fehlerkorrektur. Sie können sogar den Ausfall ganzer Speicherbänke »überleben«. Dies wird entweder durch Ansätze erreicht, bei denen Prüfsummen nicht nur über einzelne Speichermodule gebildet werden, oder durch eine RAID-ähnliche Konfiguration des Speichers realisiert.

Im x64-Segment verfügen die Vier-Prozessor-Server der meisten Hersteller über sehr leistungsfähige Möglichkeiten, den Hauptspeicher möglichst ausfallsicher zu betreiben. Zwei-Prozessor-Maschinen verfügen zwar ebenfalls über grundlegende Mechanismen zur Fehlervermeidung. Wenn Sie auf höchste Fehlertoleranz angewiesen sind, werden die Möglichkeiten der »einfacheren« Server aber häufig nicht genügen, sodass Sie unter Umständen gar nicht aus Leistungs-, sondern aus Verfügbarkeitsgründen das technisch nächsthöhere Servermodell benötigen.


Rheinwerk Computing - Zum Seitenanfang

3.1.4 Festplatten Zur nächsten ÜberschriftZur vorigen Überschrift

Fast alle Anwendungen werden irgendwann Daten speichern müssen – die meisten Anwendungen beschäftigen sich in letzter Konsequenz damit, Daten ins Dateisystem oder in eine Datenbank zu schreiben und diese dort zu modifizieren.

Jeder Server benötigt zunächst einen Plattenbereich für das Betriebssystem. Dieser sollte (eigentlich »muss«) separat von den produktiven Daten liegen und tunlichst als RAID-1 implementiert sein:

  • Zunächst muss der Systembereich natürlich fehlertolerant ausgelegt sein, damit ein Fehler auf einer Platte nicht zum Ausfall des kompletten Serversystems führt.
  • RAID-1 bietet gegenüber einem RAID-5 den großen Vorteil einer geringen Write-Penalty (RAID-5 benötigt bei Änderungen 4 IOs, RAID-1 lediglich 2). Da pagefile.sys im Allgemeinen auf diesem Plattenbereich liegen wird, ist dieser Effekt nicht zu vernachlässigen.
  • Es ist problemlos möglich, regelmäßig einen »dritten Spiegel« zu erzeugen und so eine Reserveplatte zu haben, von der im Fall eines schwerwiegenden Problems gebootet werden kann (»kalter Spiegel«). Dies ersetzt keinesfalls ein »normales« Backup, ist aber als zusätzliche Wiederherstellungsmethode durchaus sinnvoll. Ich kenne diverse Unternehmen, die vor dem Einspielen von Patches und Ähnlichem zunächst eine weitere Spiegelplatte erzeugen, um schnell wieder zum Ursprungszustand zurückkehren zu können. Dies alles ist mit einem RAID-5 nicht möglich. Ebenfalls nicht möglich sind diese Szenarien, wenn produktive Daten auf den Systemplatten liegen.

Bei reinen Applikationsservern ist die Planungsarbeit prinzipiell schon erledigt, denn weitere Plattenbereiche werden auf diesen Systemen nicht notwendig sein.

Bei Datenbankservern werden Sie mehr oder weniger viele zusätzliche Platten einplanen, um RAID-Sets für Datenbanken, Logs, Indizes etc. bereitzustellen. Die Anzahl der benötigten Platten und der zu konfigurierenden RAID-Sets ist das Ergebnis des Sizing-Prozesses.

Es ist technisch kein Problem, an einen Server lokal viele Dutzend Platten anzuschließen. Im Rahmen einer größeren Neubeschaffung von Servern nebst vieler Platten bietet es sich aber in jedem Fall an, darüber nachzudenken, ob nicht eine zentralisierte Storage-Architektur in Ihrer Umgebung sinnvoll und vorteilhaft ist. Mehr dazu folgt in Abschnitt 3.2, »Storage-Architekturen«.

RAID-Controller

Technologisches Herzstück des Plattensystems ist der (oder sind die) RAID-Controller. Viele Serversysteme verfügen bereits über integrierte RAID-Controller, meistens On-Chip-Lösungen. Für die Systemplatten dürften diese in den meisten Fällen sogar genügen. Wenn Sie die Datenbanken auf lokal angeschlossenen Platten halten, müssen Sie sich aber nochmals in den Datenblättern des Serverherstellers umschauen.

Anhand des erarbeiteten Sizings für den Storage-Bereich lässt sich ermitteln, wie viele Platten benötigt werden, auf wie viele SCSI-Kanäle diese verteilt werden sollen, welche Durchsatzwerte erreicht werden müssen und vieles andere mehr. Anhand dieser Werte lässt sich mithilfe der Datenblätter ein geeigneter RAID-Controller auswählen. Bei größeren Datenbankservern ist es nicht unwahrscheinlich, dass mehrere RAID-Controller benötigt werden.

Achten Sie unbedingt darauf, dass der gewählte Controller über einen batteriegepufferten Cache verfügt. Sofern der Hersteller eine Erweiterungsbatterie im Angebot hat, sollten Sie diese unbedingt mitbestellen!

Dass Schreibcaches nur aktiviert sein dürfen, wenn der RAID-Controller über Batterien bzw. Akkus verfügt, ist nun wahrlich keine neue Erkenntnis. Im Winter 2005 mussten die Bewohner des Münsterlandes die Erfahrung machen, dass es auch in Deutschland durchaus mehrtägige Stromausfälle geben kann (siehe auch Abschnitt 3.4.4 über die Stromversorgung im Rechenzentrum). Pech, wenn der Server mit Daten im Schreibcache »runtergefallen« ist und die Batterie nur maximal vier Stunden hält ...

Plattentechnologie

Die verfügbaren Plattentechnologien sind mittlerweile recht vielfältig geworden. Die für die Serverauswahl wichtigsten Aspekte lassen sich aber recht einfach zusammenfassen, ohne dass direkt ein separates 100-seitiges Kapitel daraus wird.

Im Serverbereich kommen klassischerweise SCSI-Platten zum Einsatz; der SCSI-Bus hat mittlerweile eine Geschwindigkeit von 320 MB/s erreicht (U320), womit die Grenzen des technisch Machbaren offensichtlich erreicht worden sind. Die Nachfolgetechnologie, die mittlerweile auch in vielen Serverprodukten verwendet wird, ist SAS, was für Serial Attached SCSI steht. Zunächst wird es mit einer Geschwindigkeit von 3 Gbit/s gefahren, und die nächsten Generationen werden Übertragungsraten von 6 und 12 Gbit/s liefern.

Eigenschaften einer Platte

Neben dem Interface wird eine Platte insbesondere durch folgende Eigenschaften definiert:

  • Kapazität
  • Drehzahl
  • IOPS
  • MTBF

Beim Stichwort »Festplatte« denken die meisten Leute an Kapazität – und das ist leider falsch! Denken Sie zunächst an die Performance der Festplatte bzw. des gesamten Plattensystems. Ein Ergebnis des Sizing-Prozesses ist eine Abschätzung der IO-Vorgänge pro Sekunde (IOPS), die von den einzelnen Bereichen des Plattensystems geleistet werden müssen. Wenn Sie beispielsweise eine Leistung von 2.000 IOPS erreichen müssen, können Sie davon ausgehen, dass Sie mindestens 20 Platten benötigen werden, um die Performance-Anforderungen zu erfüllen. Im zweiten Schritt können Sie die Größe der Platten bestimmen, die zum Erreichen der benötigten Kapazität führt. Vermutlich werden Sie sich für die Platte mit der kleinsten Kapazität entscheiden.

Der Parameter IOPS wird leider in den Datenblättern der Festplatten häufig nicht angegeben, lässt sich aber recht einfach mit folgender Formel errechnen:

IOPS = (1000 ÷ (RL + AST))

RL = Rotational Latency; AST = Average Seek Time.

Also: Je geringer die Werte Latency und Seek Time sind, desto schneller geht’s. Einleuchtend, oder?

In den Datenblättern werden Sie für die Rotational Latency und die Average Seek Time Angaben für rein sequenzielle und für zufällige (random) Vorgänge finden. Da das Leben auf einer Platte fast nie optimal sequenziell ist, liegt die Wahrheit eher beim ungünstigeren Wert. In der Praxis geht man von folgenden Werten aus:

  • FC/SCSI-Platte 15.000 RPM 150–190 IOPS
  • FC/SCSI-Platte 10.000 RPM 130–170 IOPS

Bedenken Sie bitte, dass es sich bei diesen Werten nur um grobe Schätzwerte handelt. Sie vermitteln aber bereits ein Gefühl dafür, worum es bei der Dimensionierung von Plattensystemen geht. In Datenbankumgebungen, in denen fast nur Random-Zugriffe stattfinden, werden die genannten Werte eher nach unten zu korrigieren sein.

Vergessen Sie nicht, dass bei Schreibvorgängen Write-Penaltys zu berücksichtigen sind. Zur Erinnerung: Ein Schreibvorgang auf ein RAID1 benötigt 2 IOs, ein ändernder Schreibvorgang auf ein RAID5 sogar 4 IOs.

Die beliebte Frage nach dem Durchsatz ist vergleichsweise unspannend, da der Durchsatz (Throughput) mit folgender Formel errechnet wird:

Throughput = Number of IOPS × Size of I/O Request

Im Klartext heißt das, dass Sie auf der Hardwareseite dafür sorgen müssen, möglichst viele IOPS verarbeiten zu können. Weiterhin entscheidet die Blockgröße, mit der die Platten formatiert sind, über den erreichbaren Durchsatz. Da es im Datenbankumfeld aber nicht darum geht, möglichst große Datenmengen zu bewegen, ist die Stellschraube in erster Linie die vom RAID-Set erreichte IO-Leistung.

Neben der Geschwindigkeit der Platte geht es um die MTBF (Mean Time Between Failure). Dieser recht abstrakte Wert zeigt, als wie zuverlässig die Platte vom Hersteller eingestuft wird – je höher der Wert, desto besser.

SCSI/SAS vs. SATA

Wenn Sie die im vorherigen Abschnitt vorgestellten Kriterien hinnehmen, lässt sich die Frage, ob SATA-Platten zur Speicherung von Produktivdaten sinnvoll sind, relativ einfach beantworten.

Zunächst ist das primäre Ziel der SATA-Platten zu beleuchten: Sie sollen möglichst billig sein. Dieses Ziel lässt sich nicht durch ein anderes elektrisches Interface erreichen, sondern nur mit Qualitätsabstrichen an den mechanischen Komponenten. Im Klartext sind SATA-Platten langsamer und weniger zuverlässig als »richtige« Serverplatten mit SCSI- oder FC-Interface.

Ursprünglich wurden die SATA-Platten (bzw. ihre Vorgänger) in Desktop-Computern verwendet, die weder besonders schnellen Datenzugriff für viele parallel laufende Prozesse bieten müssen noch rund um die Uhr in Betrieb sind. Natürlich arbeiten die Hersteller, die SATA-Platten für Serveranwendungen anbieten, an Optimierungen – es bleibt aber die Tatsache, dass für Einsatzszenarien, bei denen es auf höchste Performance und Zuverlässigkeit ankommt, eben doch die teureren Platten benötigt werden.

Diese Aussagen lassen sich natürlich belegen: Ein Blick in die Produktdatenblätter genügt. Vergleichen Sie einmal SCSI/FC- und SATA-Platten bezüglich der Parameter »Rotational Latency« und »Average Seek Time« – Sie werden feststellen, woher die deutlich niedrigeren IOPS-Werte herkommen. Bei einer SATA-Platte mit 7.200 RPM kann man in etwa von 80 IOPS ausgehen. Dieser Performance-Nachteil ist signifikant!

SATA-Platten haben im Rechenzentrum durchaus eine Daseinsberechtigung, nämlich dann, wenn große Mengen von Daten auf billigere Medien ausgelagert werden sollen. Dies könnten beispielsweise archivierte Daten, Kopien für die Testumgebung, Backup-Daten und einiges andere mehr sein – generell also Daten, auf die nicht performant und mit hoher Parallelität zugegriffen wird und die nicht mit höchster Verfügbarkeit bereitgestellt werden müssen. Für produktive Datenbestände oder die Systembereiche der Server werden »richtige« Serverplatten verwendet, also SCSI- oder SAS-Platten.


Rheinwerk Computing - Zum Seitenanfang

3.1.5 NetzwerkkonnektivitätZur nächsten ÜberschriftZur vorigen Überschrift

Für Server ist eine leistungsfähige Anbindung an das Netzwerk Pflicht. Wie immer gibt es zwei zentrale Anforderungen, nämlich Performance und Ausfallsicherheit.

Der Standard für die Anbindung von Servern an das Netzwerk ist Gigabit-Ethernet; entsprechende Konnektivität bringt jeder moderne Server standardmäßig mit. Zu prüfen ist, mit wie vielen Ports die Netzwerkanbindung vorgenommen werden soll. Die Treiber der für den Serverbetrieb vorgesehenen Netzwerkkarten beherrschen ein »Zusammenlegen« von mehreren Karten, und zwar sowohl zur Erhöhung der Bandbreite als auch zur Erreichung von Fehlertoleranz. Im Allgemeinen findet man diese Funktionen unter den Stichwörtern Teaming, Network Load Balancing und Network Fault Tolerance.

Wenn Sie beabsichtigen, eine Teaming-Konfiguration zum Einsatz zu bringen, müssen Sie sicherstellen, dass Ihre Switches eine Teaming-Anbindung beherrschen. Sofern der Microsoft Cluster verwendet wird, ist zu prüfen, ob die Teaming-Software den Clusterbetrieb explizit unterstützt.

Achten Sie bei der Auswahl der Server darauf, dass Sie wirklich genügend PCI-Steckplätze (bzw. Steckplätze von PCI-Nachfolgetechnologien) zur Verfügung haben. Ich habe es mehr als einmal erlebt, dass ausgerechnet Netzwerkkarten bei der Ermittlung der benötigten Slots vergessen worden sind. Das ist recht lästig, wenn in einen vollen Server noch zwei weitere Karten gesteckt werden sollen.

Falls Sie die Server per Glasfaser anbinden wollen, gilt das zuvor Gesagte analog.

Weitere Informationen zum Thema »Netzwerk« finden Sie in Abschnitt 3.3, »Netzwerk«, und in Kapitel 20, »Hochverfügbarkeit«.


Rheinwerk Computing - Zum Seitenanfang

3.1.6 ÜberwachungZur vorigen Überschrift

Alle Serversysteme von Markenherstellern bieten Softwareprodukte zum Management der Hardware. Zu nennen wären beispielsweise Dell OpenManage oder InsightManager von Hewlett Packard.

Neben Inventardaten und aktuellen Mess- und Zustandsdaten erhalten Sie auch proaktive Informationen, also »demnächst wird vermutlich eine Festplatte ausfallen«. Dass die Vermeidung eines Ausfalls wesentlich besser als die Behebung seiner Folgen ist, leuchtet sicherlich jedem IT-Verantwortlichen ein. Umso erstaunlicher ist es, dass ein erheblicher Teil der mir bekannten Unternehmen (und ich spreche hier nicht von Kleinbetrieben) diese Überwachungswerkzeuge nicht nutzt – zumal diese im Allgemeinen kostenlos verwendet werden können. Ich kenne deutlich mehr als einen Fall, in denen Rechenzentren mit insgesamt 100 Servern nicht automatisch überwacht werden. Stattdessen macht jeden Morgen der diensthabende Administrator einen Rundgang. Er prüft dann lediglich, ob an irgendwelchen Servern ein rotes Lämpchen leuchtet. Dies bedarf wohl keines weiteren Kommentars!

Es ist übrigens keine schlechte Idee, die Hardwarelandschaft möglichst einheitlich zu halten. Wenn Sie Server von Dell, HP, IBM und Fujitsu-Siemens einsetzen, haben Sie es plötzlich mit vier Überwachungssystemen allein für die Server zu tun. Natürlich gibt es Systeme, die Warn- und Fehlermeldungen auf einer Konsole zusammenfassen, trotzdem ist es natürlich einfacher, wenn die Notwendigkeit eines solchen (komplexen) Systems gar nicht erst entsteht.

Beachten Sie, dass Sie neben der Überwachung der Serverhardware auch ein Auge auf Betriebssysteme und Applikationsserver haben müssen (oder sollten). Ein geeignetes Werkzeug hierfür ist beispielsweise der Microsoft System Center Operations Manager (SCOM), der mittlerweile in der Version 2012 SP1 vorliegt.



Ihre Meinung

Wie hat Ihnen das Openbook gefallen? Wir freuen uns immer über Ihre Rückmeldung. Schreiben Sie uns gerne Ihr Feedback als E-Mail an kommunikation@rheinwerk-verlag.de.

<< zurück




Copyright © Rheinwerk Verlag GmbH, Bonn 2014
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das Openbook denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt.
Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


Nutzungsbestimmungen | Datenschutz | Impressum

Rheinwerk Verlag GmbH, Rheinwerkallee 4, 53227 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, service@rheinwerk-verlag.de

Cookie-Einstellungen ändern


  Zum Rheinwerk-Shop
Zum Rheinwerk-Shop: Windows Server 2012 R2






Windows Server 2012 R2
Jetzt Buch bestellen


 Ihre Meinung?
Wie hat Ihnen das Openbook gefallen?
Ihre Meinung

 Buchempfehlungen
Zum Rheinwerk-Shop: Office 365






 Office 365


Zum Rheinwerk-Shop: Microsoft Hyper-V






 Microsoft Hyper-V


Zum Rheinwerk-Shop: Linux-Server






 Linux-Server


Zum Rheinwerk-Shop: Vmware vSphere 5






 Vmware vSphere 5


Zum Rheinwerk-Shop: Windows 8 für Administratoren






 Windows 8 für
 Administratoren


 Lieferung
Versandkostenfrei bestellen in Deutschland, Österreich und der Schweiz
InfoInfo