Grundlagen für den Neubau eines Rechenzentrums - dc

Transcrição

Grundlagen für den Neubau eines Rechenzentrums - dc
Grundlagen für den Neubau eines Rechenzentrums 2010
Die Konzeptionen und Planungen von Rechenzentren stellen heute eine große Herausforderung dar,
denn gegenüber älteren Rechenzentren sind die Last- und Verfügbarkeitsanforderungen deutlich
gestiegen, was eine Unmenge von neuen Ideen und Lösungen mit sich gezogen hat.
Parallel sind zwar Planungshilfen von übergeordneten Instituten wie Uptime (Verfügbarkeitsstufen
Tier I bis Tier IV), Bitkom (Leitfaden für betriebssichere Rechenzentren) oder von diversen Herstellern
im Umlauf, aber die entscheidenden Hilfen, wie groß und mit welcher Leistung ein Rechenzentrum
gebaut werden sollte und mit welchem Budget welche Qualität erreicht werden kann, werden damit
auch nicht gegeben.
Ein Rechenzentrum heute bedarfsgerecht zu planen, heißt das Optimum zwischen passgenauer
Leistung, Verfügbarkeit und Kosten zu finden. Deshalb empfiehlt es sich, die Kosten als drittes und in
der Regel wichtigstes Entscheidungskriterium von Anfang an in den Planungsprozess aufzunehmen.
Im Rechenzentrumsbau gibt es 2 bzw. 3 wesentliche Kostentreiber, die ein Rechenzentrum teuer
werden lassen.
Der erste Kostentreiber ist die individuelle Anforderung des Kunden an das Rechenzentrum.
Eine gewisse Extravaganz kostet halt. Es kann viel Geld in Architektur und Design fließen, die nicht
unbedingt die Qualität eines Rechenzentrums erhöht. Auf diese Kosten werde ich nicht weiter
eingehen, da sie nicht greifbar sind.
Der zweite Kostentreiber ist die Verfügbarkeitsanforderung.
Zwischen einer Tier 1 Anforderung und einer Tier 4 Anforderung stecken die 3 fachen Kosten. Wenn
einem diese Preisspannen bewusst sind, lassen sich häufig langwierige Auseinandersetzungen mit
Verfügbarkeitsanforderung der Klasse Tier 3+ oder höher vermeiden, da die finanziellen Mittel gar
nicht zu Verfügung stehen.
Der dritte Kostentreiber ist die Leistungs- bzw. Lastanforderung.
Sehr häufig komme ich heute zu Kunden, die sehr leichtfertig, im Namen der Zukunftssicherheit, eine
Lastanforderung von 2000 W/qm und mehr angeben. Das aber zwischen 1000 W/qm und 2000
W/qm ca. 75 % Mehrkosten entstehen können, ist noch nicht in den Köpfen verankert.
Gerne möchte ich an dieser Stelle ein Praxisbeispiel geben.
Ein Rechenzentrumsbetreiber plante den Neubau eines Rechenzentrums. Er setzte 2000 qm als neue
Rechenzentrumsfläche an, was in etwa dem der alten Fläche entsprach. Ferner war seine
Planungsgröße für den Leistungsbedarf 1.500 W/qm (RZ Fläche). Aus diesen Anforderungen
summierte sich die Lastanforderung auf 3 MW für die IT – Last, plus ca. 3 MW für die Infrastruktur (es
wird hierbei der ungünstigste Energiebedarf – Sommer > 35 °C angesetzt). Mit der weiterhin
geforderten Verfügbarkeitsanforderung Tier 3+ summierten sich die Kosten im ersten Überschlag auf
25 Mio. Investitionskosten, was ihn förmlich „aus den Socken haute“. Unter dem Damoklesschwert
der Kosten wurden jetzt a) sein aktueller Leistungsbedarf, b) das mit der IT abgesprochenen
Wachstumsszenario und c) die Möglichkeiten der Einbeziehung einer Virtualisierung exakt unter die
Lupe genommen und brachten ein erstaunliches Ergebnis. Man errechnete, dass man den
kompletten IT–Betrieb auf einer Fläche von 500 qm inklusive Wachstum darstellen könnte. Die
Leistungsanforderung sank dabei auf etwa 1250 W/qm. Bei gleichbleibender Verfügbarkeit sanken
gleichsam die gesamten Leistungsanforderungen auf 1,5 MW und die überschlägigen Kosten auf
etwa 8 Mio. Wären von Anfang an die Kosten als Überschlag mit in die Konzeption eingeflossen,
hätte man sich den ersten Umweg erspart.
Was in diesem, sicherlich dramatischen Beispiel erkennbar wird, ist die Tatsache, dass ungenaue
Angaben zu einer extremen Kostensteigerung führen kann. Wie Sie dem sinnvoll vorbeugen, dann in
meinem nächsten Blog.
Im Teil 1 dieses Blogs haben ich die möglichen, extremen Auswirkungen einer falschen
Grundlagenerhebung dargestellt. Ergebnis war, dass dadurch entweder die Kosten explodieren oder
das Rechenzentrum schnell an die Leistungsgrenze kommen kann. Um diese ungewünschten
Auswirkungen vorzubeugen, empfahl ich die Kostentreiber Verfügbarkeit und notwendige IT Leistung (Last) genauer zu analysieren.
Beginnen wir mit der Analyse der notwendigen IT- Leistung, mit der der Strom- und Kühlungsbedarf
festgelegt wird und die Anlagendimensionierung maßgeblich beeinflusst wird.
Aus meiner Erfahrung liegt hier eine größe Lücke zwischen Theorie und Praxis. Immer wieder wird
argumentiert, dass der tatsächliche Bedarf nicht annähernd ermittelt werden kann, weil die
Veränderungen in der IT- Entwicklung eine zu hohe Unbekannte darstellt.
Diese Aussage ist schlichtweg falsch und man ist heute sehr wohl in der Lage mehr
Planungssicherheit zu bekommen als zur Zeit akzeptiert wird.
Denn es werden nicht einmal annähernd die zu Verfügung stehenden Daten als Planungsgröße
analysiert.
Aktuelle und Leistungsverbräuche der Vergangenheit, Wachstum der letzten Jahre,
Herstellerinformationen und Trendforschung werden nicht herangezogen, womit die Planungen
zwangsläufig ungenau und zufällig bleiben.
Aber gerade diese wesentliche und notwendige Basisarbeit hilft das Last- und Leistungsverhalten der
IT zu verstehen und daraus eigene Trends und Entwicklungen zu erarbeiten. Hierbei sind folgende
Fragen zu beantworten: Welche IT betreibe ich und wie? Welchen Energieverbrauch hat diese IT und
arbeitet sie energieeffizient? Ist die Hardware die richtige für meine Anwendungen? Welche
Migrationen stehen an? Was kann ich virtualisieren? Welches Wachstum hat es in den letzten Jahren
gegeben? Welche Folgen hatte es auf den Energieverbrauch gehabt? Stimmt die Auslastung der
Server zur benötigten Energielast? Welche Veränderungen erwarte ich aus dem originären Geschäft,
die welchen Einfluss auf die IT haben wird? Welche Trends leiten sich aus den Veränderungen der
letzten Jahre ab? Welche neuen Erkenntnisse gibt es, die diesen Trend beeinflussen? Was sind die
wesentlichen Wachstumstreiber und warum? Was sind die wesentlichen Unbekannten und warum?
Mit der Analyse all dieser Fragen bildet sich ein deutliches klareres Bild des IT und RZ-Betriebes.
Natürlich gibt es immer noch einige Unbekannte. Aber mit Hilfe eines „Best-and Worst-case“
Szenarios erhält man eine Entscheidungshilfe, die das Unbekannte auf das mögliche reduziert.
Ich gebe ein Praxisbeispiel: Ein Mittelständler wollte ein neues Rechenzentrum bauen. Dafür stellte
er einen Raum von 30 m2 zur Verfügung. Um zukunftssicher zu planen legte er 800 – 1.000 W/m2 zu
Grunde, was hochgerechnet eine gesamte IT Leistung von ca. 25 kW bedeutete. Erste Schätzkosten
lagen bei etwa 160.000 – 180.000 Euro.
Eine angesetzte Leistungsmessung ergab, dass der tatsächliche Verbrauch der IT bei etwa 6 – 7 kW
lag. Mit Hilfe der Konfigurationsprogramme der Serverhersteller wurde der maximale Verbrauch
jedes Servers analysiert und das bekannte Wachstum an zusätzlicher Hardware eingerechnet. Daraus
ergab sich eine maximale IT Last von 11 kW. Die Möglichkeit der Energieoptimierung durch
Virtualisierung wurde nicht mit eingerechnet, da dieser Schritt noch nicht terminiert werden konnte.
Jetzt wurde gemeinsam mit der GF entschieden, dass ein weiteres nicht definiertes Wachstum von
50 % berücksichtigt werden sollte, da man an einer Expansion des Unternehmens glaubte. Somit war
die Last für den Endausbau auf 17 kW errechnet worden. Gegenüber dem reinen fiktiven Ansatz von
25 kW wurden 8 kW Grundlast gespart bzw. grob 40.000 bis 50.000 Euro Investitionsvolumen. Der
Aufwand um diese Erkenntnis zu erarbeiten lag bei maximal 6 Personentage (Inhouse und Extern)
gewesen. Die Arbeit hatte sich gelohnt.