Datenberge besser bewältigen - IT
Transcrição
Datenberge besser bewältigen - IT
IT-Administrator 2015/ 2016 – Auszüge als Leseprobe Unter anderem lesen Sie: Datenberge besser bewältigen Storage-Neuerungen unter Windows Server 2016 Sicher getunnelt OpenVPNVerbindungen Anschluss gefunden Linux-Server ins Active Directory einbinden Im Test COMPUTENT Secure www.it-administrator.de S006-009_ITA_0616_A01_ok_ITA_Default 18.05.2016 14:38 Seite 3 News Aktuell LXD 2.0 ist fertig Seit Mitte April ist Version 2.0 der Containerlösung LXD verfügbar, die von Canonical für Ubuntu entwickelt wird. LXD basiert auf den kürzlich ebenfalls in Version 2.0 veröffentlichten LXCContainern und bietet über deren Grundfunktionalität hinaus bessere Isolation der Container untereinander und gegenüber den Host-System sowie komfortablere und besser automatisierbare Managementfunktionen. Diese Ziele werden mit Hilfe eines Daemons und einer webbasierten REST-Schnittstelle erreicht. Wie LXC erhält auch LXD 2.0 einen Langzeitsupport von fünf Jahren. Solange garantieren die Entwickler die Rückwärtskompatibilität der Schnittstellen, auch wenn sie sich vorbehalten, sie eventuell zu erweitern. Zur Einstellung von Security-Features wie Seccomp, Namespaces und AppArmor bietet LXD eine eigene Konfigurationssprache. Die Kommunikation mit dem LXDDaemon findet über TLS 1.2 mit einem sehr eingeschränkten Satz an Kryptoalgorithmen statt. In Ubuntu 16.04, das die neuen LXD- und LXC-Versionen enthält, soll als Dateisystem für Container das von Solaris stammende ZFS eingesetzt werden. Allerdings ist umstritten, ob dies angesichts der vermutlich inkompatiblen Lizenzen von LinuxKernel und ZFS auf legalem Weg möglich ist. In Ubuntu 14.04 sollen LXD und LXC 2.0 über die Backports-Sammlung verfügbar sein. (of) LXD: www.ubuntu.com/cloud/lxd Anwendungsturbo A10 Networks bringt sechs neue Application Delivery Controller (ADC) auf den Markt. Unter diesen Appliances der Thunder-Serie befindet sich auch die laut Hersteller schnellste am Markt verfügbare Single-Rack-Unit mit einer Skalierbarkeit von bis zu 220 GBit/s und 10,5 Millionen Verbindungen pro Sekunde. Obendrein lassen sich mehr als 300 Millionen DDoS-Attacken pro Sekunde abwehren. Die neuen Appliances basieren dabei auf der ACOSHarmony-Plattform, die ein Plus an Effizienz verspricht. Für kleinere Umgebungen beispielsweise steht die Variante Thunder 840 zur Verfügung. Das Gerät misst eine Höheneinheit und bietet 5 GBit/s an Durchsatz. Hierfür stehen fünf 1-GBit-Ethernet-Ports sowie zwei 10-GBit-Ethernet-Anschlüsse und acht Cores zur Verfügung. Das Topmodell, die Thunder 7440, setzt bei ebenfalls einer Rack-Unit bis zu 220 GBit/s durch und bietet 48 10-GBit-Ethernet-Ports, vier 40 GBit-Ethernet-Anschlüsse und 36 Cores. Die Einstiegsvariante ist für zirka 19.000 Euro erhältlich. (dr) A10 Networks: www.a10networks.com Die Thunder 7440 schaufelt 220 GBit/s an Daten durch und bietet DDoS-Schutz. www.it-administrator.de Red Hat liefert seit Mitte Mai Red Hat Enterprise Linux 6.8 aus. Die neueste Version bietet eine verbesserte Systemarchivierung, einen umfassenden Einblick in die Speicherauslastung und Performance und unterstützt einen aktuellen offenen Standard für Virtual Networks. Der Hersteller verspricht zudem einen reibungslosen Betrieb mit Cloud-Applikationen und Linux-Containern. Zudem setzt das jüngste Release mit libreswan auf eines der am weitesten verbreiteten und standardisierten VPN-Protokolle und ersetzt damit openswan. (ln) Link-Code: G6A11 VXL Instruments stellt mit dem Modell Itona IQ-L einen neuen Thin Client vor. Punkten will der Hersteller mit dem Einstiegspreis von 170 Euro. Das Herzstück des Neuzugangs bildet ein Intel Bay Trail Dual-Core-Prozessor mit integrierter HD-Grafik und 1,58 GHz. Zwei Bildschirme mit Auflösungen von bis zu 1.920 x 1.200 lassen sich über HDMI oder VGA betreiben. Speicherseitig sind die Geräte mit bis zu 4 GByte RAM und 32 GByte Flash ausgestattet. Der Thin Client ist in drei Varianten mit Gio6 Linux, Windows Embedded 8 Standard sowie Windows 10 IoT Enterprise verfügbar. (ln) Link-Code: G6A12 EMC lüftet mit Unity den Vorhang für eine neue Familie von Speicherprodukten. Besonders in der All-Flash-Variante hat es EMC auf kleinere Unternehmen abgesehen und bewirbt den Neuzugang mit Eintrittspreisen von rund 18.000 USDollar. Unity erreicht laut EMC bis zu 300.000 IOPS und bietet Funktionen wie Unterstützung für File, Block und Vvols, Snapshots und Remote-Sync- beziehungsweise async-Replikation sowie native, Controller-basierte Verschlüsselung. In ein 2-U-Array passen bis zu 80 TByte AllFlash-Storage. Insgesamt lassen sich Unity-Speicher auf bis zu 3 PByte Kapazität skalieren. (ln) Link-Code: G6A13 Seagate präsentiert eine externe, 3,5 Zoll große 8-TByteFestplatte mit Stromversorgung über USB. Mit der Einführung der sogenannten Ignition-Boost-Technologie ist die Innov8 laut Seagate die weltweit erste Desktop-Festplatte mit 8 TByte Speicherkapazität, die nicht zusätzlich mit einer externen Stromquelle verbunden werden muss. Ähnlich einer Autobatterie beim Motorstart erlaube es die IgnitionBoost-Technologie in Verbindung mit USB 3.1 der Festplatte, mit der Bus-Stromversorgung auszukommen. Für 336 Euro ist die Platte zu haben. (dr) Link-Code: G6A14 Juni 2016 7 S012-015_ITA_0515_T02_ok_ITA_Default 20.04.2015 15:29 Seite 2 Im Test SolarWinds Virtualization Manager 6.1.1 Daheim in zwei Welten von Jürgen Heyer Quelle: dvarg – 123RF Mit zunehmender Größe einer Virtualisierungsumgebung wächst die Nachfrage nach einem umfassenden Management-Werkzeug, um bei der Ermittlung und Beseitigung von Leistungs-, Kapazitäts- und Konfigurationsproblemen schneller zum Ziel zu kommen. Als preiswerte Lösung für VMware und Microsoft Hyper-V bietet sich Virtualization Manager von SolarWinds an. IT-Administrator hat sich den Leistungsumfang genauer angesehen. irtualization Manager ist als fertig vorbereitete Appliance im OVAFormat für VMware sowie als VHD für Hyper-V erhältlich. Unabhängig von der Installationsbasis lässt sich das Werkzeug für die Überwachung beider Plattformen verwenden. Im Test r ichteten wir beide Appliances ein, nutzten dann aber in erster Linie die Installation in unserer vSphere-Umgebung. V Einrichtung unter VMware und Hyper-V Während das Einspielen der Appliance unter Hyper-V absolut reibungslos funktionierte, mussten wir unter vSphere eine Kleinigkeit bei der Zuweisung der IPAdresse beachten. Die Bereitstellung der OVF-Vorlage kennt hier drei Optionen für die IP-Adressvergabe (Fest, Vorübergehend, DHCP). Wir wählten die Standardvorgabe "Fest" und wunder ten uns, dass nur die IP-Adresse selbst, aber kein Gateway, Netzmaske und DNS-Server abgefragt wurden. Prompt war die Appliance nach dem Einschalten nicht im Netz erreichbar. Wir stellten fest, dass wir bei der Bereitstellung eine Warnung überlesen hatten, dass das zuge wiesene Netzwerk mit einem IP-Pool verknüpft sein muss, aus dem sich die VM die restlichen Daten holt. Nachdem wir den P ool im Nachhinein angelegt hatten, war die VM nach einem Neustart erreichbar. Ein weiteres Augenmerk ist gegebenenfalls auf die Konfiguration des Arbeitsspeichers zu legen. Die vorgegebenen 8 GByte 12 Mai 2015 RAM und 210 GByte Plattenkapazität reichen für bis zu 100 Hosts und 1000 VMs – der Bedarf wächst linear mit der Anzahl der Hosts und VMs. Der Zugriff auf die Managementkonsole erfolgt über eine Web-GUI. Beim ersten Start ist ein Konfigurationsassistent zu durchlaufen, der in sechs Schritten diverse Parameter abfragt. Dies beg innt bei der Registrierung, dann sind die Credentials für den vCenter-, Hyper-V- und WMIZugriff sowie eine Anmeldung an einzelnen Hosts anzugeben. Im nächsten Schritt sind die Datenquellen, also die vCenterund Hyper-V-Hosts, hinzuzufügen. Wir waren erstaunt, dass uns der Assistent nach keiner Zuordnung der Quellen zu den Credentials fragte, aber das Handbuch weist darauf hin, dass der Manager alle angegebenen Credentials des entsprechenden Typs durchprobiert, bis eines passt. Die Zuordnung wird dann gespeichert. Zweigeteilte Datenerfassung Der nächste Programmpunkt widmet sich der Datenerfassung. Pro Datenquelle sind mittels Zeitplaner laufende Sammeljobs, die mit der Eingabe der Quelle angelegt wurden, zu konfigurieren. Ein Job liest die Konfiguration ein und läuft standardmäßig alle zwölf Stunden. Für den Fall, dass der Administrator bei Änder ungen ad hoc eine Aktualisierung wünscht, kann er den Job auch manuell anstoßen. Der zweite Job erfasst die Leistungsparameter und läuft normalerweise alle zehn Minuten. Sehr wichtig ist es, die Jobs auf dieser Seite zu aktivieren, damit sie überhaupt starten. Ein weiterer Job ist bei Hyper-V-Hosts erforderlich, um neue VMs zu finden. Dieser läuft standardmäßig alle sieben Tage, was in dynamischen Umgebungen aber recht wenig ist und angepasst werden sollte. Nach Abschluss des Einrichtungsassistenten dauert es einige Zeit, bis die diversen Jobs gelaufen sind und die er sten Informationen zu den überwachten Umgebungen in der Managementk onsole erscheinen. Dabei fiel uns auf, dass die Jobs zur vCenter-Abfrage in unserer Testumgebung trotz mehr abzufragender Objekte Produkt Software zur Verwaltung von virtuellen Umgebungen unter VMware ESXi/vSphere und Microsoft Hyper-V. Hersteller SolarWinds www.solarwinds.com Preis Der Einstiegspreis für den Virtualization Manager liegt bei 2440 Euro für acht physische CPUs und ein Jahr Wartung. Systemvoraussetzungen VMware vSphere 4.0 oder höher, Microsoft Hyper-V Server 2008 R2 oder höher, 2 GHz Quad-Core, vier vCPU, 8 GByte RAM, 210 GByte Plattenkapazität, 1 GBit-vNIC. Technische Daten www.it-administrator.de/downloads/datenblaetter SolarWinds Virtualization Manager 6.1.1 www.it-administrator.de S012-015_ITA_0515_T02_ok_ITA_Default 20.04.2015 15:29 Seite 3 Virtualization Manager I TESTS Bild 1: Bei einer Grafik zur Performanceanalyse errechnet der Manager Trendlinien und zeigt auch Beginn sowie Ende von Alarmen an. deutlich schneller liefen als die für Hyper-V. Damit Virtualization Manager überhaupt Informationen einlesen kann, sind bei Hyper-V einige Dinge mehr zu beachten, etwa die korrekte Firewall-Konfiguration und die Aktivierung von WMI, RPC und DCOM. Gegebenenfalls ist auch die UAC anzupassen. Ein eigenes Kapitel im Handbuch beschäftigt sich mit dem Hyper-V-Troubleshooting. Dashboards nach jedem Geschmack Die Web-GUI macht einen aufgeräumten Eindruck und ist intuiti v bedienbar. Im Kopfbereich befinden sich insgesamt sechs Reiter.Vier davon – Recent, Explore, Reporting und Capacity Planning - dienen dem Administrator als Handwerkszeug, über "Setup" lässt sich der bereits erwähnte Einrichtungsassistent aufrufen und der sechste Reiter enthält die Hilfe. Der am meisten benutzte Reiter dürfte "Recent" sein. Die Bezeichnung rührt daher, dass der Administrator hier neben dem Dashboard die letzten aufgerufenen Seiten zur erneuten Auswahl angeboten bekommt. Das macht es sehr einfach, wieder zu einer Ansicht zurückzukehren, die kurz vorher bereits genutzt wurde. So lassen sich Analysen, die den Zugriff auf mehrere Ansichten benötigen, leichter durchführen. Eine wichtige Rolle spielen auch die Dashboards. Je nachdem, welche HostTypen anfangs erfasst wurden, werden bis zu 13 vorbereitete Dashboards zur Aus- www.it-administrator.de wahl angeboten. Drei davon sind unabhängig vom Host-Typ, drei beschäftigen sich mit Hyper-V und sieben mit VMware. Die Dashboards dienen unter anderem zur Kapazitätsplanung, zur Ermittlung der Cloud-K osten, w enn die Ressourcen in einer Amazon EC2-Umgebung laufen, sowie zur Administration und zum Management der beiden Hypervisor-Umgebungen. Auch gibt es ein Dashboard, das ungenutzte und schlecht ausgelegte VMs unter VMware anzeigt, um das Aufräumen zu erleichtern. Im Test erkannten wir schnell, dass die Dashboards einen guten Einstieg bieten. Es ist aber gar nicht so entscheidend, welche Inhalte standardmäßig angezeigt werden, denn der Administrator kann alles nach Belieben inhaltlich verändern sowie neue Dashboards hinzufügen. Ein Dashboard besteht aus einer beliebigen Anzahl an sogenannten Widgets. Dies sind Fenster mit Listen (Alar me, Top-N-Listen), Grafiken (CPU-Last, Speicherbelegung) oder Icons (Hosts, VMs, Datastores). In der einfachen Größe lassen sich bis zu acht Widgets auf einem Monitor mit üblicher 1920 x 1080erAuflösung gleichzeitig darstellen. Sobald ein Dashboard mehr Fenster enthält, muss der Administrator es nach oben und unten scrollen, um alle zu sehen. Bei Bedarf lassen sich die F enster auf das doppelte und vierfache Format vergrößern, aber nicht weiter verkleinern. Die Fenster lassen sich in andere Webseiten einbinden, wozu die Konsole gleich einen Link und den benötigten HTMLCode liefert. Weiterhin ist ein Export als PNG-Datei möglich. Je nach Fenstertyp kann der Administrator unterschiedliche Aktionen auswählen. So kann er sich bei einer Liniengrafik mit einem Klick die Objekte anzeigen lassen, deren Informationen enthalten sind, bei einer Kuchengrafik kann er genauere Daten zu jedem Kuchenstück auslesen, bei Top-N-Listen kann er die Objekte in eine Selektionsliste übernehmen. Auch lassen sich Top-N-Ansichten mit einem Klick in den P erformance Analyzer übernehmen, der dann den Verlauf über die Zeit darstellt. Optional lassen sich der Trend sowie aufgetretene Alarme mit Beg inn (rot) und Ende (grün) einblenden, was für eine Fehlersuche zur Korrelation recht hilfreich ist. Der Manager speichert dabei die angewählten Optionen und zeigt diese auch bei anderen Ansichten wieder mit an. Beim Klick auf die Über schrift eines Fensters öffnet sich dieses in Großansicht. Bei Grafiken kann der Administrator den Zeitraum variieren (Woche, Monat, drei Monate, individuell) und zusätzlich die Such- und Filterkriterien anpassen. Dank der vielen Beispiele anhand der v orhandenen Dashboards sollte es kein Problem sein, mit relativ wenig Aufwand eigene Ansichten zu erzeugen.Während des Tests haben wir recht viel mit den Dashboards gearbeitet und dabei immer wieder festgestellt, dass die Übersichten gut visualisieren und intuitiv bedienbar sind. Änderungen schnell erkennbar Um ein Objekt wie einen Host oder eine VM im Detail zu unter suchen, kann der Administrator dieses über die Suchfunktion oder über eine Umgeb ungsansicht herausgreifen.Virtualization Manager liefert dann alle damit zusammenhängenden Informationen auf einer Seite. Bei einem Host beispielsweise sind dies die Grafik zu den IOPS, zum Netzdurchsatz und der CPU- sowie Speichernutzung. Enthalten sind auch Hardwareinformationen zu den Festplatten, IP-Adressen, Netzwerkkarten, eine Liste der angeschlossenen Datastores, die darauf laufenden VMs, eine eventuelle Clusterzugehörigkeit und einiges mehr. Mai 2015 13 S012-015_ITA_0515_T02_ok_ITA_Default 20.04.2015 15:29 Seite 4 TESTS I Virtualization Manager Wie auch in den anderen Ansichten kann der Administrator auf die Grafik en oder die zugehörigen Objekte klicken, worauf sich eine Großansicht öffnet oder er zum entsprechenden Objekt weitergeleitet wird. Bei Ansicht eines einzelnen Objekts geht Virtualization Manager unserer Meinung nach mit dem Platz etwas zu sparsam um, denn das Fenster nutzt nicht die gesamte zur Verfügung stehende Breite des Browsers, sondern ist fest vorgegeben. Einige längere Angaben wie beispielsweise die Betriebssystembezeichnung werden sogar abgeschnitten, zumindest aber beim Darüberstreichen mit der Maus voll eingeblendet. Auf der Ansichtsseite findet sich auch eine Schaltfläche zum Vergleichen der Eckdaten zu verschiedenen Zeitpunkten. Um Änderungen zu erkennen, muss der Administrator nur zwei Zeitstempel auswählen, dann erstellt das Werkzeug einen Vergleich, unterteilt in mehrere Kategorien. Die Ausgabe des Resultats erfolgt in zwei Spalten nebeneinander, auf Wunsch lassen sich nur die Positionen anzeigen, wo es Differenzen gibt. Dass es ge wisse Daten wie die Füllraten der Datastor es gibt, die sich immer änder n, ist logisch. Wichtiger ist, dass sich auch Abweichungen finden lassen, die eher kritisch zu betrachten sind, etwa Änderungen an den Netzwerkeinstellungen oder Ähnliches. Noch interessanter ist die Möglichk eit, zwei Objekte miteinander zu vergleichen. Werden beispielsweise Hosts per Skr ipt eingerichtet oder VMs geklont und der Administrator vermutet nach einiger Zeit ungewünschte Abweichungen, so kann er diesen Unterschieden über diesen Vergleich nachgehen. In unserer Testumgebung konnten wir beispielsweise erkennen, dass auf einem unser er ESXi-Hosts der SSH-Zugang aktiviert war und auf einem anderen nicht. Abhängigkeiten leichter feststellen Neben den Dashboards spielt der Explore-Bereich eine wichtige Rolle beim Blick auf einzelne Objekte der Umgebung. Die Map-Ansicht zeigt die Objekte entsprechend ihrer Abhängigkeit an. Hierzu setzt der Administrator auf ein oder auch mehrere Objekte einen Kontext und der Manager listet dann nach Typen ge- 14 Mai 2015 trennt die abhäng igen Objekte auf . So kann er beispielsweise auf einen Blick für einen Host sehen, welche Datastores dieser hat, zu welchem Cluster er gehör t und welche VMs darauf laufen. in das Profil aufnehmen. Weiterhin gibt es eine statische Befüllung oder eine dynamische anhand einer Abfrage. SolarWinds empfiehlt hierbei, nicht mehr als 500 VMs in ein Profil zu packen. Mit wenigen Klicks lässt sich der Kontext ändern, sodass der Administrator sehr schnell die Perspektive wechseln kann. Beim Klick auf ein Objekt gelangt er zudem direkt zur schon beschriebenen Detailansicht.Von Vorteil ist, dass die Objekte in der Map in den jeweiligen Warnstufen eingefärbt sind (No Alerts, Informational, Warning, Critical), wobei sich die einzelnen Stufen abwählen lassen, sodass die verbleibenden stärker hervorstechen. Der Kapazitätsplaner kann nun verschiedene Szenarien berechnen, um wichtige Fragen zu beantworten. Für die Frage, wann die vorhandenen Ressourcen erschöpft sind, betrachtet der Manager die Historie der im Nutzungsprofil enthaltenen VMs und rechnet hoch, zu welchem Zeitpunkt CPU, RAM, Plattenkapazität, IOPs oder Netzdurchsatz eine vorgegebene Schwelle wie 90 Prozent erreichen und wann sie komplett verbraucht sind. Ein weiteres Feature ist Time Travel, um sich den Verlauf über die Zeit anzusehen. Dazu kann der Administrator tage- und stundenweise oder zwischen den Zeitstempeln der Sammeljobs springen. Etwas verwundert waren wir darüber, dass es auch möglich ist, über die Tageswahl in die Zukunft zu springen.Tatsächlich wird dann der aktuelle Zustand angezeigt, aber es erscheint dazu kein Hinweis. Bei der Auswahl im Kalender ist diese Möglichkeit korrekterweise gesperrt. Weiterhin ermittelt der Planer, wie viele VMs noch ergänzt werden können, bis die verfügbaren Ressourcen erschöpft sind. Das hilft für eine Abschätzung bei weiteren Installationsaufträgen. Zuletzt kann sich der Administrator auch ausrechnen lassen, was sich ändert, wenn er weitere Ressourcen, also Hosts, zur Umgebung hinzufügt. Kapazitätsplanung inbegriffen Virtualization Manager erlaubt eine Kapazitätsplanung, mit der der Administrator das Wachstum planen kann. Der Grundgedanke ist, die vorhandenen Ressourcen und Nutzungsprofile auf Basis der vorhandenen Komponenten gegenüberzustellen. Für eine Berechnung füllt der Administrator einen Ressourcencontainer mit CPU, RAM und Plattenkapazität, indem er die Werte direkt einträgt oder bereits vorhandene Hosts oder Cluster auswählt. Der Inhalt lässt sich statisch oder dynamisch definieren. Eine dynamische Zuordnung basiert auf einer Abfrage, die berücksichtigt, wenn sich beispielsweise die Anzahl der Hosts in der Umgebung ändert. Der Vorteil ist, dass sich eine derartige Planung immer wieder an die r ealen Gegebenheiten anpasst. Ein Nutzungsprofil ist eine Gr uppe von VMs, die entsprechende Ressourcen belegt. Auch hier kann der Administrator die Werte direkt eingeben oder anhand bereits vorhandener VMs planen und diese Im Test haben wir einige Kalkulationen durchgeführt und mussten erkennen, dass hier einige Erf ahrung und auch Üb ung erforderlich ist, um aussagekräftige Resultate zu erhalten. Auch sind die Ergebnisse insofern mit Vorsicht zu genießen, da unvorhergesehene Änderungen eine Planung natürlich schnell zunichtemachen können. Zumindest aber sollte es vor allem mit der Möglichkeit, die Ressourcen und Profile dynamisch zu definieren, gelingen, einen drohenden Engpass rechtzeitig zu erkennen. Zusammenarbeit erwünscht Auch wenn wir es im Test nicht genauer betrachtet haben, so wollen wir doch erwähnen, dass sich Virtualization Manager nicht nur als alleinstehendes Tool betreiben, sondern auch in ander e Werkzeuge integrieren lässt. Bereits erwähnt hatten wir, dass sich Widgets des Managers als Link oder als HTMLCode in andere Webseiten integrieren. Weiterhin gibt es eine P ortalintegration mit der SolarWinds Orion Web Konsole, auch eine Integ ration in SharePoint ist www.it-administrator.de S012-015_ITA_0515_T02_ok_ITA_Default 20.04.2015 15:29 Seite 5 Virtualization Manager I TESTS Management beider Plattformen.Von Vorteil ist die davon unabhängige pauschale Lizenzierung auf CPU-Basis. Die Web-GUI der Appliance kommt mit einer Vielzahl an vorbereiteten Dashboards für unterschiedliche Betrachtungsschwerpunkte. Wünschenswert wäre allerdings eine bessere Größenanpassung der einzelnen Fenster innerhalb eines Dashboards. Insgesamt liefert das Werkzeug mehr Informationen zu VMware als zu Hyper-V, etwa um schlecht genutzte VMs zu ermitteln. Auch lässt sich das Auslesen von VMware leichter konfigurieren. Bild 2: Zur Beobachtung von Veränderungen über die Zeit erlaubt der Manager eine Zeitreise für einzelne Objekte. möglich. Dort, wo der Open-Social Dashboard-Standard von Google Verwendung findet, lassen sich Widget-Inhalte von Virtualization Manager ebenfalls integrieren. Sofern der SolarWinds Storage Manager, den wir in der Ausgabe 11/2014 vorgestellt hatten, verwendet wird, lässt sich dieser mit Virtualization Manager kombinieren, sodass sich beim Anzeigen von Datastore-Informationen die Webseiten des Storage Managers öffnen lassen. Für ein zeitgemäßes Skr ipting stellt SolarWinds die Virtualization Manager PowerCLI zum Download bereit. Diese enthält diverse Cmdlets zum Zug riff auf den Manager. Im Handbuch sind mehrere Beispiele zur Nutzung der CLI zu finden. Insgesamt konnten wir feststellen, dass die gesamte Dokumentation zu Virtualization Manager recht gut strukturiert ist und die diversen Funktionen verständlich beschrieben sind. Neben einem Administrator Guide als PDF existiert eine Online-Hilfe, die sich direkt aus dem Manager heraus aufrufen lässt. Daneben gibt es für alle SolarWinds-Produkte das Thwack-Forum als Diskussionsportal. Umfassendes Reporting Virtualization Manager kommt mit einer Vielzahl an vorbereiteten Ber ichten, die je nach Typ (Trend, Abfragen, Dashboard und Abfrageergebnisse) mit einem Symbol www.it-administrator.de gekennzeichnet sind. Dabei verstehen sich die Dashboards selbst auch als eine Art des Berichts.Weiterhin gibt es diverse Tags, um nach dem Inhalt, unter anderem Netzwerk, Cluster, Verfügbarkeit oder Snapshots, zu filtern. Beim Klick auf einen Report wird eine Liste oder Grafik mit den entsprechenden Infor mationen geöffnet. Die Dashboards lassen sich auf Wunsch als PDF exportieren, die übrigen Berichte als Excel-Datei. Darüber hinaus kann der Administrator eigene Abfragen erzeugen und das Ergebnis als Excel-Datei exportieren. Für regelmäßige Berichte ist es möglich, die Erstellung per Zeitplaner zu automatisieren. Eine Besonderheit sind die so genannten On-Demand-Reporte. Während sich die ander en Ber ichte der letzten gesammelten Infor mationen von Virtualization Manager bedienen, liefern die On-Demand-Reporte Live-Ergebnisse, indem sie ganz aktuell die Virtualisierungsplattform abfragen. Diese Abfragen beschränken sich daher immer auf eine Plattform, auch wenn der Manager beispielsweise mehrere vCenter überwacht. Insgesamt hat uns das gesamte Ber ichtswesen gut gef allen, nachdem vieles v orbereitet ist und der Administrator den Umfang problemlos nach Bedarf erw eitern kann. Fazit Der als virtuelle Appliance konzipierte Virtualization Manager lässt sich unter VMware und Hyper-V betreiben und unterstützt das Gut gefallen hat uns die intuitive Bedienbarkeit, da sich beim Klicken auf ein Objekt immer wieder Detailansichten öffnen oder bestehende Abhängigkeiten aufgezeigt werden. Auch lässt sich mit der so genannten Time-Travel-Funktion die historische Entwicklung eines Objekts über die Zeit verfolgen. Weiterhin ermöglicht der Manager eine einfache CompliancePrüfung durch den Vergleich von zwei Objekten. (ln) Bewertung vSphere-Unterstützung 8 Hyper-V-Unterstützung 5 Monitoring 7 Kapazitätsplanung 5 Reporting 9 Die Details unserer Testmethodik finden Sie unter www.it-administrator.de/testmethodik Dieses Produkt eignet sich optimal für Unternehmen, die wahlweise auf Hyper-V und/oder VMware setzen, da das Produkt beide Umgebungen gleichermaßen unterstützt. bedingt für Unternehmen, die bei der Virtualisierung ausschließlich auf VMware oder Hyper-V setzen. Hier empfiehlt sich ein Vergleich mit anderen Werkzeugen, die sich auf eine der beiden Plattformen spezialisiert haben. nicht für Umgebungen, in denen nicht oder mit einer anderen als den beiden unterstützten Plattformen virtualisiert wird. So urteilt IT-Administrator Mai 2015 15 S026-028_ITA_0415_T01_ok_ITA_Default 19.03.2015 12:20 Seite 2 TESTS I COMPUTENT Secure Pro Im Test: COMPUTENT Secure Fern und doch ganz nah von Daniel Richey VPNs für den sicheren Remotezugriff auf lokale Dienste sind eine praktische Angelegenheit und müssen nicht kompliziert sein. Für kleine Umgebungen hat der bayerische Hersteller COMPUTENT die kompakte Secure-Appliance im Angebot. Sie lässt sich mit wenigen Mausklicks einrichten und erlaubt Mitarbeitern den sicheren Zugriff auf lokale Ressourcen per USB-Stick. IT-Administrator hat die Secure-Box ausprobiert. ine kleine, unscheinbare Appliance und eine Handvoll USB-Sticks. Diesen Eindruck erweckt die VPN-Lösung COMPUTENT Secure beim Auspacken. Umso überraschter dürfte der Administrator ob der Einsatzmöglichk eiten der VPN-Umgebung sein. Denn das Prinzip, auf dem der sichere Remote-Zugang basiert, ist denkbar simpel: Über die USBSticks bauen Mitarbeiter v on beliebigen Rechnern aus einen mit 2.048 Bit RSAverschlüsselten SSH2-Tunnel ins Firmennetzwerk auf und können über diesen beliebige TCP-basierte Anwendungen beziehungsweise deren Daten schleusen. Im internen Netzwerk landen diese Verbindungen in der Secure-Box und werden von dort aus als lokaler Traffic an die Zielserver weitergeleitet – ganz so, als säße der Client im lokalen Netz. E Alles, was der Administrator machen muss, ist die USB-Sticks mit den Zugangsschlüsseln sowie den gewünschten Applikationen zu bestücken.Voreingestellt ist bereits der RDP-Zugriff. Dies ist auch die einzige offiziell unterstützte Anwendung. Alle anderen Applikationen betreibt der Administrator quasi auf eigene Gefahr.Wenig verwunderlich, dass der Her steller angesichts der denkbaren Vielfalt an möglichen Anwendungen nicht für deren Funktionieren garantieren kann. Auch sind die Anwendungen nicht wirklich vom Gastrechner abgeschirmt und laufen nicht et- 26 April 2015 wa in einem virtuellen Container. Sie starten lediglich vom USB-Stick und nutzen den auf dem Gastrechner aufgebauten SSH-Tunnel ins Firmennetz. Schnelle Inbetriebnahme Das Anschließen der Box ist schnell erledigt: Strom- und LAN-Kabel einstecken, fertig. Wo das Gerät im Netzw erk steht, spielt keine Rolle, solange es Kontakt ins Internet hat und die lokalen Ser ver erreicht. Die Verwaltung erfolgt über ein schlicht gehaltenes Webinterface. Hierfür muss der Administrator zunächst einen Rechner in den voreingestellten IPAdressbereich 192.168.2.x holen und kann anschließend die Netzw erkeinstellungen der Box für die lokale Umgebung konfigurieren. Erreichbar ist die Appliance per HTTP unter ihrer lokalen IP-Adresse. Auf HTTPS-Anfragen reagierte die Appliance in unserem Test zunächst nicht. Hierfür mussten wir den Port 8443 mitgeben, da auf 443 der SSH-Server lauschte. In der ansonsten gut v erständlichen Dokumentation fehlte dieser Hinweis. Das Webinterface ist über sichtlich und funktional aufgebaut. Es glieder t sich in fünf Menüpunkte, die das System, die Netzwerk-Einstellungen, den eigentlichen Secure-Dienst sowie die vorhandenen Lizenzen und weitere Tools betreffen. Die Konfigurationsarbeit beginnt wie erwähnt im Netzwerk-Unterpunkt, wo die lokale IP-Adresse der Box an die Umgeb ung angepasst wird. Anschließend führt der Weg in den Menüpunkt "Lizenzen". Hier trägt der Administrator die vorhandenen Lizenzschlüssel für die Appliance selbst sowie die einzelnen Nutzer ein. Damit ist das Gerät bereits betriebsbereit und wartet fortan unter seiner lokalen IPAdresse auf Port 443 auf SSH-Verbindungen. Unser Augenmerk galt daher als Nächstes der Firewall im Netzwerk, auf der wir eine Portweiterleitung für die SSH-Tunnel einrichteten. Der lokale SSHServer-Port lässt sich bei Bedarf anpassen, was natürlich in der Portweiterleitung entsprechend berücksichtigt werden muss. Im Bereich "WAN-Netzwerk-Konfiguration" trugen wir nun die exter ne IP-Adresse unseres Internet-Providers ein sowie den Port, den wir in der Firewall geöffnet hatten. Diese Infor mationen landen in den Konfigurationsdateien auf den USB-Sticks, Möglich sind maximal 10 gleichzeitige VPN-Verbindungen, was laut Hersteller etwa einem Datendurchsatz von etwa 4 MBit/s entspricht. Die Client-Applikation arbeitet Java-basiert und setzt Windows als Betriebssystem voraus. Eine lokal installierte Java-Umgebung ist jedoch nicht notwendig. Ob es sich um eine 32- oder 64 Bit-Plattform handelt, hängt von der genutzten Anwendung auf dem USB-Stick ab. Systemvoraussetzungen www.it-administrator.de S026-028_ITA_0415_T01_ok_ITA_Default 19.03.2015 12:20 Seite 3 COMPUTENT Secure Pro I TESTS funktionierendes Setup zurückspielen und damit etwa versehentlich gelöschte Einstellungen. Daneben ist ein Reset auf Werkseinstellungen möglich. Einfache Handhabung für Anwender Bild 1: Anwendungen werden über einen Befehl samt Parametern aufgerufen. Praktisch: Für RDP hat der Hersteller bereits alles Nötige eingetragen. sodass die Clientsoftware unterwegs weiß, wohin sie ihren Tunnel aufbauen soll. Sollte ein Unternehmen nicht über eine statische IP-Adresse verfügen, dann lässt sich auch einfach ein Hostname, zum Beispiel über DynDNS, verwenden. Nutzer anlegen und Dienste zuweisen Im nächsten Schritt legten wir die Benutzer an und wiesen den zugehör igen USBSticks die grundlegende Konfiguration sowie die vorgesehenen Anwendungen zu. Hierzu später mehr. Für die Userverwaltung dient der Punkt "Secur e-Dienst / Benutzer". Zunächst mussten wir die User-Lizenzen eintragen; erst dann ließen sich logischerweise die Benutzer einrichten. Diesen gaben wir einen Anzeigenamen und ein Passwort, das sie bei jedem Star t des Clients eingeben. Das Kennwort muss aus mindestens sechs Zeichen bestehen - auf mehr Komplexität bestand die Box in unserem Test nicht. Anwender können ihr Passwort bei Bedarf jederzeit über die Clientsoftware auf dem USB-Stick ändern. Um den individuellen USB-Stick in der Secure-Appliance aktiv zu schalten, trugen wir nun die Seriennummer des Sticks in das entsprechende Feld ein. Anhand dieser und einer K eycode-Datei identifiziert die Secure-Appliance die USBSticks. Auf diesem Weg lassen sich verlorene oder entwendete Sticks sper ren. Nachdem unsere Sticks damit akti v ge- www.it-administrator.de schaltet waren, wiesen wir die Anwendungen zu. Bis zu 50 lassen sich hierfür in der Box insgesamt hinterlegen. Dabei handelt es sich um einen Befehl, der von der Clientsoftware auf dem USB-Stick ausgeführt wird und eine dort abgelegte Applikation samt Parametern startet. RDP-Verbindung vorbereitet Die RDP-Verbindung – der v om Hersteller standardmäßig vorgesehene Verwendungszweck – ist bereits als Anwendung samt Kommando und Parametern hinterlegt. Wir mussten daher nur noch die IP-Adresse mit Portnummer unseres Zielrechners in den entsprechenden Feldern eintragen. Da COMPUTENT aus lizenzrechtlichen Gründen den RDPClient nicht schon mit den USB-Sticks ausliefern darf, kopierten wir diesen mit einem bereits auf dem Stick vorhandenen Tool von unserem Konfigurationsrechner auf den USB-Stick. Grundsätzlich ist es natürlich sinnvoll, portable Anwendungen auf dem Stick zu nutzen, damit diese auf unterschiedlichen Gastrechnern funktionieren. Schlafende Server lassen sich übrigens per Wake-on-LAN aufwecken. Um sich vor gravierenden Konfigurationsfehlern zu schützen, bietet die Secure-Box ein Sicher n der Einstellungen auf einem externen Speichermedium an. Das kann beispielsweise der Konfigurations-PC sein. So lässt sich im Fehlerfall ein Die Pflichten des Administrators sind getan und die Mitarbeiter dürfen sich n un mit ihren freigeschalteten USB-Sticks an Windows-Gastrechnern ins Fir mennetz tunneln. Auch hier hat es der Her steller einfach gehalten: Nach dem Einsteck en des Sticks startet der User den VPNClient, sofern dieser nicht per Autorun ausgeführt wird. Im sich öffnenden Fenster tippt der Nutzer sein zugewiesenes Passwort ein und der Rechner verbindet sich mit der exter nen IP-Adresse des Unternehmens und weiter ins Fir mennetz auf die Secure-Appliance. Nach der erfolgreichen Authentifizierung des USB-Sticks sieht der Anwender die Bestätigung "Verbindung hergestellt" sowie die ihm zur Verfügung stehenden Applikationen in einer Auswahlliste; in unserem Fall die RDP-Verbindung. Nach einem Klick auf ebendiese startete im Test der lokale RDP-Client, den wir zuvor auf den USB-Stick kopiert hatten, und es erfolgte die Abfrage der RDP-Credentials. Das war's. Dass COMPUTENT den Fokus auf RDP-Verbindungen gelegt hat, sahen wir auch daran, dass es hierfür ausgiebige Konfigurationsmöglichkeiten in der Clientsoftware gibt. So können Nutzer bestimmen, wie sich das RDP-F enster öffnen Bild 2: Das Client-Interface zeigt den Verbindungsstatus. April 2015 27 S026-028_ITA_0415_T01_ok_ITA_Default 19.03.2015 12:20 Seite 4 TESTS I COMPUTENT Secure Pro soll (bestimmte Größe oder Vollbild) und ob ein lokales Laufwerk an den Remote-Rechner für den Datentransfer durchgereicht werden soll. Der funktioniert bei RDP-Sessions nämlich nicht via Copy & Paste oder Drag & Dr op. Auch das klappte im Test reibungslos und wir sahen unser lokales Gastrechner-Laufwerk auf dem RDP-Desktop als Netzlaufwerk. An weiteren Funktionen steht noch ein simples Protokoll zur Verfügung, das jedoch lediglich das Funktionier en oder Nicht-Funktionieren einer Verbindung mit "OK" und "Fehlgeschlagen" wiedergibt. Ferner lassen sich bei Bedarf ProxyEinstellungen vornehmen, sollte der Gastrechner dies für den Inter net-Zugang benötigen. Einbinden von Drittanwendungen Als Nächstes versuchten wir unser Glück mit einem por tablen FTP-Client. Dieser sollte sich ebenfalls durch den SSH-Tunnel ins lokale Netzwerk verbinden und dor t auf einen FTP-Server zugreifen.Wir richteten die Anwendung – also den Aufruf des WinSCP-Clients auf dem USB-Stick – im Webinterface ein und wiesen die Anwendung über den Benutzer-Menüpunkt unserem Teststick zu. Anschließend kopierten wir den portablen Client auf den Stick. Nach dem Einstöpseln am Gastr echner und der anschließenden Authentifizierung stand der neue Eintrag "W inSCP" als zweite Option neben unserer RDP-Verbindung zur Verfügung. Wir starteten den FTP-Client, der sich öffnete, und versuchten, uns auf den lokalen FTP-Ser ver zu verbinden. Allerdings ignor ierte unser FTP-Client den bereitstehenden SSHTunnel getrost und wollte sich stets direkt mit der inter nen IP-Adresse verbinden. Erst als wir über die Variablen "%IPADDR%:%PORT%" die lokale IPAdresse und den P ort des SSH-Tunnels im Programmaufruf mitgaben, loggte sich der Client über den Tunnel erfolgreich auf dem Server ein: WinSCP.exe ftp://Benutzer:Passwort@ %IPADDR%:%PORT% Es ist stets notwendig, dass die verwendeten Applikationen bei ihrem Aufruf eine 28 April 2015 lokale, durch die Client-Software vergebene IP-Adresse, die in den SSH-Tunnel führt, als Option mitgeliefert bekommen und akzeptieren. Diese liegt im Adressbereich 127.0.0.x. Auch hierzu wäre ein ergänzender Satz in der Dokumentation sicher hilfreich gewesen. Mit App und ohne Stick ins Netzwerk Für mobile Nutzer bietet der Her steller auch eine App an, die unter Android und iOS läuft. Mit ihr ist der Zugriff auf den RDP-Desktop möglich. Eine transparentgrau hinterlegte Fläche dient als Touchpad, über das sich der Mauszeiger be wegen lässt. Der Administrator hat beim Anlegen des Benutzers die Wahl, ob er diesem einen USB-Stick oder einen SSH-Zugang per App zuweist. Herunterladen können Nutzer oder der Administrator die Apps aus Google Play sowie dem Apple App Store für 7,99 Euro. Seit Herbst 2014 er möglicht COMPUTENT den Zugang auch n ur per lokal installierter Software. Dies richtet sich an Nutzer, die regelmäßig von einem bestimmten PC aus remote aufs Firmennetz zugreifen möchten, etwa dem Heimrechner. Die Software überprüft dann anhand der Festplatten-ID, ob sie sich auf dem vorgesehenen PC befindet und nicht auf einem unbekannten Rechner gestar tet wurde. Damit gilt der gesamte Heim-PC neben dem Passwort als zweiter Faktor bei der Anmeldung. Für noch mehr Sicherheit unterstützt der Hersteller zudem Drittanbieter-USB-Sticks etwa von Kobil, die eine hardwarebasierte PIN-Eingabe ermöglichen. Damit sicher t ein weiterer Faktor die Anmeldung ab. Fazit Die VPN-Appliance Secure erwies sich im Test als einf ach zu konfigurieren: Einstecken, Grundeinstellungen vornehmen, Benutzer einrichten, fertig. Der von COMPUTENT standardmäßig vorgesehene RDP-Zugriff funktionierte auf Anhieb und bietet auch im Client-Interface zahlreiche Optionen.Was die Nutzung anderer Software angeht, muss der Administrator ausprobieren, ob diese mit dem SSH-Tunnel zurechtkommt. Das Webinterface ist simpel und funktional aufgebaut. Für kleine Unternehmen, die ihren Mitarbeitern einen einfachen wie möglichst sicheren Remotezugriff anbieten möchten, ist COMPUTENT Secur e eine interessante Alternative. Es lässt sich auch ohne Fachkenntnisse schnell und einfach in Betr ieb nehmen und fügt sich ohne nennenswerten Anpassungsbedarf in eine bestehende IT-Umgebung ein. Produkt Linux-basierte SSH-VPN-Appliance für kleinere Windows-Umgebungen. Hersteller COMPUTENT GmbH www.computent.de Preis Die getestete Ausführung COMPUTENT Secure Pro kostet 480 Euro ohne Nutzerlizenzen. Sie unterstützt bis zu 10 gleichzeitige VPN-Zugriffe. Pro Benutzer kommen nochmal 99 Euro drauf. Die Variante Secure Basic gibt es dagegen für 345 Euro inklusive einer Lizenz; sie unterstützt maximal zwei Benutzer. Ein Upgrade von Basic auf Pro ist ohne Hardware-Tausch möglich. Technische Daten www.it-administrator.de/downloads/datenblaetter So urteilt IT-Administrator (max. 10 Punkte) Sicherheit 7 Konfiguration 7 Client-Usability 8 Flexibilität 7 Skalierbarkeit 6 Die Details unserer Testmethodik finden Sie unter www.it-administrator.de/testmethodik Dieses Produkt eignet sich optimal für kleinere Umgebungen, in denen eine überschaubare Anzahl an Anwendern von unterwegs per RDP sicher auf Remotedesktops zugreifen möchte. bedingt für Unternehmen, die neben RDP auch andere Dienste per VPN bereitstellen möchten. Diese werden vom Hersteller offiziell nicht supportet und müssen ihre Tauglichkeit in der Praxis beweisen. nicht für große Umgebungen sowie Nutzer, die von Linux- oder Mac OS-Rechnern aus eine VPNVerbindung aufbauen möchten. Es lassen sich nur Windows-Anwendungen nutzen. COMPUTENT Secure Pro www.it-administrator.de S028-033_ITA_0515_P06_Experteach_MonitoringDays_ok_ITA_Default 17.04.2015 15:18 Seite 2 PRAXIS I Linux und Active Director y Workshop Linux-Server ins Active Directory einbinden Anschluss gefunden Auch in Netzwerken mit Microsoft-Servern ist es oft sinnvoll, zusätzliche Linux-Server einzubinden. Aktuelle Linux-Distributionen bieten in diesem Bereich umfassende Möglichkeiten und auch Microsoft hat im Active Directory die Unterstützung von Linux stetig verbessert. Damit lässt sich die Integration von Linux in Active Directory-Umgebungen gut umsetzen. Wir gehen in diesem Beitrag von einem Linux-Server auf Basis von Ubuntu 14.04.2 LTS aus. Er bietet hervorragende AD-Unterstützung, ist mit Kerberos kompatibel und außerdem sehr stabil. Dazu kommt, dass Sie im Internet eine Vielzahl von Anleitungen zum Server finden. Quelle: Tom de Spiegelaere – 123RF von Thomas Joos ver-Version zu installieren, nicht die Desktop-Version. Der Nachteil der Server-Versionen ist das Fehlen der grafischen Oberfläche, was für Linux-Administratoren kein Problem darstellt, für Windows-Admins allerdings schon. Sie haben aber die Möglichkeit, nach der Installation eines Ubuntu-Servers eine eingeschränkte g rafische Oberfläche zu installieren. Im Fall von Ubuntu eignet sich die LightVersion von Gnome am besten zur Konfiguration und Anbindung an das Active Directory. Sie installieren sie nach dem Setup des Servers und der Anmeldung als Administrator mit dem Befehl: sudo apt-get install xorg gnome-core gnome-system-tools gnome-appinstall Die Oberfläche lässt sich aber nur installieren, wenn der Server bereits über eine Netzwerk/Internet-Anbindung verfügt. Haben Sie den Ser ver grundlegend eingerichtet, können Sie die Oberfläche auf Wunsch auch vom Server entfernen: inux-Server lassen sich in Windows-Umgebungen mit Hyper-V effizient virtualisieren. Deshalb arbeitet auch Microsoft kontinuierlich daran, die Integration von Windows und Linux zu verbessern. Dieser Beitrag zeigt den komplizierten Weg der Anbindung eines Linux-Servers, aber auch Alternativen wie die Verwendung einer kostenlosen Samba-Appliance. Sie müssen für die Anleitungen in diesem Artikel nichts an den Domänencontrollern ändern oder dor t Tools installieren. Alles was nötig ist, können Sie in Linux erledigen. L Auch wenn Sie bisher im Netzwerk noch keinen Linux-Server einsetzen, kann es sinnvoll sein, einmal dessen Möglichkeiten 28 Mai 2015 zu erproben. In vielen Ber eichen, zum Beispiel als Proxy-Server oder ReverseProxy, bieten Linux-Server einen echten Mehrwert. Dazu kommt die Option, auf den Linux-Servern auch mit Active Directory-Benutzern zu arbeiten. Das erleichtert den Anwendern die Anmeldung, da sie sich keine zwei verschiedenen Anmeldenamen und Kennwörter merken müssen. Das Anbinden eines Linux-Servers an eine Windows-Domäne ist gar nicht so kompliziert, wie es sich viele Administratoren vorstellen. Linux-Server statt -Desktop Zunächst sollten Sie beim Betr ieb von Linux-Servern in Active Directory-Umgebungen darauf achten, eine echte Ser- sudo apt-get remove xorg gnome-core gnome-system-tools gnome-appinstall Wenn Sie mit den Terminal-Befehlen in Linux nicht vertraut sind, vor allem zur Anbindung und Konfiguration von Linux mit dem Active Directory, können Sie die eingeschränkte grafische Oberfläche (Bild 1) auch auf dem Ser ver belassen. Nach der Installation der grafischen Oberfläche starten Sie den Server mit sudo reboot neu. Danach melden Sie sich an der grafischen Oberfläche an. Im rechten oberen Bereich finden Sie den Shor tcut zu den Systemeinstellungen. Hier können Sie zum Beispiel auch die Zeiteinstellungen vornehmen, die wir in den nächsten Abschnitten behandeln. www.it-administrator.de S028-033_ITA_0515_P06_Experteach_MonitoringDays_ok_ITA_Default 17.04.2015 15:18 Seite 3 Linux und Active Director y I PRAXIS samtstruktur synchronisieren ihre Zeit mit dem PDC-Master der Stammdomäne in Active Directory. Bevor Sie sich also an die Einr ichtung machen, die wir nachfolgend vorstellen, achten Sie darauf, dass die Uhrzeiten stimmen. Damit die Zeitsynchronisierung ideal funktioniert, verwenden Sie auf den beteiligten Rechnern am besten den Zeitserver der physikalisch-technischen Bundesanstalt in Braunschweig, der den Namen ptbtime1.ptb.de trägt. Als Alternativen können Sie die Server ptbtime2.ptb.de und ptbtime3.ptb.de verwenden. Bild 1: Mit der eingeschränkten grafischen Oberfläche von Gnome (hier die Systemeinstellungen) lassen sich Linux-Server einfach und schnell in Active Directory-Umgebungen einbinden. Kerberos und Ubuntu mit Winbind Um Linux, in diesem Beispiel Ub untu, und das Active Directory im Zusammenspiel zu betreiben, können Administratoren den Weg über Kerberos gehen. Das Active Directory-Ticketsystem lässt sich in aktuellen Linux-Versionen anbinden. Das sollte auch der erste Schritt sein, um einen Linux-Server mit dem Active Directory zu verbinden. Die Installation von Kerberos unterscheidet sich zwischen den Distributionen. Im Fall von Ubuntu spielen Sie Kerberos mit der Erweiterung Winbind ein. Dabei handelt es sich um eine Systemergänzung, die die Linux/ Unix-Benutzerverwaltung mit Active Directory verbindet. Das ermöglicht es Anwendern, sich gegenüber dem Active Directory zu authentifizieren und auf Ressourcen der Linux-Server zuzugreifen. Das Login am Linux-Server erfolgt mit der Syntax "Domäne\Benutzer". Damit Winbind funktioniert, müssen Sie den Linux-Rechner natürlich zuer st am Netzwerk anbinden. Außerdem sollte mit Ping getestet werden, ob der Linux-Server auch den Namen der Domänencontroller auflösen kann. Als DNS-Server tragen Sie also die IP-Adressen der DNS-Server im Active Directory ein. Bei virtualisierten Linux-Servern haben Sie auch die Möglichkeit, die Uhrzeit der www.it-administrator.de VMs mit dem Host zu synchr onisieren. Dazu müssen beim Einsatz von VMware die VMware-Tools installiert sein, beim Einsatz von Hyper-V die Integ rationsdienste von Hyper-V. In VMware finden Sie die Einstellungen im Windows-Client über die Eigenschaften der VM im Bereich "Optionen / VMware Tools". Aktivieren Sie auf der rechten Seite die Option "Uhrzeit des Gastsystems mit Host synchronisieren". In diesem Fall m uss aber sichergestellt sein, dass der VMware-Virtualisierungs-Host seine Zeit mit den Windows-Domänencontrollern synchronisiert.Virtualisieren Sie den Linux-Server mit Hyper-V, finden Sie die Einstellung ebenfalls in den Eigenschaften der VM. Klicken Sie dazu auf "Integ rationsdienste\Zeitsynchronisierung". Haben Sie die grafische Oberfläche Gnome für den Ubuntu-Server installiert, finden Sie die Zeiteinstellungen unter "Systemeinstellungen / Zeit und Datum". Aktivieren Sie die Option "Netzwerkzeit" und stellen Sie man uell sicher, dass die Zeit des Servers mit der Zeit der Domänencontroller übereinstimmt. Netzwerkeinstellungen überprüfen und Pakete installieren Um einen Linux-Server am Beispiel dieses Ubuntu-Servers an das Active Directory anzubinden, rufen Sie zunächst die Netzwerkeinstellungen über "Aktivitäten / Anwendungen anzeigen / Netzwerk" auf. Achten Sie darauf , dass die DNS-Ser ver des Active Directory sowie der Name der Domäne angebunden sind (Bild 2). Sie können in den Netzwerkeinstellungen auch gleich die korrekte Suchdomäne sowie den FQDN des Linux-Servers in der Domäne eintragen. In diesem Fall müssen Auf Zeitsynchronisierung achten Kerberos ist abhäng ig von exakter Systemzeit. Sobald ein Client und ein Server mehr als zwei bis fünf Minuten voneinander abweichen, funktioniert die Authentifizierung nicht. Grundsätzlich sollten Sie darauf achten, dass sich die Domänencontroller, vor allem der PDC-Master und die Linux-Server, die Zeit von einem Internetserver oder einer Funkuhr holen. Alle anderen Windows-Domänencontroller synchronisieren ihre Zeit automatisch mit dem PDC-Master der eigenen Domäne. Die PDC-Master der einzelnen Domänen in einer Active Directory-Ge- Bild 2: In den Netzwerk-Einstellungen des Servers müssen die korrekten Informationen für Domäne und DNS gesetzt sein. Mai 2015 29 S028-033_ITA_0515_P06_Experteach_MonitoringDays_ok_ITA_Default 17.04.2015 15:18 Seite 4 PRAXIS I Linux und Active Director y # This file describes the network interfaces available on your system # and how to activate them. For more information, see interfaces(5). # The loopback network interface auto lo iface lo inet loopback # The primary network interface auto eth0 iface eth0 inet static address 192.168.178.188 gateway 192.168.178.1 netmask 255.255.255.0 network 192.168.178.0 Listing 1: Beispiel-Konfiguration für die AD-Anbindung Sie in der DNS-Zone des Active Directory zunächst manuell einen neuen Eintrag für den Linux-Server erstellen. Die Netzwerkeinstellungen können Sie auch mit einem Editor anpassen. Dazu müssen Sie die Einstellungen der Datei interfaces im Verzeichnis /etc/network bearbeiten. Eine Beispielkonfiguration sehen Sie in Listing 1. Nach der Änderung starten Sie das Netzwerk mit sudo /etc/init.d/networking restart neu. Mit ifconfig überprüfen Sie die Konfiguration. Testen Sie nach der Änderung der Netzwerkeinstellungen mit ping die Verbindung zum Domänencontroller. Die Namensauflösung und DNS-Ser ver passen Sie wiederum in der Datei /etc/resolv.conf an. Tragen Sie in der Datei die beiden folgenden Zeilen ein und speichern Sie sie: nameserver IP-Adresse des DNS-Servers search FQDN der Domäne [logging] default = FILE:/var/log/krb5.log [libdefaults] ticket_lifetime = 24000 clock_skew = 300 default_realm = Active Directory-Domäne [realms] Active Directory-Domäne = { kdc = Domänencontroller:88 admin_server = Domänencontroller:464 default_domain = Active Directory-Domäne } [domain_realm] .Active Directory-Domäne = Active Directory-Domäne Active Directory-Domäne klein geschrieben = Active Directory-Domäne groß geschrieben Listing 2: krb5.conf für die Kerberos-Anbindung 30 Mai 2015 Bild 3: Die Anbindung an das Active Directory wird durch eine Konfigurationsdatei gesteuert. In einigen Linux-Distributionen, auch in Ubuntu, bearbeiten Sie aber besser die Datei /etc/resolvconf/resolv.conf.d/base, weil die Änderungen an resolv.conf sonst überschrieben werden. Wollen Sie mehrere Nameserver hinzufügen, tragen Sie für jeden eine Zeile in der Art nameserver IPAdresse ein. Danach star ten Sie mit sudo resolvconf -u die Namensauflösung neu. Den Hostnamen des Servers zeigen Sie mit hostname an. Um ihn zu ändern, verwenden Sie den Befehl sudo /bin/hostname Neuer Hostname. Wenn Sie Änderungen vorgenommen haben, starten Sie den Server mit sudo reboot neu und überprüfen Sie mit ifconfig und ping, ob die Netzwerkkonfiguration und Namensauflösung funktionieren. Haben Sie die Einstellungen vorgenommen, installieren Sie die notwendigen Dienste für die Anbindung an das Active Directory. Dazu öffnen Sie ein Terminal auf dem Server und geben den folgenden Befehl ein: sudo apt-get install krb5-user libpam-krb5 winbind samba smbclient libnss-winbind libpam-winbind Achten Sie darauf, dass keine Fehlermeldungen erscheinen und der Name des Servers aufgelöst werden kann. Durch diesen Befehl werden die notwendigen Pakete für die Anbindung an Kerberos und das Active Directory heruntergeladen und installiert. Konfigurationsdateien für das Active Directory bearbeiten Für die Konfiguration müssen Sie nach der Installation einige Dateien mit einem Texteditor bearbeiten. Öffnen Sie zunächst die Kerberos-Konfigurationsdatei krb5.conf im Verzeichnis /etc (Bild 3). Fügen Sie den Namen der Domäne und eines Domänencontrollers sowie einige Parameter für die Anbindung an das Active Directory hinzu, wie in Listing 2 zu sehen. Nachdem Sie den Inhalt der Datei mit den Informationen Ihrer Umgebung ersetzt haben, sollten Sie den Linux-Server neu starten. Im nächsten Schr itt können Sie die Anbindung an die Domäne testen. Öffnen Sie dazu ein Terminal und geben Sie folgenden Befehl ein: kinit UNC-Anmeldenamen eines Domänen-Admins Gibt es hier eine Fehlermeldung, müssen Sie sich die Konfiguration erneut ansehen. Funktioniert alles, erscheint eine Kennwortabfrage. Das zeigt schon einmal, dass die Verbindung zum Domänencontroller funktioniert. Schreiben Sie den Domänennamen in Großbuchstaben, wenn Sie die Meldung "kinit: KDC reply did not www.it-administrator.de S028-033_ITA_0515_P06_Experteach_MonitoringDays_ok_ITA_Default 17.04.2015 15:18 Seite 5 Bild 4: Mit kinit und klist testen Sie die Kerberos-Anbindung an das Active Directory. match expectations while getting initial cr edentials" erhalten, zum Beispiel kinit [email protected]. Erhalten Sie keine Fehlermeldung, lassen Sie sich mit klist die Daten des Tickets anzeigen (Bild 4). Dieses muss den Namen der Domäne sowie den Ablauf seiner Gültigkeit enthalten.Wird hier ein Ticket angezeigt, ist der Lin ux-Server erfolgreich an Kerberos angebunden und lässt sich danach auch mit der Domäne verbinden. Fehlerbehebung der Kerberos-Anbindung Erhalten Sie bei der Anfrage eines Kerberos-Tickets eine Fehlermeldung, überprüfen Sie im Terminal zunächst mit Ping, ob der Domänencontroller erreichbar ist. Erhalten Sie hier k eine Antwort, testen Sie, ob der Linux-Server korrekt am Netzwerk angebunden ist und die Namensauflösung funktioniert. Erscheint die Abfrage des Kennwortes, aber das Login klappt nicht, stellen Sie sicher, dass Sie das richtige Kennwort verwenden. Sehr hilfreich bei Problemen sind die Anleitungen auf den Seiten [1] und [2]. AD-Domäne beitreten Wenn die Kerberos-Anbindung funktioniert, können Sie schließlich mit dem Lin ux-Server der Domäne beitr eten. Dazu verwenden Sie Samba in Linux. Das Paket dazu haben Sie bereits in den Vorbereitungen installiert. Damit der Lin ux-Server Teil der Active Directory-Domäne wird, müssen Sie die SambaKonfigurationsdatei anpassen. Die Konfigurationsdatei smb.conf finden Sie im Verzeichnis/etc/samba. Löschen Sie den Inhalt der Datei und ersetzen ihn durch den Inhalt des Listings 3. Nachdem Sie die Datei er stellt haben, speichern Sie sie und starten den Server neu. Überprüfen Sie nach dem Neustart die Namensauflösung mit Ping und er neut mit kinit, ob die K erberos-Anbindung funktioniert. Danach können Sie den Server in die Domäne aufnehmen. ITK Training Cloud Services & SDN Technologie-Know-how Cloud Computing I V m Ve Vo V rtragsrecht bis zum Marktüberblick (3 Ta T ge) Cloud Computing II Cloud-Infrastrukturen und Cloud Security (4 Ta T ge) Cloud BootCamp Prozesse, Infrastruktur,r Security und Marktüberblick (5 Ta T ge) Plattformen für OpenStack Die Bestandteile im Detail (4 Ta T ge) OpenStack Implementierung und Betrieb (5 Ta T ge) Software-Defined Networking (SDN) Konzepte und Implementierungen (3 Ta T ge) Software-Defined Data Center Konzepte und Implementierungen (2 Ta T ge) Programmieren für Netzwerker Eine praxisorientierte Einführung (5 Ta T ge) ... und alles mit garantierten Kursterminen! Haben Sie Samba k onfiguriert, nehmen Sie mit dem Befehl sudo net ads join -U Administrator den Server in die Domäne auf. Nachdem Sie sich an der Domäne authentifizier t haben, wird der Linux-Server auch in der Organisationseinheit "Computers" angezeigt. Anschließend müssen Sie Winbind neu starten: /etc/init.d/winbind restart. Generell hilft an dieser Stelle www.it-administrator.de www.experteach.de Fordern Sie unseren aktuellen Trainingskatalog an! Tel. 06074 4868-0 S028-033_ITA_0515_P06_Experteach_MonitoringDays_ok_ITA_Default 17.04.2015 15:18 Seite 6 PRAXIS I Linux und Active Director y [global] security = ads realm = Domäne in Großbuchstaben password server = IP-Adresse des Domänencontrollers workgroup = Domäne idmap uid = 10000-20000 idmap gid = 10000-20000 winbind enum users = yes winbind enum groups = yes winbind cache time = 10 winbind use default domain = yes template homedir = /home/%U template shell = /bin/bash client use spnego = yes client ntlmv2 auth = yes encrypt passwords = yes restrict anonymous = 2 domain master = no local master = no preferred master = no os level = 0 Listing 3: smb.conf für die Kerberos-Anbindung auch der Neustar t des Ser vers mit sudo reboot, zum Beispiel wenn die Anbindung noch nicht optimal funktioniert. Domänenmitgliedschaft prüfen und Authentifizierung steuern Nachdem der Ser ver neu gestar tet ist, überprüfen Sie in "Active Directory-Benutzer und -Computer" auf dem Domänencontroller, ob das Computerk onto des Servers angezeigt wird. Im Terminal des Linux-Servers können Sie mit wbinfo -u die Domänenbenutzer und mit wbinfo -g die Domänengruppen anzeigen lassen. Funktioniert die Anbindung, bearbeiten Sie die Datei /etc/nsswitch.conf. Passen Sie dort die folgenden Einstellungen an: passwd: group: shadow: compat winbind compat winbind compat Speichern Sie die Datei und star ten Sie Winbind neu: /etc/init.d/winbind restart Geben Sie danach noch getent passwd ein. Die erfolgreiche Umsetzung können Sie mit getent group testen. Der Befehl gibt die Gruppen in der Domäne aus. Sie können die K onfiguration auch erweitern, um zum Beispiel Active Directory-Administratoren zur Verwaltung der Linux-Server einzubinden. Wie Sie dazu vorgehen, lesen Sie auf [3].Viele wichtige Informationen sind auf [4] zu finden. 32 Mai 2015 Kostenlose Samba4-Appliance mit VMware ESXi Samba 4 steht auf v erschiedenen Wegen als Linux-Distribution oder als bereits installierte virtuelle Festplatte für Hyper-V (VHD), im Open Virtualization Format (OVF) oder als VMware-Image zur Verfügung. Wer sich Samba in einer eigenen Linux-Installation direkt von den Entwicklern herunterladen will, findet die Installationsdateien und Anleitungen auf der Seite [5], ein Whitepaper zur Installation ist auf [6] hinterlegt. Samba 4 lässt sich als vollwertiger Domänencontroller inklusive Dateiserver-Betrieb nutzen. Im Netzwerk können Sie auch mehrere Domänencontroller mit Samba 4 einsetzen, die untereinander Daten synchronisieren. Unternehmen, die Exchange einsetzen, können ebenf alls Samba verwenden, da Samba 4 und aktuelle Exchange-Versionen kompatibel zueinander sind. Samba 4-Server können auch als Mitgliedsserver in einem Active Directory auf Basis von Windows-Servern teilnehmen oder ein eigenes Active Directory zur Verfügung stellen. Für Windows-Administratoren, die einen fertigen Samba-Server herunterladen und an das Active Directory anbinden wollen, g ibt es eine sehr gute Appliance [7], die Sie in VMware ESXi anbinden können. Die Appliance können Sie außerdem auch als Domänencontroller konfigurieren. Das hat in kleinen Niederlassungen den Vorteil, dass sich Windows-Computer wie an nor malen Domänencontrollern anbinden lassen. Der Import der Appliance findet im Windows-Client über das Menü "Datei / OVF-Vorlage bereitstellen" statt. Dazu müssen Sie die Appliance herunterladen und entpacken. Sobald die Appliance gestartet ist und Sie die Lizenzbedingungen bestätigt haben, melden Sie sich mit dem Ben utzername "root" und dem Kennwort "opensuse" an. Mit yast lan starten Sie die Einr ichtung des Netzwerkes. Nachdem der Server eingerichtet ist, können Sie über Skripte die Domäne einrichten, Samba aktivieren und auch Arbeitsstationen an den Ser ver an- binden.Wechseln Sie dazu in das korrekte Verzeichnis mit dem Befehl cd /srv/v und starten Sie das Skript zur Einrichtung mit ./dcpromo.sh. Anschließend steht die Appliance zur Konfiguration bereit. Fazit Linux und das Active Directory arbeiten auf verschiedenen Ebenen zusammen. Sie können Linux-Server so konfigurieren, dass die installier ten Serverdienste die Authentifizierung des Active Directory nutzen können, oder Sie betreiben Linux als Domänencontroller und binden Windows-Rechner an. Auch die Anbindung von Linux-Arbeitsstationen an Windows-Domänen ist möglich. Allerdings setzt das etw as Geduld und K onfigurationsarbeit voraus. Administratoren sollten sich die Möglichkeiten ansehen und testen, ob der eine oder andere Serverdienst auch über Linux bereitgestellt werden kann. Da sie in den meisten Fällen keine Änderungen an den Domänencontrollern durchführen müssen und die Linux-Server auch virtualisieren können, lässt sich schnell eine Testumgebung aufbauen. Neben der Möglichkeit, eine eingeschränkte grafische Oberfläche zu nutzen, können Sie auf Linux-Servern natürlich auch vollwertige Konfigurationsoberflächen installieren. Das erhöht zwar das Sicherheitsr isiko, erleichtert dafür aber deutlich die Einrichtung. (of) [1] Troubleshooting Active Directory and Winbind F5P61 [2] How to configure Network IPv4 DNS or DHCP using terminal on Ubuntu server F5P62 [3] ActiveDirectoryWinbindHowto F5P63 [4] Samba/Kerberos F5P64 [5] Samba-Download F5P65 [6] Samba 4.0 Whitepaper F5P66 [7] Samba Appliance F5P67 Link-Codes Link-Codes eingeben auf www.it-administrator.de S076-081_ITA_0415_Z04_Computec-Media_ok_ITA_Default 17.03.2015 17:16 Seite 2 SCHWERPUNKT I OpenVPN Workshop: OpenVPN-Verbindungen Sicher getunnelt von Thomas Zeller In Zeiten der allgegenwärtigen Überwachung und Ausspähung von Netzen ist die Verschlüsselung und sichere Authentifizierung vertraulicher Kommunikation erste Bürgerpflicht. Dies gilt umso mehr für Admins im Unternehmensnetzwerk, tragen sie doch die Verantwortung für die sichere geschäftliche Kommunikation ihrer Benutzer. OpenVPN ist ein bewährtes und robustes VPN-Produkt und dank einfachem Setup auch schnell in Betrieb genommen. Dieser Artikel gibt einen Überblick über die Einsatzmöglichkeiten und verschiedenen Varianten von OpenVPN. as Kürzel VPN (Virtual Pr ivate Network) bezeichnet eine Technologie zur Verbindung von zwei oder mehreren Rechnernetzen über ein unsicheres, zumeist öffentliches Drittnetz. Mit dem unsicheren Dr ittnetz ist typischerweise natürlich das Internet gemeint, aber es kann sinnvoll sein, die Kommunikation auch innerhalb eines LANs oder WLANs zu verschlüsseln, zum Beispiel wenn der eigene Rechner an ein fremdes LAN angeschlossen werden muss. Denn schließlich kann potenziell jeder Betreiber eines Netzwerks die Kommunikation aller Teilnehmer mitlesen oder aufzeichnen, wenn die Übertragung unverschlüsselt erfolgt. D Und natürlich lassen sich auf diese Weise auch Zensur mechanismen umgehen. So nutzten beispielsweise ausländische Journalisten während der Olympiade 2008 in Peking OpenVPN, um sich auf Server in ihren Heimatländern zu verbinden, um von dort aus einen ungefilter ten Internet-Zugang zu erhalten. VPN ist nicht gleich VPN VPN-Protokolle gibt es viele. Als quasiStandard für die v erschlüsselte Netz-zuNetz Kommunikation hat sich die IPSec Protokollfamilie fest etabliert. Dessen Setup gilt aber als aufwändig und wenig "Firewall-freundlich" und hat zuweilen auch 76 April 2015 Probleme mit der Kompatibilität zwischen den Implementierungen verschiedener Hersteller. L2TP over IPSec hat sich vor allem bei den mobilen Betriebssystemen iOS und Android einen Namen gemacht, Microsofts altes PPtP g ilt inzwischen als gebrochen und sollte daher auch nicht mehr verwendet werden. SSH, eigentlich ein klassisches Pr otokoll zum Aufbau verschlüsselter Verbindungen für das Remote-Login auf Unix-Systeme, bietet durch seinen Tunneling-Mechanismus ebenfalls VPN-Qualitäten, erlaubt aber nur das Tunneln TCP-basierter Verbindungen. Dafür ist die K onfiguration sehr einfach, da der Tunnel eben nicht auf der Netzwerk-, sondern auf der Anwendungsebene aufgebaut wird. OpenVPN greift für die Verschlüsselung auf die Bibliotheken von OpenSSL zurück und verwendet als Transportprotokoll wahlweise TCP oder UDP oder auch beides. Damit vereint OpenVPN die Vorteile der anderen VPN-Protokolle (sichere Netzkopplung und einfache Konfiguration) in sich. Schon deshalb gilt OpenVPN bei vielen Administratoren als Favorit in Sachen verschlüsselter Kommunikation. Neben dem bereits erwähnten einf achen Setup und der Kommunikation über einen einzigen TCP- oder UDP-Por t bietet OpenVPN eine Reihe weiterer Vorteile: - OpenVPN kann, wenn TCP als Transportprotokoll verwendet wird, über Web-Proxies hinweg kommunizieren - OpenVPN hat keine Probleme mit dynamischen IP-Adressen - Der Bridging Mode von OpenVPN ermöglicht Ethernet Layer Tunnel. Damit können auch Protokolle betrieben werden, die auf Broadcast und/oder Multicast angewiesen sind, zum Beispiel Netbios und einige Netzw erk-Spiele. Außerdem können im Bridging Mode sogar nicht-IP-Protokolle wie IPX oder AppleTalk transportiert werden. Die Community-Version von OpenVPN steht unter einer Open Sour ce-Lizenz (GPL) und ist damit kostenfrei verfügbar. Angesichts der Tatsache, dass viele Netzwerkhersteller ihre Geräte ausschließlich mit IPSec ausrüsten, ist die fehlende Kompatibilität dazu ein gewisser Nachteil von OpenVPN. Außerdem schlagen Sicherheitslücken im OpenSSL-Projekt beziehungsweise in SSL/TLS üblicherweise voll auf die Sicherheit von OpenSSL-basierten Produkten durch, was wir 2014 mit Heartbleed [1] und POODLE [2] gleich zweimal erlebt haben. Die kommerzielle www.it-administrator.de S076-081_ITA_0415_Z04_Computec-Media_ok_ITA_Default 17.03.2015 17:16 Seite 3 OpenVPN I SCHWERPUNKT Variante von OpenVPN erlaubt alternativ die Verwendung der PolarSSL-Bibliotheken anstelle OpenSSL, dazu später mehr. desamt für Sicherheit in der Infor mationstechnik (BSI) empfohlene Variante beim Einsatz von OpenVPN [3]. Authentifizierung Alternativ zum Einsatz v on Smartcards oder anderer PKI-Token bietet Open VPN noch weitere Möglichkeiten zur starken Authentifizierung, zum Beispiel per One Time Password (OTP). Läuft der OpenVPN-Server unter Linux oder einem anderen Unix-artigen Betr iebssystem, bietet sich als Uni versalschnittstelle zu verschiedenen Backend-Systemen der Einsatz von PAM (Pluggable Authentication Module) an. Die Sicherheit von VPN-Verbindungen basiert neben der Verschlüsselung auch auf der Authentifizierung der beteiligten VPN-Partner. OpenVPN kann auch in diesem Bereich viele Vorteile in sich vereinen. Denn es bietet neben dem klassischen Preshared Key-Verfahren, bei dem alle beteiligten Partner denselben Schlüssel verwenden, auch eine zertifikatsbasierte und damit wesentlich sicherere Form der Authentifizierung an. Bei der zertifikatsbasierten Authentifizierung erhält jeder VPN-Teilnehmer ein eigenes X.509 Zertifikat, bestehend aus einem Public- und einem Private-Key. Der VPN-Server lässt dann nur Verbindungen von Partnern zu, deren Zertifikat von einer ihm bekannten Zer tifizierungsstelle signiert wurden. Scheidet ein Kommunikationspartner aus oder g ilt dessen Zertifikat als kompromittiert, muss der Administrator nur das jeweilige Zertifikat für ungültig erklären. Dies geschieht, indem er das betroffene Zertifikat auf eine Art schwarze Liste setzt, die Cer tificate Revocation List (CRL), um den Teilnehmer künftig aus dem VPN auszusperren. Der Server prüft die CRL bei jedem Verbindungsaufbau und kann so ungültige Zertifikate jederzeit identifizieren. Zusätzlich erlaubt der Einsatz der zertifikatsbasierten Authentifizierung, jedem Benutzer individuelle Profile zuzuweisen. Auf diese Weise kann der Administrator beispielsweise bestimmte Rechte oder Routen am Client setzen und über iptables auch den Zugang zu inter nen Services explizit erlauben oder verbieten. Schutz der Zertifikate Natürlich müssen die Teilnehmer gut auf ihre Zertifikate aufpassen. Damit ein gestohlenes Zertifikat einen Angreifer nicht sofort in die Lage versetzt, am VPN teilzunehmen, ist der Pr ivate Key-Teil des Zertifikats durch eine Passphrase geschützt. Dieser Schutz lässt sich erheblich erweitern, wenn das Zer tfikat auf eine Chipkarte (Smartcard, USB-Token) ausgelagert wird. Dies ist auch die vom Bun- www.it-administrator.de Mit Hilfe von PAM und den entspr echenden Modulen können eingehende Anfragen beispielsweise an einen RADIUS-Server oder LDAP-Server weitergeleitet werden. Der Einsatz eines RADIUS-Servers via PAM bietet hier das größte Potenzial, da praktisch jeder größere Anbieter von Authentisierungslösungen entweder einen eigenen RADIUS-Ser ver mitbr ingt oder eine Schnittstelle dafür implementiert hat. Als herstellerunabhängige Middleware kann beispielsweise LinOTP dienen, das wir in der Oktober-Ausgabe des IT-Administrator vorgestellt haben [4]. Einsatzplanung Im Gegensatz zu anderen VPN-Protokollen bietet OpenVPN mit dem Routingund dem Bridging-Modus zwei Betriebsmodi, auf deren Basis die jeweils gewünschte Topologie im VPN aufgebaut wird. Bevor wir gleich näher auf die Unterschiede des Routing- und Br idgingMode eingehen, werfen wir einen Blick auf die typischen VPN-Topologien: - Peer-to-Peer Tunnel: Im einfachsten Fall ist das eine per Preshared-Key gesicherte Verbindung zwischen zwei Systemen. Dieser Anwendungsfall dürfte in der Praxis eher selten vorkommen. Aufgrund des einfachen "Minimal-Setups" kann es aber für den schnellen Aufbau eines Anwendungsszenarios mit niedrigem Schutzbedarf eine inter essante Option sein. - Client-to-Site Tunnel: Dies ist das typische "Roadwarrior"-Szenario, bei dem sich mehrere Benutzer (Clients) in einer sternförmigen Topologie mit einem zentralen VPN-Gateway (Server) verbinden. - Site-to-Site Tunnel: In diesem Szenario werden zwei oder mehrere Netzwerke über VPN-Gateways (Server) miteinander verbunden. Die Clients in den beteiligten Netzen können so transparent auf Dienste im je weils anderen Netz zugreifen. Routing und Bridging Ob Sie sich für den Routing- oder Bridging-Modus von OpenVPN entscheiden, wird im Wesentlichen davon abhängen, wie eng Sie den oder die Clients an Ihr lokales Netzwerk anbinden wollen. Im Bridging-Modus erhält jeder Client eine IP-Adresse aus dem lokalen Netzw erk und kann mit dem Netzwerk dann auch so interagieren, als wäre er lokal ans Netzwerk angeschlossen (Layer 2). Die Clients befinden sich also in der selben Broadcast-Domain, was beispielsweise für das Browsen von Netbios-Freigaben ohne WINS-Server erforderlich ist. Auch verschiedene LAN-Spiele sind auf Broadcasts angewiesen. Der Overhead von Open VPN ist im Bridging-Mode etwas höher als bei gerouteten Verbindungen. In der Praxis ist dieser Umstand allerdings in den meisten Fällen vernachlässigbar. Für den Einsatz des Routing-Modes von OpenVPN sprechen daher auch eher die weitreichenderen Möglichkeiten, Clients individuell in ihren Rechten zu beschränken, als die Skalierbark eit des VPN. Außerdem unterstützen Android-Devices derzeit nur den Routing-Modus. Im Allgemeinen ist der Routing-Modus daher die bessere Wahl, es sei denn, Sie haben eine Anforderung, die zwingend den Bridging Modus erfordert. Im Routing-Modus schaltet OpenVPN zwischen die beteiligten Netze (Client + Ser ver) ein zusätzliches IP-Netz. Alle Endpunkte kommunizieren also über eine GatewayAdresse aus diesem Zwischen-Netz. UDP vs. TCP Wie eingangs schon kurz erwähnt, kann der Admin einfach festlegen, über welchen TCP- oder UDP-Port OpenVPN kommunizieren soll. Per Default verwendet OpenVPN den Port UDP/1194. Hintergrund ist, dass der weitaus größere Teil April 2015 77 S076-081_ITA_0415_Z04_Computec-Media_ok_ITA_Default 17.03.2015 17:16 Seite 4 SCHWERPUNKT I OpenVPN OpenVPN stellt in der freien Variante keine klassischen Mechanismen wie "active-passive" oder "active-active" zum Aufbau einer Hochverfügbarkeitsumgebung zur Verfügung. Die kommerzielle Ausgabe, der OpenVPN Access Server, unterstützt hingegen HA-Setups auf Basis von "GlusterFS" [5]. Eine einfache Form der Hochverfügbarkeit lässt sich aber auch mit Hilfe redundanter OpenVPN-Server herstellen. In die Client-Konfiguration werden dann einfach mehrere Server untereinander eingetragen. Erreicht der Client den ersten Server nicht, versucht er es beim nächsten. Alternativ bietet sich auch der Einsatz eines Loadbalancers an, der die eingehenden Verbindungen auf die Serverinstanzen verteilt. Hochverfügbarkeit der typischerweise genutzten Dienste auf TCP basiert und die Verwendung von TCP als Transportprotokoll Voraussetzung dafür ist, dass OpenVPN Verbindungen über Web-Proxys hinweg kommunizieren kann. Die Antwort auf die Frage "Was ist besser, TCP oder UDP?“ lautet also: "Es kommt drauf an“. Aus technischer Sicht besser geeignet ist sicher UDP, da es schon aufg rund der fehlenden Fehlerkorrektur einfach schneller ist und das Tunneln von TCP über TCP einen größeren Overhead erzeugt. Für ein Roadwarrior-Szenario, bei dem Clients aus den unterschiedlichsten Netzwerken und zum Teil über Proxyserver hinweg sich zum Server verbinden, ist alDie meisten UTM-Firewall-Systeme bringen heute einen oder mehrere VPN-Server mit, darunter häufig auch OpenVPN. Bekannte Vertreter aus dem kommerziellen Lager sind: - Endian Firewall - Gateprotect - Securepoint - Sophos UTM - Watchguard Aber auch die Open Source-Szene kann mit freien Firewall-Appliances aufwarten, die OpenVPN entweder bereits fest integriert haben oder eine modulare Nachrüstung erlauben: - Endian Firewall, Community Edition - Fli4l - IPCop - IPFire - LEAF (Bering-uClibc) - OpenWRT OpenVPN in a Box 78 April 2015 lerdings TCP zum Beispiel auf Port 443 die bessere, weil verlässlichere Wahl. In allen anderen Situationen ist aber die Verwendung von UDP sinnvoller. Wer auf Nummer sicher gehen möchte, startet einfach zwei OpenVPN-Daemons, einen mit TCP- und den anderen mit einer UDP-Konfiguration. Unterschiede zwischen kommerziell und Open Source Werfen wir nun einen Blick auf die verfügbaren freien und kommerziellen Implementierungen von OpenVPN. Die Entwickler Francis Dinha und James Yonan bieten über ihr Unter nehmen OpenVPN Technologies den kommerziellen OpenVPN Access Server als Software-Paket für verschiedene LinuxDistributionen, virtuelle Appliance für Hyper-V und VMware und als Cloud Image für Amazon AWS und CloudSigma an. Lizenziert wird nach Client-Verbindungen mit einem Minimum von 10 Clients für je 6,90 US-Dollar pro Jahr. Zwei Client-Verbindungen sind bereits kostenfrei enthalten.Wer damit auf Dauer zurechtkommt, muss also keine Lizenzen erwerben. Die kommerzielle Variante bietet gegenüber der Open Source-Version einige zusätzliche Funktionen, darunter beispielsweise eine Web-GUI. Einen detaillierten Überblick über die Unterschiede zur Open Source Version bietet die Tabelle unter [6]. Mit dem VPN-Service "pr ivatetunnel" bietet OpenVPN Technologies darüber hinaus OpenVPN-Zugänge auf gehostete Server in Nordamerika und verschiedenen europäischen Staaten an, um die eigene öffentliche IP-Adresse zu verstecken, etwa um so Internet-Restriktionen bei Verbindungen aus Staaten wie China oder dem mittleren Osten zu umgehen. Natürlich steht OpenVPN auch auf der Projektwebsite des Open Source-Projekts zur Verfügung. In der Regel ist die fr eie Version auch in den Repositories der gängigen Linux-Distributionen enthalten – wenn auch nicht immer in der aktuellen Version. Derzeit aktuell ist Version 2.3.6 vom 01.12.2014. Ubuntu 14.04 installiert beispielsweise noch die Vorgängerversion 2.3.2. Wer also auf Features oder Bugfixes der jeweils aktuellen Version angewiesen ist, sollte besser gleich die Pakete von der Projektwebsite verwenden, muss dann allerdings den Quellcode selbst kompilieren. Für Windows steht die aktuelle Version inklusive Installer bereit. Das Binary von OpenVPN enthält übr igens immer den Client- und den Ser verteil. In welchem Modus OpenVPN läuft, wird über die Konfigurationsdateien gesteuert. Die Community Version enthält kein grafisches Frontend, lässt sich aber auch gut über die Kommandozeile bedienen. Weiterhin ist OpenVPN auch in zahlreiche freie und kommerzielle Produkte integriert, zum Beispiel Firewalls, die meist auch einen eigenen g rafischen VPNClient mitbringen. Einen Überblick über kommerzielle Produkte mit integriertem OpenVPN erhalten Sie mit Hilfe des Kastens "OpenVPN in a Box". OpenVPN Schnellkonfiguration Ein VPN zwischen zwei Endpunkten ist mit OpenVPN und Pr eshared-Key im Peer-to-Peer Modus zwar sehr schnell aufgesetzt, genügt aber nicht unbedingt den Vorstellungen sicherheitsbewusster Administratoren. Greifen Sie lieber gleich zur zertifikatsbasierten Authentifizierung, auch wenn sie zunächst etwas aufwendiger ist. Der Mehraufwand entsteht vor allem, weil die zertifikatsbasierte Authentifizierung eine Public Key Infrastructure (PKI) voraussetzt und die Zertifikate an die Benutzer verteilt werden müssen. Leider bringt die Community-Version inzwischen keine PKI mehr mit. Das früher zusammen mit OpenVPN ausgeliefer te "easyRSA" steht aber weiterhin auf Github zur Verfügung [7]. EasyRSA ist ein kommandozeilenbasiertes Werkzeug zum Aufbau und Betrieb einer PKI Certificate Authority (CA), mit der sich leicht X.509Zertifikate für Server und Benutzer sowie eine Zertifikatssperrliste erzeugen lassen. Installation und Konfiguration des Servers Wer das zu aufwendig findet, greift einfach zum kommerziellen OpenVPN Access Server. Der bringt seine eigene PKI mit, www.it-administrator.de S076-081_ITA_0415_Z04_Computec-Media_ok_ITA_Default 17.03.2015 17:16 Seite 6 SCHWERPUNKT I OpenVPN ting-Modus aktiv. Dies können Sie bei Bedarf hier umstellen. - VPN Settings: In diesem Bereich wird das Tunnel-Netzwerk konfiguriert und festgelegt, ob der Netzwerkverkehr an den Clients grundsätzlich über das VPN geroutet werden soll. - Authentication / General: In der Voreinstellung werden Benutzer über PAM gegen die Passwortdatenbank des Linux-Hosts authentifiziert. In diesem Bereich können Sie das ändern. Wenn Sie die lokale Authentifizierung verwenden, müssen Sie allerdings jedem Benutzer im Bereich "User Permissions" ein eigenes Passwort zuweisen. - User / Group Permissions: Hier legen Sie Benutzer / Gruppen für Ihre VPNUser an und stellen indi viduelle Berechtigungen für die Benutzer ein. Bild 1: Der OpenVPN Access Server bringt ein komfortables Webfrontend für die Konfiguration des Servers und die Provisionierung der Clients mit. sodass sich der Admin nicht mit weiteren Werkzeugen herumschlagen muss. Alle erforderlichen Schr itte, inklusive RollOut und Rückzug von Zertifikaten, können mit dem Admin-GUI des OpenVPN Access Servers erledigt werden (Bild 1). Laden Sie die passende Version für Ihre Linux-Distribution herunter und installieren Sie sie mit dem Paketmanager. Alternativ können Sie auch auf die vorkonfigurierten VMs oder ein CloudImage zurückgreifen. Haben Sie sich für die Installation unter Linux entschieden, zeigt der Installer nach erfolgreicher Installation die URLs an, über die Sie ganz einfach die webbasierte Konfigurationsoberfläche erreichen: Admin UI: https://IPAdresse:943/admin Client UI: https://IP-Adresse:943/ Passt der voreingestellte Port des Webinterface nicht für Ihre Umgebung oder haben Sie die OpenVPN Access Server VM (Login als root mit dem P asswort opnvpnnas) heruntergeladen, führen Sie mit dem Befehl ovpn-init eine Re-Konfigu- 80 April 2015 ration aller wichtigen P arameter durch. Per Default legt der Installer den Benutzer openvpn auf dem Host an. Damit Sie sich mit diesem Benutzer in die Admin-Oberfläche einloggen können, müssen Sie für diesen zunächst ein Passwort vergeben: Haben Sie diese Einstellungen überprüft und gegebenenfalls angepasst, steht einem ersten VPN-Verbindungsaufbau nichts mehr im Wege. Um OpenVPN auf dem Client zu installieren, rufen Sie mit dem Webbrowser Ihres Endgeräts (PC mit Windows oder Linux, Mac, Android- oder iOS Device) das Client User Interface unter der URL https://IP-Adresse:943/ auf und loggen sich dort mit dem Benutzernamen und dem Passwort ein, die Sie zuvor unter User / Group Permissions vergeben haben (Bild 2). passwd openvpn Anschließend r ufen Sie die URL https://IP-Adresse:943/admin auf und loggen sich als User "openvpn" mit dem soeben gesetzten Passwort ein. Hier müssen Sie zunächst die Lizenzbestimm ungen abnicken und haben dann k omfortabel Zugriff auf die Ser verkonfiguration, die bereits sinnvoll eingestellt ist. Sie sollten sich aber dennoch zumindest die folgenden Settings ansehen und diese im Bedarfsfall anpassen: - Server Network Settings: Hier legen Sie fest, auf w elche IP-Adr essen die OpenVPN-Dienste gebunden und ob VPN-Verbindungen über TCP, UDP oder beides entgegengenommen werden. - VPN Mode: OpenVPN unterstützt Verbindungen im Br idging- oder Routing-Modus (TUN beziehungsweise TAP Device), per Default ist der Rou- Wenn Sie die URL von einem WindowsRechner aufrufen, wird nur der WindowsClient (OpenVPN Connect) zum Download angeboten. In diesem Fall müssen Sie die Konfiguration auch nicht separat herunterladen und in den Client einbinden, die Provisionierung übernimmt der OpenVPN Access Server vollautoma- Bild 2: Die Provisionierung der Clients erfolgt über das Self-Service-Portal des OpenVPN Access Servers. www.it-administrator.de S076-081_ITA_0415_Z04_Computec-Media_ok_ITA_Default 17.03.2015 17:16 Seite 7 OpenVPN I SCHWERPUNKT tisch. Nach dem Do wnload des Clients muss der Benutzer also lediglich seine Credentials eintragen und erhält nach dem Verbindungsaufbau vom Access Server sein vollständiges Profil. Verbinden Sie sich hingegen v on einem Linux-System mit dem Client UI, werden Ihnen die entsprechenden Downloadlinks für den OpenVPN-Client angeboten. Ihre benutzerspezifische Konfigurationsdatei laden Sie nach der Installation des Clients unter "Yourself (user-locked profile)" herunter und speichern diese Textdatei mit der Extension OVPN am besten in Ihrem Home-Verzeichnis. Verwenden Sie eine grafische Oberfläche als Client, stellen Sie in der Applikation den Pf ad zur Konfigurationsdatei ein. Auf der Kommandozeile können Sie die Konfigurationsdatei als Parameter an OpenVPN übergeben: dem Server verbunden. Das können Sie auch im Admin-Frontend nachvollziehen, denn dort werden aktuell eingewählte Benutzer in der Sektion "Cur rent Users" mit ihrer realen und ihrer VPN-IP-Adresse aus dem Tunnel-Netzwerk aufgelistet. Einen eingewählten Benutzer können Sie mit Hilfe der Schaltfläche "Block" auch trennen und aus dem System aussperren. Diese Sperre heben Sie wieder auf, indem Sie das Häkchen unter "User Permissions/ Deny Access" herausnehmen. Um einen Benutzer dauerhaft zu deaktivieren, sollten Sie aber unbedingt auch dessen Zertifikat zurückziehen (User Management / Revoke Certificates). Soll der User dann eines Tages wieder reaktiviert werden, müssen Sie ihn neu anlegen. Für den Ben utzer wird dann ein neues Zer tifikat erzeugt, das der Anwender wieder zusammen mit der Konfiguration herunterladen kann. openvpn --config openvpnas.ovpn Läuft OpenVPN Connect unter Android oder iOS, werden OVPN-Profil-Dateien nach dem Download erkannt und automatisch in die Profil-Verwaltung des Clients importiert. Um eine Verbindung mit dem Server herzustellen, wählen Sie die gewünschte Profildatei aus und klicken Sie auf "Connect". Hat alles geklappt, sehen Sie im Lo g als letzten Eintrag "Initialization Sequence Completed" und sind n un via VPN mit [1] Heartbleed F4Z41 [2] POODLE F4Z42 [3] OpenVPN-Empfehlung des BSI F4Z43 [4] LinOTP in IT-Administrator 10/2014 F4Z44 [5] HA-Setup F4Z45 [6] Vergleich Community- und Enterprise-Version F4Z46 [7] Easy-RSA F4Z47 [8] Tunnelblick F4Z48 Link-Codes Link-Codes eingeben auf www.it-administrator.de Grafische Oberflächen für OpenVPN-Clients Da OpenVPN auf Client-Seite vollständig über die Profildatei (*.ovpn) gesteuert wird, ist die Bedienung auch auf der Kommandozeile kein Problem. Doch es gibt auch grafische Client-Frontends für alle wichtigen Plattfor men. Der kommerzielle OpenVPN Access Server bringt mit dem OpenVPN Connect Client eine sehr komfortable Benutzeroberfläche für Windows, OS X, Android und iOS mit. Linux-Anwender müssen dagegen entweder auf die Kommandozeile ausweichen oder ein g rafisches Frontend der jeweiligen Desktop-Umgebung verwenden. KDE-Anwender werden "KVPNC" bevorzugen, Gnome-Liebhaber verwenden am besten die Erweiterung für den Gnome Netw ork Manager. Er ist im Bedarfsfall schnell aus den Repositories nachinstalliert. VPN-Verbindungen können dann einfach über den Netzwerk-Dialog der Systemsteuerung konfigur iert werden. Der OpenVPN Access Server erstellt per Default allerdings eine einzelne Datei, die die Zertifikate für die Authentifizierung bereits beinhaltet. Der KonfigurationsDialog des Gnome Network Managers kann mit diesem monolithischen File aber wenig anfangen. Das folgende Skript (aus- geführt auf dem OpenVPN Access Server) erstellt die erforderlichen Dateien im Verzeichnis /export: /usr/local/openvpn_as/scripts/sacli -o /export --cn testuser Get5 Wer OpenVPN Connect nicht einsetzen kann oder möchte und lieber mit der freien Version arbeitet, findet mit OpenVPN GUI (Windows) und Tunnelblick (OS X) [8] noch zwei weitere brauchbare Clients für OpenVPN. Außerdem liefern praktisch alle kommerziellen UTM-/Firewall-Anbieter mit integriertem OpenVPN Server ebenfalls einen eigenen Client inklusi ve Provisionierung mit. Fazit OpenVPN ist so etwas wie die eierlegende Wollmilchsau unter den VPN-Protokollen und besticht bei Einsatz der zertifikatsbasierten Authentifizierung durch hohe Sicherheit, einfaches Handling und plattformübergreifende Verfügbarkeit.Wer auf die Schnelle ein VPN einr ichten möchte, greift am besten zum k ommerziellen OpenVPN Access Server. Er ist bis zwei Benutzer kostenfrei, die Lizenzpreise sind mit 9,60 US-Dollar pr o Benutzer und Jahr aber moderat.Viele (UTM-)Firewallsysteme bringen häufig ebenfalls einen integrierten OpenVPN Ser ver und Werkzeuge zur Provisionierung der Clients mit. (of) Vom Autor dieses Artikels ist unter dem Titel "OpenVPN kompakt" (ISBN 9783-939316-51-0 ) ein Buch/eBook erhältlich, das neben einer ausführlichen Konfigurationsanleitung für die Open Source-Version von OpenVPN und dem PKISetup mit easyRSA exemplarisch auch drei Einsatzszenarien und deren Einrichtung beschreibt: 1. Linux OpenVPN-Server mit Linux- und Windows "Road Warriors" 2. Verbindung von drei festen Standorten mit Linux OpenVPN-Servern 3. WLAN absichern mit OpenVPN Buchtipp "OpenVPN kompakt" April 2015 81 S094-098_ITA_1115_Z09_halbeEAZSH0116_ok_ITA_Default 22.10.2015 11:58 Seite 2 Storage-Neuerungen unter Windows Server 2016 Mitarbeiter des Monats von Jan Kappen Das anstehende Release von Windows Server 2016 bringt wichtige Neuerungen im Bereich Storage. Mit eingebauter StorageReplikation, Storage Spaces Direct und der Verkehrssteuerung beim Storage-Zugriff via QoS schickt sich Windows Server an, unter Storage-Admins zum Mitarbeiter des Monats gewählt zu werden. Unser Beitrag gibt einen Überblick der zentralen Neuerungen. Quelle: ojogabonitoo – 123RF it Windows Server 2012 präsentierte Microsoft erstmals die Möglichkeit, mit Bordmitteln einen Dateiserver für Anwendungsdaten aufzusetzen. Grundlage hierfür sind zwei bis acht Server, die einen Dateiserver in einem Failover-Cluster betreiben und so hochverfügbar zur Verfügung stellen. Als Speicher kommen entweder per SAS angebundene Festplatten in Enclosures oder per Fibre Channel/iSCSI angebundene LUNs zum Einsatz. Dieser Speicher wird den Applikationsservern wie Hyper-V oder SQL Server dann über das Netzwerk bereitgestellt. Als Protokoll dient SMB in der Version 3. M Mit dem R2 von Windows Server 2012 bot Microsoft im Bereich der Performance die Möglichkeit, SSDs und HDDs gleichzeitig in einem Speicherpool zu nutzen. Durch diese als Tiering bekannte Technik werden Daten in 1 MByte großen Chunks, die häufig in Nutzung sind, im Betrieb automatisch auf die schnellen Datenträger (die SSDs) verschoben, während Daten mit wenig oder keiner Nutzung auf den HDDs gespeichert werden. Mit dieser Technik sind Sie in der L age, einen hochperformanten, hochverfügbaren und preislich sehr attraktiven Speicher aufzubauen. 94 November 2015 Kommen SSDs zum Einsatz, wird vom zur Verfügung stehenden Speicherplatz standardmäßig 1 GByte als Write-back Cache genutzt. Dies reduziert die Latenz für Schreibvorgänge und senkt den negativen Performance-Einfluss auf andere Datei-Operationen. Weitere Neuerungen in Windows 2012 R2 waren der Support für Parity-Datenträger im Failover-Cluster, die Nutzung von Dual Parity (ähnlich einem RAID 6) und die Möglichkeit, dass die Storage Spaces sich bei freiem Speicherplatz im Pool automatisch reparieren beziehungsweise erneut erstellen. Durch diese Möglichkeit entfällt der Bedarf von "Hot Spare"-Datenträgern. Zur Wiederherstellung der Datenintegrität wird freier Speicherplatz auf den noch funktionstüchtigen Datenträgern genutzt. IOPS rauf mit Storage Spaces Direct Mit der kommenden Version 2016 des Server-Betriebssystems werden die Möglichkeiten und Techniken noch einmal deutlich erweitert und verbessert. Viele Unternehmen setzen bereits heute Lösungen ein, bei denen lokaler Speicher in mehreren Hosts genutzt wird und per Netzwerk logisch zusammengefasst wird (beispielsweise Datacore). An dieser Stelle setzt Microsoft mit "Storage Space Direct" (S2D) an. Die eingesetzten Storage-Server benötigen nun nicht mehr eine gemeinsame Anbindung an ein oder mehrere Festplatten-Enclosures, es lassen sich nun auch lokal verbaute Datenträger nutzen. Diese Disks lassen sich übergreifend über mehrere Server zu einem P ool zusammenfassen, der als Grundlage für einen oder mehrere virtuelle Datenträger (vDisks) dienen kann. Beim Aufbau eines solchen VerAuf die richtige Hardware achten Bei der Nutzung von Enclosures zur Bereitstellung von Speicher müssen Sie unbedingt darauf achten, dass es sich um reine SAS-Enclosures handelt, die die Datenträger 1-zu-1 an die Server weiterreichen und nicht per RAID-Controller verschachteln. Achten Sie weiterhin darauf, von Microsoft zertifizierte Hardware zu nutzen. Obwohl die Enclosures "dumm" sind, gibt es Unterschiede in Bezug auf die Eigenschaften. Eine Liste der zertifizierten Hardware finden Sie unter [1]. Suchen Sie hier explizit nach Hardware zur Nutzung der Storage Spaces. www.it-administrator.de S094-098_ITA_1115_Z09_halbeEAZSH0116_ok_ITA_Default 22.10.2015 11:58 Seite 3 Windows Server 2016 Storage Scale-Out File Server \\FileServer\Share Cluster Shared Volumes ReFS File System C:/ClusterStorage Storage Space Virtual Disks Storage Pool Software Storage Bus Storage Node Storage Node Storage Node Storage Node Network (SMB3) Software Defined Storage System Bild 1: Die Storage-Neuerungen in Windows Server 2016 im Zusammenspiel. bunds ist allerdings zu beachten, dass Sie (je nach Anzahl an Knoten) maximal zwei Server verlieren dürfen. Da das SMB-Protokoll zum Einsatz kommt und dieses auch weiterentwickelt wird, können Sie natürlich auch weiterhin die zentralen Funktionen von SMB3 nutzen: - SMB Multichannel: Beim Einsatz mehrerer Netzwerkkarten (NIC) erhöht sich die nutzbare Bandbreite, da der Datentransport über alle verfügbaren Adapter erfolgt. Der Ausfall eines oder mehrerer Adapter wird transparent abgefangen, es kommt nicht zu einem Abbruch der Verbindung, solange noch mindestens eine Verbindung besteht. Multichannel bedingt keine Einrichtung von Teaming, ist technisch allerdings auch über mehrere Teams hinweg möglich. Die Konfiguration und Nutzung von MPIO ist nicht unterstützt, die Verwendung mehrerer Karten ist im SMB-Protokoll definiert. www.it-administrator.de - Remote Direct Access Memory (RDMA): Der Einsatz spezieller NICs erlaubt die Nutzung von SMB Direct, das den Servern ermöglicht, untereinander direkt Daten in den RAM des Partners zu legen. Hierbei wird die L ast des Datentransfers nicht an die CPU ausgelagert, sondern die Adapter verarbeiten diese komplett selbst. RDMA sorgt für einen äußerst performanten Datentransfer bei einer sehr geringen Latenz und einer sehr niedrigen CPU-Belastung. Zur Nutzung von Storage Spaces Direct gibt es aktuell schon einige Informationen zu notwendigen Voraussetzungen: Als Datenträger können Sie nun auch SATA-Datenträger verwenden, die verpflichtende Nutzung von Geräten mit SAS-Anschluss entfällt. Derzeit sind insbesondere die SAS-SSDs recht teuer, hier können Sie in Zukunft auf die etwas günstigere SATA-Variante zurückgreifen. Was aber nicht bedeutet, dass Sie die Schwerpunkt günstigsten Consumer-Komponenten nutzen sollten. Setzen Sie grundsätzlich Enterprise-Hardware ein. Falls die Performance von handelsüblichen SSDs nicht ausreicht, erlaubt Windows Server 2016 auch den Einsatz von NVMeSpeicher (Non-Volatile Memory Express). Hierbei handelt es sich um direkt über einen PCI Express-Bus angeschlossenen Flash-Speicher. Somit wird die Begrenzung des SAS/SATA-Busses umgangen. Microsoft hat in Zusammenarbeit mit Intel auf der Intel Developer Conference in San Francisco einen entsprechenden Aufbau gezeigt [2]. Die Anzahl der Server in solch einem Verbund liegt bei minimal vier Systemen, von denen jedes mindestens 64 GByte RAM besitzen sollte. Als Minimal-anforderung wird momentan ein SSD/Flash-Speicher pro Knoten angegeben. Allerdings finden sich in der P raxis äußerst selten Installationen, bei denen ausschließlich Festplatten zum Einsatz kommen. Somit ist in den meisten Fällen ausreichend SSD-Speicher vorhanden. Dies liegt primär daran, dass gewöhnliche Festplatten zwischen 100 und 200 IOPS liefern. Eine SSD im Vergleich erzielt je nach Modell zwischen 20.000 und 100.000 I OPS. Dieser massive Unterschied macht die Nutzung von Tiering äußerst attraktiv, auch wenn die Preise für eine SSD im ersten Moment recht hoch erscheinen. Im Netz sollten RDMA-Karten mit einer Geschwindigkeit von minimal 10 GBit/s zum Einsatz kommen, besser sind hier Karten mit 40 oder 56 GBit/s. Preislich liegt eine Infrastruktur mit 40 GBit/s bei einer Neuanschaffung nicht weit über einer 10 GBit/s-Infrastruktur. Storage Spaces Direct für große und kleine Infrastrukturen Beim Einsatz von Storage Spaces Direct gibt es zwei Einsatzmöglichkeiten: Sie können einen Scale-Out File-Server betreiben, der ausschließlich für die Bereitstellung des Speichers zur Verfügung steht. Ihre Hyper-V-VMs werden auf eigenen Hosts betrieben, die Anbindung untereinander erfolgt über SMB3. Alternativ können Sie auch einen Hyper-Converged Failover-Cluster nutzen, hierbei werden Ihr Speicher und Ihre Hyper-V- November 2015 95 S094-098_ITA_1115_Z09_halbeEAZSH0116_ok_ITA_Default 22.10.2015 11:58 Seite 4 S chwerp unk t Windows Server 2016 Storage VMs von den gleichen Hardware-Systemen betrieben. Dies war bisher mit Windows-Bordmitteln nicht unterstützt. Betreiben Sie eine recht kleine Umgebung, die auch im Laufe des Betriebs eher wenig Änderungen erfährt, kann das Hyper-Converged-Modell für Sie genau das Richtige sein. Mindestens vier Server mit lokalen Datenträgern und ausreichend Kapazität in den Bereichen RAM, CPULeistung und Netzwerk-Bandbreite betreiben hochverfügbar Ihre komplette VM-Infrastruktur. Dieser Ansatz ist nicht neu, es gibt bereits heute schon einige Anbieter, die solch eine Lösung anbieten. Technisch liefert Microsoft hier somit keine Weltneuheit, allerdings haben Sie als Anwender den Vorteil, dass die Technik bereits in der Lizenz enthalten ist und Sie keine kostenpflichtige Zusatzsoftware kaufen müssen. Die zweite Variante, die Trennung von Storage und Hyper-V, eignet sich primär für mittlere bis große Umgebungen. Gerade bei einer großen Anzahl an VMs ist die Anzahl der Hyper-V-Hosts im Failover-Cluster deutlich größer als die Knoten im Storage-Cluster. Zusätzlich können Sie bei Bedarf an weiteren Hyper-V-Hosts nur diese erweitern, ohne direkt Ihren Speicherplatz zu vergrößern. Nutzen Sie einen Hyper-Converged-Cluster, müssen Sie jeweils Rechenleistung und Storage vergrößern, die Erweiterung um reine Storageoder Compute-Nodes ist nicht möglich. Jeder weitere Server benötigt die gleiche Ausstattung wie die bereits vorhandenen Systeme, selbst wenn weiterer Speicherplatz eigentlich nicht benötigt wird. Replikation mit Bordmitteln Ebenfalls neu in Windows Server 2016 ist die Möglichkeit, ohne den Einsatz eines Hardware-SANs oder einer SoftwareLösung eines Drittherstellers Ihre Daten zu replizieren. Dies kann synchron oder asynchron erfolgen. Bei einer synchronen Replikation werden die Daten auf der Primär-Seite direkt zur S ekundär-Seite geschrieben. Technisch läuft dieser Vorgang wie folgt ab: Schreibt eine Applikation Daten auf ihren Speicherplatz, wird dieser Vorgang in ein L og geschrieben. Dieses Log sollte unbedingt auf einem Flash- 96 November 2015 Speicher liegen, damit der Vorgang möglichst schnell abgeschlossen ist. Zeitgleich werden die Daten auf die Remote-Seite übertragen und ebenfalls in ein L og geschrieben. Bestätigt die Remote-Seite den erfolgreichen Schreibvorgang, erhält die Applikation, die die D aten erzeugt hat, eine Bestätigung, dass der Schreibvorgang erfolgreich abgeschlossen wurde. Im Hintergrund werden die Änderungen nun aus dem Logfile heraus auf die eigentlichen Datenträger geschrieben. Dieser Vorgang verzögert nun nicht mehr die Applikation, die auf die erfolgreiche Bestätigung des Schreibvorgangs wartet. Damit diese Art von Replikation keine negative Beeinflussung auf die Performance Ihrer VMs hat, sollte die Latenz zwischen den beiden Standorten möglichst gering sein. Microsoft gibt als maximale RoundTrip-Time fünf Millisekunden an, kleinere Werte sind natürlich zu bevorzugen. Bei der asynchronen Replikation ist das Verhalten ein klein wenig anders. Hier erfolgt eine Änderung des Speichers durch eine Applikation oder VM auf der PrimärSeite. Diese Daten werden, genau wie bei der synchronen Variante, im ersten Schritt in ein Log geschrieben, das optimaler Weise auf einem Flash-Speicher liegt. Ist dieser Vorgang abgeschlossen, bekommt die Applikation eine entsprechende Rückmeldung. Während die Applikation bereits neue Daten erzeugt, werden die Informationen im Log aus dem ersten Vorgang auf die Remote-Seite übertragen und dort ebenfalls in ein Log geschrieben. Ist dieser Vorgang abgeschlossen, wird die erfolgreiche Speicherung auf der Remote-Seite bestätigt. Nun werden die Daten ebenfalls aus dem Log heraus auf die eigentlichen Datenträger geschrieben. Bei beiden Varianten gibt es einige Voraussetzungen zu beachten: - Primär- und Sekundär-Seite müssen die gleichen Datenträger, Datenträgertypen, Volumes, Formatierung und Blocksize besitzen. - Das Log sollte auf einem Flash-Speicher abgelegt werden, da dieser die Daten sehr schnell speichert und abarbeitet. - Eine maximale Latenz von fünf Millisekunden bei der synchronen Replikation. RDMA ist eine Option, aber keine Pflicht. - Die Bandbreite sollte möglichst hoch sein. Als Minimum ist 10 GBit/s anzusehen, höhere Bandbreiten sind immer besser. Die Nutzung von Storage Replica ist, unabhängig von synchron oder asynchron, in mehreren Szenarien möglich. Technisch erfolgt die Replikation der Daten auf Volume-Ebene. Dies bedeutet, dass es egal ist, wie die Daten auf dem Volume gespeichert werden, welches Dateisystem eingesetzt wird und wo sich die Daten befinden. Storage Replica ist kein DFSR, bei dem Dateien repliziert werden. Sie können sowohl Daten zwischen zwei einzelnen Servern, Daten in einem aufgeteilten Cluster (Stretch-Cluster) oder zwischen zwei Clustern replizieren. Zur Übertragung der Daten kommt SMB3 zum Einsatz. Dies ermöglicht die Nutzung verschiedener Techniken: Multichannel, Kerberos-Support sowie Verschlüsselung "over the wire" und Signierung. Das Ziel-Laufwerk ist zum Zeitpunkt der Replikation nicht verfügbar. Dies bedeutet, dass Sie die Sekundär-Seite nicht für ein Backup Ihrer Daten nutzen können. Die Replikation der Daten als Backup zu sehen, ist ebenfalls falsch. Kommt es auf der Primär-Seite beispielsweise zu einem logischen Fehler innerhalb Ihrer Daten, wird dieser Fehler ebenfalls repliziert und Sie haben ohne ein Backup der Daten keine Möglichkeit, auf den ursprünglichen und korrekten Stand zurückzukehren. Machs gut, NTFS NTFS hat als Dateisystem zur Speicherung von Daten unter Windows Server 2016 mehr oder weniger ausgedient. Microsoft proklamiert das Resilient File System (ReFS) als neues S tandard-Dateisystem bei der Verwendung von Virtualisierung. Durch die Nutzung und Überprüfung von Checksummen ist ReFS geschützt gegen logische Fehler oder falsche Bits bei sehr großen Datenmengen ("bit rotting"). Das Dateisystem selbst schreibt Checksummen, weiterhin können bei Bedarf die D aten auf dem Volume geprüft und korrigiert werden. Operationen wie die Überprüfung oder Reparatur mit CHKDSK erledigen Sie ebenfalls online und müssen keine Downtime mehr einplanen. www.it-administrator.de S094-098_ITA_1115_Z09_halbeEAZSH0116_ok_ITA_Default 22.10.2015 11:58 Seite 5 Windows Server 2016 Storage Bei der Nutzung von ReFS als Ablage für Hyper-V VMs gibt es ebenfalls einige Verbesserungen. Die Erzeugung von VHDX-Dateien mit einer festen Größe benötigt nun nur noch wenige Sekunden. Denn bei dieser Operation wird nicht wie bisher der Datenträger mit Nullen vollgeschrieben, sondern es erfolgt im Hintergrund eine Metadaten-Operation, die den gesamten Speicherplatz in s ehr kurzer Zeit als belegt kennzeichnet. Bei dem Auflösen von Hyper-V-Checkpoints (bis Windows Server 2012 als S napshot bezeichnet) müssen nun keine Daten mehr bewegt werden, sondern es kommt ebenfalls zu einem Metadaten-Vorgang. Dies führt dazu, dass sich selbst Checkpoints mit einer Größe von mehreren hundert GByte innerhalb von kürzester Zeit zusammenführen lassen. Dies verringert die Belastung für andere VMs auf diesem Volume drastisch. Silver Policy Virtual Machines Gold Policy Hyper-V Cluster Rate limiters Rate limiters Rate limiters Rate limiters SMB3 Storage Network Fabric Scale-Out File Server Policy Manager Storage besser steuern Unter Windows Server 2012 R2 können IT-Verantwortliche nur einzelne VHDoder VHDX-Datenträger begrenzen. Dies Schwerpunkt I/O sched I/O sched I/O sched Bild 2: Mit Storage QoS lässt sich die Storage-Performance verbessern, indem VMs mit Regeln für dessen Nutzung versorgt werden. Praxis-Know-how zum Vorbestellen: Das IT-Administrator Sonderheft I/2016 Erfahren Sie auf 180 Seiten alles rund um das Thema: VMware vSphere 6 Automatisierung, Sicherheit und Hochverfügbarkeit Bestellen Sie jetzt zum AbonnentenVorzugspreis* von nur 24,90 Euro! Abo- und Leserservice IT-Administrator vertriebsunion meynen Tel: 06123/9238-251 Herr Stephan Orgel Fax: 06123/9238-252 D-65341 Eltville [email protected] Erhältlich ab März 2016 * IT-Administrator Abonnenten erhalten das Sonderheft I/2016 für € 24,90. Nichtabonnenten zahlen € 29,90. IT-Administrator All-Inclusive Abonnenten "zahlen" für Sonderhefte nur € 19,90 - diese sind im Abonnement dann automatisch enthalten. Alle Preise verstehen sich inklusive Versandkosten und Mehrwertsteuer. shop.heinemann-verlag.de S094-098_ITA_1115_Z09_halbeEAZSH0116_ok_ITA_Default 22.10.2015 11:58 Seite 6 S chwerp unk t Windows Server 2016 Storage ändert sich grundlegend mit Storage Quality of Service (QoS) in Windows Server 2016, indem es die M öglichkeiten, mit denen die Performance einer Umgebung gemessen und beschränkt werden kann, deutlich erweitert. Bei dem Einsatz von Hyper-V (üblicherweise in Form eines Hyper-V Failover-Clusters mit mehreren Knoten) und einem Scale-Out File-Server wird die gesamte Umgebung beobachtet und gesteuert. Standardmäßig wird darauf geachtet, dass zum Beispiel eine VM nicht die kompletten Ressourcen für sich beanspruchen kann und somit alle anderen VMs lahmlegt ("Noisy Neighbour Problem"). Sobald eine VM auf dem S cale-Out File-Server gespeichert wird, beginnt eine Aufzeichnung ihrer Performance. Diese Werte rufen Sie mit dem PowerShell-Befehl GetStorageQosFlow auf. Der Befehl erzeugt eine Auflistung aller VMs mit den gemessenen Werten. Diese Werte können als Grundlage für eine Anpassung der Umgebung genutzt werden, um beispielsweise eine VM zu limitieren. Neben der Auflistung der Performance Ihrer VMs können Sie auch verschiedene Regeln konfigurieren, die die Nutzung der Ressourcen steuern. Sie regeln entweder einzelne VMs o der Gruppen von VMs hinsichtlich einer Begrenzung oder einer Garantie von IOPS. Setzen Sie etwa eine Begrenzung von 1000 IOPS für eine Gruppe, können alle VMs gemeinsam diese Grenze nicht überschreiten. Verbrauchen fünf von sechs VMs nahezu keine Ressourcen, könnte die sechste VM die restlichen IOPS für sich beanspruchen. Dieses Szenario spricht unter anderem Hoster und große Umgebungen an, die jedem Anwender die gleiche Leistung zur Verfügung stellen möchten oder die Leistung entsprechend der Bezahlung regeln möchten. Innerhalb eines StoraLink-Codes [1] Windows Server Catalog FAZ91 [2] 16 Windows-Server mit NVMe-Speicher erreichen über drei Millionen IOPS FAZ92 98 November 2015 ge-Clusters können Sie bis zu 10.000 Regeln definieren, die dafür sorgen, dass ein möglichst optimaler Betrieb herrscht und es nicht zu Engpässen kommt. Technisch basiert Storage QoS auf einem Policy Manager im Scale-Out File-ServerCluster, der für das zentrale Monitoring der Storage-Performance verantwortlich ist. Dies kann einer der Cluster-Knoten sein, es wird kein eigener Server benötigt. Auf jedem Knoten läuft ebenfalls ein "I/O Scheduler", der für die Kommunikation mit den Hyper-V-Hosts wichtig ist. Dort läuft auch jeweils ein "Rate Limiter", der mit dem "I/O S cheduler" kommuniziert und über diesen die Reservierungen oder Begrenzungen erhält und umsetzt. Alle vier Sekunden erfolgt ein Durchlauf auf den Hyper-V- und den StorageHosts, danach erfolgt bei Bedarf eine Anpassung der Q oS-Regeln. Die IOPS werden als "Normalized IOPS" bezeichnet, jeder Vorgang wird mit 8 KByte gezählt. Ist ein Vorgang kleiner, wird er trotzdem als ein IOPS-Vorgang mit 8 KByte gezählt. Andererseits werden 32 KByte als 4 IOPS gewertet. Da mit dem Windows Server 2016 und der Nutzung als Scale-Out File-Server automatisch ein Monitoring stattfindet, können Sie somit auch sehr schnell feststellen, welche Last auf Ihrem Storage anliegt und wie viele Ressourcen Ihre VMs jeweils benötigen. Erscheint im kommenden Jahr die finale Version von Windows Server 2016 und Sie aktualisieren Ihren ScaleOut File-Server, haben Sie alleine durch diesen Vorgang und durch die im H intergrund wirkenden Verbesserungen eine Optimierung in Ihre Hyper-V/SOFS-Umgebung eingebracht. Nutzen Sie keinen Scale-Out File-Server und planen auch keinen Wechsel, können Sie trotzdem von der Storage QoS-Funktionalität profitieren. Laut Senthil Rajaram, Microsoft Program Manager in der HyperV Group, wird diese Funktion für alle Arten von CSV-Datenträgern eingeführt. Dies bedeutet, dass Sie auch bei der Nutzung eines iSCSI- oder FC-SAN die Möglichkeit haben werden, eine Begrenzung oder Reservierung der IOPS zu konfigurieren. Organisation ist alles In der aktuellen Version der Storage Spaces gibt es keine Möglichkeit, eine Reorganisation der Daten durchzuführen. Dies wäre unter anderem nach dem Ausfall eines Datenträgers sinnvoll. Fällt ein Datenträger aus, springt entweder ein Hot-Spare-Datenträger ein oder es wird freier Speicherplatz innerhalb des Pools genutzt (was übrigens einem oder mehreren Hot-Spare-Datenträgern deutlich zu bevorzugen ist), um die S piegelung wieder zu reparieren. Wird nun der defekte Datenträger ausgetauscht, gibt es keine Möglichkeit, durch eine Reorganisation der Daten diesen Datenträger wieder auf den gleichen "Füllstand" wie die anderen Datenträger zu bringen. Mit Windows Server 2016 b esteht die Möglichkeit, mit dem Kommando Optimize-StoragePool solch eine Neuorganisation durchzuführen. Bei diesem Vorgang werden die Daten innerhalb des angegebenen Pools analysiert und neu angeordnet, sodass nach diesem Vorgang auf jedem D atenträger ein ähnlicher Füllstand vorhanden ist. Fällt nun erneut ein Datenträger aus, werden alle restlichen Datenträger sowie der f reie Speicherplatz zur Wiederherstellung des Spiegels genutzt. Fazit Microsoft erweitert die heute schon sehr brauchbare Storage-Lösung um viele Funktionen, die gerade in Enterprise-Umgebungen häufig vermisst wurden. Die Möglichkeiten einer Storage-Replikation waren bisher häufig der Grund, warum Kunden auf Lösungen von Drittherstellern gesetzt haben. Diese Funktionen sind nun direkt im B etriebssystem enthalten und bieten hochverfügbare Lösungen ohne einen Mehrpreis. Der Hyper-Converged Failover-Cluster hat bereits jetzt bei einigen Anwendern Aufmerksamkeit erzeugt, die gerne Storage und Compute gemeinsam betreiben möchten. Dieser Artikel gibt einen Überblick über die bisher bekannten Informationen, auf Basis der Technical Preview 3. Bitte beachten Sie, dass sich alle Features noch ändern oder dass Funktionen nicht in die finale Version übernommen werden können. (jp) Link-Codes eingeben auf www.it-administrator.de S096-099_ITA_0216_Z09_EAZhalbeSchnupperabo_ok_dr_ITA_Default 20.01.2016 16:29 Seite 2 S chw e rp unk t l T- N o t f a l l m a n a g e m e n t Dokumentation des IT-Notfallmanagements Survival Kit von Manuela Reis Bei massiven Ausfällen in der IT-Infrastruktur stehen IT-Verantwortliche vor der Frage, welche Abhängigkeiten bestehen, welche IT-Systeme in welcher Reihenfolge und in welcher Zeit wieder bereitgestellt werden müssen. Hier setzt das IT-Notfallmanagement an. Dessen Ziel muss es sein, die Geschäftsfortführung durch Absicherung der Verfügbarkeit der IT-Services, der Anwendungen, der IT-Systeme und insbesondere der Informationen sicherzustellen. Der Beitrag stellt Bausteine eines IT-Notfallmanagements vor und beschreibt die erforderlichen Aktivitäten mit Fokus auf die Dokumentation. ass eine Notfallplanung wichtig ist, ergibt sich nicht nur aus dem normalen Menschenverstand, sondern leitet sich auch aus zahlreichen Gesetzen und Normen ab. Doch was ist überhaupt ein Notfall und wie lässt er sich von Störungen abgrenzen? D Notfall definiert Um sich diesen Fragen zu nähern, lohnt ein Blick auf die Definition von "Notfall" im BSI-Standard 100-4. Der rund 120 Seiten umfassende Standard 100-4 "Notfallmanagement" wurde vom Bundesamt für Sicherheit in der Informationstechnik (BSI) Ende 2008 veröffentlicht und beschreibt eine Methode zum Aufbau eines eigenständigen Managementsystems für die Notfallvorsorge und die Notfallbewältigung. Auf Seite 5 heißt es hier: "Ein Notfall ist ein Schadensereignis, bei dem Prozesse oder Ressourcen einer Institution nicht wie vorgesehen funktionieren. Die Verfügbarkeit der entsprechenden Prozesse oder Ressourcen kann innerhalb einer geforderten Zeit nicht wiederhergestellt werden. Der Geschäftsbetrieb ist stark beeinträchtigt. Eventuell vorhandene SLAs (Service Level Agreements) können nicht 96 Februar 2016 eingehalten werden. Es entstehen hohe bis sehr hohe Schäden, die sich signifikant und in nicht akzeptablem Rahmen auf das Gesamtjahresergebnis eines Unternehmens oder die Aufgabenerfüllung einer Behörde auswirken. Notfälle können nicht mehr im allgemeinen Tagesgeschäft abgewickelt werden, sondern erfordern eine gesonderte Notfallbewältigungsorganisation". Betrachten wir die Definition genauer, wird deutlich, dass es sich hierbei eher um einen "Lückentext" als um eine umsetzbare Definition handelt. Denn was sich hinter den Begriffen "nicht wie vorgesehen funktionieren", "innerhalb der geforderten Zeit", "stark beeinträchtigt", "hohe bis sehr hohe Schäden" und ein "nicht akzeptabler Rahmen" verbirgt, kann nur aus Sicht der jeweiligen Geschäftsprozesse betrachtet und durch die Prozessverantwortlichen festgelegt werden. Notfallmanagement ist Aufgabe der Geschäftsleitung IT-Notfallmanagement darf also nicht isoliert als alleinige Aufgabe der IT-Organisation behandelt werden, sondern muss in ein übergeordnetes Notfallma- Quelle: belchonock – 123RF nagement eingebunden sein. Dies spiegelt sich auch wider in der B edeutung, die der Standard 100-4 dem Thema "Business Impact Analyse" (BIA) widmet. Danach ist es zunächst wichtig, Abhängigkeiten zu identifizieren und Ausfallzeiten zu bewerten. Mithilfe der BIA betrachten Unternehmen die Abhängigkeiten der Geschäftsprozesse von den einzelnen IT-Services und die potenziellen Auswirkungen eines Serviceausfalls. Das Ergebnis dieser Auswertung ist eine Gewichtung der IT-Services und -Prozesse entsprechend ihrer Wichtigkeit für das Unternehmen (Kritikalität). Diese Einordnung bildet eine Grundlage für die Risikoanalyse und die Entwicklung von IT-Notfallvorsorgemaßnahmen. Nur auf Basis der Ergebnisse der BIA ist es letztendlich möglich, die tolerierbaren Ausfallzeiten einzelner Prozesse und der sie unterstützenden IT-Komponenten zu definieren. Für die IT-Organisation wichtige Parameter sind hierbei: - Maximal tolerierbare Ausfallzeit (MTA): Dieser Wert gibt an, wie lange ein System/Anwendung maximal ausfallen darf. www.it-administrator.de S096-099_ITA_0216_Z09_EAZhalbeSchnupperabo_ok_dr_ITA_Default 20.01.2016 16:29 Seite 3 l T- N o t f a l l m a n a g e m e n t Schwerpunkt - Hochverfügbarkeit/Redundanz (Cluster, Loadbalancing, Virtualisierung) - Monitoring (Netzwerk, Systeme, Infrastruktur et cetera) - Datensicherung (Mirroring, Replikation, Tape-Backups und Vergleichbares.) Durchführung einer IT-Risikoanalyse Planung der Notfallbewältigung Durchführung von Tests und Übungen Planung zur Bewältigung von Notfällen Entwicklung einer IT-Notfallvorsorgestrategie Implementierung der technischen Maßnahmen Bild 1: Die Aufgaben im Rahmen eines IT-Notfallmanagementprozesses. Dabei werden die maximal tolerierbaren Ausfallzeiten je Geschäftsprozess als Ergebnis einer Business Impact-Analyse vorausgesetzt. - Recovery time Objective (RTO): Maximale Zeit vom Zeitpunkt des Schadens bis zur vollständigen Wiederherstellung des Geschäftsprozesses. - Recovery Point Objective (RPO): Maximal tolerierbarer Datenverlust, der beschreibt, welcher Zeitraum maximal zwischen zwei Datensicherungen liegen darf. - Maximal tolerierbare Wiederanlaufzeit (WAZ): Dieser Wert gibt an, in welcher Zeit ein System im Notbetrieb zur Verfügung stehen muss. Die ermittelten Ergebnisse sowie die durchzuführende Risikoanalyse zur Feststellung der Eintrittswahrscheinlichkeit sind Voraussetzung für die Auswahl geeigneter Notfallstrategien sowie entsprechender (Vorsorge-)-Maßnahmen. Außerdem ist die BIA eine Voraussetzung, um Anforderungen für den Notbetrieb zu definieren. Aufgaben des IT-Notfallmanagements Zielsetzung der IT-Notfallplanung ist, wie bereits ausgeführt, die Reduzierung von IT-Risiken und die G ewährleistung des IT-Betriebs für die kritischen Geschäftsprozesse in Notfällen im Rahmen der ge- www.it-administrator.de forderten Zeiten. Hierbei steht die Frage nach möglichen Ursachen für einen Ausfall der IT-Services im Vordergrund. Die Risikoanalyse dient dazu, die Risiken zu ermitteln und zu bewerten, die zu einem Serviceverlust führen können. ITIL beispielsweise benennt exemplarisch die folgenden Risiken und ordnet diesen entsprechende Bedrohungen zu: - Verlust interner IT-Systeme - Verlust externer IT-Systeme - Verlust von Daten - Abfluss von Daten (Diebstahl) - Verlust der Netzwerk-Services - Ausfall von technischem Schlüsselpersonal - Ausfall eines Service Providers Abhängig von der Eintrittswahrscheinlichkeit für ein Risiko und der ermittelten Kritikalität werden in einem weiteren Schritt Präventivmaßnahmen festgelegt. Ziel ist vor allem die Identifizierung und Eliminierung möglicher "Single Points of Failure". An die Risikoanalyse schließen sich die weiteren Aufgaben an: - Entwicklung von IT-Notfallvorsorgestrategien - Implementierung der technischen Maßnahmen gemäß Vorsorgestrategie Trotz aller noch so sorgfältig geplanten und eingerichteten Notfallvorsorgemaßnahmen bleibt immer ein Restrisiko bestehen. Die Notfallbewältigung ist daher ein elementarer Bereich innerhalb des Notfallmanagements. Sie umfasst die reaktiven Maßnahmen des Notfallmanagements, deren Ziel es ist, dass das U nternehmen in Notfall- und Krisensituationen grundsätzlich handlungsfähig und überlebensfähig bleibt. Ein wichtiges Instrument für die Behandlung von Notfällen ist das IT-Notfallhandbuch einschließlich ergänzender Pläne. Dieses muss gewährleisten, dass der ITBetrieb nach Notfällen aufrechterhalten werden kann beziehungsweise die erforderlichen IT-Komponenten zur Unterstützung der Geschäftsprozesse nach Eintritt eines Schadensereignisses in der vorgegebenen Zeit wiederhergestellt werden können. Dazu müssen vor allem auch organisatorische Regelungen dokumentiert werden. Diese müssen die folgenden Punkte berücksichtigen: - Verantwortlichkeiten und Aufgaben im Notfall - Wer muss wen informieren? - Zu ergreifende Sofortmaßnahmen - Zeitliche und personelle Planung der Durchführung der Notfallbewältigungsmaßnahmen In der Regel ist es allerdings nicht sinnvoll, alle Themen in einem gr oßen ITNotfallhandbuch zu dokumentieren. Die Beschreibung konkreter Maßnahmen für die Einrichtung eines Notbetriebs und zur Wiederherstellung einzelner Systeme erfolgt gemäß Standard 100-4 in er gänzenden Plänen. Aus Sicht der IT sind hier die folgenden Pläne relevant: - Geschäftsfortführungspläne: Der Hauptzweck der Geschäftsfortführungspläne besteht darin, dass wichtige Geschäftsprozesse selbst in kritischen Situationen und in N otfällen nicht oder Februar 2016 97 S096-099_ITA_0216_Z09_EAZhalbeSchnupperabo_ok_dr_ITA_Default 20.01.2016 16:29 Seite 4 S chw e rp unk t l T- N o t f a l l m a n a g e m e n t Reihenfolge zu tun ist, um nach dem Ausfall eines IT-Services beziehungsweise einzelner IT-Ressourcen die Aufnahme der Betriebsfunktion in einem Notbetrieb zu ermöglichen. (IT-) Notfallhandbuch Geschäftsfortführungspläne für einzelne IT-Services Wiederanlaufpläne (Notbetrieb) für einzelne IT-Ressourcen Wiederherstellungspläne für einzelne IT-Ressourcen Bild 2: Das Notfallhandbuch wird durch drei Pläne ergänzt, die organisatorische wie technische Notfallmaßnahmen beschreiben. nur temporär unterbrochen werden. Hierzu müssen die Geschäftsfortführungspläne für verschiedene Szenarien Vorgehensweisen beschreiben, mit deren Hilfe die kritischen Geschäftsprozesse im Notbetrieb fortgesetzt werden können. Bei serviceorientierten IT-Organisationen kann die Erstellung und Pflege von Geschäftsfortführungsplänen für einzelne IT-Services sinnvoll sein. - Wiederanlaufpläne ergänzen die Geschäftsfortführungspläne. Sie beschreiben auf operativer Ebene für einzelne Ressourcen, was in welcher Reihenfolge zu tun ist, um nach dem Ausfall einer Ressource die Wiederaufnahme und Fortführung der Betriebsfunktion in einem Notbetrieb zu ermöglichen. - Wiederherstellungspläne: Die Wiederherstellungspläne hingegen beschreiben die Wiederherstellung ausgefallener Systeme. Ziel ist es, einen vergleichbaren Zustand wie vor Eintreten eines Schadensereignisses zu erreichen. Sinnvolle Inhalte eines IT-Notfallhandbuchs Um die zuvor genannten Fragen zu beantworten, sollte das Notfallhandbuch die Themen wie im Kasten "Checkliste Notfallhandbuch" beschreiben. Der Grad der Detaillierung muss sich dabei an den jeweiligen Maßnahmen zur Notfallbewältigung orientieren und so gestaltet sein, dass ein sachverständiger Dritter ohne Kenntnis der spezifischen Systeme in der Lage ist, die Aufgaben durchzuführen. Wichtig ist es auch, die Rollen für die Notfallbewältigungsorganisation eindeu- 98 Februar 2016 tig festzulegen und zu dokumentieren. In der Praxis wird sich zwar die Notfallorganisation einer IT-Abteilung kaum von der des Tagesgeschäftes unterscheiden, doch ist in Notfällen häufig eine zeitlich befristete Veränderung oder Erweiterung von Befugnissen erforderlich, die zu definieren und zu dokumentieren sind. So sollten Sie berücksichtigen, dass möglicherweise Mitarbeiter in Aufgaben des übergeordneten Notfallmanagements eingebunden sind und daher den IT -Notfallteams nicht zur Verfügung stehen. Häufig vernachlässigt: Planung eines Notbetriebs Bei der Planung der Notfallbewältigung müssen Sie die für einen erforderlichen Notbetrieb benötigten Dienste, Systeme und Ressourcen definieren. Insbesondere der Notwendigkeit zur Einrichtung eines Notbetriebs wird bei der Notfallplanung häufig zu wenig Aufmerksamkeit geschenkt. Nach der Bestandsaufnahme und der Lagebeurteilung ist die formale Feststellung eines Notfalls der nächste Schritt. Mit dieser Maßnahme wird der Regelbetrieb offiziell außer Kraft gesetzt und stattdessen treten die entsprechenden Pläne in Kraft. Nach der formalen Inkraftsetzung des Notfallplans müssen Sie das weitere Vorgehen festlegen. Hier ist auch zu entscheiden, ob eine dir ekte Wiederherstellung des Regelbetriebs möglich oder ob die Einrichtung eines temporären Notbetriebs erforderlich ist. Sie benötigen daher Geschäftsfortführungs- und Wiederanlaufpläne, die beschreiben, was in welcher Wichtig ist dabei auch die Beschreibung interner oder externer Ausweichmöglichkeiten. Gibt es beispielsweise ein externes Rechenzentrum, mit dem ein Servicevertrag abgeschlossen wurde, und kann auf einem dort vorgehaltenen System direkt mit dem Wiederanlauf begonnen werden, so ist dieses einschließlich der Ansprechpartner ebenfalls zu beschreiben. Möglicherweise stehen aber auch intern oder in einer Niederlassung Ersatzeinrichtungen bereit, sodass von dort aus die kritischen Prozesse wieder anlaufen können. Die folgenden Punkte müssen Sie dabei betrachten: Checkliste Notfallhandbuch Diese Punkte müssen in jedem IT-Notfallhandbuch geklärt sein: - Organisation - IT-Notfallorganisation (IT-Notfallstab, IT-Notfallteams) - Alarmierungs- und Eskalationspläne für die IT-Organisation mit Schnittstellen zu übergeordneten unternehmensweiten Alarmierungsplänen - Ansprechpartner (interne und externe) sowie Kontaktdaten - Zusätzlich erforderliche Informationen wie Netzwerkpläne oder Raumpläne - Vorgaben und Vorlagen für die Dokumentation während der Wiederherstellung der ITServices - Sofortmaßnahmen - Sofortmaßnahmen für IT-relevante Notfälle - Handlungsanweisungen für die IT-Organisation betreffende Notfälle - Notfallbewältigung - Handlungsanweisungen für die Bestandsaufnahme (Schadensbericht) - Handlungsanweisungen zur Einrichtung eines Notbetriebs (Verweise auf die Geschäftsfortführungspläne für einzelne ITServices und Wiederanlaufpläne für die IT-Systeme) - Wiederherstellungspläne für die einzelnen IT-Systeme für den Notbetrieb und den Normalbetrieb www.it-administrator.de S096-099_ITA_0216_Z09_EAZhalbeSchnupperabo_ok_dr_ITA_Default 20.01.2016 16:30 Seite 5 - Ansprechpartner für Geschäftsprozesse Wiederbeschaffungsmöglichkeiten Interne und externe Ausweichmöglichkeiten Schnittstellen und abhängige Ressourcen Wiederanlaufreihenfolge Maßnahmen für den Wiederanlauf Verweis auf die Wiederherstellungspläne für die einzelnen Systeme - Schulungen und Notfallübungen Kompetentes Schnupperabo sucht neugierige Administratoren Vorlagen für die Notfalldokumentation Eine gute Hilfestellung bei der Erstellung der erforderlichen Dokumente können die vom BSI unter dem Namen "Umsetzungsrahmenwerk für das Notfallmanagement" [1] – k urz UMRA – veröffentlichten Vorlagen liefern. Diese adressieren das unternehmensweite Notfallmanagement, sind aber auch für die Erstellung einer IT-Notfalldokumentation sehr hilfreich. Zudem erleichtern die mitgelieferten Leitfäden und das Stufenmodel den Einstieg. Mit UMRA stellt das BSI einen Werkzeugkasten für die Einführung und den Betrieb eines Notfallmanagements auf Basis des Standards 100-4 zur Verfügung. Dieser liefert zu allen Themenbereichen eines Notfallmanagements Beschreibungen, Dokumentenvorlagen, Textvorlagen und Workshop-Präsentationen. Insbesondere soll UMRA dabei helfen die Flut der für das Notfallmanagement erforderlichen Dokumente in den Griff zu bekommen. UMRA besteht aus einem Hauptdokument mit Erläuterungen zum Umsetzungsrahmenwerk und einer Übersicht über alle verfügbaren Dokumente und Hilfsmittel. Dieses Dokument sollten Sie zuerst lesen. Darüber hinaus finden Sie im Rahmenwerk neun Module zu allen Phasen des Notfallmanagements. Jedes dieser Module enthält dabei Textvorlagen für alle relevanten Dokumente des Notfallmanagements, Muster für Workshop-Präsentationen (zum Beispiel zur Erstellung einer Business Impact Analyse) und eine Modulbeschreibung, die nötige Vorarbeiten und zu erzielende Ergebnisse beschreibt. Zusätzlich gibt es drei Leitfäden zur stufenweisen Einführung eines Notfallmanagements. Fazit Noch immer betrachten viele IT-Organisationen das Thema Notfall ausschließlich aus Sicht systembezogener Wiederherstellungsprozeduren. Diese sind zwar notwendig, wichtig ist jedoch eine Betrachtung der Aufgabenstellungen im Rahmen eines ITNotfallmanagements, das wiederum Bestandteil eines übergeordneten Notfallmanagements sein muss. Wie der Beitrag zeigt, steht bei einem Notfall jedoch nicht die Wiederherstellung der Systeme im Vordergrund, sondern die Wiederherstellung der für das Überleben des Unternehmens wichtigen Geschäftsprozesse. (jp) Link-Codes [1] UMRA D0P81 Link-Codes eingeben auf www.it-administrator.de tzt e j e i S n e t Tes aben g s u A s h c se i! e r d n o v s zum Prei shop.heinemann-verlag.de Abo- und Leserservice IT-Administrator vertriebsunion meynen Herr Stephan Orgel D-65341 Eltville Tel: 06123/9238-251 Fax: 06123/9238-252 [email protected]