als PDF

Transcrição

als PDF
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite I
Ein Verlagsbeihefter der Heise Zeitschriften Verlag GmbH & Co. KG
Storage
extra
Storage
Schwerpunkt Online-Storage
Online-Backup: Sichern im Netz
Auf Nummer sicher
Seite I
Storage on Demand: Speicherplatz mieten statt kaufen
Auf Zuruf
Seite IV
Auf Nummer
sicher
Online Backup: Sichern im Netz
Viele kleine und mittelständische Unternehmen
verzichten entweder aus Kostengründen auf eine
professionelle Datensicherung, oder sie sind
mit der Handhabung respektive der Pflege und
Wartung der Bandsysteme und Medien überfordert.
Parallel zur Verbreitung gleichermaßen leistungsstarker wie bezahlbarer DSL-Verbindungen wächst
jetzt die Zahl spezialisierter Online-BackupDienstleister, die diese ungeliebte Aufgabe für
einen Pauschalpreis übernehmen.
Storage Grids: Das Netz als Speicher
Ohne Grenzen
Seite VI
Vorschau
Netzwerke
Modulare Switches
Seite VIII
Veranstaltungen
16.–18. November, Tunis
WSIS – World Summit on the Information Society
www.itu.int/wsis
22.–23. November, Köln
iX-Konferenz 2005.2: Bessere Software!
www.ix-konferenz.de
22.–23. November, Brüssel
PEG – Platform European Grid Conference
www.platform.com/PEGC05
13.–16. Dezember, San Francisco/CA
4. USENIX Conference on File and Storage Technologies
www.usenix.org/events/fast05
18.–21. Dezember, Goa/Indien
HiPC – International Conference on High Performance
Computing
www.hipc.org
16.–20. Januar 2006, München
OOP 2006: Scalable Software Systems and Solutions
www.sigs-datacom.de/sd/kongresse/oop_2006
9.–15. März 2006, Hannover
Cebit 2006
www.cebit.de
ir verzeichnen nicht nur
eine exponentielle Zunahme der auf Desktop- und
Laptop-Computern gespeicherten Datenbestände, sondern
auch neue Herausforderungen
durch staatliche Vorschriften
wie Sarbanes Oxley und HIPAA.
Gerade der Schutz von dezentralen Datenbeständen sollte
höchste Priorität für jeden ITVerantwortlichen haben, da wir
es hier mit einem ganz wichtigen Element in einer umfassenden ILM-Strategie zu tun
haben, das wesentlichen Einfluss auf die Fähigkeit einer
Firma hat, staatliche Vorschriften oder auch interne Regelungen einzuhalten“, bemerkt
Peter Gerr, Analyst bei der Enterprise Strategy Group.
Aber selbst wenn Daten
gesichert werden, lässt die
Durchführung oft zu wünschen
übrig: Wurde die CD oder das
Band bei der Sicherung richtig
beschrieben? Ist das Medium
bei einer Rücksicherung noch
lesbar? Zum Schutz vor Feuer,
Diebstahl und unbefugtem Zugriff sollten Sicherungen grund-
W
sätzlich außerhalb der Büroräume aufbewahrt werden,
was das Wiederherstellen oft
sehr mühsam macht.
Eine Thematik, vor der nicht
nur KMUs, sondern auch Großunternehmen mit einem weit
verzweigten Netz an Niederlassungen stehen: An den verteilten Standorten fehlt oft dediziertes IT-Personal, das die notwendigen Backup-Policies
kompetent und regelmäßig umsetzen könnte. Einen Ausweg
aus dem Dilemma versprechen
Online-Backup- oder Televaulting-Dienste. Sie basieren auf
einem Utility-Modell, das Distributed Backup und Recovery
verbrauchsabhängig als Managed Service zur Verfügung
stellt.
Eigen- oder
fremdverwaltet
Generell lassen sich zwei Modelle unterscheiden: Meist bei
Großkonzernen zu finden ist
das eigenverwaltete Modell, bei
dem das Datenmanagement
und die Datensicherung in ver-
I
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite II
Storage
„Kleinere Unternehmen
sichern ihre Daten
üblicherweise recht
unzuverlässig, denn
konventionelle Systeme
zur professionellen Datensicherung erfordern relativ
hohe Investitionskosten
in Hard- und Software
sowie einen hohen
administrativen Aufwand“,
erklärt Christian Graf
von Bentzel, Vorstandsvorsitzender der ITWorkgroup AG.
II
ter zu sprechen kommen,
sehen wir sehr häufig ratlose
Gesichter vor uns. Die Sicherung der Daten im Backend
haben die meisten Firmen unter
Kontrolle, aber die Peripherie
ist für viele eine Black Box“, so
Hartmut Wagner, Geschäftsführer der Connected GmbH. „Die
Sicherung von dezentralen
Daten über intelligente Softwarelösungen wird künftig in
den Mittelpunkt des Interesses
der Firmen rücken, denn die
steigende Datenflut kann künftig nicht mehr alleine durch die
teuren Hardwarespeicher in
Schach gehalten werden.“
Ebenfalls von führenden ITHerstellern getestet und zertifiziert ist die Televaulting-Lösung
des kanadischen Unternehmens
Asigra (www.asigra.com). Die
agentenlose Backup- und Recovery-Software für dezentrale
Netze arbeitet festplattenbasiert
und WAN-optimiert – ebenfalls
mit Datenreduktion und Verschlüsselung. Die Abrechnung
erfolgt als Utility Service nach
Volumen. Mit einer nahezu unbegrenzt skalierbaren Architektur stellt die Lösung das Backup
und Recovery für dezentrale
Datenmengen jeder Größenordnung sicher.
Bis zum letzten Jahr war die
Software nur für Service Provider zugänglich, die damit ihren
Kunden Online-Backup-Dienste
anbieten konnten. Nach Anfragen großer Firmen hat Asigra
sein Konzept überarbeitet und
bietet die Software nun auch
Kunden für ein eigenverwaltetes Backup in dezentralen Netzen an.
Im September hat zudem HP
beschlossen, seinen Kunden
Komprimiert und
kodiert
Um mit der begrenzten Bandbreite der Internetanbindung
zurechtzukommen und die Sicherheit gegenüber unberechtigten Zugriffen zu gewährleisten, verfügen die zum Einsatz
kommenden Softwarelösungen
über ein breites Funktionsspektrum. Ein Muss für alle Lösungen: die Reduktion der zu übertragenden Daten durch Vermeidung von Dopplern und durch
Kompression.
Das beherrscht auch die von
Connected (www.connected.
com) entwickelte Software Dataprotector/SV: Die Software
erfasst automatisch alle dezentralen Daten auf Windows-,
File- und Print-Servern und
Bildquelle: IT-Workgroup AG
teilten Standorten wieder in
den Verantwortungs- und Einflussbereich der zentralen
Unternehmens-IT überführt
werden soll. Dagegen wendet
sich das Backup-Service-Provider-Modell vorzugsweise an
kleine und mittelgroße Unternehmen. Hier verwaltet ein externer Dienstleister die BackupDaten seiner Kunden in einem
eigenen Rechenzentrum.
In beiden Fällen werden die
Sicherungsdaten über Hintergrundprozesse regelmäßig zu
festgelegten Zeitpunkten –
üblicherweise komprimiert und
AES-verschlüsselt – über eine
schnelle Internetverbindung
entweder in das konzerneigene
Rechenzentrum oder das des
Backup Service Providers gesendet. Dort werden die Daten
ebenfalls verschlüsselt gespeichert und stehen dem Kunden
jederzeit und überall zur Verfügung. Wenn der Anwender auf
seinem Rechner versehentlich
eine Datei gelöscht oder überschrieben hat, ist der Fehler in
wenigen Minuten korrigiert.
Falls der Laptop, PC oder Server zerstört oder gestohlen
wurde, kann der rechtmäßige
Eigentümer mit seinen Zugangsdaten den gesamten Datenbestand in kurzer Zeit
wiederherstellen.
„Wenn wir mit CIOs und ITVerantwortlichen über die verteilten Firmendaten auf den
PCs und Laptops der Mitarbei-
sichert diese auf speziellen
Backup-Servern im Rechenzentrum. Eine patentierte Datenreduzierungstechnik, das so
genannte Send Once, gewährleistet, dass identische Dateien
von mehreren Quellen nur ein
einziges Mal auf dem BackupServer gespeichert werden.
Zudem werden jeweils nur die
seit der letzten Sicherung veränderten Teile einer Datei neu
gesichert (Delta Block).
Kürzlich hat EMC die Backup-Software Connected Dataprotector/PC für seine Centeras
zertifiziert. „Firmen sind zunehmend auf eine skalierbare
Technik angewiesen, mit der
sie Inhalte online zuverlässig
speichern und jederzeit abrufen
können“, so Roy Sanford, Vice
President of Content Addressed
Storage bei EMC. „Mit der
EMC-Centera-Zertifizierung des
Connected Dataprotector/PC
wird kleinen und großen Unternehmen eine kosteneffiziente
und zuverlässige BackupTechnologie aus einem Guss
geboten.“
Im Vergleich zu herkömmlichen Tape-basierten BackupLösungen bieten Online Backup Services Anwendern
eine deutliche Zeitersparnis.
iX extra 12/2005
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite III
Storage
ANBIETER VON
ONLINE-BACKUP-DIENSTEN
Hersteller
Website
Inter.net
www.snafu.de/content/produkte/security/
online_backup/
www.profibackup.de/
www.incom-ips.de/onlinebackup.html/
www.it-workgroup.com/
www.mitprovider.ch/content/view/61/90/
www.l-e-c.com/leistungen/sbs-backup.php/
www.backup-connect.de/
www.t-systems.de/businessportal/
LANSOL GmbH
INCOM IPS
it-workgroup AG
MIT Provider AG
L-E-C
Backup Connect
T-Systems
auf Basis der Televaulting-Software von Asigra Backup-Services anzubieten (www.hp.
com/hps/storage). Dabei handelt es sich um einen Managed
Service, bei dem HP die gesamte Installation und Konfiguration übernimmt und die Kundendaten in einem oder mehreren seiner Data-Center sichert.
„IT-Administratoren in aller
Welt bekommen so ein Maß an
Schutz, das die Verwundbarkeit der Unternehmen reduziert, unternehmenskritische
Umgebungen gegen diverse
Downtime-Risiken absichert
und im Falle einer Katastrophe
die Wiederherstellung deutlich
beschleunigt“, so Shaun Mc
Caughan, World-wide Manager, Managed Storage Services
bei HP.
Das Ideal des „Rundum-sorglos-Pakets“
Vom prognostizierten Wachstum im Segment Managed Storage Services profitieren möchte auch die im März 2005 gegründete IT-Workgroup AG
(www.it-workgroup.com). Das
Unternehmen besteht derzeit
aus einem Team von rund zehn
Spezialisten unterschiedlicher
Fachgebiete – überwiegend ITExperten. Die IT-Workgroup
entwickelt Lösungen, die ihren
Kunden den komplexen Umgang mit der Informationstechnik vereinfachen und dadurch
iX extra 12/2005
den Arbeitsalltag erleichtern
sollen. Als ein entscheidendes
Kernproblem auf Kundenseite
hat sie die Datensicherung
identifiziert. Daher zielt ihr erstes marktreifes Produkt Outback genau auf diese
Schwachstelle.
„Unsere Philosophie ist es,
den Kunden über den gesamten Zeitraum unserer Zusammenarbeit hinweg professionell zu betreuen, damit er
sich auf seine Kernkompetenzen konzentrieren kann“, erläutert Christian Graf Bentzel,
Vorstandsvorsitzender der ITWorkgroup. Um die fehlerfreie
Datensicherung zu ermöglichen, überwacht sie rund um
die Uhr und an 365 Tagen im
Jahr die Datensicherung, kontrolliert die ordnungsgemäße
Durchführung und schickt dem
Anwender regelmäßig Statusberichte. Entdeckt das Team
einen Fehler, nimmt es umgehend Kontakt mit dem Kunden
auf und behebt das Problem.
Geschieht etwas Unvorhergesehenes, hat er einen Ansprechpartner, an den er sich
direkt wenden kann. Die gemanagten Accounts werden
monatlich pro Client und Gigabyte komprimierten Speicherplatz im Rechenzentrum abgerechnet.
(sun)
Siegfried Dannehl
ist IT-Fachjournalist
in München
III
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite IV
Storage
Auf Zuruf
Speicherplatz mieten, statt kaufen
Speicherkosten verschlingen einen immer
größeren Teil des EDV-Budgets. Ins Geld gehen
nicht nur hohe Investitionen in Speicherhardund -software. Die Verwaltung der komplexen
Speicherarchitekturen konfrontiert Unternehmen
darüber hinaus mit steigenden Personalkosten.
Abhilfe und mehr Transparenz versprechen so
genannte Storage-on-Demand-Konzepte.
easen, statt kaufen, lautet
die Grundidee. Statt in eigene, teure Speicherinfrastrukturen zu investieren, „mietet“
der Anwender Speicherplatz je
nach Bedarf zu festgelegten
monatlichen Konditionen bei
einem Dienstleister. Optional
und gegen Aufpreis übernehmen viele dieser sogenannten
Storage Service Provider (SSP)
auch die Verwaltung der Speicherressourcen. Die Vorteile
für den Kunden liegen auf der
Hand: Er vermeidet hohe Basisinvestitionen und entlastet das
eigene Personal.
L
Das Spektrum der „Storage
on Demand“-Angebote (SoD)
lässt sich im Wesentlichen in
zwei Kategorien unterteilen,
den Private Services und den
Public Services. Im ersten Fall
befinden sich die Speicherressourcen im Hause des Kunden.
Der Storage gehört allerdings
dem SSP und wird auch von
diesem entweder Remote oder
über einen vor Ort beschäftigten Mitarbeiter des SSP verwaltet. Bei steigendem Kapazitätsbedarf kann der Kunde wie
bei der vorherigen Variante,
ohne Zeitverzögerung, schritt-
weise auf die bereits vorinstallierten Speicherressourcen zugreifen.
Bei Public Services, manchmal auch „Storage aus der
Steckdose“ genannt, stehen
die Speicherressourcen in
einem zentralen Rechenzentrum des SSPs. Auch in diesem
Fall ist der SSP Besitzer der
benötigten Storage-Hard- und
-Software. Der Kunde ist über
breitbandige Datendirektleitungen mit dem jeweiligen HostRechenzentrum verbunden und
kann quasi stufenlos auf den
dortigen Speicher-Pool zugreifen.
Private oder
Public Services
Der Storage Service Provider
übernimmt in beiden Fällen die
Konzeption, die Beschaffung
und das Management der
Speicherlösung. Der Kunde
kann sich völlig auf seine Anwendungen konzentrieren. Er
hat Zugriff auf moderne, skalierbare Hochverfügbarkeitssysteme und vermeidet damit
Ausfälle und Datenverluste.
Und – last, but not least – verringert der Kunde den Investitionsbedarf und schafft erhebliche Einsparungen, denn er
zahlt auf Mietbasis nur das,
Bildquelle: Legato
Bevor Unternehmen über
Storage
on Demand
nachdenken,
sollten sie
ihre eigenen
Kostenstrukturen im
Detail kennen.
IV
was er tatsächlich benötigt.
Soweit die Theorie.
Das Prinzip ist hervorragend, aber der Teufel steckt im
Detail, bremsen Experten. Ihrer
Ansicht nach sollten potenzielle
„Storage on Demand“-Anwender genau prüfen, wer letztendlich auf welcher Basis für
was bezahlt. Trotz des einfachen Konzepts sind bei
„Storage on Demand“ Strukturentscheidungen zu treffen,
die von weit reichender Bedeutung sind.
Im Mittelpunkt steht dabei
die Wahl des Anbieters, mit
dem der Kunde eine längerfristige Verbindung eingeht. Große
Hersteller realisieren ihr SoDAngebot zumeist auf der
Grundlage eigener Hardware.
Unabhängige Systemintegratoren bieten hingegen vielfach
Lösungen, die auf Hard- und
Softwareprodukten unterschiedlicher Hersteller basieren
können. In solchen Infrastrukturen ist es dann auch einfacher möglich, bereits vorhandene Speicherressourcen zu integrieren.
Eine Schlüsselrolle kommen
unabhängig von der ProviderEntscheidung immer den zu
vereinbarenden Service Level
Agreements (SLAs) zu. In ihnen
sollten zumindest folgende Kriterien eindeutig geklärt sein:
Hardwareredundanz, Notfallplanung, Sicherheit der Kundendaten, Kriterien für die verlangte Performance, Kompensation für Ausfälle, Skalierungsmöglichkeiten im Hinblick
auf die Kapazität und nicht zuletzt Bandbreiten und Verfügbarkeiten.
Nicht die Katze
im Sack kaufen
Angesichts der strategischen
Bedeutung von Speichersystemen sollten interessierte
Unternehmen die Kompetenz
von SSPs testen und die Optimierung bereits getätigter
Speicherinvestitionen als
Schlüssel für kommende
iX extra 12/2005
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite V
Bildquelle: Hewlett Packard
Storage
Bei den „Public Services“ greift der Anwender auf
Speicher-Ressourcen zu, die im Rechenzentrum
des Storage Service Providers vorgehalten werden.
„echte“ Outsourcing-Projekte
betrachten, raten Experten.
Sind diese Voraussetzungen
geschaffen und ein Vertrauensverhältnis hergestellt, kann
sich „Storage on Demand“ für
den Kunden zu einer betriebswirtschaftlich wie technisch
gleichermaßen interessanten
Lösung entwickeln, die ihm
einen optimalen Return on Investment bietet.
Leitungskosten
noch zu hoch
Trotz offenkundiger Vorteile
schrecken dennoch viele Unternehmen davor zurück, die Verwaltung ihrer Daten – und
damit ihr kostbarstes Betriebskapital – in externe Hände zu
geben. Sicherheitsbedenken,
lautet die häufigste Begründung. Um diese zu zerstreuen,
bieten SSPs neuerdings Mischvarianten an, bei denen beispielsweise extrem kritische
oder sicherheitsrelevante Daten
im Hause des Kunden verbleiben, während der Rest „online“
über Breitbandverbindungen in
ein externes Rechenzentrum
ausgelagert wird.
Doch es gilt nicht nur psychologische Barrieren zu überwinden. Auch die Kostengestaltung von SoD-Angeboten muss
iX extra 12/2005
nach Absicht von Experten noch
attraktiver werden. Zwar sind
die für Public Services notwendigen Glasfaserverbindungen
mittlerweile flächendeckend
vorhanden, viele Carrier lassen
sich die hohen Bandbreiten
allerdings noch fürstlich entlohnen. „Der Mietpreis für Verbindungsleitungen mit hohen Datenvolumina müssen deutlich
fallen“, lautet daher die Forderung der SSPs an die Telekommunikationsunternehmen.
Bis es soweit sein wird, gilt
es für SSPs wie potenzielle
SoD-Anwender gleichermaßen
ihre Hausaufgaben zu machen:
SSPs sind gefordert, durch
kompetente Beratung Informationsdefizite auszuräumen und
das Vertrauen der Kunden zu
gewinnen.
Unternehmen hingegen sollten die Zeit nutzen, sich Klarheit über die tatsächlichen
„Total cost of ownership“ (TCO)
für Speicherhaltung und -verwaltung im eigenen Hause zu
verschaffen. Nur wer die eigenen Kostenstrukturen im Detail
kennt, kann beurteilen, ob es
sich bei angebotenen SoD-Modellen um eine echte Investitionsalternative handelt und die
betriebswirtschaftlich richtige
Entscheidung treffen.
(sun)
Siegfried Dannehl
V
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite VI
Storage
Ohne Grenzen
Storage Grids: Das Netz als Speicher
Die Erwartungen sind hoch: Nicht wenige IT- und
Storage-Konzerne sehen in einem Storage-Grid
die ideale Plattform für das Information Lifecycle
Management (ILM) der nächsten Generation.
ach dem Willen der Protagonisten sollen Storage-Grids die Grundlage für
eine flexible, an Geschäftsprozessen orientierte Speicherzuteilung bilden und Konzepten wie
dem „Utility Computing“ oder
„On Demand Computing“ auf
die Sprünge helfen. Darüber
hinaus werden sie sich, nach
Ansicht von Experten, als Ergänzung zum Grid Computing
etablieren.
Geprägt wurde der Begriff
Grid Computing Mitte der 90erJahre durch die Assoziation mit
dem elektrischen Stromnetz
(Power Grid). Die ursprüngliche
Motivation für Grid Computing
war, dass Rechenkapazität in
gleicher Weise universell und
transparent zur Verfügung gestellt werden soll, wie dies für
elektrische Energie oder Wasser der Fall ist.
Neuerdings definiert man
den Begriff des Grid Computing
umfassender: Als eine Sammlung verteilter Ressourcen, wel-
N
Mit der Version 7G des Betriebssystems ONTAP stellte Network
Appliance eine neue Grundlage
für Storage Grids vor.
VI
che über Netze (WANs oder
LANs) verbunden sind, und die
dem Benutzer oder einer Applikation wie ein einziges großes virtuelles System erscheint.
Eine Unterform dieses neuen
Paradigmas sind Storage Grids.
Ihr Kennzeichen sind intelligente Speichereinheiten, die über
schnelle Leitungen miteinander
verbunden sind. Die Speichereinheiten sind dabei nicht einer
bestimmten Aufgabe, einem
Server oder einer Applikation
fest zugeordnet, sondern lassen sich je nach Bedarf dynamisch einsetzen. Aufgrund der
leistungsfähigen Vernetzung
spielt die räumliche Anordnung
der Ressourcen keine Rolle
mehr. Unternehmen und ihre
Mitarbeiter können ihre Systeme an beliebigen Standorten
nutzen und bei Bedarf Speicherkapazitäten kurzfristig von
Dienstleistern mieten.
Fernziel, so die Marktforscher, ist die Realisierung globaler Grids, welche die siche-
re, flexible, koordinierte, gemeinsame Nutzung von Ressourcen innerhalb virtueller
Organisationen ermöglichen.
Als Ressourcen verstehen sie
neben Rechenkapazität und
Daten auch Geräte sowie – im
weitergehenden Sinne – Personen. Virtuelle Organisationen
bestehen dabei aus einer
Menge von global verteilten
Institutionen. Beispiele für virtuelle Organisationen sind Application Service Provider oder
Konsortien von Firmen, die gemeinsam ein neues Produkt
entwickeln oder auch internationale wissenschaftliche Kooperationsprojekte. Solche kooperativen Problemlösungsumgebungen werden zukünftig
in vielen Bereichen von Industrie und Wissenschaft eine signifikante Rolle spielen und
damit einen wesentlichen Einfluss auf die Entwicklung globaler Informationsinfrastrukturen, insbesondere des Internet,
ausüben.
Think big –
start small
Während über das Ziel – Rechenleistung und Speicherkapazität weltweit intelligent zu
verschmelzen und nahtlos
skalierbar zu machen – weitgehende Einigkeit herrscht,
sind die Wege, die IT- und Storage-Hersteller zur Realisierung
„Virtuelle Organisationen
stellen ganz neue
Anforderungen an ITStrukturen und damit auch
an Speicherarchitekturen.“
Manfred Buchmann, Director
Product Management and
Technical Marketing bei
Network Appliance.
spezifischer Grid-Lösungen beschreiten, allerdings durchaus
unterschiedlich.
Hoher Beliebtheit, insbesondere in den USA, erfreuen sich
vergleichsweise einfache stapelbare Speicherprodukte, die
auf preiswerten parallelen oder
Serial-ATA-Platten basieren
und dem Anwender die Möglichkeit bieten, RAID-Controller
und damit Kapazität „anzuhäufen“. Derartige Arrays, die mittlerweile von einer Vielzahl kleiner Storage-Hersteller wie
3Par, Cloverleaf, Xiotech, Exagrid oder Appistry angeboten
werden, bieten ein Load Balancing zwischen eigenständigen
Speichermodulen und erlauben
es, Speicherkapazität und zugeordnete CPU-Leistung linear
zu skalieren. Zielgruppe sind
kleine und mittelständische
Unternehmen, die auf der
Suche nach einem kostengünstigen Ersatz ihrer nach wie vor
vorhandenen Direct-AttachedStorage-Systeme sind.
Steigen die Ansprüche der
Anwender, bieten viele der genannten Storage-Hersteller
auch „geclusterte“ StorageiX extra 12/2005
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite VII
Storage
Systeme an, die nicht mehr auf
File- sondern auf Block-Ebene
arbeiten und immer häufiger
über das iSCSI-Protokoll an ein
vorhandenes IP-Netz angeschlossen werden.
Einen im Vergleich dazu
„globaleren“ Ansatz verfolgt
Network Appliance mit der
neuen Version 7G des eigenen
Betriebssystems Data Ontap.
Netapp betrachtet „Storage
Grids“ als modulare, verteilte
Architektur, die dank Virtualisierung über einen „Global
Name Space“ eine umfassende
Sicht auf alle StorageRessourcen eines Unternehmens herstellt. Rechenzentren
und verteilte Niederlassungen
unterschiedlicher Größe und Art
werden sich nach Vorstellung
von Netapp künftig zu einem
Storage-Grid verbinden. Faktoren wie Standort, Storage-Art
oder Anbindung – ob NAS,
iSCSI oder Fibre Channel –
spielen dabei keine Rolle.
„Unsere Flexvol-Architektur
beispielsweise ist ein radikal
neuer Ansatz für die Zuteilung
von Speicherkapazitäten. Populär ausgedrückt handelt es sich
um eine Art Partition Magic für
Enterprise-Umgebungen. Die
Größe eines Volumes und damit
der einer Applikation zugewiesene Speicherplatz kann jetzt
dynamisch verkleinert oder vergrößert werden,“ erläutert
Manfred Buchmann, Director
Product Management and
Technical Marketing. „Mit unserem Tool Flexclone lassen
sich beliebig große Datenbestände ohne zusätzlichen Speicherverbrauch clonen, um sie
beispielweise für Testzwecke
zu nutzen. Die Festplatteneffizienz wird dadurch deutlich
verbessert und hat einen positiven Effekt auf TCO“, so Buchmann weiter.
Grid und „on demand“
gehören zusammen
Auch IBM hat sich nach den
Worten von Tom Hawk, General
Manager für den Bereich EnteriX extra 12/2005
prise Storage Systeme, im Rahmen seiner übergeordneten
Grid-Computing-Strategie massiv im Bereich Grid-Storage engagiert. Grid-Computing ist
zentraler Bestandteil des von
IBM propagierten „On demand“-Computings, das Anwendern helfen soll, effektiver
zu arbeiten und verfügbare
Daten und Kapazitäten besser
zu nutzen. Die von vielen kleinen Herstellern angebotenen
Lösungen betrachtet Hawk als
Insellösungen, bei denen eine
echte Integration in die Unternehmensinfrastruktur meist
fehlt. „Wir sehen Information
Grids unter dem Blickwinkel
weltweiter IT-Architekturen,
d.h. im Kontext von Wide
Area Networks (WANs)“,
erklärt Hawk.
Einen Blickwinkel, den auch
Hewlett-Packard bevorzugt.
Zwar ist die Grid-Struktur in
Form so genannter „Smart
Cells“ bereits heute in einer
Reihe von HP-Produkten wie
dem Reference Information
Storage System (RISS), dem
Scalable File Share (SFS) oder
dem High-End Storage Array
Storageworks XP12000 ent-
halten, die Grid-Strategie der
HP-Verantwortlichen ist allerdings langfristig angelegt.
Für die Jahre 2006 und 2007
sind verschiedene Storage-Management-Produkte für Grid-Anwendungen sowie die Integration von Smart Cells in Storage
Area Networks (SANs) und
heterogene Arrays geplant.
Nach 2007 sollen Lösungen für
das dynamische Re-Provisioning
von Smart Cells und die virtuelle
Verwaltung aller Produkte innerhalb des Grids die HP-Grid Strategie vervollständigen.
Hohes Umsatzwachstum erwartet
Welches Potenzial der Gesamtmarkt für Grid Computing bietet, zeigt eine Studie des
Marktforschungsinstituts Inside
Research. Demnach könnte das
weltweite Umsatzvolumen dieses Marktsegments von 250
Millionen Dollar im Jahr 2003
auf 4,89 Milliarden Dollar im
Jahr 2008 ansteigen. Insbesondere im so genannten Enterprise Grid Computing sehen ITAnalysten ein großes Marktpotenzial. Das Marktforschungsinstitut IDC erwartet,
dass 20 Prozent der Unternehmen innerhalb der nächsten
zwei Jahre Grid Computing in
der einen oder anderen Form
betreiben werden.
Von entscheidender Bedeutung wird sein, inwieweit es
internationalen Gremien gelingt,
weltweit akzeptierte Standards
für Grid Computing zu etablieren. Im Global Grid Forum (GGF),
dem weltweit wohl konzentriertesten Informationspool in Sachen Grid Computing, haben
sich Interessierte aus Industrie
und Wissenschaft zusammengefunden, um die gemeinsame
Im Reference Information
Storage System (RISS) von
Hewlett-Packard ist die
Grid-Architektur in Form
sogenannter „Smart Cells“
realisiert.
VII
ix.1205.x.01-08.neu3
02.11.2005
12:54 Uhr
Seite VIII
Storage
Nutzung geografisch verteilter
Computer, Datenspeicher und
Programme zu erforschen und
die notwendigen Standards zu
entwickeln. Das GGF ist mittlerweile eine Gemeinschaft aus
über 5000 Forschern und Anwendern, darunter führende ITund Storage-Unternehmen wie
HP, IBM, Intel, Microsoft, SGI,
SUN, Cisco, EMC, Fujitsu, HDS
oder Oracle.
Während innerhalb der GGF
der Einsatz von Grids im Bereich der weltweiten Forschung
einen breiten Raum einnimmt,
hat es sich die Enterprise Grid
Alliance (EGA) zum Ziel gesetzt,
die Adaption von Grid-Technologien im klassischen Unternehmensumfeld voranzutreiben.
Eine Reihe namhafter Unternehmen wie EMC, Fujitsu Siemens,
HP, Intel oder Oracle sind Mitglieder beider Gremien. (sun)
Siegfried Dannehl
VIII
In iX extra 1/2006:
Netzwerke – Modulare Switches
Netze sind eine ständige
Baustelle: Stetig steigende Anforderungen und immer neue
Technologien treiben die Entwicklung voran. Damit ist der
Wunsch nach Investitionssicherheit ebenso verständlich
wie der nach späteren Erweiterungsmöglichkeiten.
Modularität – so das Versprechen der Hersteller und
die Erwartung der Anwender –
soll hierfür das Mittel der
Wahl sein. Im nächsten iX
extra werden deshalb die Vorund Nachteile unterschiedlicher Konzepte erläutert –
etwa die Chassis-basierter Lösungen gegenüber Stackable
Switches.
Da Ethernet-Switches in
den heutigen Netzen die tra-
gende Rolle spielen, erklärt iX
extra zum grundsätzlichen Verständnis aber auch deren
Funktionsweise, Einsatzgebiete, Klassifizierung und Leistungsparameter. Glossar und
Herstellerübersicht runden dieses iX extra ab.
Erscheinungstermin
15. Dezember 2005
DIE WEITEREN IX EXTRAS:
Ausgabe
Thema
Erscheinungstermin
02/06
Mobility
Add-ons für PDAs und Handys
12. 01. 06
03/06
IT-Security
Consulting-Angebote
09. 02. 06
04/06
Storage
Backup-Systeme
02. 03. 06
iX extra 12/2005