als PDF
Transcrição
als PDF
ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite I Ein Verlagsbeihefter der Heise Zeitschriften Verlag GmbH & Co. KG Storage extra Storage Schwerpunkt Online-Storage Online-Backup: Sichern im Netz Auf Nummer sicher Seite I Storage on Demand: Speicherplatz mieten statt kaufen Auf Zuruf Seite IV Auf Nummer sicher Online Backup: Sichern im Netz Viele kleine und mittelständische Unternehmen verzichten entweder aus Kostengründen auf eine professionelle Datensicherung, oder sie sind mit der Handhabung respektive der Pflege und Wartung der Bandsysteme und Medien überfordert. Parallel zur Verbreitung gleichermaßen leistungsstarker wie bezahlbarer DSL-Verbindungen wächst jetzt die Zahl spezialisierter Online-BackupDienstleister, die diese ungeliebte Aufgabe für einen Pauschalpreis übernehmen. Storage Grids: Das Netz als Speicher Ohne Grenzen Seite VI Vorschau Netzwerke Modulare Switches Seite VIII Veranstaltungen 16.–18. November, Tunis WSIS – World Summit on the Information Society www.itu.int/wsis 22.–23. November, Köln iX-Konferenz 2005.2: Bessere Software! www.ix-konferenz.de 22.–23. November, Brüssel PEG – Platform European Grid Conference www.platform.com/PEGC05 13.–16. Dezember, San Francisco/CA 4. USENIX Conference on File and Storage Technologies www.usenix.org/events/fast05 18.–21. Dezember, Goa/Indien HiPC – International Conference on High Performance Computing www.hipc.org 16.–20. Januar 2006, München OOP 2006: Scalable Software Systems and Solutions www.sigs-datacom.de/sd/kongresse/oop_2006 9.–15. März 2006, Hannover Cebit 2006 www.cebit.de ir verzeichnen nicht nur eine exponentielle Zunahme der auf Desktop- und Laptop-Computern gespeicherten Datenbestände, sondern auch neue Herausforderungen durch staatliche Vorschriften wie Sarbanes Oxley und HIPAA. Gerade der Schutz von dezentralen Datenbeständen sollte höchste Priorität für jeden ITVerantwortlichen haben, da wir es hier mit einem ganz wichtigen Element in einer umfassenden ILM-Strategie zu tun haben, das wesentlichen Einfluss auf die Fähigkeit einer Firma hat, staatliche Vorschriften oder auch interne Regelungen einzuhalten“, bemerkt Peter Gerr, Analyst bei der Enterprise Strategy Group. Aber selbst wenn Daten gesichert werden, lässt die Durchführung oft zu wünschen übrig: Wurde die CD oder das Band bei der Sicherung richtig beschrieben? Ist das Medium bei einer Rücksicherung noch lesbar? Zum Schutz vor Feuer, Diebstahl und unbefugtem Zugriff sollten Sicherungen grund- W sätzlich außerhalb der Büroräume aufbewahrt werden, was das Wiederherstellen oft sehr mühsam macht. Eine Thematik, vor der nicht nur KMUs, sondern auch Großunternehmen mit einem weit verzweigten Netz an Niederlassungen stehen: An den verteilten Standorten fehlt oft dediziertes IT-Personal, das die notwendigen Backup-Policies kompetent und regelmäßig umsetzen könnte. Einen Ausweg aus dem Dilemma versprechen Online-Backup- oder Televaulting-Dienste. Sie basieren auf einem Utility-Modell, das Distributed Backup und Recovery verbrauchsabhängig als Managed Service zur Verfügung stellt. Eigen- oder fremdverwaltet Generell lassen sich zwei Modelle unterscheiden: Meist bei Großkonzernen zu finden ist das eigenverwaltete Modell, bei dem das Datenmanagement und die Datensicherung in ver- I ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite II Storage „Kleinere Unternehmen sichern ihre Daten üblicherweise recht unzuverlässig, denn konventionelle Systeme zur professionellen Datensicherung erfordern relativ hohe Investitionskosten in Hard- und Software sowie einen hohen administrativen Aufwand“, erklärt Christian Graf von Bentzel, Vorstandsvorsitzender der ITWorkgroup AG. II ter zu sprechen kommen, sehen wir sehr häufig ratlose Gesichter vor uns. Die Sicherung der Daten im Backend haben die meisten Firmen unter Kontrolle, aber die Peripherie ist für viele eine Black Box“, so Hartmut Wagner, Geschäftsführer der Connected GmbH. „Die Sicherung von dezentralen Daten über intelligente Softwarelösungen wird künftig in den Mittelpunkt des Interesses der Firmen rücken, denn die steigende Datenflut kann künftig nicht mehr alleine durch die teuren Hardwarespeicher in Schach gehalten werden.“ Ebenfalls von führenden ITHerstellern getestet und zertifiziert ist die Televaulting-Lösung des kanadischen Unternehmens Asigra (www.asigra.com). Die agentenlose Backup- und Recovery-Software für dezentrale Netze arbeitet festplattenbasiert und WAN-optimiert – ebenfalls mit Datenreduktion und Verschlüsselung. Die Abrechnung erfolgt als Utility Service nach Volumen. Mit einer nahezu unbegrenzt skalierbaren Architektur stellt die Lösung das Backup und Recovery für dezentrale Datenmengen jeder Größenordnung sicher. Bis zum letzten Jahr war die Software nur für Service Provider zugänglich, die damit ihren Kunden Online-Backup-Dienste anbieten konnten. Nach Anfragen großer Firmen hat Asigra sein Konzept überarbeitet und bietet die Software nun auch Kunden für ein eigenverwaltetes Backup in dezentralen Netzen an. Im September hat zudem HP beschlossen, seinen Kunden Komprimiert und kodiert Um mit der begrenzten Bandbreite der Internetanbindung zurechtzukommen und die Sicherheit gegenüber unberechtigten Zugriffen zu gewährleisten, verfügen die zum Einsatz kommenden Softwarelösungen über ein breites Funktionsspektrum. Ein Muss für alle Lösungen: die Reduktion der zu übertragenden Daten durch Vermeidung von Dopplern und durch Kompression. Das beherrscht auch die von Connected (www.connected. com) entwickelte Software Dataprotector/SV: Die Software erfasst automatisch alle dezentralen Daten auf Windows-, File- und Print-Servern und Bildquelle: IT-Workgroup AG teilten Standorten wieder in den Verantwortungs- und Einflussbereich der zentralen Unternehmens-IT überführt werden soll. Dagegen wendet sich das Backup-Service-Provider-Modell vorzugsweise an kleine und mittelgroße Unternehmen. Hier verwaltet ein externer Dienstleister die BackupDaten seiner Kunden in einem eigenen Rechenzentrum. In beiden Fällen werden die Sicherungsdaten über Hintergrundprozesse regelmäßig zu festgelegten Zeitpunkten – üblicherweise komprimiert und AES-verschlüsselt – über eine schnelle Internetverbindung entweder in das konzerneigene Rechenzentrum oder das des Backup Service Providers gesendet. Dort werden die Daten ebenfalls verschlüsselt gespeichert und stehen dem Kunden jederzeit und überall zur Verfügung. Wenn der Anwender auf seinem Rechner versehentlich eine Datei gelöscht oder überschrieben hat, ist der Fehler in wenigen Minuten korrigiert. Falls der Laptop, PC oder Server zerstört oder gestohlen wurde, kann der rechtmäßige Eigentümer mit seinen Zugangsdaten den gesamten Datenbestand in kurzer Zeit wiederherstellen. „Wenn wir mit CIOs und ITVerantwortlichen über die verteilten Firmendaten auf den PCs und Laptops der Mitarbei- sichert diese auf speziellen Backup-Servern im Rechenzentrum. Eine patentierte Datenreduzierungstechnik, das so genannte Send Once, gewährleistet, dass identische Dateien von mehreren Quellen nur ein einziges Mal auf dem BackupServer gespeichert werden. Zudem werden jeweils nur die seit der letzten Sicherung veränderten Teile einer Datei neu gesichert (Delta Block). Kürzlich hat EMC die Backup-Software Connected Dataprotector/PC für seine Centeras zertifiziert. „Firmen sind zunehmend auf eine skalierbare Technik angewiesen, mit der sie Inhalte online zuverlässig speichern und jederzeit abrufen können“, so Roy Sanford, Vice President of Content Addressed Storage bei EMC. „Mit der EMC-Centera-Zertifizierung des Connected Dataprotector/PC wird kleinen und großen Unternehmen eine kosteneffiziente und zuverlässige BackupTechnologie aus einem Guss geboten.“ Im Vergleich zu herkömmlichen Tape-basierten BackupLösungen bieten Online Backup Services Anwendern eine deutliche Zeitersparnis. iX extra 12/2005 ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite III Storage ANBIETER VON ONLINE-BACKUP-DIENSTEN Hersteller Website Inter.net www.snafu.de/content/produkte/security/ online_backup/ www.profibackup.de/ www.incom-ips.de/onlinebackup.html/ www.it-workgroup.com/ www.mitprovider.ch/content/view/61/90/ www.l-e-c.com/leistungen/sbs-backup.php/ www.backup-connect.de/ www.t-systems.de/businessportal/ LANSOL GmbH INCOM IPS it-workgroup AG MIT Provider AG L-E-C Backup Connect T-Systems auf Basis der Televaulting-Software von Asigra Backup-Services anzubieten (www.hp. com/hps/storage). Dabei handelt es sich um einen Managed Service, bei dem HP die gesamte Installation und Konfiguration übernimmt und die Kundendaten in einem oder mehreren seiner Data-Center sichert. „IT-Administratoren in aller Welt bekommen so ein Maß an Schutz, das die Verwundbarkeit der Unternehmen reduziert, unternehmenskritische Umgebungen gegen diverse Downtime-Risiken absichert und im Falle einer Katastrophe die Wiederherstellung deutlich beschleunigt“, so Shaun Mc Caughan, World-wide Manager, Managed Storage Services bei HP. Das Ideal des „Rundum-sorglos-Pakets“ Vom prognostizierten Wachstum im Segment Managed Storage Services profitieren möchte auch die im März 2005 gegründete IT-Workgroup AG (www.it-workgroup.com). Das Unternehmen besteht derzeit aus einem Team von rund zehn Spezialisten unterschiedlicher Fachgebiete – überwiegend ITExperten. Die IT-Workgroup entwickelt Lösungen, die ihren Kunden den komplexen Umgang mit der Informationstechnik vereinfachen und dadurch iX extra 12/2005 den Arbeitsalltag erleichtern sollen. Als ein entscheidendes Kernproblem auf Kundenseite hat sie die Datensicherung identifiziert. Daher zielt ihr erstes marktreifes Produkt Outback genau auf diese Schwachstelle. „Unsere Philosophie ist es, den Kunden über den gesamten Zeitraum unserer Zusammenarbeit hinweg professionell zu betreuen, damit er sich auf seine Kernkompetenzen konzentrieren kann“, erläutert Christian Graf Bentzel, Vorstandsvorsitzender der ITWorkgroup. Um die fehlerfreie Datensicherung zu ermöglichen, überwacht sie rund um die Uhr und an 365 Tagen im Jahr die Datensicherung, kontrolliert die ordnungsgemäße Durchführung und schickt dem Anwender regelmäßig Statusberichte. Entdeckt das Team einen Fehler, nimmt es umgehend Kontakt mit dem Kunden auf und behebt das Problem. Geschieht etwas Unvorhergesehenes, hat er einen Ansprechpartner, an den er sich direkt wenden kann. Die gemanagten Accounts werden monatlich pro Client und Gigabyte komprimierten Speicherplatz im Rechenzentrum abgerechnet. (sun) Siegfried Dannehl ist IT-Fachjournalist in München III ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite IV Storage Auf Zuruf Speicherplatz mieten, statt kaufen Speicherkosten verschlingen einen immer größeren Teil des EDV-Budgets. Ins Geld gehen nicht nur hohe Investitionen in Speicherhardund -software. Die Verwaltung der komplexen Speicherarchitekturen konfrontiert Unternehmen darüber hinaus mit steigenden Personalkosten. Abhilfe und mehr Transparenz versprechen so genannte Storage-on-Demand-Konzepte. easen, statt kaufen, lautet die Grundidee. Statt in eigene, teure Speicherinfrastrukturen zu investieren, „mietet“ der Anwender Speicherplatz je nach Bedarf zu festgelegten monatlichen Konditionen bei einem Dienstleister. Optional und gegen Aufpreis übernehmen viele dieser sogenannten Storage Service Provider (SSP) auch die Verwaltung der Speicherressourcen. Die Vorteile für den Kunden liegen auf der Hand: Er vermeidet hohe Basisinvestitionen und entlastet das eigene Personal. L Das Spektrum der „Storage on Demand“-Angebote (SoD) lässt sich im Wesentlichen in zwei Kategorien unterteilen, den Private Services und den Public Services. Im ersten Fall befinden sich die Speicherressourcen im Hause des Kunden. Der Storage gehört allerdings dem SSP und wird auch von diesem entweder Remote oder über einen vor Ort beschäftigten Mitarbeiter des SSP verwaltet. Bei steigendem Kapazitätsbedarf kann der Kunde wie bei der vorherigen Variante, ohne Zeitverzögerung, schritt- weise auf die bereits vorinstallierten Speicherressourcen zugreifen. Bei Public Services, manchmal auch „Storage aus der Steckdose“ genannt, stehen die Speicherressourcen in einem zentralen Rechenzentrum des SSPs. Auch in diesem Fall ist der SSP Besitzer der benötigten Storage-Hard- und -Software. Der Kunde ist über breitbandige Datendirektleitungen mit dem jeweiligen HostRechenzentrum verbunden und kann quasi stufenlos auf den dortigen Speicher-Pool zugreifen. Private oder Public Services Der Storage Service Provider übernimmt in beiden Fällen die Konzeption, die Beschaffung und das Management der Speicherlösung. Der Kunde kann sich völlig auf seine Anwendungen konzentrieren. Er hat Zugriff auf moderne, skalierbare Hochverfügbarkeitssysteme und vermeidet damit Ausfälle und Datenverluste. Und – last, but not least – verringert der Kunde den Investitionsbedarf und schafft erhebliche Einsparungen, denn er zahlt auf Mietbasis nur das, Bildquelle: Legato Bevor Unternehmen über Storage on Demand nachdenken, sollten sie ihre eigenen Kostenstrukturen im Detail kennen. IV was er tatsächlich benötigt. Soweit die Theorie. Das Prinzip ist hervorragend, aber der Teufel steckt im Detail, bremsen Experten. Ihrer Ansicht nach sollten potenzielle „Storage on Demand“-Anwender genau prüfen, wer letztendlich auf welcher Basis für was bezahlt. Trotz des einfachen Konzepts sind bei „Storage on Demand“ Strukturentscheidungen zu treffen, die von weit reichender Bedeutung sind. Im Mittelpunkt steht dabei die Wahl des Anbieters, mit dem der Kunde eine längerfristige Verbindung eingeht. Große Hersteller realisieren ihr SoDAngebot zumeist auf der Grundlage eigener Hardware. Unabhängige Systemintegratoren bieten hingegen vielfach Lösungen, die auf Hard- und Softwareprodukten unterschiedlicher Hersteller basieren können. In solchen Infrastrukturen ist es dann auch einfacher möglich, bereits vorhandene Speicherressourcen zu integrieren. Eine Schlüsselrolle kommen unabhängig von der ProviderEntscheidung immer den zu vereinbarenden Service Level Agreements (SLAs) zu. In ihnen sollten zumindest folgende Kriterien eindeutig geklärt sein: Hardwareredundanz, Notfallplanung, Sicherheit der Kundendaten, Kriterien für die verlangte Performance, Kompensation für Ausfälle, Skalierungsmöglichkeiten im Hinblick auf die Kapazität und nicht zuletzt Bandbreiten und Verfügbarkeiten. Nicht die Katze im Sack kaufen Angesichts der strategischen Bedeutung von Speichersystemen sollten interessierte Unternehmen die Kompetenz von SSPs testen und die Optimierung bereits getätigter Speicherinvestitionen als Schlüssel für kommende iX extra 12/2005 ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite V Bildquelle: Hewlett Packard Storage Bei den „Public Services“ greift der Anwender auf Speicher-Ressourcen zu, die im Rechenzentrum des Storage Service Providers vorgehalten werden. „echte“ Outsourcing-Projekte betrachten, raten Experten. Sind diese Voraussetzungen geschaffen und ein Vertrauensverhältnis hergestellt, kann sich „Storage on Demand“ für den Kunden zu einer betriebswirtschaftlich wie technisch gleichermaßen interessanten Lösung entwickeln, die ihm einen optimalen Return on Investment bietet. Leitungskosten noch zu hoch Trotz offenkundiger Vorteile schrecken dennoch viele Unternehmen davor zurück, die Verwaltung ihrer Daten – und damit ihr kostbarstes Betriebskapital – in externe Hände zu geben. Sicherheitsbedenken, lautet die häufigste Begründung. Um diese zu zerstreuen, bieten SSPs neuerdings Mischvarianten an, bei denen beispielsweise extrem kritische oder sicherheitsrelevante Daten im Hause des Kunden verbleiben, während der Rest „online“ über Breitbandverbindungen in ein externes Rechenzentrum ausgelagert wird. Doch es gilt nicht nur psychologische Barrieren zu überwinden. Auch die Kostengestaltung von SoD-Angeboten muss iX extra 12/2005 nach Absicht von Experten noch attraktiver werden. Zwar sind die für Public Services notwendigen Glasfaserverbindungen mittlerweile flächendeckend vorhanden, viele Carrier lassen sich die hohen Bandbreiten allerdings noch fürstlich entlohnen. „Der Mietpreis für Verbindungsleitungen mit hohen Datenvolumina müssen deutlich fallen“, lautet daher die Forderung der SSPs an die Telekommunikationsunternehmen. Bis es soweit sein wird, gilt es für SSPs wie potenzielle SoD-Anwender gleichermaßen ihre Hausaufgaben zu machen: SSPs sind gefordert, durch kompetente Beratung Informationsdefizite auszuräumen und das Vertrauen der Kunden zu gewinnen. Unternehmen hingegen sollten die Zeit nutzen, sich Klarheit über die tatsächlichen „Total cost of ownership“ (TCO) für Speicherhaltung und -verwaltung im eigenen Hause zu verschaffen. Nur wer die eigenen Kostenstrukturen im Detail kennt, kann beurteilen, ob es sich bei angebotenen SoD-Modellen um eine echte Investitionsalternative handelt und die betriebswirtschaftlich richtige Entscheidung treffen. (sun) Siegfried Dannehl V ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite VI Storage Ohne Grenzen Storage Grids: Das Netz als Speicher Die Erwartungen sind hoch: Nicht wenige IT- und Storage-Konzerne sehen in einem Storage-Grid die ideale Plattform für das Information Lifecycle Management (ILM) der nächsten Generation. ach dem Willen der Protagonisten sollen Storage-Grids die Grundlage für eine flexible, an Geschäftsprozessen orientierte Speicherzuteilung bilden und Konzepten wie dem „Utility Computing“ oder „On Demand Computing“ auf die Sprünge helfen. Darüber hinaus werden sie sich, nach Ansicht von Experten, als Ergänzung zum Grid Computing etablieren. Geprägt wurde der Begriff Grid Computing Mitte der 90erJahre durch die Assoziation mit dem elektrischen Stromnetz (Power Grid). Die ursprüngliche Motivation für Grid Computing war, dass Rechenkapazität in gleicher Weise universell und transparent zur Verfügung gestellt werden soll, wie dies für elektrische Energie oder Wasser der Fall ist. Neuerdings definiert man den Begriff des Grid Computing umfassender: Als eine Sammlung verteilter Ressourcen, wel- N Mit der Version 7G des Betriebssystems ONTAP stellte Network Appliance eine neue Grundlage für Storage Grids vor. VI che über Netze (WANs oder LANs) verbunden sind, und die dem Benutzer oder einer Applikation wie ein einziges großes virtuelles System erscheint. Eine Unterform dieses neuen Paradigmas sind Storage Grids. Ihr Kennzeichen sind intelligente Speichereinheiten, die über schnelle Leitungen miteinander verbunden sind. Die Speichereinheiten sind dabei nicht einer bestimmten Aufgabe, einem Server oder einer Applikation fest zugeordnet, sondern lassen sich je nach Bedarf dynamisch einsetzen. Aufgrund der leistungsfähigen Vernetzung spielt die räumliche Anordnung der Ressourcen keine Rolle mehr. Unternehmen und ihre Mitarbeiter können ihre Systeme an beliebigen Standorten nutzen und bei Bedarf Speicherkapazitäten kurzfristig von Dienstleistern mieten. Fernziel, so die Marktforscher, ist die Realisierung globaler Grids, welche die siche- re, flexible, koordinierte, gemeinsame Nutzung von Ressourcen innerhalb virtueller Organisationen ermöglichen. Als Ressourcen verstehen sie neben Rechenkapazität und Daten auch Geräte sowie – im weitergehenden Sinne – Personen. Virtuelle Organisationen bestehen dabei aus einer Menge von global verteilten Institutionen. Beispiele für virtuelle Organisationen sind Application Service Provider oder Konsortien von Firmen, die gemeinsam ein neues Produkt entwickeln oder auch internationale wissenschaftliche Kooperationsprojekte. Solche kooperativen Problemlösungsumgebungen werden zukünftig in vielen Bereichen von Industrie und Wissenschaft eine signifikante Rolle spielen und damit einen wesentlichen Einfluss auf die Entwicklung globaler Informationsinfrastrukturen, insbesondere des Internet, ausüben. Think big – start small Während über das Ziel – Rechenleistung und Speicherkapazität weltweit intelligent zu verschmelzen und nahtlos skalierbar zu machen – weitgehende Einigkeit herrscht, sind die Wege, die IT- und Storage-Hersteller zur Realisierung „Virtuelle Organisationen stellen ganz neue Anforderungen an ITStrukturen und damit auch an Speicherarchitekturen.“ Manfred Buchmann, Director Product Management and Technical Marketing bei Network Appliance. spezifischer Grid-Lösungen beschreiten, allerdings durchaus unterschiedlich. Hoher Beliebtheit, insbesondere in den USA, erfreuen sich vergleichsweise einfache stapelbare Speicherprodukte, die auf preiswerten parallelen oder Serial-ATA-Platten basieren und dem Anwender die Möglichkeit bieten, RAID-Controller und damit Kapazität „anzuhäufen“. Derartige Arrays, die mittlerweile von einer Vielzahl kleiner Storage-Hersteller wie 3Par, Cloverleaf, Xiotech, Exagrid oder Appistry angeboten werden, bieten ein Load Balancing zwischen eigenständigen Speichermodulen und erlauben es, Speicherkapazität und zugeordnete CPU-Leistung linear zu skalieren. Zielgruppe sind kleine und mittelständische Unternehmen, die auf der Suche nach einem kostengünstigen Ersatz ihrer nach wie vor vorhandenen Direct-AttachedStorage-Systeme sind. Steigen die Ansprüche der Anwender, bieten viele der genannten Storage-Hersteller auch „geclusterte“ StorageiX extra 12/2005 ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite VII Storage Systeme an, die nicht mehr auf File- sondern auf Block-Ebene arbeiten und immer häufiger über das iSCSI-Protokoll an ein vorhandenes IP-Netz angeschlossen werden. Einen im Vergleich dazu „globaleren“ Ansatz verfolgt Network Appliance mit der neuen Version 7G des eigenen Betriebssystems Data Ontap. Netapp betrachtet „Storage Grids“ als modulare, verteilte Architektur, die dank Virtualisierung über einen „Global Name Space“ eine umfassende Sicht auf alle StorageRessourcen eines Unternehmens herstellt. Rechenzentren und verteilte Niederlassungen unterschiedlicher Größe und Art werden sich nach Vorstellung von Netapp künftig zu einem Storage-Grid verbinden. Faktoren wie Standort, Storage-Art oder Anbindung – ob NAS, iSCSI oder Fibre Channel – spielen dabei keine Rolle. „Unsere Flexvol-Architektur beispielsweise ist ein radikal neuer Ansatz für die Zuteilung von Speicherkapazitäten. Populär ausgedrückt handelt es sich um eine Art Partition Magic für Enterprise-Umgebungen. Die Größe eines Volumes und damit der einer Applikation zugewiesene Speicherplatz kann jetzt dynamisch verkleinert oder vergrößert werden,“ erläutert Manfred Buchmann, Director Product Management and Technical Marketing. „Mit unserem Tool Flexclone lassen sich beliebig große Datenbestände ohne zusätzlichen Speicherverbrauch clonen, um sie beispielweise für Testzwecke zu nutzen. Die Festplatteneffizienz wird dadurch deutlich verbessert und hat einen positiven Effekt auf TCO“, so Buchmann weiter. Grid und „on demand“ gehören zusammen Auch IBM hat sich nach den Worten von Tom Hawk, General Manager für den Bereich EnteriX extra 12/2005 prise Storage Systeme, im Rahmen seiner übergeordneten Grid-Computing-Strategie massiv im Bereich Grid-Storage engagiert. Grid-Computing ist zentraler Bestandteil des von IBM propagierten „On demand“-Computings, das Anwendern helfen soll, effektiver zu arbeiten und verfügbare Daten und Kapazitäten besser zu nutzen. Die von vielen kleinen Herstellern angebotenen Lösungen betrachtet Hawk als Insellösungen, bei denen eine echte Integration in die Unternehmensinfrastruktur meist fehlt. „Wir sehen Information Grids unter dem Blickwinkel weltweiter IT-Architekturen, d.h. im Kontext von Wide Area Networks (WANs)“, erklärt Hawk. Einen Blickwinkel, den auch Hewlett-Packard bevorzugt. Zwar ist die Grid-Struktur in Form so genannter „Smart Cells“ bereits heute in einer Reihe von HP-Produkten wie dem Reference Information Storage System (RISS), dem Scalable File Share (SFS) oder dem High-End Storage Array Storageworks XP12000 ent- halten, die Grid-Strategie der HP-Verantwortlichen ist allerdings langfristig angelegt. Für die Jahre 2006 und 2007 sind verschiedene Storage-Management-Produkte für Grid-Anwendungen sowie die Integration von Smart Cells in Storage Area Networks (SANs) und heterogene Arrays geplant. Nach 2007 sollen Lösungen für das dynamische Re-Provisioning von Smart Cells und die virtuelle Verwaltung aller Produkte innerhalb des Grids die HP-Grid Strategie vervollständigen. Hohes Umsatzwachstum erwartet Welches Potenzial der Gesamtmarkt für Grid Computing bietet, zeigt eine Studie des Marktforschungsinstituts Inside Research. Demnach könnte das weltweite Umsatzvolumen dieses Marktsegments von 250 Millionen Dollar im Jahr 2003 auf 4,89 Milliarden Dollar im Jahr 2008 ansteigen. Insbesondere im so genannten Enterprise Grid Computing sehen ITAnalysten ein großes Marktpotenzial. Das Marktforschungsinstitut IDC erwartet, dass 20 Prozent der Unternehmen innerhalb der nächsten zwei Jahre Grid Computing in der einen oder anderen Form betreiben werden. Von entscheidender Bedeutung wird sein, inwieweit es internationalen Gremien gelingt, weltweit akzeptierte Standards für Grid Computing zu etablieren. Im Global Grid Forum (GGF), dem weltweit wohl konzentriertesten Informationspool in Sachen Grid Computing, haben sich Interessierte aus Industrie und Wissenschaft zusammengefunden, um die gemeinsame Im Reference Information Storage System (RISS) von Hewlett-Packard ist die Grid-Architektur in Form sogenannter „Smart Cells“ realisiert. VII ix.1205.x.01-08.neu3 02.11.2005 12:54 Uhr Seite VIII Storage Nutzung geografisch verteilter Computer, Datenspeicher und Programme zu erforschen und die notwendigen Standards zu entwickeln. Das GGF ist mittlerweile eine Gemeinschaft aus über 5000 Forschern und Anwendern, darunter führende ITund Storage-Unternehmen wie HP, IBM, Intel, Microsoft, SGI, SUN, Cisco, EMC, Fujitsu, HDS oder Oracle. Während innerhalb der GGF der Einsatz von Grids im Bereich der weltweiten Forschung einen breiten Raum einnimmt, hat es sich die Enterprise Grid Alliance (EGA) zum Ziel gesetzt, die Adaption von Grid-Technologien im klassischen Unternehmensumfeld voranzutreiben. Eine Reihe namhafter Unternehmen wie EMC, Fujitsu Siemens, HP, Intel oder Oracle sind Mitglieder beider Gremien. (sun) Siegfried Dannehl VIII In iX extra 1/2006: Netzwerke – Modulare Switches Netze sind eine ständige Baustelle: Stetig steigende Anforderungen und immer neue Technologien treiben die Entwicklung voran. Damit ist der Wunsch nach Investitionssicherheit ebenso verständlich wie der nach späteren Erweiterungsmöglichkeiten. Modularität – so das Versprechen der Hersteller und die Erwartung der Anwender – soll hierfür das Mittel der Wahl sein. Im nächsten iX extra werden deshalb die Vorund Nachteile unterschiedlicher Konzepte erläutert – etwa die Chassis-basierter Lösungen gegenüber Stackable Switches. Da Ethernet-Switches in den heutigen Netzen die tra- gende Rolle spielen, erklärt iX extra zum grundsätzlichen Verständnis aber auch deren Funktionsweise, Einsatzgebiete, Klassifizierung und Leistungsparameter. Glossar und Herstellerübersicht runden dieses iX extra ab. Erscheinungstermin 15. Dezember 2005 DIE WEITEREN IX EXTRAS: Ausgabe Thema Erscheinungstermin 02/06 Mobility Add-ons für PDAs und Handys 12. 01. 06 03/06 IT-Security Consulting-Angebote 09. 02. 06 04/06 Storage Backup-Systeme 02. 03. 06 iX extra 12/2005