Firmenbrief

18.01.2011

SAN oder nicht SAN?


In den letzten zwei Jahren ist durch Virtualisierung, Hochverfügbarkeit und Cloud-Computing der Hunger nach ausreichend und flexibel anzupassendem Speicher massiv gestiegen. Selbst in kleinen und mittelständischen Unternehmen bis 200 Mitarbeiter stellt sich oft die Herausforderung, einen geeigneten Datenspeicher zu finden, der ausreichend groß, ausbaubar, schnell, redundant und trotzdem günstig ist. Im Sinne einer KISS-Strategie in der IT (KISS steht für „keep it small and simple“) hat sich in den letzten Jahren die Tendenz entwickelt, solche Datenspeicher unabhängig von den Servern und Clients als eigenständige Einheiten zu verstehen.

Auf diese Weise kann Rechenleistung von Speichervolumen getrennt betrachtet und beschafft werden – das Storage Area Network (SAN) war geboren. Dafür nimmt man in Kauf, dass alle Daten immer über eine Netzwerkleitung rauschen müssen, statt direkt im Gerät über den schnellen internen BUS ansprechbar zu sein. Um eine ausreichende Geschwindigkeit zu erreichen hat sich hier ein eigenes Netzwerksystem etabliert, das ein SAN per eigenem Netzwerk-Stack über Lichtwelle an die Rechner anbindet. Und genau das ist auch der Nachteil eines SAN: Man benötigt ein eigenes Netzwerk mit extra Verkabelung, eigenen Switches, eigenem Netzwerkprotokoll und zusätzlicher Anbindung an das herkömmliche Netzwerk, um die aktiven Komponenten zu überwachen und zu verwalten. Dazu muss auch das SAN extra redundant ausgelegt werden – nicht nur das Gerät, dass das Speichervolumen zur Verfügung stellt, sondern auch alle anderen aktiven Komponenten. Insgesamt eine teure und umbauträchtige Angelegenheit.

Andererseits sind Netzwerktechniken immer schneller geworden; wir gehen mit großen Schritten auf 10 Gbit-Netzwerke auch im mittelständischen Bereich zu. Gleichzeitig werden Festplatten immer größer, damit kommen auch sehr kleine Geräte mit ausreichend Kapazität auf den Markt. Daher entwickelt sich der Trend hin zu Network-Attached-Storage (NAS), ein preiswerterer Ansatz. Allerdings bleibt hier die Frage nach der Redundanz jenseits von RAID-Konfigurationen unbeantwortet. Um nun Ausfallsicherheit und Speichervolumen unter einen Hut zu bekommen, muss man Storage-Volumen doppelt auslegen und automatisiert online spiegeln. Solche Geräte werden plötzlich wieder sehr teuer, denn sie müssen einiges an Intelligenz – sprich Rechenleistung – mitbringen, um diese Aufgabe zu erfüllen.

Mit dem CoreBiz-Failover Cluster unterstützen wir beide Ansätze. Zudem haben wir eine eigene, sehr preisgünstige Variante entwickelt: Da heutige Gehäuse groß genug sind um mindestens acht, oft auch zwölf oder 16 Platten aufzunehmen und Platten bis zwei Terabyte Volumen verfügbar sind, kann man einen normalen Server mit 12 bis 28 TB Nettovolumen bei RAID-6 Konfiguration ausstatten. Damit wird es unnötig, die Daten über das Netzwerk zum Server zu transportieren. Durch doppelte Auslegung mit privater Netzwerkleitung zwischen den Servern kann man trotzdem eine Online-Spiegelung für die Redundanz realisieren. Bei der CoreBiz-Technologie werden nur Schreibzugriffe gespiegelt. Somit ist auch ein normales Gigabit-Netzwerk dafür ausreichend, ohne zum Flaschenhals zu werden. Auf diese Weise realisiert man mit nur zwei Geräten sowohl Volumen, Geschwindigkeit, Rechenleistung und Ausfallsicherheit – und spart Kosten für extra Netzwerkverkabelung, zusätzliche Hardware, Platz im Server-Schrank, Strom und Abwärme. Falls der Speicherplatz noch nicht reicht, dann kann man ganz einfach eine Speicherbox (Direct Attached Storage – DAS) zusätzlich an jeden Server anschließen, um weitere, dutzende Terabyte in das System zu bringen.