Et hät noch immer joot jejange...

... heißt es im Kölschen Grundgesetz (= es ist noch immer gut gegangen). Aber das Kölsche Grundgesetz sollte nicht auf Storage-Systeme und unternehmenskritische Daten angewendet werden, oder?

Wenn ich mir Lösungen anschaue, denen wir in Projekten begegnen, bin ich mir nicht sicher, ob so mancher Anwender sich nicht doch auf das Kölsche Grundgesetz verlässt.

Jeder, der ein wenig Erfahrung in der IT gesammelt hat, hat sicherlich schon einmal vor einer ähnlichen Situation gestanden. Stellen wir uns mal eine komplexe Lösung vor, die aus Komponenten mehrerer Hersteller besteht. So lange alles funktioniert ist alles wunderbar. Allerdings kann es in komplexen Umgebungen immer wieder zu Problemen kommen, und dann kann es für den Anwender und dessen Unternehmen zu existenzbedrohenden Situationen kommen:

- Die Lösung fällt aus, Anfrage bei Hersteller 1

- Hersteller 1 sagt, aus seiner Sicht ist alles i.O., bitte fragen sie bei Hersteller 2 nach

- Hersteller 2 sagt, aus seiner Sicht ist auch alles i.O., bitte fragen sie bei Hersteller 3 nach

- usw., usw., usw.

Leittragender ist der Kunde, dessen Problem immer noch nicht gelöst ist, was bedeuten kann, dass im ganzen Unternehmen Stillstand herrscht.

Jetzt denken Sie, das ist aber ein konstruiertes Beispiel, in der Praxis kommt das doch gar nicht vor.

Im Alltag stoße ich immer wieder auf Datacore und andere Storage-Virtualisierungslösungen, die genau nach dem o.g. Muster aufgebaut sind. Die gesamte Storage Lösung besteht aus Komponenten mehrerer Hersteller wie z.B.: Datacore Storage Software, Server vom Hersteller A, MS Windows, FC-Switches vom Hersteller B, Storage-Array vom Hersteller C, u.v.m. Ganz schön komplex, stellen sie sich das Troubleshooting in folgender Verkettung unterschiedlicher Hersteller vor:

Wie man aus praktischen Erfahrungen hört, kommt erschwerend hinzu, dass es keine validen Support-Matrizen oder Zertifizierungen für unterstützte Umgebungen gibt. Hier ist man als Kunde ein wenig auf Glück angewiesen. Auch der Service solcher Umgebungen ist alles andere als einfach, man denke z.B. nur an Updates: Server BIOS, HBA, NIC, Windows Update, Datacore Update, usw. Je größer die Anzahl der Updates, umso größer wird die Wahrscheinlichkeit eines Problems.

Also ich hätte ein wenig Bauchschmerzen, wenn ich meine unternehmenskritischen Daten auf einer nach einem solchen Muster aufgebauten Lösung ablegen müsste. Ist so eine Lösung wirklich Enterprise-ready? Jeder kann für sich überlegen, was es für sein Unternehmen bedeutet, wenn das Storage-System und somit die Produktion steht, wenn es zu Datenverlust kommt oder es eine längere Zeit dauert, Fehler zu beheben bzw. einen Restore durchzuführen. Wie hoch die Wahrscheinlichkeit ist, dass es zu solchen Problemen kommt, ist schwer abzuschätzen, doch unmöglich ist es nicht, wie die Praxis zeigt.

Wünschenswert ist doch eine effiziente und preiswerte Storage-Umgebung mit wenig Komplexität, hoher Verfügbarkeit und Support aus einer Hand, ohne Wenn und Aber. So lassen sich die Risiken minimieren!

Wat fott es, es fott... sollte eben nicht für Ihre Daten gelten (Kölsches Grundgesetz = was fort ist, ist fort).

Comments

Hatte watte dude da? Eigentlich darf man Leute mit Sprachfehler nicht diskriminieren aber die Steilvorlage ist unverfehlbar. Sag mal, kannst Du eigentlich einen Klingeldraht von einem FC-Kabel unterscheiden? Was glaubst Du, wie viele Hersteller sich zusammensetzen, um herstellerübergreifende Gesamtlösungen anhand von Standards und definierten Schnittstellen zu erstellen. Was passiert, wenn Dein Kaffeelöffel nicht von NetApp kommt, musst Du dann das Pulver aus der Tüte lutschen? Eigentlich könnte man doch mal einen DataCore Server über eine FAS stellen und endlich mal den Belzebub aus dem proprietären Kasten rausvirtualisieren. Dann bricht es vielleicht nicht so schnell ein beim Lesen mit einem Füllstand von über 80%...