Applikationsintegration für SQL Server 2012 & 2014 in Verbindung mit Flash

Wie bereits vor einigen Tagen von meinem Kollegen Herbert Bild angekündigt, möchte ich über das Thema „NetApp Applikationsintegration in Microsoft SQL Server 2012/2014“ schreiben.

 

Heutige Herausforderung…

 

Ich denke, rasch anwachsende Datenmengen, getrieben durch beispielsweise neue Wirtschaftsthemen, wie Industrie 4.0 (Internet der Dinge) aber auch neue, moderne Geschäftsanwendungen stellen mehr denn je neue Anforderungen an die zukünftigen SQL Server Infrastrukturen. Zum Beispiel…

 

  • anspruchsvollere SLA Vereinbarungen in Bezug auf Verfügbarkeit und natürlich Performance
  • schnellere Bereitstellung von Datenbankkopien zur Unterstützung zusätzlicher Geschäftsprozesse wie Analytics/BI aber auch zur Steigerung entsprechender Test- und Entwicklungszyklen

Mit Hilfe unserer Applikationsintegration für SQL Server in Verbindung mit Flash Speicher helfen wir Kunden, den heutigen und zukünftigen Anforderungen gerecht zu werden. Unsere Lösungen zeichnen sich vor allem durch folgende Punkte aus:

 

  1. Aufrechterhaltung einer latenzarmen Datenbank Performance (unter 1ms) auch bei etwaigen Lastspitzen.
  2. Eine Vielzahl an Speichereffizienz-Technologien zur Reduktion der Daten (Kosten) und zur Verlängerung der Lebensdauer von Flashspeicher.
  3. Drastische Reduzierung der Sicherungs- und vor allem Wiederherstellungszeiten, d.h. in Sekunden bis Minuten anstatt Stunden.
  4. Bereitstellung von Datenbankkopien in wenigen Sekunden ohne zusätzlichen Speicherbedarf zur Beschleunigung der Geschäftsprozesse für Test und Development oder Analytics.

Im Rahmen meines heutigen Blogs möchte ich mich den Punkten „a“ und „b“, also den Themen „Performance“ und „Speichereffizienz“ widmen. Natürlich werde ich zeitnah auch zu den anderen Punkten schreiben, aber dazu, so viel kann und darf ich schon mal verraten, werden wir in den nächsten Wochen etwas neues sehen. Also seien Sie gespannt ;-)

 

Performance

 

Ich denke, es ist nicht von der Hand zu weisen, dass ein Großteil der heutigen Datenbank-Performance-Probleme der Storage-Ebene zuzuschreiben ist.   

 

Aber warum ist das so?

 

Nun in den Anfangszeiten der Computerwelt waren die Taktraten der Prozessoren unter 1MHz (z.B. Intels 4004), damalige Zugriffzeiten bzw. Latenzen auf Festplatte reichten völlig aus.

 

Bild 1 - IBM Disk.png

 

 

Hier ein Bild aus den 50er Jahren. Die erste IBM Festplatte 350 mit einem Gewicht von mehreren hundert Kilogramm. Die verfügbare Kapazität lag bei rund 5MB und die durchschnittliche Zugriffzeit bei etwa 0,6 Sekunden. Die Festplatte gab es nicht zu kaufen, sie wurde für mehrere 1000,- DM pro Monat vermietet.

 

In den vergangenen Jahrzehnten lag der Schwerpunkt der Festplattenentwicklung vor allem auf der Packungsdichte - also mehr Kapazität, kleinere Stellfläche, günstigerer Preis. Die Schreib-/Lese- Geschwindigkeiten aber auch die Zugriffzeiten der Festplatten haben sich im Vergleich dazu nicht wirklich signifikant verändert. Aktuell liegen die Zugriffzeiten weiterhin im einstelligen Millisekunden-Bereich, d.h. Veränderung in den vergangenen Jahrzehnten gab es um den Faktor ~100.

 

Anders bei den Prozessoren, diese haben sich in Bezug auf Taktrate um den Faktor >10.000 (von ~ KHz nach GHz) verändert. Und genau hier entsteht nun die Diskrepanz im Zugriff auf die Daten. Prozessoren können und wollen schneller „verarbeiten“, müssen aber häufig auf den Disk IO warten.

 

Deshalb haben eigentlich alle Speicherhersteller viel Intelligenz in die Software der Storage Controller gepackt (z.B. Aggregieren von vielen Disken, intelligentes Schreib-/Lese-Caching, uvm.), um damit die Bandbreite zu erhöhen und gleichzeitig die Latenzen zu optimieren.

 

 

 

 

Flash – der Weg von Hybrid Array zu All Flash Arrays

 

Mit dem Medium „Flash“ stehen seit einigen Jahren ganz neue Technologien zur Verfügung, welche die Herausforderungen in punkto Performance und vor allem Latenz deutlich verbessern. Allerdings waren die hohen Kosten für Flash in der Vergangenheit – ich sag mal – ein Spielverderber.   

 

Aus diesem Grund haben wir bereits 2008, als einer der ersten Storageanbieter, mit unserer sogenannten PAM Card (Performance Accelerator Module später als FlashCache umbenannt) Hybriden Lösungen, also einen Mix aus Flash und Disk umgesetzt. Mittels dieser Hybriden-Lösung, heute als FlashPool oder FlashCache bezeichnet, kann man im Vergleich zu reinen Disk-basierenden Lösungen schon deutliche Latenzoptimierungen, z.B. im Datenbankumfeld, erzielen. Gleichzeitig hat man aber weiterhin eine sinnvolle Kosten-Balance (Disk vs. Flash).

 

Aufgrund der aktuellen Preisentwicklung geht man davon aus, dass in einigen Monaten der Preis pro GB für Flash den für klassische 10k oder 15k SAS Disken unterbieten wird. Ermöglicht wird dies u.a. durch …

 

  1. neue, zusätzliche Speichereffizienztechnologien
  2. höhere Datenkonsolidierungsraten
  3. günstigere Infrastrukturkosten für Flash (geringerer Strom- bzw. Klimaverbrauch)
  4. sowie günstigere Maintenance-Kosten.

Bild 2x.png

 

Flashoptimierung in clustered DataONTAP 8.3.1

 

Mit unserer neuen Betriebssystemversion clustered DataONTAP 8.3.1 haben wir einen weiteren Meilenstein in punkto Flash gesetzt. Ab dieser Version liefern wir zum ersten Mal sogenannte All Flash FAS Systeme, d.h. reine SSD-basierte Speichersysteme.

 

Zusätzlich haben wir in diesem Release eine Vielzahl von neuen Speichereffizienz-Features integriert bzw. für Flash weiter optimiert. Beispiele hierfür…

 

  • Inline zero-block deduplication
  • Always-on deduplication
  • Inline Compression (enabled by default)

Im TR-4428 sind u.a. einige dieser neuen Funktionen näher beschrieben.

 

Natürlich wurde auch in punkto „Flash Performance“ in 8.3.1 einiges getan. Beispielsweise wurde eine Lese-Optimierung vorgenommen, die eine Reduzierung pro IO von 300 bis 400 Mikrosekunde ermöglicht. Naja… vielleicht fragen Sie sich, was das bringt? Nun, die Frage hatte ich mir auch zu allererst gestellt. Aber im Zeitalter von Flash sprechen wir nicht mehr von durchschnittlichen Antwortzeiten in der Größenordnung 10 oder 20 Millisekunden. Nein, wir sprechen hier von Latenzen kleiner 1 Millisekunde. Und dann bedeutet dies eine Reduktion der durchschnittlichen Leselatenz um 30 - 40%.

 

Aber in clustered DataONTAP 8.3.1 fanden auch einige Schreib-Optimierungen statt, vorwiegend mit dem Ziel, die Flashlebensdauer deutlich zu verlängern.

 

AFF8080EX TPC-E Benchmark

 

Wie bereits erwähnt, ist eine der größten Herausforderungen im SQL Datenbankumfeld die Aufrechterhaltung einer optimalen Performance, auch bei etwaigen Lastspitzen.

 

Um die Leistungsfähigkeit unserer Systeme unter Beweis zu stellen, haben wir unser AFF8080EX Speichersystem mit 48mal 800GB SSDs einem OLTP Transaction Processing Performance Council Benchmark E (TPC-E) unterzogen.

 

Wie nachfolgende Abbildung zeigt, liefert das System bis zu 184k IOPs bei einer Latenz von 800 Mikrosekunden oder 280k IOPS bei einer Latenz von 1 Millisekunde.

 

Bild 3 - AFF Performance.png

 

Gleichzeitig konnten wir im Rahmen dieses Benchmarks, alleine durch die aktive Inline-Komprimierung, eine Einsparung von 1.8:1 erreichen. Würde man weitere Effizienz Technologien wie ThinProvisioning, Inline zero-block deduplication, Always-on DeDuplikation, Cloning, etc hinzuziehen, sind auch deutlich höhere Einsparungen möglich.

 

Mehrwert von Flash für SQL Server 2014

 

Wie Sie sicherlich wissen, hat Microsoft das Lizensierungsverfahren für SQL Server 2012/2014 verändert. Während bei SQL Server 2008 noch pro physikalischer CPU (Socket) lizensiert wurde, wird ab SQL Server 2012/2014 pro Core lizensiert. Dies hat u.U. zur Folge, dass deutlich höhere Lizenzkosten für die SQL Server entstehen. Um auch mal in groben Zahlen zu sprechen, habe ich eine kleine Tabelle anhand von MS SQL Server Listpreisen mit der aktuellen Intel® Xeon® E7 v3-Produktfamilie zusammengestellt.

 

Bild 4 - Excel.png

 

Insofern sind natürlich viele Kunden daran interessiert, weiterhin Datenbanken auf eine geringere Anzahl an Servern zu konsolidieren. Dies wiederum setzt voraus, dass auch die darunterliegende Speicherinfrastruktur in der Lage sein muss, die Performance für eine solche Konsolidierung zu liefern.

Ist dies nicht der Fall, würden die teuer lizensierten CPUs im Server ja nur sprichwörtlich „rumdümpeln“.

 

Wie o.g. Benchmark beweist, sind wir mit unseren Systemen in der Lage, entsprechende SQL Server Datenbankkonsolidierungen durchzuführen und können somit helfen, Serverinvestitionen und die damit verbundenen Datenbanklizenzgebühren deutlich zu reduzieren.

 

Im Rahmen einer ROI Studie wurde eine Business Case Betrachtung für einen Kunden durchgeführt. Mit unserem All Flash Array konnten wir rund 1M$ an Server- und Lizenzkosten einsparen. Gleichzeitig wurde ein Payback innerhalb von 6 Monaten erreicht. Mehr Informationen zu dieser Studie finden Sie im TR-4403.

 

Bild 5x.jpg

Fazit

 

Mit unserer Applikationsintegration in Verbindung mit NetApp Flashspeicher sind wir in der Lage, Ihre Geschäftsprozesse deutlich zu beschleunigen. Ein Beweis für den Erfolg dieser Lösung zeigt das Beispiel unseres Kunden „Deutscher Wetterdienst“.

 

 

Ich hoffe, der heutige Blog hat Ihnen gefallen.

Comments
ians Former NetApp Employee

great!!!