Vorwort für dt. Ausgabe des In-Memory-Buchs (sorry only in German, published in June 2012)
Titel: Grenzen überwinden
In-Memory Data Management ist eine bahnbrechende Innovation, die unser aller Leben für
und mit IT verändern wird.
Was ist so bahnbrechend daran, warum jetzt und warum von SAP bzw. für ERP-Anwen-
dungen? Dieses Buch von Hasso Plattner und Alexander Zeier wird alle diese Fragen be-
antworten. Als kleinen Vorgeschmack einige wesentlichen Dinge:
Schnelles Computing großer Datenmengen an sich ist kein wirklich neues Thema. In
Echtzeit erhobene Daten, wie z. B. Wetterdaten oder Daten aus dem Banken- und Versicherungssegment, und ihre Analyse haben den Einsatz von Großrechnern mit sehr großer Prozessor- und Hauptspeicherkapazität schon immer erforderlich gemacht. Auch bei der Bewältigung sehr großer Datenmengen in der Bildverarbeitung wurden in den letzten 20 Jahren bereits einige Meilensteine erreicht. Die Erfolgsgeschichte von Pixar – animierte Kinofilme in nahezu „True Reality“ – sind ein gutes Beispiel dafür, wie der technologische Fortschritt Geschäftsmodelle beeinflussen oder gar erst möglich machen kann.
Laut einer Studie von IDC wurden im Jahr 2011 weltweit 19 Million Terabytes an Daten
erzeugt und repliziert. Darunter sind meiner eigenen Schätzung nach ca. 0,5 bis 1 Million
Terabyte SAP-Daten; und zwar wesentliche Daten aus den Bereichen Vertrieb, Marketing,
Produktion und Finanzen – also die Schlüsseldaten jedes Unternehmens. Genau diese sollten in Echtzeit korreliert und analysiert werden können. Der Trend zu „Big Data“ hält also ungebrochen an, und ERP-Daten sind ein Teil davon.
Wo stehen wir heute?
Aufgrund technischer Limitierungen wurden große Datenmengen bisher asynchron, also
im Hintergrund, aufbereitet und in Business-Analysen, Auswertungen wie SAP CO-PA
(Controlling-Profitability-Analysis) oder Kalkulationsläufen für die Produktion großer An-
lagen verarbeitet. Die Nachteile fehlender Echtzeit, doppelter Datenhaltung, komplizierter
Anpassungen von Schemata und davon abhängenden Benutzeroberflächen mussten zwangsläufig in Kauf genommen werden.
Dateibasierte Datenbanken – auch unter SAP – auf langsamen Datenträgern sind letztlich
der Grund für die fehlende Performance. Diese könnte zwar mit neuen Speichermedien wie Solid State Drives (SSD) verbessert werden, jedoch sind diese Lösungen noch nicht wirtschaftlich sinnvoll einsetzbar. Der Preis pro Speicherkapazität und ihre noch nicht ausgereifte Langzeitstabilität verhindern immer noch einen flächendeckenden kommerziellen Business-Einsatz. Darüber hinaus verhindern klassische Datenbanken mit zweidimensionalen Tabellen einen schnellen Datenzugriff – und dies trotz aller Bemühungen der Datenbankhersteller im Bereich der Indizierung, des Datenbank-Cachings und der Datenkompression.
Und hier kommt nun In-Memory-Computing ins Spiel.
Neue Chancen für das Business
Die Vorteile des In-Memory-Computings sind riesig. Begünstigt durch die technologische
Entwicklung günstigerer Rechnermodelle mit speziellen Intel-Prozessoren, Multi-Core-
Architekturen und RAM im Terabyte-Bereich lassen sich heute zu vergleichbar niedrigen
Preisen sehr große Datenmengen im Hauptspeicher vorhalten und verarbeiten. Der Datenzugriff auf einen Speicherblock im Arbeitsspeicher ist dabei rund 2.000-mal schneller als der auf einer klassischen Festplatte.
Ein weiteres sehr wichtiges Merkmal von SAP HANA ist die spaltenorientierte Ablage,
die einen ressourcen-schonenden – und damit schnelleren – Zugriff auf die Daten erlaubt und ebenso eine geniale Möglichkeit bietet, strukturierte Daten sehr hoch zu komprimieren.
Dort, wo das Business durch limitierende Faktoren in der Verarbeitungsgeschwindigkeit
von Daten nur eingeschränkt kreativ sein konnte, eröffnen sich mit dieser Technologie neue Perspektiven. Die Grenzen zwischen transaktionaler Welt und dem Reporting werden verschwinden. Und auch die Datenqualität und der Reichtum an Daten auf mobilen Geräten werden deutlich zunehmen, da die Barrieren zwischen serverseitig langsamem Computing und den Anforderungen an eine schnelle Visualisierung fallen werden. Bestehende und ganz neue Applikationen werden entstehen;; sie lassen sich viel benutzerfreundlicher entwickeln, wenn all diese Limitierungen gefallen sind. In anderen Worten: „Alle Daten, verfügbar jederzeit, in jeglicher Dimension und in jeder Aggregationsstufe und mit ganz wenigen Clicks“ – etwas, das wir uns alle schon lange gewünscht haben als eine Art „besseres Google“ für strukturierte und unstrukturierte Unternehmensdaten.
Dr. Rudolf Caspary, CTO REALTECH AG, Walldorf
No Comments Yet