Wie sie mit dem SAP HANA Datenbanksystem komplexe Analysen sehr großer Datenmengen durchführen
Mit Ihrer bestehenden Analytics Lösung können Sie bereits typische Fragestellungen beantworten, wie:
- Umschlagshäufigkeit und Bestandsreichweite für Artikel,
- Bestandsbewertung mit diversen Preisen,
- Simulation von Preisänderungen.
Können Sie diese Fragestellungen aber auch unter folgenden Randbedingungen beantworten:
- Berechnung auf maximal granularer Datenbasis?
- Zu beliebigen Stichtagen?
- Für alle Artikel und Betriebe gleichzeitig?
- Ohne Vorberechnung?
Mit dem Einsatz eines SAP HANA Datenbanksystems schaffen Sie die Grundlage für derartige Analysemöglichkeiten. Aber erst mit einer geschickten Nutzung der neu zur Verfügung gestellten technischen Möglichkeiten, lassen sich auch komplexe Analysen auf sehr großen Datenbeständen ohne Vorberechnung durchführen.
Die folgenden Projektbeispiele veranschaulichen das Potential:
Wie aber lassen sich Lösungen mit SAP BW auf einem HANA Datenbanksystem erstellen, die eine derartige Leistungsfähigkeit aufweisen?
Vor der Optimierung eines bestehenden Datenmodells sollte zunächst eine genaue Übersicht erstellt werden, aus der hervorgeht, an welcher Stelle im Datenfluss welche Businesslogik implementiert ist und wo überall Daten persistiert werden. Sie können diese Übersicht dann für den Abgleich mit der optimierten Lösung verwenden, um sicherzustellen, dass die Logik auch vollständig umgesetzt wurde.
Eine wesentliche Optimierungsoption besteht darin, alle unnötigen Datenziele zu entfernen und die Businesslogik in Objekten zu implementieren, die lediglich zur Ausführungszeit der Datenabfrage durchlaufen werden (z.B.: Calculation Views, Table Functions, Composite Provider). Sie sparen dadurch nicht nur teuren Speicherplatz ein, sondern reduzieren auch die Menge an Datenverarbeitungsjobs die i.d.R. nachts ausgeführt werden.
Eine Architektur, die sich bereits in vielen Projekten bewährt hat, speichert die eingehenden Daten zunächst unverfälscht mit allen Spalten in aDSO (advanced Data Store Objekt) -Objekten. In einer zweiten Schicht werden die für die Analysen notwendigen Spalten gespeichert, sowie alle berechneten / abgeleiteten Informationen. Dabei sollte die Granularität der Daten unbedingt erhalten bleiben und Sie sollten darauf achten, dass mit dieser Datenbasis auch alle Analyseanforderungen abgedeckt werden können. Die aDSO Objekte enthalten also in der Regel sehr viele Spalten aber auch sehr viele Datensätze. Für das Beispiel der Materialbestände würde dies bedeuten, dass in der Transformation in die zweite Schicht hinein aus Informationen wie der Bewegungsart, dem Bestandstyp, der Vorgangsart und anderen die zuständige Bestandskennzahl (Zugang / Abgang) gefüllt wird.
Mit diesem Architekturansatz erstellen Sie Datenmodelle, in denen Daten i.d.R. nur an zwei Stellen gespeichert werden: Dateneingangsschicht und Harmonisierungsschicht / EDW-Schicht. In einer Reportingschicht werden dann mit Hilfe von Composite Providern Strukturen geschaffen, auf denen letztlich die Definition von Queries erfolgt. Composite Provider speichern keine Daten, sie bieten aber die Möglichkeit über Calculation Views Logik auf die Basisdaten der Harmonisierungsschicht anzuwenden. Bei der Ausführung einer Query wird diese Logik also immer auf den aktuellsten Daten ausgeführt. Sollte es Änderungen an der Logik geben, reicht es bereits aus die betroffenen Calculation Views anzupassen. Eine Korrektur gespeicherter Daten mit den dazu erforderlichen Ressourcen ist also nicht notwendig.
Im zweiten Teil der Next Level Analytics Serie zeigen wir Ihnen, wie Sie auf Basis Ihres SAP HANA Datenbanksystems komplexe Analysen auf sehr großen Datenbeständen ohne Vorberechnung durchführen.