Manches hoffnungsvolles Projekt für Business Intelligence (BI) und Performance Management entpuppt sich als hinterher Flopp, weil die Systemleistung nicht mehr den Anforderungen der Endanwender mithalten kann.
So klagten im vergangenen Jahr 16 Prozent der Unternehmensvertreter in der internationalen Anwenderbefragung "BI Survey 9" des Business Application Research Center (BARC) über Probleme bei der Abfrageperformance - Platz Zwei nach der von 19 Prozent genannten mangelnden Datenqualität. Damit bestätigte die Umfrage Studien aus früheren Jahren, welche die Systemleistung ebenfalls als neuralgischen Punkt schlechthin bei BI bezeichnet hatten.
Abfrage und Datenextraktion
Genauer gesagt sind es zwei Aspekte, welche die Leistung von BI-Lösungen beeinflussen: die Abfrage- und die Ladeperformance. Mit Abfrageperformance sind Antwortzeit und -geschwindigkeit gemeint, also die Zeitspanne zwischen dem Absenden einer Abfrage und der vollständigen Aufbereitung der Ergebnisse für den Anwender. Die Ladeperformance bezeichnet die Laufzeit von der Datenextraktion aus Vorsystemen bis zur Bereitstellung der Daten im BI-System. Beide Leistungsarten hängen zusammen, da die Ladeperformance auch die Abfragegeschwindigkeit beeinflusst.
Problem 1: Datenflut
Laut BARC gebe es vor allem zwei Entwicklungen, die in der Praxis manches BI-Vorhaben leistungsmäßig unerwartet in die Knie zwingen. So wollten Unternehmen zum einen immer größere Datenmengen auf deren Relevanz hin filtern, wodurch die Komplexität von BI-Systemen steige. Die Entwicklung und Anpassung der entsprechenden Software- und Hardwaretechnologie könne mit den steigenden Anforderungen kaum Schritt halten, wodurch sich das Performance-Problem weiter verschärfe (mehr zum Thema Datenmanagement finden Sie hier).
Problem 2: Steigende Ansprüche der Nutzer
Zum anderen steigen die Ansprüche der BI-Anwender. Wer beispielsweise als Google-User daran gewöhnt ist, auf Suchabfragen postwendend Ergebnisse zu erhalten, legt diesen Maßstab auch an Datenbanken im Unternehmen an. Spürbare Wartezeiten werden von den Anwendern kaum noch toleriert (ebenso fehlender Bedienkomfort).
Nach Einschätzung von BARC führt das dazu, dass im Falle schlechter Performance die BI-Applikationen schlicht nicht mehr genutzt werden - mögen sie auch für noch so viel Geld angeschafft worden sein. Die Folge seien abteilungsspezifische Datenerhaltungs- und Auswertungssysteme und letztlich oft ein Wildwuchs an Datensilos auf Excel-Basis.
Verantwortliche von Business-Intelligence-Projekten sollten daher bei der Anforderungsanalyse das Leistungsprofil der geplanten Anwendung genau erfassen. Dabei sind laut BARC grundsätzlich sieben Performance-Faktoren zu berücksichtigen:
Sieben Performance-Faktoren
Insgesamt sieben Faktoren beeinflussen laut BARC die Leistung der künftigen Systemarchitektur und sollten vor der Investition in Software und Hardware für Business Intelligence stets beachtet werden:
-
Die eingesetzten Softwaretechniken - Datenbanken, BI-Applikationen und Integrations-Tools - müssen zusammenpassen.
-
Je heterogener ein BI-System, umso komplexer ist es in aller Regel. Mit steigender Komplexität sinkt jedoch meist die Performance. Darum sollten Unternehmen IT-Landschaften mit vielen unterschiedlichen Datenspeichern, Integrationsprozessen und Werkzeugen möglichst rasch konsolidieren (sowieso tendieren immer mehr Unternehmen dazu, ihre BI-Vorhaben organisatorisch sauber aufzusetzen, beispielsweise in einem BICC).
-
Die Hardware ist in Sachen Leistung ein entscheidender Faktor. Steigern lässt sich die Performance durch Architekturen wie Symmetric-Multi-Processing (SMP) oder Massive-Parallel-Processing (MPP).
-
Sobald die Hardware-Performance durch schnelle Prozessoren und mehr Arbeitsspeicher gesteigert wird, droht der Zugriff auf die Festplatten zur Engstelle im System zu werden. BARC empfiehlt, auf intelligente Kompressions- und Caching-Mechanismen zu setzen. Solid-State-Drives (SSDs) auf Flash-Speicher-Basis etwa können die Leistung erhöhen - aber nur dann, wenn die Datenbank auf die SSD-Speichertechnik optimiert ist.
-
In der immensen Datenflut gehen wichtige Informationen oft unter. Funktionen wie Indizierung und Aggregate helfen, relevante von unwichtigen Daten zu scheiden.
-
Die Data-Warehouse-Architektur beeinflusst ebenfalls direkt die Performance, weil sie die Informationsflüsse im Unternehmen bestimmt. Ob ein zentrales Enterprise Data Warehouse (EDW), abhängige oder unabhängige Marts, föderierte Data Warehouses oder Mischarchitekturen adäquat sind, hängt indes von den jeweiligen Gegebenheiten im Unternehmen ab.
-
Die Datenmodelle, die verschiedenen Applikationen zu Grunde liegen, wirken sich auch auf Erweiterbarkeit, Flexibilität und Performance aus. Laut BARC eignen sich für die analytische Informationsverarbeitung vor allem dimensionale Modellierungsansätze sowie die Modellierung von multidimensionalen Würfeln.
Trügerische Benchmarks für BI
BARC empfiehlt, in Frage kommende Produkte mit eigenen Daten in authentischem IT-Umfeld zu testen, statt sich allein auf die von den Herstellern kommunizierten Benchmarks zu stützen. Denn nicht immer entsprächen die Benchmark-Szenarien den Verhältnissen in der eigenen Firma. Hilfreich kann es zudem sein, Kontakt zu den Referenzkunden der Hersteller zu suchen. Denn diese wüßten aus eigener Erfahrung Bescheid, ob und wie sich die besagten BI-Systeme in der Praxis tatsächlich bewährt haben.
Quelle: CFOworld