Performance-Explosion durch In-Memory
42 Sekunden statt 75 Minuten
In-Memory Computing ist ein Thema, das CIOs schnell fasziniert – oft im Gegensatz zu Big Data. Dabei sind die beiden verschwistert, vielleicht sogar nur zwei Gestalten eines Phänomen: Big Data die unscheinbare Raupe, In-Memory Computing der schillernde Schmetterling. Hält die Technologie aber, was sie verspricht? Aber ja, sagt eine Studie von Aberdeen.
Wie Aberdeen-Analyst Nathaniel Rowe deutlich macht, bringt In-Memory Computing den Anwendern frappierende Performance-Vorteile, die von höchstem geschäftlichem Nutzen sind. Basis dieser Erkenntnis sind mehrere Aberdeen-Erhebungen, wichtigster Ausgangspunkt darunter ist eine Big Data-Studie vom Jahresbeginn. Um die schiere Zauberkraft von In-Memory zu erahnen, muss man dabei erst einmal einen zirkelschlussartigen Gedanken verstehen.
Aberdeen unterscheidet wie stets zwischen Klassenbesten, Durchschnitt und Hinterbänklern. Die Klassenbesten – in der raschen Nutzbarmachung hochwertiger Daten für geschäftliche Zwecke führende Firmen – leiden zu 76 Prozent an einem Problem, das nicht einmal für jeden vierten Nachzügler relevant ist: ein als zu schnell erlebtes Wachstum der Mengen zu verarbeitender Daten.
Zauberhaft und zirkelartig erscheint nun, dass diese Unbill in Wahrheit ein echter Segen zu sein scheint: ein Problem, dass zu seiner Lösung zwingt und dadurch automatisch auf eine höhere Performance-Stufe führt. Mit einigen Zahlen unterfüttert beschreibt Rowe nämlich folgendes Phänomen: Die Klassenbesten leiden unter der Daten so arg, dass Echtzeit-Datenanalyse quasi unumgänglich wird; deshalb kommt dort verstärkt In-Memory Computing zum Einsatz, was neben der Lösung des eigentlichen Problems eine Reihe weiterer Vorzüge mit sich bringt.