SAP Hana, In Memory, Hadoop & Co.
Big Data im Praxistest
Eines kann man sicherlich nicht abstreiten: Die Datenberge wachsen selbst in Krisenzeiten in den Rechenzentren rund um den Globus. Peta- und Zettabytes von digitalisierten Informationen überfordern die Vorstellungskraft, und manche sprechen bereits vom unendlichen Universum an Daten.
Es handelt sich um klassische Produkt-, Personen- oder Kundendaten, gespeichert in herkömmlichen relationalen Datenbanken, und dazu kommen als unstrukturierte Informationen zum Beispiel Texte, Musik, Fotos oder Videos. Zunehmend deponieren die Menschen auch ihre privaten Daten irgendwo und unsystematisch in sozialen Netzwerken oder in Cloud-Angeboten.
Von dieser Situation profitieren die Hersteller von Speichergeräten aller Größenordnungen, selbst das Servergeschäft blüht in den Zeiten von VirtualisierungVirtualisierung. Aber der Appetit vieler Anbieter ist größer. Noch ist der Hype rund um Private, Public oder hybride Cloud-Services gar nicht so richtig bei den Anwendern angekommen, da wird schon die nächste Welle angeschoben: "Big Data" heißt das neue Zaubermittel, mit dem die Datenfluten produktiv gemacht werden sollen. Alles zu Virtualisierung auf CIO.de
Bedarf noch ungeklärt
Kleines Problem dabei: Noch wissen viele Unternehmen gar nicht, dass sie einen Bedarf an Durchforstung und Analyse ihrer so dramatisch gewachsenen Datenberge haben sollen. Zudem setzen einige von ihnen schon seit Langem Tools wie Data Warehouses oder Business Intelligence (BI) ein. Allerdings galt das nur in begrenztem Umfang für unstrukturierte, nicht in SQL-Datenbanken erfasste digitale Informationen.