9.570.000.000.000.000.000.000 Bytes oder 9,57 Zettabyte Daten verarbeiteten die Enterprise-Server dieser Welt im Jahr 2008, wobei Zetta für eine Trilliarde steht. Und weil diese Zahl mit den 22 Stellen so schwer vorstellbar ist, wählten die drei Wissenschaftler vom Global Information Industry Center der University of California in San Diego (UCSD) eine Methode sie darzustellen, an der Gutenberg und Galileo ihre Freude gehabt hätten: Übersetzt man die digitale Information in Bücher mit einer Dicke von rund 4,8 Zentimetern, könnte man daraus einen 5,6 Milliarden Meilen hohen Bücherberg stapeln. Oder zwanzig Büchertürme von der Erde bis zum Neptun errichten.
Gelesen und verarbeitet haben diese enorme Menge an Informationen rund 27 Millionen Server auf der ganzen Welt, berichten die Forscher in ihrem Paper "How much information? 2010 Report on Enterprise Server Information".
2024 reicht der Bücherstapel bis Alpha Centauri
Den Datendurchsatz von Enterprise-Servern zu schätzen, ist ein kompliziertes Unterfangen. Die Wissenschaftler haben hierfür eine Vielzahl unterschiedlicher Quellen und Informationen zusammengetragen und ausgewertet, zum Beispiel Statistiken der Server-Industrie, Interviews mit IT-Experten und Verkaufszahlen von Serverherstellern. Die Methoden für Kalkulation und Schätzung erläutern sie in einem separaten Hintergrundpapier.
Auf Grundlage der zusammengetragenen Daten prognostizieren die Forscher auch, dass sich der Workload der Server etwa alle zwei Jahre verdoppelt. Denkt man den virtuellen Bücherstapel weiter, würde er bis zum Jahr 2024 unser Sonnensystem verlassen und bis zum 4,37 Lichtjahre entfernten Sternsystem Alpha Centauri reichen.
Täglich 12 Gigabyte Daten pro Arbeitnehmer
Auf jeden der weltweit 3,18 Milliarden Arbeitnehmer strömen jährlich rund 3,01 Terabyte oder täglich 12 Gigabyte an Daten ein. Und auf jedes der weltweit 151 Millionen registrierten Unternehmen kommen jährlich 63,4 Terabyte an Daten zu, die verarbeitet werden wollen.
"Der größte Teil dieser Informationen ist unglaublich flüchtig", beruhigt Roger Bohn, Studienautor und Professor für Technologie-Management. "Sie werden innerhalb weniger Sekunden erstellt, verarbeitet und wieder verworfen, ohne dass sie je ein Mensch zu Gesicht bekommt. Sie sind der Rumpf eines Eisbergs, der unter Wasser liegt"
Archivieren und Aufbewahren ist die neue Herausforderung
Dennoch wird es laut der Studienautoren für Unternehmen immer wichtiger, mit diesen riesigen Datenmengen umzugehen - einer Herausforderung, der sie mit Cloud Computing und Green IT begegnen.
Die Wettbewerbsfähigkeit von Unternehmen würde in Zukunft aber auch immer stärker davon abhängen, ob sie es schaffen, den Anwender mit innovativen Suchtechnologien durch die Datenmassen zu geleiten. Und schließlich müssen sich Forschung und Industrie mit dem gleichen Eifer der sinnvollen Datenarchivierung und -konservierung widmen, den sie bisher Erzeugen und Verarbeiten von Daten entgegengebracht haben.