Mit den wirtschaftlichen, politischen und technischen Veränderungen der vergangenen Jahre kristallisierten sich im ITK-Sektor zwei grundlegende Trends heraus. Zum einen rücken nach dem Flop der "New Economy" Bestrebungen nach mehr Effizienz in den Fokus der Entscheider. Zum andern haben Terroranschläge und zunehmende Web-Attacken den Sicherheitsaspekt nachdrücklich betont. Es geht hierbei sowohl um die Zuverlässigkeit der Prozesse als auch um die Vertraulichkeit und Integrität der Daten. Allein im Mai 2004 kursierten im Internet 1.000 neue Viren. Daneben stieg die Zahl betrügerischer Phishing-Mails (Phishing: Kunstwort aus "Passwort" und "Fishing") innerhalb von zwölf Monaten allein in Deutschland von 300 auf 200.000 an. Der Schutz vor Spionage und Zerstörung ist eine weitere wichtige Facette der IT-Sicherheit.
Die Deutsche Bank Reasearch weist darauf hin, dass die beiden Trends Effizienz und Sicherheit nicht zwangsläufig gleichgerichtet sind. Zumindest kurzfristig kann das Streben nach Effizienz (zum Beispiel Kostenreduktion um jeden Preis) Sicherheitsanforderungen zuwider laufen. Aus den beiden Trends leiten sich nach Auffassung der Deutsche Bank Research zehn innovative ITK-Produkte und -Prozesse ab:
VoIP reflektiert eindeutig den Trend nach Effizienz. Es konnte sich bislang in Deutschland nicht durchsetzen, unter anderem wegen der schlechten Sprachqualität. So erklärt sich, dass derzeit nur zwei Prozent des gesamten Minutenaufkommens der Telefonate auf die 300.000 angemeldeten VoIP-Anschlüsse entfallen. Doch nun sollen verbesserte Sprachqualität und bis zu 90 Prozent günstigere Tarife den Durchbruch bringen. Eine große Kostendifferenz existiert aber nur bei Auslandsgesprächen zur Hauptzeit. In anderen Fällen unterscheiden sich die Tarife nur um wenige Cent. Daher lohnt sich VoIP bislang nur für Großunternehmen mit über den Globus verstreuten Standorten. Fazit: Die Deutsche Bank Research bezweifelt, dass VoIP als allein stehende Offerte außerhalb eines Servicepakets des Providers ein großes Marktpotenzial besitzt.
Bei den drahtlosen Technologien wie UMTS und WLAN hofft vor allem der Außendienst, Breitbanddienste wie umfassende Datenbanken bequemer als bisher über mobile Endgeräte nutzen zu können. Doch fällt den Unternehmen die Integration mobiler Lösungen in bestehende IT-Strukturen schwer. Hemmschuh für die stärkere Verbreitung von WLAN bleibt die geringe Zellgröße von maximal 500 Meter. Auch die uneinheitlichen Tarifmodelle (Insellösungen) der konkurrierenden WLAN-Betreiber schränken die Marktmöglichkeiten dieser Technik ein. Bis Ende dieses Jahrzehnts soll mit der Wimax-Technologie eine verbesserte Version (bis zu 50 km Zellgröße, Bandbreite 70 Megabit pro Sekunde) zur Verfügung stehen.
Die Quantenkryptografie betrifft den vertraulichen Datentransfer und die Authentifizierung der Geschäftspartner. Diese Methode bricht aus dem kostenintensiven Wettlauf um die gerade sicherste mathematische Codierung aus. Statt einer solchen nutzt sie Quantenzustände von Mikropartikeln. Ein Lauschangriff würde den Quantenzustand aus physikalischen Gründen zwangsläufig verändern und die Attacke sofort bloßstellen. Derzeit hadert diese Technik noch mit Problemen bei der Übermittlung von Daten über lange Distanzen. Prototypische Anwender sind das Finanz- und Versicherungsgewerbe.
Der Biometrie sagt die Deutsche Bank Research ein enormes Potenzial voraus. Nach den Terroranschlägen der vergangenen Jahre und der zunehmenden organisierten Kriminalität nach Beseitigung des eisernen Vorhangs erlebte diese Technik einen starken Aufschwung. Betrug das Volumen des Weltmarkts 2002 noch 150 Millionen Euro, wird er laut einer Studie der Deutsche Bank Research im Jahr 2010 sechs Milliarden Euro umfassen. Entscheider der Privatwirtschaft und noch mehr der Behörden haben die Biometrie längste als relevante Sicherheitstechnologie erkannt.
Im Bereich der Softwareentwicklung schreitet das automatisiertes Programmieren nach Vorgaben der SOA voran. Konkret setzen Automatisierung und Standardisierung hier bei der kostenintensiven Fehlerhäufigkeit der Programmierung an. Die aus solchen Fehlern resultierenden Produktionsausfälle belaufen sich allein in den USA pro Jahr auf 50 Milliarden Euro. Laut der Deutsche Bank Research wird das architektur-basierte Programmieren den IT-Markt fundamental verändern. Der Ansatz wird in Pilotprojekten längst erprobt. Die Entwicklungszeit konnte um die Hälfte, die Fehlerrate um fünf Sechstel gesenkt werden.
Die exorbitant wachsende Datenflut macht innovative Konzepte der Datenspeicherung nötig. Allein die Server der Deutschen Bank verarbeiten täglich fünf Millionen E-Mails. Anwender bevorzugen das Konzept des zentralen Verwaltens dezentraler Speicher, wie es durch das Information Lifecycle Management (ILM) vertreten wird. 90 Prozent der deutschen Unternehmen erkennen in ILM den Königsweg bei der Nutzung der Konzernressourcen (Umfrage von Ernst & Young). Jede fünfte deutsche Firma steht unmittelbar vor der ILM-Einführung. ILM ist ein Beispiel für Effizienzsteigerung bei gleichzeitig verbesserter Sicherheit. Denn ein zentraler Systemadministrator kann die Sicherheitsmaßnahmen einheitlicher koordinieren.
Beim Grid-Computing geht es um die komplexere Aufgabe der Datenverarbeitung mittels dezentraler IT-Netzwerke. Berühmtestes Beispiel für ein Grid-Netzwerk ist das Seti-Projekt, das den Weltraum nach Zeichen außerirdischen Lebens absucht. Zu ihm gehören fünf Millionen PCs in 226 Ländern. Grid-Computing fasst zahlreiche IT-Einheiten zu einer großen Rechnerkapazität zusammen. Es eignen sich nur solche Prozesse, die stark standardisierbar und nicht sicherheitsrelevant sind. Die EU-Kommission hat in einem Rahmenprogramm 58 Millionen Euro in Grid-Computing investiert. Bei großen Softwarehäusern wächst das Interesse. Dennoch stuft die Deutsche Bank Research die kommerziellen Chancen von Grid-Computing als gering ein. Die für 2005 prognostizierten weltweiten Umsätze von knapp vier Milliarden Euro (Vorhersage Grid Technology Partners) seien bescheiden und dazu noch zu optimistisch.
Auch Open-Source-Anwendungen verfolgen einen dezentralen Ansatz. Sie kommen zumeist im Serverbetrieb zum Einsatz. Doch auch bei Desktop-Applikationen und -Betriebssystemen sowie im Embedded-Bereich sind Linux-Derivate gefragt. Die Kostenvorteile (keine Lizenzgebühren) werden teils durch Supportbedarf aufgehoben. Der Sicherheitsaspekt und tatsächliche Kostenvorteil werden kontrovers diskutiert. Gut im Rennen liegt Open Source bei öffentlichen Verwaltungen. Bis Ende dieser Dekade wird hier die IT-Architektur überwiegend auf Open Source basieren. Auch in den Unternehmen wächst das Vertrauen. Integrierte 2003 erst jedes siebte Unternehmen Open-Source-Software, stellt heute bereits jedes sechste einen Etat bereit. Open Source hebt wegen geringerer Kosten die Effizienz. Wegen des dezentralen Ansatzes vermuten Anwender jedoch Sicherheitsprobleme. Die würden sich jedoch durch die zunehmende Verbreitung zerstreuen, so die Deutsche Bank Research.
Beim Outsourcing geht es darum, die Fixkosten zu senken. Insbesondere Großunternehmen realisieren aufgrund von Größen- und Spezialisierungsvorteilen beachtliche Einsparpotenziale. Outsourcing kommt vor allem dann in Frage, wenn der auszulagernde Geschäftsvorgang stark standardisiert ist. Ein Nachteil von Outsourcing ist ein Kontrollverlust über Teile des Gesamtprozesses. Die Befürchtungen aufgrund verminderter Sicherheit und Qualität seien meist unbegründet, so die Deutsche Bank Research.
Das Funketikett RFID (Radio Frequency Identification Transponder) haftet Waren einen Datenschatten an und verbessert den Informationsfluss entlang der Wertschöpfungskette. In einem 550-Millionen-Euro-Pilotversuch bei VW konnte die Lagerabwicklungszeit um das 20fache gesenkt werden. Der Zeitaufwand für Ersatzbeschaffung ging um ein Fünftel, der Schwund um ein Drittel zurück. Weitere Großprojekte in Bibliotheken der Wiener Hauptbücherei und des Vatikans verliefen ähnlich erfolgreich. Die Buch-Inventur, die zuvor einen Monat beanspruchte, ist mit RFID an einem halben Tag zu erledigen. Die Praxistests zeigen aber auch, dass RFID nicht als billige Standardlösung zu haben ist. Die Funketiketten müssen auf den jeweiligen Prozess konfiguriert werden. Der Erfolg von RFID im Massenmarkt hängt stark von der Preisentwicklung bei den Chips ab. Allein im US-amerikanischen Einzelhandel dürfte der RFID-Markt bis 2010 auf das 15fache (zwei Milliarden Euro) anwachsen. In Europa rechnet die Deutsche Bank Research im gleichen Zeitraum mit einer Verzehnfachung des Marktvolumens auf vier Milliarden Euro.
Weitere Meldungen:
Strategisches IT-Management – die Effizienz nachhaltig steigern
Trends im IT-Outsourcing
Sicherheit unter "ferner liefen" bei IT-Chefs
Bücher zum Thema:
Chefsache IT-Kosten
IT-Projekte strukturiert realisieren
Studie zum Thema: