Nein, Angst möchte Roger Sessions nun wirklich nicht verbreiten. Der CTO des US-amerikanischen Beratungshauses ObjectWatch weist dennoch darauf hin, dass Unternehmen weltweit und Monat für Monat angeblich rund 350 Milliarden Euro allein durch IT-Fehler verbrennen. Woher der Experte die Zahl hat, verschweigt er, und auf einen genauen Betrag möchte er sich auch nicht festlegen lassen. "Allein die Größenordnung ist das, was tatsächlich wichtig ist".
Als ob das noch nicht bedrohlich genug klänge, stellt Sessions in einem Whitepaper über die Komplexität moderner IT-Systeme weiter fest, dass die Probleme zunähmen. "Wenn sich der Trend fortsetzt, werden wir innerhalb der nächsten fünf Jahre einen totalen Zusammenbruch der IT erleben."
Aber da auch für den Experten eine Krise zugleich eine Chance ist, sind die Aussichten gut, die hohen Ausfallkosten zu vermeiden. "Das Problem ist lösbar", meint Sessions und fabuliert fix darüber, was man mit dem vielen Geld machen könnte: die Umwelt schützen oder wohltätige Organisationen unterstützen. Mindestens aber könnte man das gesparte Geld dafür verwenden, das eigene Unternehmen profitabler zu machen - Steigerungsraten von 25 Prozent und mehr seien möglich, so Roger Sessions.
Dazu kämen geldwerte Vorteile, die nicht direkt in den Bilanzen auftauchten: geringere Aufwendungen für die Beschaffung, mehr Kapazitäten für zusätzliche Projekte, verbesserte Agilität der Organisation, stärkere Vernetzung der Systeme.
Aber gibt es eine Hauptursache für diese hohen Ausfallkosten? Einen Hinweis darauf findet Roger Sessions in der wachsenden Zahl der Ausfälle. Allein der Anteil "gefährdeter IT-Projekte" habe in den vergangenen Jahren von 30 auf 43 Prozent zugenommen. Manche machen die schlechte Kommunikation zwischen Business und IT für das wachsende Risiko verantwortlich. Das sei zwar auch ein Faktor, räumt Sessions ein, aber es gebe keine Anzeichen dafür, dass sich das in den vergangenen Jahren nennenswert verschärft habe. Auch die gewachsene Funktionalität der Lösungen sei nicht das Problem, denn die Fehlerrate steige stärker, als der Funktionsumfang.
Komplexität der IT-Systeme sorgt für hohe Ausfallkosten
Tatsächlich, so der CTO von ObjectWatch, sei die zunehmende Komplexität der IT-Infrastruktur Schuld an den steil ansteigenden Ausfallkosten. Hier gebe es eine direkte Verbindung zum gewachsenen Funktionsumfang: Steigt der um 25 Prozent, bedeute das für die Komplexität der Systeme ein Plus von gleich 100 Prozent. Die Komplexität steige mit der Funktionalität, sinke, wenn die Funktionalitäten aufgeteilt würden und steige erneut mit der Vernetzung der zuvor partitionierten Systeme.
Je komplexer aber ein System ist, argumentiert Sessions, umso schwieriger und kostenintensiver sei die Arbeit mit diesem System. Die Probleme bei der Wartung hingen dabei weniger vom bloßen Funktionsumfang als davon ab, wie diese Funktionalität organisiert ist.
Wenn Komplexität aber das Problem ist, liegt die Lösung auf der Hand: Einfachheit. "Wir sind nicht gut darin, hochkomplexe Systeme zu gestalten", resümiert Roger Sessions. "Was wir wirklich gut machen, ist das Aufsetzen einfacher Systeme."
Was so leicht daherkommt, sei tatsächlich aber selbst ein komplexes Unterfangen, so Sessions, zu dem Commitments, Schulungen und veränderte Prozesse gehörten.
Dabei könnte es so einfach sein: Alles, was man tun muss, ist vor der Einführung eines Systems die Komplexität zu messen. Ist sie zu hoch, macht man einfach was anderes. Dazu präsentiert Sessions in dem Whitepaper sogar Formeln, die sich an Robert L. Glass orientieren. Das Messen der Komplexität sei aber nur Teil der Lösung, meint Sessions. Das Ziel sollte es vielmehr sein, die am wenigsten komplexe Infrastruktur zu schaffen, die das zugrunde liegende Business-Problem zu lösen in der Lage ist. Die Formeln lieferten dafür aber keine ausreichenden Antworten. Vielmehr gehe es darum, die optimale Balance zwischen Komplexität und Funktionalität zu finden.
Die Lösung: Simple Iterative Partitions (SIP)
Dieses Unterfangen heißt im Sessions’schen Whitepaper "Simple Iterative Partitions (SIP)". SIP meint einen Prozess, der dem eigentlichen Projekt-Design vorgeschaltet wird und bei dem die Business-Funktionen so auf Sub-Systeme aufgeteilt werden, dass am Ende eine möglichst geringe Komplexität steht. Die iterative Annäherung an den optimalen Komplexitätsgrad erfolgt dabei in fünf Schritten: "Preparation", "Partitioning", "Simplification", "Priorization" und "Delivery".
Dabei wird ein System zunächst in eine Sammlung von einfachen Business-Funktionen aufgespaltet. Diese Funktionen werden anschließend analysiert und auf verschiedene synergetische Subsysteme verteilt. Diese "Subsets" werden dann wie Subsysteme oder Unterprojekte behandelt und fungieren in Service-orientierten Architekturen dann als simple Services.
Solcherart gestaltete Systeme, rechnet Roger Sessions vor, nehmen nur 35 Prozent der Komplexität herkömmlich aufgesetzter Architekturen ein und müssten dementsprechend auch nur ein rundes Drittel kosten. Ob das wirklich so ist, lässt der Analyst am Ende offen. Sicher sei nur, dass es in der Anschaffung und der Wartung billiger ist.
Löst das nun alle Systemprobleme? Leider nein, meint der Experte. Vielmehr gebe es jenseits von Zahlen und Fakten noch Hindernisse, die dem SIP-Konzept in die Parade fahren. Dazu gehörten die Angst davor, neue Prozesse und Konzepte zu verwenden, eine Vielzahl von Anbietern zu managen, die für kleine Teillösungen stehen, oder auch die Sorge um Unternehmensstrukturen, die solchen Versuchen oft entgegenstünden. Am besten begegne man diesen Ängsten und Sorgen mit kleinen Projekten am Anfang, versuche seine Vorgesetzten vom neuen Weg zu überzeugen und praktiziere das Konzept in einem überschaubaren Rahmen. Wer SIP erst einmal im Kleinen erfolgreich praktiziere, könne dann damit auch in größeren Projekten arbeiten. "Wenn Sie so weit kommen, wird niemand mehr auf den alten Weg zurückkehren wollen", resümiert Roger Sessions.