Es gibt Client-Server-Applikationen und Webanwendungen, das Netzwerk samt aktiver und passiver Baugruppen, die Firewall, den Web- und Applikations-Server und schließlich die Datenbank im Backend: „Die Komplexität moderner IT-Systeme wächst ständig“, bemerkt Stephen Elliot, Research Manager bei IDC: „Heterogene Umgebungen setzen sich heute aus selbst entwickelten Applikationen und Standardsoftware verschiedener Hersteller zusammen.“ Das korrekte Zusammenspiel im Gesamtsystem wird somit für das Endresultat immer mehr zum Entscheidungsfaktor. Und da die Verarbeitung in der Kette immer nacheinander vonstatten geht, also seriell ist, addieren sich die Einzelzeiten zu einer Gesamtantwortzeit. Das langsamste Glied in der Kette bremst die schnellen aus.
Ein neues Verständnis muss her – fordert die Yankee Group: Ein gutes Applikations-Management muss demnach die Benutzererfahrung in der End-to-End-Beziehung umfassen und gleichzeitig die Abhängigkeiten zwischen der IT-Infastruktur und den Geschäftprozessen erkennen. Thomas Mendl, Analyst von Forrester Research, meint deshalb: „Es genügt nicht, die Server am Laufen zu halten. Was zählt, ist die Erfahrung des Benutzers mit dem System.“
Bei Leistungsengpässen oder gar Totalausfall ist es für den Anwender unerheblich, ob die Ursache dafür eine fehlerhafte Netzwerkverbindung oder die Überlastung von Server-Systemen ist. Gefordert ist daher die Überwachung des gesamten Prozesses.
Neue Konkurrenz für Nischenanbieter
„Nur ein Bruchteil der Probleme ist allein auf das Netzwerk zurückzuführen“, stellt Veiko Graeveling fest, der bei der Deutschen Post AG in der Abteilung IT-Service-Management für das Performance-Management von Anwendungen im Unternehmensbereich Brief verantwortlich ist. „Bis zu 90 Prozent der Probleme beruhen auf dem Kommunikationsverhalten der Anwendungen oder auf Kombinationen aus mehreren Faktoren.“ Besonders in komplexen Multi-Tier-Umgebungen gebe es für das Symptom „mangelhafte Antwortzeiten“ eine unübersehbare Fülle von möglichen Ursachen, wie etwa Abstimmung der Applikationen im Zeitverhalten. Zur Überwachung der Applikationen setzt die Deutsche Post AG nun auf die Software „IT Guru“ des US-Spezialisten Opnet Technologies.
Das Genre der Perfomance-Überwachung kann dem System-Management zugeschlagen werden. Dennoch wurde es ursprünglich von den Marktführern in dem Segment wenig beachtet. Dazu zählt der Senior-Research-Analyst der Butler Group Michael Atzoff Firmen wie IBM, Computer Associates (CA), BMC oder Hewlett-Packard (HP). „Dies war eine Chance für ursprüngliche Nischenanbieter oder Newcomer, sich hier zu profilieren“, stellt Butler-Mann Azoff fest. Dazu gehören Performance-Management-Spezialisten wie Mercury, Compuware, Wily und Network General. Doch inzwischen haben die Marktführer im Service-Management die wachsende Bedeutung dieses Segments erkannt. HP hat sich mit seinem Produkt Openview bereits gut im Markt etabliert. Andere haben sich durch Akquisitionen von kleinen spezialisierten Unternehmen wichtiges Wissen eingekauft und so entscheidend verstärkt: CA hat mit Wily einen Tool-Hersteller übernommen, der vor allem im Java-Umfeld punkten kann, und mit Niku Systems hat sich der Softwareanbieter zudem in Richtung Portfolio-Management erweitert.
– BMC wiederum hat sich Identify Software einverleibt, ein Unternehmen, das sich um die End-to-End-Überwachung mit Ursachenforschung für Engpässe verdient gemacht hat
– IBM hat, beginnend mit Candle, gleich mehrere Unternehmen im Segment der Applikationsüberwachung
übernommen.
Bedarf an Analyse-Tools steigt
Auch kleinere Unternehmen versuchen, in diesem Markt weiter aufzusteigen, wie das Beispiel Citrix zeigt: Für Server-basierende Computing-Umgebungen, wie etwa den Citrix Presentation Server, hat Citrix kürzlich das Unternehmen Reflectent akquiriert und liefert nun mit dem Produkt EdgeSight eine Plattform zur Überwachung von Citrix-Präsentationen, Server-Installationen mit End-to-End Monitoring und der Möglichkeit, Engpässe in Citrix-Umgebungen in Echtzeit zu überwachen.
Klar ist: Der Bedarf an Analyse-Tools steigt. Und der CIO muss sich klar werden, wie er an die Überwachung seiner Systeme herangeht. Dabei existieren zwei prinzipiell unterschiedliche Ansätze: Top-down und Bottom-up. Für das Management wird neben der Verfügbarkeit eines Geschäftsprozesses auch der Gesamtdurchsatz von Daten von großem Interesse sein: Eine Übersicht darüber bieten etwa Dashboards (Top-down). Gleichzeitig muss allerdings auch beim Top-down-Verfahren die Möglichkeit bestehen, bei Bedarf tiefer in die technische Implementierung der einzelnen Komponenten nach den Ursachen bei Fehlverhalten zu forschen und von der technischen Seite einzelner Komponenten Detailprobleme ausfindig zu machen (Bottom-up).
Eindeutig für den Top-down-Ansatz spricht sich Rick Sturm, President der Unternehmensberatung Enterprise Management Associates, aus. Er gibt zu bedenken: „Bottom-up-Ansätze im ITSM (IT Service Management) scheitern häufig, weil sie sich allein darauf stützen, den Erfolg der IT innerhalb der Grenzen der IT-Abteilung zu messen.“ Das heißt: Da die Zuordnung der IT zu den Geschäftsprozessen beim Bottom-up-Ansatz nicht oder nur wenig ausgeprägt ist, kann sie nicht bewertet werden.
Der Top-down-Ansatz bietet einen komprimierten Blick auf die Prozesse. In Ampelfarben bekommt der CIO Indizien für Schwachstellen in der IT-Infrastruktur auf den Bildschirm. Häufig stellen sie auch Wechselwirkungen der Komponenten und der IT-Struktur auf die Geschäftsprozesse dar. Fällt eine IT-Baugruppe aus, so wechselt der davon betroffene Prozess seine Farbe. Durch die Korrelation der Ereignisse, untermauert durch historische Daten, wollen die Werkzeuge Engpässe durch die Predictive Analysis frühzeitig aufspüren. Die hierbei gefundenen Informationen dienen häufig auch als Grundlage für die Kapazitätsplanung.
Dashboards bei CIOs hoch im Kurs
Angeboten werden diese Dashboards von den etablierten Herstellern der Überwachungs-Tools. CA hat dafür seinen Change Impact Analyzer, BMC den Business Impact Manager und IBM/Tivoli den Tivoli Business System Monitor (TBSM). Integriert werden können diese Überwachungs-Tools meist auch in die zentralen Verwaltungskonsolen von HP (Openview), IBM (Tivoli), CA (Unicenter) oder BMC (Patrol).
Einen viel versprechenden Ansatz verfolgt hier auch Microsoft mit der Dynamic System Initative (DSI). DSI soll dafür sorgen, dass der komplette IT-Betrieb vorab modelliert werden kann und die einzelnen Variablen dann bereits bei der Programmerstellung und beim Test einfließen – und nicht erst im Anschluss an die Implementierung. Dazu gehören beispielsweise Servicevereinbarungen (SLA), aber auch Laufzeitparameter wie Betriebssystemversionen, Benutzeranzahl oder Reaktionszeiten. Aus den Modellen wird dann zur Laufzeit der Idealzustand abgeleitet. Dieses als „Desired-State-Management“ bezeichnete Verfahren beschreibt somit den Sollzustand des Gesamtsystems. Überwacht und kontrolliert wird der Systemzustand durch die eigenen Tools des System Centers.
Geeignete Technik für Engpässe
Um die Leistung der Applikationen in seiner Gesamtheit zu messen, werden die Systeme ferner aus der Sicht des Benutzers nachgebildet (Bottom-up). Diese End-to-End-Betrachtungsweise basiert auf der Auswertung der Antwortzeiten. Technisch ist das nicht aufwändig, sondern das Einmaleins des Performance-Managements: Vergleichbar mit einer Stoppuhr messen die Werkzeuge die Zeit zwischen der Freigabe einer Bearbeitungsmaske oder dem Formulieren einer Anfrage bis hin zur Antwort. Ist die Antwortzeit zu lang, muss optimiert werden. Dazu werden Tests gemacht, die Applikationen auf ihr Lastverhalten untersuchen und die maximal mögliche Last ermitteln (siehe Kasten „Leistung optimieren“).
Um die gefundenen Engpässe zu beheben, stellen die Hersteller der Entwicklungswerkzeuge meist eigene Hilfen bereit. Die Tools, meist als Performance Analyzer oder Profiler bezeichnet, überwachen einzelne Anwendungen in Hinblick auf Durchsatz und Antwortzeit und liefern damit ein Profil über das Laufzeit- und Antwortverhalten. Zu den wichtigsten Herstellern der Entwicklungs- und Testwerkzeuger gehören etwa Mercury, Compuware, IBM, Empirix, Wily und Network General. In einem Vergleich des Marktforschers Forrester unter den wichtigsten Unternehmen im Segment „Functional Testing Solutions“ rangiert Mercury auf Platz eins (siehe Grafik, Seite 59).
Eine Stufe tiefer liegen Testverfahren, die ausschließlich die Funktionsfähigkeit der Technik analysieren –und nicht die Leistungsfähigkeit der IT, die sich aus einem Zusammenspiel von Hard- und Software ergibt. Diese Bottom-up-Methoden helfen bei der Prüfung der Software auf funktionale Korrektheit und haben somit nur wenig mit den Lasttests gemeinsam.
Wie die Überwachungslandschaft im Unternehmen aussieht, liegt letztlich in der Macht des CIOs. Und der hat bekanntlich ein Interesse daran, es seinem Chef besonders bequem zu machen – und auch ihm mal einen Blick auf die gesamte IT-Infrastruktur zu gewähren. Das klare Votum aus dem CIO-Office lautet also: Topdown-Ansatz.