So daneben lagen Beratungsunternehmen selten: Noch im September 2000 glaubten die Marktforscher von Forrester Research, genug Belege für den Erfolg der WAP-Technologie gesammelt zu haben: Schon 2005 sollten über 54 Prozent der europäischen Handy-Besitzer mobile Internet-Services nutzen. Zur selben Zeit gab die Giga Information Group der mobilen Internet-Technologie bereits keinerlei Chance mehr - zu Recht, wie sich heute zeigt, wo bestenfalls ein Promilleteil aller Handy-Nutzer über eine WAP-Verbindung Internet-Inhalte abruft.
Die WAP-Pleite ist nur ein Fall von vielen, in denen die Auguren mit ihren Vorhersagen daneben lagen. Und was in Zeitungskommentaren ein Segen ist - die Vielfalt der Meinungen zu ein und demselben Thema -, das ist bei Informationsquellen, auf denen Entscheider ihre strategische Planung aufbauen, ein Fluch. Egal ob Gartner oder Meta Group, Giga oder Forrester - auch die renommiertesten Häuser haben Fehlprognosen zu verbuchen.
Dennoch werden ihre Studien nach wie vor von vielen Unternehmen geschätzt. Die Deutsche Post World Net kauft zum Beispiel jedes Jahr 50 bis 100 Untersuchungen. Sie fließen in die Produktentwicklung und die Beantwortung von Fragen nach Beteiligungen oder Werbekonzepten ein. Auch bei Nokia sieht man in den Studien verschiedener Industrieanalysten eine wertvolle Ergänzung zu den eigenen Informationsquellen. Einer Untersuchung unserer amerikanischen Schwesterpublikation CIO Magazine zufolge halten 53 Prozent der befragten IT-Verantwortlichen die Er-kenntnisse der Vorhersage-Industrie für wichtig bei der Strategiefindung.
Laut dieser Untersuchung gaben US-Unternehmen im Jahr 2000 durchschnittlich 552000 Dollar für IT-Marktstudien aus. Dabei ist das Analystenwissen nicht gerade billig zu haben: Frost & Sullivans letzte Bluetooth-Studie ging für 4500 Euro über den Ladentisch; die Untersuchung von IDC zum Markt für IT-Services in Deutschland soll 3290 Euro kosten - alle Preise natürlich zuzüglich Mehrwertsteuer.
Dass es für gutes Geld auch entsprechende Qualität gibt, ist nicht selbstverständlich. Viele Untersuchungen sind nur mit Vorsicht zu genießen, weil sie auf fehlerhaften Methoden basieren. Beispiel: Beim so genannten "Top-Down"-Ansatz begnügen sich die Researcher damit, eine verhältnismäßig kleine Zahl von Entscheidern und Fachleuten aus den wichtigsten Unternehmen einer Branche nach ihrer Einschätzung eines bestimmten Markts zu fragen, um dann allein daraus abzuleiten, wie dieser sich in Zukunft entwickeln wird. "Die Top-Down-Methode ist üblich unter Marktforschungsunternehmen, muss aber mit Skepsis betrachtet werden", schreiben die US-Marktforscher Frost & Sullivan in einer Methodenanalyse. "Sie ist sehr unpräzise und kann zu ernsten Problemen führen, wenn sie Grundlage strategischer Entscheidungen ist."
Teuer, aber besser: Bottom-Up
Frost & Sullivan selbst setzt deshalb meist auf das "Bottom-Up"-Verfahren. Hier werden Vorhersagen aus einem sehr viel breiteren Befragungspool generiert. Doch solche Verfahren sind teuer. Bevor das Frankfurter Unternehmen Forit von Forrester Research gekauft wurde, wendeten die Forscher bis zu 25000 Euro auf, um den aktuellen Markt eines Produkts zu analysieren, Zahlen vom Statistischen Bundesamt anzufordern, Gespräche mit Politikern oder Professoren zu führen und Verbraucher zu befragen. Entsprechend sind Forrester-Untersuchungen drei- bis viermal so teuer wie die der Konkurrenz.
Ein gutes Vierteljahr dauert so eine Erhebung, dann fassen die Analysten die Ergebnisse zusammen und interpretieren sie. Und das ist auch bei einer guten Datenbasis nicht einfach, da alles auf die Zukunft hochgerechnet werden muss. Wegen des Kostendrucks wird fast alles veröffentlicht, auch wenn die Ergebnisse banal sind oder geschlampt wurde. "Der Trick ist, die Wahrheit zu sagen und doch nicht die Wahrheit", verrät ein ehemaliger Mitarbeiter einer Prognosefirma. "Wenn wir schrieben, dass wir 1000 Unternehmen befragt haben, hieß das ja nicht, dass die auch geantwortet haben. Der Rücklauf betrug meist fünf bis acht Prozent." Schließlich würden die Zahlen bis auf zwei Stellen nach dem Komma berechnet, was die Ergebnisse präzise wirken lässt.
Kaum belastbare Quellen
Da ist es wenig verwunderlich, wenn eine AllianzSprecherin erklärt: "Als einzige Quelle für die Entscheidungsfindung sind die Studien in der Regel nicht ausreichend." Um vor allem technologische Trends richtig zu erfassen, setzt der in 72 Ländern vertretene Versicherungsriese auf eine weltweite Kooperation mit der Gartner Group. Auch bei Bertelsmann, der Deutschen Post World Net oder Nokia nimmt man nicht alles für bare Münze, was die Analysten kundtun. Die Zeiten, in denen auf Grundlage prognostizierter Zahlen ganze Business-Pläne aufgebaut wurden, gehören mit dem Niedergang der Start-ups der Vergangenheit an. Heute entscheiden Fachabteilungen, welche Studie es wert ist, eingekauft zu werden. Die Experten können sehr wohl abschätzen, wie stark ein Markttrend sein wird, wenn IDC oder Gartner für eine Technologie etliche Millionen Nutzer prognostizieren.
Bei Bertelsmann ist Steffen Böning der beste Kunde der Wahrsager. Er leitet die Abteilung Vorstands- und Aufsichtsratsservice, die sich unter anderem mit dem Einkauf und Austausch von Wissen und Studien im Konzern befasst - beides Teil des Basismaterials für eigene Analysen. "Gute Erfahrung haben wir mit Gartner und der Meta Group, Forrester und Jupiter gemacht", sagt er. Besonders nützlich sei beispielsweise die Forrester-Untersuchung "Content out of Control" gewesen. Sie war eine der ersten, in der Analysten die Internet-Tauschbörse Napster und ihre Folgen für die Medien- und Schallplattenindustrie untersucht haben.
500-seitige Reports für Entscheider
Bei der Deutschen Post kauft das Market Research Service Center zentral Studien ein, die für das Unternehmen relevant sein könnten. "Sie geben meist einen guten Marktüberblick. Folgerungen für den Konzern und Handlungsempfehlungen für das Management kommen dann aber von unseren Experten", sagt Leiter Michael Seitz. "Wenn wir Sekundärrecherchen einkaufen, etwa von Forrester, verlassen wir uns nicht nur auf eine Informationsquelle, sondern ergänzen sie durch andere."
Sein von 2 auf heute 28 Mitarbeiter angewachsenes Service-Center beschreibt Seitz als Vermittler zwischen Informationsquellen und Entscheidern. "Die Abteilungen stellen uns Probleme dar, wir führen Market-Research-Projekte durch, suchen in Studien und anderem Material, um diese Fragen zu beantworten", erklärt er. Zudem strukturierten die Informationsexperten der Post den Input, damit die Entscheider sich nicht selbst durch 500-seitige Reports fressen müssen. Studien, die auf einer dünnen Datenbasis oder zweifelhaften Methoden beruhen, oder Anbieter, die mit kühnen Thesen absahnen wollen, hätten bei ihm keine Chance: "Bevor wir mit einem Serviceleister kooperieren, fragen wir dessen Netzwerk ab und die Methoden zur Qualitätssicherung." Vielleicht sollte mal jemand untersuchen, warum so ein Qualitätscheck bei der Zusammenarbeit zwischen der Prognose-Industrie und ihren Kunden nicht seit langem selbstverständlich ist.