Herr Goodnight, im Zeitalter von Big Data explodiert die Menge an Information geradezu. Erstickt die Informationstechnik an der Datenflut?
James Goodnight: Es stimmt, die Datenmengen wachsen in der Tat schneller, als die Chips an Tempo zulegen. Trotzdem hält der Leistungsanstieg der IT als Ganzes mit den Daten mit.
Ist das kein Widerspruch?
Nur scheinbar. Die IT ändert sich gerade grundlegend: Es zählt nicht mehr so sehr, wie schnell ein einzelner Chip rechnet, sondern wie stark das Gesamtsystem ist.
Was heißt das konkret?
Der wichtigste Trend ist Parallelisierung: Das bedeutet bei der Auswertung von Geschäftsdaten, wie wir sie betreiben, Aufgaben in möglichst viele Teile zu zerlegen. Die lassen sich dann auf 100 oder 1000 Prozessorkernen zugleich abarbeiten. Das steigert das Tempo um den Faktor 100 und mehr. Allerdings ist Software traditionell nicht für parallele Systeme entwickelt. Wir mussten unsere Programme komplett erneuern. Ein enormer Aufwand, aber nun sind wir für Big Data wirklich gerüstet.
Was haben Unternehmen davon?
Als Manager habe ich heute - je nach Funktion - ganz unterschiedliche Fragen: Wen spreche ich mit Marketingkampagnen an? Wie erreiche ich die Leute? Bei einer Bank: Wem gebe ich einen Kredit? Wo versucht jemand, mich zu betrügen? All das können Sie heute nur noch mit IT-Hilfe adäquat entscheiden. Mittels Analytik, Statistik und den mathematischen Regeln, die wir in unseren Programmen abbilden ...
Zur Person James Goodnight |
... und die dann - statt eines Verkäufers - entscheiden, ob Kunden Waren auf Rechnung oder gegen Vorkasse geliefert bekommen. Verdrängen Maschinen die Menschen in der Geschäftswelt?
Es geht nicht darum, smarte Köpfe zu ersetzen, sondern, sie zu unterstützen. Software liefert Ihnen etwa nur eine Abschätzung, mit welcher Wahrscheinlichkeit Sie gerade jemand mit einer gestohlenen Kreditkarte zu betrügen versucht. Aber Menschen entscheiden, ab welcher Wahrscheinlichkeit die Bank solche Buchungen blockiert.
Wie gut klappt das?
Nobody is perfect. Das gilt auch für Algorithmen, aber wir arbeiten hart dafür. Übrigens nutzen wir die steigende Rechnerleistung auch, um die Algorithmen mit Computerhilfe zu verbessern.
Software programmiert sich selbst?
Zum Teil: Beim Durchforsten gigantischer Datenbestände entdecken Rechner heute statistische Zusammenhänge, die menschliche Programmierer nicht erkennen. Diese Algorithmen versteht auch bei uns kein Mensch mehr - aber sie arbeiten so beeindruckend verlässlich, dass wir sie einsetzen.
Wie weit kann das gehen? Ersetzt Statistik womöglich dereinst die Theorie?
Das ist mehr eine philosophische als eine technische Frage. Ich glaube nicht, dass Rechner menschliche Neugier verdrängen werden. Wir wollen verstehen, wie die Welt funktioniert. Aber es gibt sicher manche Situationen, in denen wir damit zufrieden sein können, was uns die Maschinen verraten.
Zum Beispiel?
Die US-Armee nutzt unsere Prognosesoftware, um etwa bei Patrouillen in Afghanistan vorab Anschlagsrisiken zu bewerten. Am Ende ist es egal, warum das Programm andere Routen empfiehlt, weil das Risiko auf dem ursprünglichen Weg zu hoch erscheint - wenn die Prognose stimmt. Und glauben Sie mir: Die Technik hat schon einige Leben gerettet.
(Quelle: Wirtschaftswoche)