Der Begriff High-Performance Computing (HPC) mag nach Wissenschaft und Forschungseinrichtungen klingen, doch mittlerweile können Unternehmen jeder Größe HPC für sich nutzen. Neue Chipgenerationen und Hochleistungsspeicher (Flash), Grafikprozessoren und Mikrocontroller ermöglichen Entscheidern, große monolithische Systeme effizient zu ersetzen. Salopper formuliert: Supercomputing funktioniert auch im Mittelstand.
Wie das in der Praxis aussieht, erläutert Ingolf Wittmann, Technical Director für die DACH-Region bei IBM, in einem Webcast der Computerwoche am 29. September um 11 Uhr. Er führt aus, was Data-Centric Computing heißt und wie Data Analytics und Cognitive Computing ganz neue Möglichkeiten eröffnen. Außerdem geht es um den konkreten Nutzen für die Fachbereiche aus HPC und um die Frage, wie man eine sogenannte Open Infrastructure baut und integriert.
Die Sicht des Analysten vertritt Holm Landrock, Senior Adviser Big Data und Super-Computing bei der Experton Group. Detlef Korus von der Computerwoche moderiert den Webcast.