Die Entwicklung der Rechenkapazitäten ist so rasant, dass man sich das gelegentlich vor Augen führen muss. Vor einem halben Jahrhundert sind Menschen regelmäßig ins All geflogen – mit Computern, deren Leistungsfähigkeit heute von jedem Smartphone übertroffen wird. Während vor wenigen Jahren noch hochqualifizierte Spezialfirmen viele Monate und Jahre für Planung und Aufbau benötigten, sind heute entsprechend konfigurierte Module samt nötiger Hochleistungsinfrastruktur standardmäßig verfügbar und in wenigen Tagen zusammengebaut.
Welche Auswirkungen hat das auf Unternehmen, die bisher an der Menge von Rechenoperationen gescheitert sind? Ist Big Data für die High-Performance-Computing-Szene wirklich etwas Neues? Was lässt sich aus der jahrelangen Erfahrung in diesem Bereich für heutige Anwendungsszenarien lernen?
Spannende Fragen – die auf der ISC Big Data 2013 eine Antwort finden werden. Sverre Jarp, der Programmverantwortliche dieser einzigartigen Big-Data-Konferenz am 25./26. September in Heidelberg, erläutert, warum es sich lohnt, seine Konferenz zu besuchen: