Die ganze IT-Welt spricht – meist im Zusammenhang mit Big Data und Echtzeit – von Data Streaming, Event Stream Processing, In-Stream-Datenanalyse. Doch was genau steckt dahinter? Und welche konkreten Anwendungsfälle gibt es? Als Einstieg eine kurze Definition.
Der Begriff „Streaming“ kommt aus dem Englischen und bedeutet so viel wie „fließen“ oder „strömen“. Gemeint ist damit ein kontinuierlicher Transport eines Mediums. In der Natur wäre das zum Beispiel Wasser, Luft oder Wüstensand. Wesentlich gängiger als das Naturbeispiel ist im Deutschen der Begriff „Streaming“ im Zusammenhang mit der Datenübertragung, sprich Data Streaming.
Beispiel 1: Peer-to-Peer-Übertragung für Verbraucher
Klassisches Beispiel für Data Streaming ist die Wiedergabe von Videobeiträgen und Audioangeboten aus Musikportalen oder Online-Radiostationen. Die Angebotspalette reicht von der einfachen IP-Telefonie bis hin zu komplexen multimedialen Inhalten wie die Liveübertragung von Sportveranstaltungen oder von Konzerten. Bei dieser Art der Datenübertragung handelt es sich um einen benutzerabhängigen Datenstrom. Das heißt im Klartext: Der Anwender entscheidet, welche Inhalte er auf seinem Endgerät (Smartphone, Tablet, TV, Radio) konsumieren möchte. Sender und Empfänger stehen fest, und nach Auswahl der Inhalte werden die Daten so lange übertragen, bis der Anwender die Wiedergabe stoppt oder die Übertragung abgeschlossen ist.
Beispiel 2: Datenanalyse im Internet of Things (IoT)
Darüber hinaus gibt es weitere Anwendungen, bei denen Data Streaming eine wesentliche Rolle spielt, jedoch nicht wahrgenommen wird. Ein Beispiel dafür ist der analytische Datenstrom im Zusammenhang mit der Sensorik von Maschinen, Fahrzeugen oder ganzen Industrieanlagen sowie unterschiedlichsten Ortungssystemen. Leicht nachvollziehbare Anwendungen ergeben sich in der Fahrzeuganalyse bei Herstellern oder Versicherungen. Fahrzeuge können heute ihren technischen Zustand sowie weitere Daten aus dem Telematikumfeld schon während der Entstehung übertragen. Diese Informationen lassen sich bereits im Datenstrom auf Auffälligkeiten oder technische Zusammenhänge hin untersuchen. Weitere Beispiele findet man in der IT bei Security-Analysen. Hier werden IP-Pakete auf mögliche Sicherheitsverletzungen oder gar Cyberangriffe hin analysiert. In diesem Anwendungsfall wird lediglich ein Analyseergebnis kontinuierlich an ein berichtsorientiertes System geliefert, das dem (Fach-)Anwender hilft, Entscheidungen zu treffen, um Anpassungen in der IT-Infrastruktur vorzunehmen und das eigene Netzwerk besser zu schützen. Ein ganz anderer Fall ergibt sich in der Kundeninteraktion: Beispielsweise ermöglichen es automatische Prozesse, dem Kunden im Supermarkt sofort anhand seiner vorherigen Warenkäufe oder seiner Bewegungen im Laden individuell Rabattaktionen anbieten zu können.
Und so funktioniert’s …
Technisch gesehen ist das Prinzip des Data Streaming relativ einfach zu erklären. Ein Datenstrom erfordert einen Sender, der permanent Daten erzeugt oder bereitstellt, und einen Empfänger, der die Daten visuell darstellt oder verarbeitet. Die Daten in Datenströmen besitzen eine zeitliche Reihenfolge, und es gibt praktisch keine Volumengrenze. Ein Datenstrom zeichnet sich dadurch aus, dass er kontinuierlich Daten mit einem wiederkehrenden Format einfügt. Löschen von Datensätzen ist nicht möglich. Mittels spezieller Datenstromalgorithmen können jedoch einzelne Datensätze aufgrund ihres Inhalts ausgewählt werden und beispielsweise zu einem neuen Datenstrom zusammengefasst werden, der dann für weitere Sortier-, Sammel- oder analytische Verarbeitungsprozesse zur Verfügung steht.
Mit SAS Event Stream Processing werden Daten kontinuierlich in Echtzeit analysiert. Dank dieser Lösung, die konstant Ereignisse analysiert, sobald sie auftreten, können Muster erkannt und Chancen genutzt werden, die ansonsten in dem immensen Informationsfluss untergehen würden. Event Stream Processing von SAS sorgt für eine gleichbleibende Datenqualität während des Streamings und bietet vorab konfigurierte analytische Ausdrücke und Musterabgleichsalgorithmen für Daten. Riesige Datenmengen erfordern nicht nur leistungsfähige IT-Systeme, sondern auch Softwarelösungen mit geringer Latenz und hohem Durchsatz. Diese schaffen die Voraussetzung für eine schnellere, bessere und leistungsstärkere Datenverarbeitung. Gerade im Kontext des Internet of Things geht es darum, Events aus Datenströmen sofort zu analysieren und Entscheidungen treffen zu können – Real-time ist hier das Gebot der Stunde. Und SAS hilft bereits zahlreichen Unternehmen dabei, Daten direkt nach der Entstehung analytisch zu verarbeiten und zeitnah Entscheidungen zu treffen.