BCBS 239 - Erfolgsfaktor Struktur

Eine ordentliche Schnipselstrategie (nicht Schnitzelstrategie) ist, was die Umsetzung von BCBS 239-Projekten angeht, eigentlich gar keine so schlechte Strategie. Dabei kann man das Riesenprojekt BCBS 239 in verschiedene Teil- oder Pilotprojekte aufteilen, diese umsetzen und dann alle wieder zum großen Ganzen zusammenfügen. Denn jedes Projekt hat das Potenzial zu scheitern, und je komplexer ein Projekt ist, desto höher die Wahrscheinlichkeit/Risiko dazu. BCBS 239-Projekte sind aber auch IT-Projekte, denn ohne adäquate Architektur geht heutzutage nichts mehr.

Mein Fazit für erfolgreiche BCBS 239-Projekte lautet vorweg: Gehen Sie Teilprojekte an, nehmen Sie die Datenqualität ernst, verlassen Sie sich auf Ihre Mitarbeiter und seien Sie nicht allzu akademisch bei der Umsetzung. Und nehmen Sie ihre IT-Landschaft ins Visier. Denn wie anders als mit IT will man Prozesse nachweisen, die ein Mensch allein gar nicht mehr überblicken kann? Doch eines nach dem anderen:

Verliebt in einen Prozess?

Read More »

Post a Comment

T-Systems/SAS - Big Data geht auch einfach

Simplify scheint das Modewort in der IT zu sein. Alles, was bisher komplex war, um enterprise-ready zu werden, wird nun in einfache Komponenten aufgesplittet, um in appetitlichen Häppchen serviert zu werden. Ob ERP, CRM, IOT oder eben Big Data - die neue Welt der IT soll so simpel sein, wie das iPhone. Nun geht es darum, in einer komplexer werdenden Welt, noch komplexere Dinge zu machen. Big Data bedeutet mehr Daten, die zusammengebracht werden müssen, um komplexe Fragen zu beantworten und eben solche Entscheidungen zu treffen. Dies alles läuft auf mehr Hardware, als bisher, denn wir können ja jetzt alle große Rechen-Cluster auf Hadoop-Basis nutzen, die bisher nur Google oder Amazon zur Verfügung hatten.

Read More »

Post a Comment

Einfachere Datenaufbereitung – weniger Langeweile

Am 24. März wurde Release 12 der statistischen Desktop Software von SAS Institute veröffentlicht. Neben erweiterten statistischen Analysemöglichkeiten, die man schließlich von solcher Software erwartet, haben die Entwickler um John Sall einige Hilfsfunktionen eingebaut, die wenig spektakulär daherkommen aber wesentlich zur Erleichterung der Arbeit mit Daten beitragen können. Die Schätzungen darüber, wieviel der gesamten Analysezeit für Datenaufbereitung verwendet wird reichen von 40% bis 90%, Konsens ist aber, dass dieser Anteil wesentlich ist und dass niemand diese Arbeit gerne macht. Nehmen wir die Arbeit mit Textfeldern.

Unterschiedliche Schreibweisen, Datenerfassung unter Zeitdruck, verschieden Abkürzungen, alles führt zu unterschiedlichen Einträgen für dieselbe Sache. Die Standardisierung der Groß-/Kleinschreibung, oder das Eliminieren überflüssiger Leerzeichen passieren per Mausklick. Die Funktion zum neu Kodieren findet diese unterschiedlichen Schreibweisen, gruppiert sie und eröffnet die Möglichkeit, einen einheitlichen Begriff zu verwenden. Wie sensibel oder umfassend JMP die Gruppen bilden soll kann der Anwender in einem Dialog vorgeben. Read More »

Post a Comment

Qualitätssicherung

Bei der Herstellung von hochauflösenden Flüssigkristallanzeigen (engl. lyquid cristal display, LCD) werden chromophore Farbpigmente auf Nanometergröße gemahlen und dann weiterverarbeitet. Dieser Mahlprozess ist teuer. Ein Erkennen und Bestätigen der Hauptursachen für eine kürzere Mahlzeit sind somit zeit- und kostenkritisch. Doch wie geht man vor, wenn man aufgrund starker Wechselwirkungen (ein Parameter ist abhängig von einem oder mehreren weiteren Parametern) nur einen Bruchteil der erwarteten wichtigen Einflußgrößen aufdeckt.

Read More »

Post a Comment

SAS Forum 2015: Analytics konkret und praxisnah

20. Januar 2015 im Schweizer Kanton Graubünden: Mehr als 2.500 Personen aus 140 Ländern - führende Wirtschaftsexperten, Politiker und Intellektuelle - kommen in Davos zusammen. Vier Tage lang diskutieren Sie über aktuelle globale Fragen der Wirtschafts-, Umwelt- und Gesundheitspolitik.

Analytics: das Top-Thema der CEOs

Read More »

Post a Comment

Analytics schwebt in die Cloud

SAS ist der richtige Partner um unternehmerische Fragestellung analytisch in der Cloud zu beantworten.

Warum?

Big Data ist das Innovationsschlagwort der Stunde, und ohne Analytics werden wir dieser Datenmenge in Zahlen oder Texten nicht Herr. Viele Unternehmen nähern sich in ersten kleinen Schritten dem Thema, aber konkrete Umsetzungen hinken noch immer den technischen Möglichkeiten hinterher. Aber genau diese technische Machbarkeit hemmt noch einige Innovationstreiber, ihre Ideen umzusetzen: Vor Erstinvestition und Betriebskonzepten scheut sich IT und Fachbereich und kompetente Experten fehlen auf der analytischen Seite. Noch in den Kinderschuhen haben wir die Rolle des Data Scientist für Unternehmen jetzt erstmals entdeckt.

Um alle technischen Hürden zu umgehen gibt es einen einfachen Schritt: Schieben sie alles in die Cloud!

Read More »

Post a Comment

METHODEN ZUR ERKENNUNG VON KREDITBETRUG

Es war eines dieser Fußballspiele, das man am liebsten vergisst. Zwei Mannschaften spielen Rasenschach ohne erkennbaren Drang zum Tor und ohne erkennbares Konzept. Hätte man den Gegner vorher doch mal studiert, wüsste man, wie man den Abwehrriegel knackt, wie man gnadenloses Pressing betreibt und traumhaft herausgespielte Tore den Zuschauern als Bonbon darreicht. Aber nichts dergleichen. Ich saß vor dem Fernseher, gewappnet mit den üblichen Utensilien (Chips, Bier, Fernbedienung, iPhone) und versuchte verzweifelt, ein solches Konzept zu erkennen.

Read More »

Post a Comment

SAS und Hadoop im Jahr 2015 – Was gibt’s Neues für Datenanalysten?

Immer mehr Unternehmen stellen Überlegungen zum Einsatz von Hadoop als Framework für verteiltes Speichern und Verarbeiten großer Datenmengen an. Gerade für das Speichern von un- oder semistrukturierten Daten wie soziale Medien, Blogs, Foren, Online-Shops oder maschinengenerierte Sensordaten bietet sich diese Plattform an. Natürlich besteht häufig der Wunsch, diese Daten mit Hilfe einer integrierten Plattform für Advanced Analytics wie SAS sie darstellt (vgl. Einstufung im aktuellen Gartner-Quadrant) auszuwerten.

Daher stellt sich zwangsläufig die Frage: Welche Möglichkeiten liefert SAS, um diese Daten in Hadoop für die Analyse zu nutzen? Auf die Rolle des Datenanalysten oder Data Scientist bezogen: Was habe ich von SAS, wenn ich diese Daten analysieren möchte?

SAS & Hadoop - Was bisher geschah …

Read More »

Post a Comment

H wie Hannover, H wie High Performance Analytics von SAS

Die geheimnisvolle Stadt

Für mich war es als Kind in Wien komplett unverständlich, warum das „H“ auf den deutschen Autokennzeichen nicht für eine berühmte Stadt wie Hamburg, sondern für irgendeine, für mich komplett unbekannte Stadt wie Hannover stehen sollte. Und ganz ehrlich; ich habe es den Freunden meiner Eltern aus Deutschland auch lange Zeit nicht geglaubt.

Nun ist es aber so weit. Nächste Woche darf ich zum ersten Mal in diese geheimnisvolle Stadt reisen, weil ich dort auf der KSFE, der Benutzer-Konferenz für SAS in Forschung und Entwicklung, einen Vortrag über Regressionsanalysen und High-Performance-Analytics Procedures in SAS® STAT halten werde.

Die Ursprünge von SAS

Read More »

Post a Comment

SAS und Hadoop: Ein Traum für Innovationen oder doch nur ein Traum?

Big Data ist wie ein Fass ohne Boden. Fängt man einmal an, sich damit zu beschäftigen, zieht sich ein nicht enden wollender Rattenschwanz hinterher. Im positiven Sinne! Ich möchte das Zusammenspiel mit der Open-Source-Technologie Hadoop beleuchten. Big Data braucht, wie jeder weiß, auch Big Speicherplatz. Das ist die Voraussetzung für das perfekte Gelingen der Analysen. Und hier kommt Hadoop ins Spiel. Um es in einem Satz zusammenzufassen: Laufen Big Data Analytics auf Hadoop, gehen die Kosten runter und der Profit rauf.

Wegen der niedrigen Kosten und günstigen Skalierbarkeit senkt diese Open-Source-Technologie die Einstiegshürden. Denn unglaubliche Mengen an Daten lassen sich anhäufen und monetarisieren, um schließlich als Unternehmen den nächsten Schritt von der Stufe der bloßen Digitalisierung zur digitalen Transformation hinzukriegen.

Diese Transformation ist eine notwendige Königsdisziplin der kommenden zwei Jahre für die Agenda eines jeden Unternehmens. Und was hat SAS mit Haddop zu tun? Die Kombination aus Hadoop und SAS Analytics Plattform ist eine kosteneffiziente, flexible und skalierbare, sofort zugängliche analytische Basis für Innovationen mit Big Data.

Die wichtigsten Argumente

Zugänglichkeit Wir machen Hadoop zugänglich, ohne dass spezielle Technologiekenntnisse über Hadoop nötig sind. Wir erweitern die bereits professionellen Lösung der Hadoop-Distributoren um analytische Werkzeuge und um Datenzugriff / Datenmanagement, welche die Hadoop-Plattform sinnvoll kapseln. ERGO: Praktisch bedeutet das, dass die Vorteile einer Hadoop-Infrastruktur direkt und schnell nutzbar sind, da keine am Markt sowieso seltenen Skills aufgebaut oder Fachleute rekrutiert werden müssen. Kopfmonopole werden vermieden und Risiken sowie Investments bzgl. Personal minimiert.

Analysierbarkeit SAS stellt leicht zugängliche Anwendungsoberflächen für Analytik auf Hadoop zur Verfügung (Online_Demo hier). Coding ist nicht notwendig (aber möglich für entsprechend affine Anwendergruppen). Und SAS Technologie ermöglicht verteiltes und sehr schnelles Rechnen auf dem Hadoop-Cluster (oder auch parallel dazu). In-memory Analysen lösen komplexeste Fragestellungen in sehr kurzer Zeit. Ich kann mich ohne Zeitverlust (früher notwendige Rechenzeit) von einer Erkenntnis zur nächsten bewegen und Thesen bestätigen oder neue formulieren. Auch ohne analytische Kenntnisse kann man durch die interaktive Datenvisualisierung sehr schnell Zusammenhänge verstehen. Durch eingängige Visualisierungen und Unterstützung mobiler Endgeräte können Informationsweitergaben, Abstimmungen und Entscheidungsfindungen viel schneller erfolgen.

Innovationsfähigkeit Mit SAS und Hadoop sind nun Analysen großer Datenmengen möglich (Big Data Use Case). Auch für aktuelle Anwendungsfälle mit bisheriger technischer Limitierung (Datenextrakte, programmatisch im Batchbetrieb, Daten auf Host, …). Die Kombination aus Skalierbarkeit und einfacher Zugänglichkeit fördert den Wandel zu agiler Business Intelligence auf einer flexiblen und agilen Infrastruktur statt starrem DWH und klassischem Berichtswesen. Letztlich unterstützt die Kombination aus Hadoop und SAS ein einfaches Rollout und den Aufbau von Sandboxes mit schneller und zugänglicher Visualisierung und Analytik.

Sehen Sie unsere Studie zu Business Analytics, die wir gemeinsam mit der Uni Potsdam gemacht haben.

Ihr Andreas Becks

Post a Comment