Qualitätssicherung

Bei der Herstellung von hochauflösenden Flüssigkristallanzeigen (engl. lyquid cristal display, LCD) werden chromophore Farbpigmente auf Nanometergröße gemahlen und dann weiterverarbeitet. Dieser Mahlprozess ist teuer. Ein Erkennen und Bestätigen der Hauptursachen für eine kürzere Mahlzeit sind somit zeit- und kostenkritisch. Doch wie geht man vor, wenn man aufgrund starker Wechselwirkungen (ein Parameter ist abhängig von einem oder mehreren weiteren Parametern) nur einen Bruchteil der erwarteten wichtigen Einflußgrößen aufdeckt.

Lesen Sie wie Sie mit Hilfe von fortgeschrittenen statistischen Verfahren, sowie Versuchsplanung mit Definitive Screening Designs ein effizientes Umgehen solcher Hindernisse zu meistern ist und in diesem realen Beispiel Einsparungen im 6-stelligem Bereich erzielt werden konnten.

Sicherung der Qualität – ein alltäglicher Prozess oft abseits der allgemeinen Wahrnehmung

Qualität begegnet uns nahezu überall. Nicht sonderlich verwunderlich erscheint es dass überall um die Sicherung der Qualität, trotz immer schärferer Anforderungen, gerungen wird. Meist passiert dies im Hintergrund, fernab vom Normalsterblichen auf der Straße: Auswertung von Telefonieverhalten, automatischen Geodatenerkennung in jedem Navigationsgerät oder Mobilfunkgeräts, Bonusprogrammen und mehr, aber auch sämtliche direkt und indirekt genutzten Gebrauchsgegenstände. Das hat auch seine Gründe. Niemand möchte wirklich laufend erfahren, welche Herausforderungen in der Herstellung von Bauteilen für ein Auto oder Flugzeug oder die täglich verwendete Waschmaschine sowie den Laptop bestehen, solange alles sicher und reibungslos funktioniert.

Ganz anders sehen es die Unternehmen. Dort bietet ein besseres Verstehen der Gründe für Kundenzufriedenheit und Kundenverhalten, ein Kosten- oder Zeitvorsprung in der Herstellung bei gleicher Qualität  einen klaren Wettbewerbsvorteil. Das schafft wiederum Freiräume für neue Produktentwicklungen oder für neu entwickelte Programme, Inovation als Grundlage zur Festigung seiner Marktposition.

Fallbeispiel: Kostenreduzierung bei der Herstellung von hochauflösenden LCDs

Wir wollen ein reales Fallbeispiel betrachten: In einem Herstellungsprozess von hochauflösenden LCDs müssen wir die Partikel chromophorer Farbpigmente auf eine Größe unter 200 nm (1 Nanometer entspricht 1 Millionstel Milimeter) mahlen. Das wird u.a. in einer horizontalen Perlenmühle gemacht. Dabei wird die Dispersion von Pigmenten einem mit Perlen gefüllten Kessel zugeführt. Die Perlen werden mit hoher Geschwindigkeit erregt um die Pigmentpartikel zu mahlen.

Die benötigte Zeit, um unter 200nm zu gelangen ist unsere kritische zu minimierende Zielgröße. Der Mahlprozess ist zudem sehr energie-intensiv und somit doppelt kostentreibend. Ein Verständnis, welche Einflußgrößen signifikanten Einfluß auf die Mahlzeit haben, ist das erste Ziel. Eine Optimierung der Einstellungen das Zweite. Betrachten wir als erstes die vergangenen Messungen der Mahlzeit. Nach den im Labor durchgeführten Tests erkennt man einen Drift zum Schlechteren im Routinebetrieb. Nicht nur, dass wir jetzt mit einer schlechteren mittleren Mahlzeit konfrontiert sind, die starke Streuung gibt uns ein Rätsel auf und birgt zusätzliche Unsicherheiten.

Analyse der historischen Daten – Ursachenforschung mit Schwierigkeiten

Die historischen Daten sollten bestenfalls die Information liefern, welche Parameter wirklich wichtig sind. Aus der Sicht der Datenanalyse würden wir gerne hunderte Beobachtungen haben, um aussagekräftige Modelle zu erstellen. Doch so lange wollen und können wir nicht warten, um das Herstellungsproblem zu lösen. Also arbeiten wir mit einem kleinen Datensatz mit 17 Zeilen bei 16 möglichen Einflußparametern.

Bei der Ursachenforschung weit verbreitet ist die Anwendung von multivariater Analysen und Regression. Da stoßen wir aber bereits auf die ersten Schwierigkeiten. In unseren Prozeßparametern gibt es auch kategorische Größen, für die eine multivariate Analyse nicht anwendbar ist. Möglicherweise verpasse ich dadurch einen wichtigen Zusammenhang. Ein Blick auf die Farbmatrix der Korrelationen der restlichen kontinuierlichen Parameter zeigt ein starke negative Korrelationen der Temperaturparameter mit der Zielgröße „Time to 200 nm“ und moderat starke negative Korrelation der Zeit mit der Anzahl verwendeter Perlen. Die restlichen Parameter scheinen eher weniger bedeutsam für die Zielgröße zu sein.

Stehen zwei Faktoren in Wechselwirkung und eine davon schafft es als signifikante Größe in das Modell, so wird die zweite Größe sehr wahrscheinlich nicht ins Modell aufgenommen. Das liegt daran, dass die dominante, bereits im Modell verwendete Größe die zweite Variable durch die Wechselwirkung beschreibt.

Allerdings gibt es zwischen den Faktoren teilweise erhebliche Korrelationen, die eine Modellierung erschweren können. Gibt es nun mehrere verkettete Wechselwirkungen kann das Modell diese Zusammenhänge nicht mehr ausreichend gut beschreiben. Das kann dann zu falschen Ergebnissen und Schlussfolgerungen führen, selbst wenn der R^2-Wert anzeigt, dass die Daten eigentlich gut durch das Modell beschrieben werden. Das gleiche gilt übrigens bei einer Betrachtung immer nur eines Faktors nach einander, ob nun in einer Bivariaten oder einfaktoriellen Analyse.

Führen wir eine Regression durch, ergibt das Standard Kleinste Quadrate Verfahren ein Singulatitätsproblem, und schrittweise Regression nur eine signifikante Variable, nämlich die Temperatur im Kessel, „Temp(Pot)“. Auch mit dem Entscheidungsbaum erhält man dieses Ergebnis. Ein Vorteil davon ist jedoch, man kann den Baum „schütteln“ und in JMP Spalten für die weitere Teilung sperren. Doch bei vielen Parametern ist dies nicht schön skalierbar. So auch in diesem Fall: ein Sperren von Temp(Pot) ergibt nur eine weitere signifikante Temperaturgröße.

Interaktiver Blick auf die Daten von vielen Seiten läßt unerwartetes Erkennen

Durch die interaktiven,  grafischen Möglichkeiten in JMP sowie des Fachwissens erkennen wir, dass auch andere Einflußgrößen wie z.B. die Anzahl der Perlen einen Einfluß haben müssen. Nur werden diese Größen bei der Modellierung stets als nicht signifikant nicht mit ins Modell aufgenommen. Offensichlich entgeht uns mindestens ein wichtiger Zusammenhang.

Zur Erinnerung, wir wollen für die Versuchsplanung unsere möglicherweise wichtigen Faktoren aus den 16 Parametern herausfiltern. Mit dem Versuchsplan sollen dann die wichtigsten Haupteffekte erkannt, abgesichert und durch Modellbildung und Simulation der Prozess optimiert werden. Ein Versuchsplan mit ein oder zwei Faktoren, und der Gewissheit es gibt noch mindestens zwei drei weitere wichtige Einflußgrößen, die man nicht sicher kennt, ist keine gute Grundlage für eine robuste Prozessverbesserung.

 

Weg zum Erfolg – Fortgeschrittenen statistische Verfahren und optimale Versuchsplanung

Abhilfe schaffen hier vielleicht andere statistische Verfahren, die z.B. durch Randomisierung und Wiederholung  Ausreißer, Wechselwirkungen und andere Effekte zumindest besser handhaben können. Eines dieser Verfahren ist Bootstrap Forest in JMP, ein Random Forest Verfahren.

Neben der Temperatur wird nun die erwartete Größe des Anteils an Perlen (%Beads), sowie weitere potentiell wichtigen Größen, wie P(In), P(Out) und %Pigment, der Anteil der zugeführten Pigmente, gefunden. Das bildet nun eine gute Basis für unseren Versuchsplan.

Mit Hilfe eines Definitive Screening Designs möchten wir nun mit möglichst wenig Versuchen die Haupteffekte erkennen. Mit diesem Verfahren ist es möglich auch die offensichtlich bestehenden Wechselwirkungen und möglichen quadratischen Effekte mit einbeziehen. unter Berücksichtigung. Näheres dazu finden Sie u.a. in diesem Blog von Bradley Jones, u.a. ausgezeichnet für die Entwicklung dieses Designs von der American Society for Quality's 2012 mit dem Brumbaugh Award: http://blogs.sas.com/content/jmp/2012/01/30/introducing-definitive-screening-designs/

Prozessoptimierung – Analyse der Versuchsergebnisse und interaktive Parameteroptimierung

Nach der Versuchsdurchführung werden die Daten in JMP analysiert und mit Hilfe des Screeningverfahrens (Figure 8) erkennen wir hier auch gleich die „versteckten“ Zusammenhänge:

Die Temperatur im Kessel ist neben dem Anteil an zugeführten Pigmenten als Haupteffekt signifikant. Der auf Erfahrung bekannte Effekt vom Anteil an Perlen selbst ist nicht signifikant, jedoch gibt es eine bislang noch nicht berücksichtigte Wechselwirkung sowohl mit der Temperatur als auch mit dem Anteil an Pigmenten. Ebenso gibt es einen quadratischen Effekt beim Anteil der zugeführten Pigmente. Erstellt man nun auf dieser Basis ein Modell, kann man im Analysediagramm die Zusammenhänge weiter studieren und die optimale Einstellung für den Prozess finden:

Man erkennt im Analysediagram den quadratischen Effekt in %Pigment und in %Beads (Figure 9/einbetten interaktives HTML: PigmentMill_Modell.htm). Mit Hilfe des Simulators kann ich eine Streuungskomponente mit einbauen und die damit errechneten Simulationsergebnisse als Histogramm darstellen. Das gibt mir auch gleich eine Risikoabschätzung, wie hoch die Rate ist, aus seinen vorgegebenen Spezifikationsgrenzen zu fallen.

Mit Hilfe von Wünschbarkeitsfunktionen, also hier die Minimierung der benötigten Zeit um unter 200nm zu mahlen, kann ich ein Optimum berechnen lassen. Mit den nun optimalen Einstellungen für die Temperatur, %Beads und %Pigment, erreichen wir eine durchschnittliche Dauer von unter 3 Minuten. Das entspricht mehr als einer Verdopplung der  Produktion im Vergleich zum Routinebetrieb. Sollten Daten für die Energiekosten vorliegen, könnten wir diese als zweite Zielgröße mit aufnehmen und eine Pareto-optimale Einstellung finden. Hier wollen wir nur betrachten, welchen Effekt eine dauerhafte Temperatursenkung im Kessel auf unsere mittlere Zeit hat. Wir müssen im Mittel mit knapp 1 Minute mehr Zeit rechnen, was immer noch eine deutliche Verbesserung zur ursprünglichen Situation bedeuten würde. Dabei wären aber weitere Kosten für die benötigte Energie eingespart.

Ein Prüfen der nächsten Herstellungsprozesse bestätigt unser Modell und unsere optimalen Einstellungen.

Post a Comment

SAS Forum 2015: Analytics konkret und praxisnah

20. Januar 2015 im Schweizer Kanton Graubünden: Mehr als 2.500 Personen aus 140 Ländern - führende Wirtschaftsexperten, Politiker und Intellektuelle - kommen in Davos zusammen. Vier Tage lang diskutieren Sie über aktuelle globale Fragen der Wirtschafts-, Umwelt- und Gesundheitspolitik.

Analytics: das Top-Thema der CEOs

Read More »

Post a Comment

Analytics schwebt in die Cloud

SAS ist der richtige Partner um unternehmerische Fragestellung analytisch in der Cloud zu beantworten.

Warum?

Big Data ist das Innovationsschlagwort der Stunde, und ohne Analytics werden wir dieser Datenmenge in Zahlen oder Texten nicht Herr. Viele Unternehmen nähern sich in ersten kleinen Schritten dem Thema, aber konkrete Umsetzungen hinken noch immer den technischen Möglichkeiten hinterher. Aber genau diese technische Machbarkeit hemmt noch einige Innovationstreiber, ihre Ideen umzusetzen: Vor Erstinvestition und Betriebskonzepten scheut sich IT und Fachbereich und kompetente Experten fehlen auf der analytischen Seite. Noch in den Kinderschuhen haben wir die Rolle des Data Scientist für Unternehmen jetzt erstmals entdeckt.

Um alle technischen Hürden zu umgehen gibt es einen einfachen Schritt: Schieben sie alles in die Cloud!

Read More »

Post a Comment

METHODEN ZUR ERKENNUNG VON KREDITBETRUG

Es war eines dieser Fußballspiele, das man am liebsten vergisst. Zwei Mannschaften spielen Rasenschach ohne erkennbaren Drang zum Tor und ohne erkennbares Konzept. Hätte man den Gegner vorher doch mal studiert, wüsste man, wie man den Abwehrriegel knackt, wie man gnadenloses Pressing betreibt und traumhaft herausgespielte Tore den Zuschauern als Bonbon darreicht. Aber nichts dergleichen. Ich saß vor dem Fernseher, gewappnet mit den üblichen Utensilien (Chips, Bier, Fernbedienung, iPhone) und versuchte verzweifelt, ein solches Konzept zu erkennen.

Read More »

Post a Comment

SAS und Hadoop im Jahr 2015 – Was gibt’s Neues für Datenanalysten?

Immer mehr Unternehmen stellen Überlegungen zum Einsatz von Hadoop als Framework für verteiltes Speichern und Verarbeiten großer Datenmengen an. Gerade für das Speichern von un- oder semistrukturierten Daten wie soziale Medien, Blogs, Foren, Online-Shops oder maschinengenerierte Sensordaten bietet sich diese Plattform an. Natürlich besteht häufig der Wunsch, diese Daten mit Hilfe einer integrierten Plattform für Advanced Analytics wie SAS sie darstellt (vgl. Einstufung im aktuellen Gartner-Quadrant) auszuwerten.

Daher stellt sich zwangsläufig die Frage: Welche Möglichkeiten liefert SAS, um diese Daten in Hadoop für die Analyse zu nutzen? Auf die Rolle des Datenanalysten oder Data Scientist bezogen: Was habe ich von SAS, wenn ich diese Daten analysieren möchte?

SAS & Hadoop - Was bisher geschah …

Read More »

Post a Comment

H wie Hannover, H wie High Performance Analytics von SAS

Die geheimnisvolle Stadt

Für mich war es als Kind in Wien komplett unverständlich, warum das „H“ auf den deutschen Autokennzeichen nicht für eine berühmte Stadt wie Hamburg, sondern für irgendeine, für mich komplett unbekannte Stadt wie Hannover stehen sollte. Und ganz ehrlich; ich habe es den Freunden meiner Eltern aus Deutschland auch lange Zeit nicht geglaubt.

Nun ist es aber so weit. Nächste Woche darf ich zum ersten Mal in diese geheimnisvolle Stadt reisen, weil ich dort auf der KSFE, der Benutzer-Konferenz für SAS in Forschung und Entwicklung, einen Vortrag über Regressionsanalysen und High-Performance-Analytics Procedures in SAS® STAT halten werde.

Die Ursprünge von SAS

Read More »

Post a Comment

SAS und Hadoop: Ein Traum für Innovationen oder doch nur ein Traum?

Big Data ist wie ein Fass ohne Boden. Fängt man einmal an, sich damit zu beschäftigen, zieht sich ein nicht enden wollender Rattenschwanz hinterher. Im positiven Sinne! Ich möchte das Zusammenspiel mit der Open-Source-Technologie Hadoop beleuchten. Big Data braucht, wie jeder weiß, auch Big Speicherplatz. Das ist die Voraussetzung für das perfekte Gelingen der Analysen. Und hier kommt Hadoop ins Spiel. Um es in einem Satz zusammenzufassen: Laufen Big Data Analytics auf Hadoop, gehen die Kosten runter und der Profit rauf.

Wegen der niedrigen Kosten und günstigen Skalierbarkeit senkt diese Open-Source-Technologie die Einstiegshürden. Denn unglaubliche Mengen an Daten lassen sich anhäufen und monetarisieren, um schließlich als Unternehmen den nächsten Schritt von der Stufe der bloßen Digitalisierung zur digitalen Transformation hinzukriegen.

Diese Transformation ist eine notwendige Königsdisziplin der kommenden zwei Jahre für die Agenda eines jeden Unternehmens. Und was hat SAS mit Haddop zu tun? Die Kombination aus Hadoop und SAS Analytics Plattform ist eine kosteneffiziente, flexible und skalierbare, sofort zugängliche analytische Basis für Innovationen mit Big Data.

Die wichtigsten Argumente

Zugänglichkeit Wir machen Hadoop zugänglich, ohne dass spezielle Technologiekenntnisse über Hadoop nötig sind. Wir erweitern die bereits professionellen Lösung der Hadoop-Distributoren um analytische Werkzeuge und um Datenzugriff / Datenmanagement, welche die Hadoop-Plattform sinnvoll kapseln. ERGO: Praktisch bedeutet das, dass die Vorteile einer Hadoop-Infrastruktur direkt und schnell nutzbar sind, da keine am Markt sowieso seltenen Skills aufgebaut oder Fachleute rekrutiert werden müssen. Kopfmonopole werden vermieden und Risiken sowie Investments bzgl. Personal minimiert.

Analysierbarkeit SAS stellt leicht zugängliche Anwendungsoberflächen für Analytik auf Hadoop zur Verfügung (Online_Demo hier). Coding ist nicht notwendig (aber möglich für entsprechend affine Anwendergruppen). Und SAS Technologie ermöglicht verteiltes und sehr schnelles Rechnen auf dem Hadoop-Cluster (oder auch parallel dazu). In-memory Analysen lösen komplexeste Fragestellungen in sehr kurzer Zeit. Ich kann mich ohne Zeitverlust (früher notwendige Rechenzeit) von einer Erkenntnis zur nächsten bewegen und Thesen bestätigen oder neue formulieren. Auch ohne analytische Kenntnisse kann man durch die interaktive Datenvisualisierung sehr schnell Zusammenhänge verstehen. Durch eingängige Visualisierungen und Unterstützung mobiler Endgeräte können Informationsweitergaben, Abstimmungen und Entscheidungsfindungen viel schneller erfolgen.

Innovationsfähigkeit Mit SAS und Hadoop sind nun Analysen großer Datenmengen möglich (Big Data Use Case). Auch für aktuelle Anwendungsfälle mit bisheriger technischer Limitierung (Datenextrakte, programmatisch im Batchbetrieb, Daten auf Host, …). Die Kombination aus Skalierbarkeit und einfacher Zugänglichkeit fördert den Wandel zu agiler Business Intelligence auf einer flexiblen und agilen Infrastruktur statt starrem DWH und klassischem Berichtswesen. Letztlich unterstützt die Kombination aus Hadoop und SAS ein einfaches Rollout und den Aufbau von Sandboxes mit schneller und zugänglicher Visualisierung und Analytik.

Sehen Sie unsere Studie zu Business Analytics, die wir gemeinsam mit der Uni Potsdam gemacht haben.

Ihr Andreas Becks

Post a Comment

Die CeBIT, Big Data und Edward Snowden?

Ich gestehe, das hat mich überrascht. Eine Messe in der Idenitätskrise zwischen Consumer-Gadget-Show und Business-Optimierungskonferenz lädt den "bekanntesten Whistleblower der Welt" (http://www.cebit.de/)  zu einer Liveübertragung ein. Was will die CeBIT damit erreichen - und was wird sie damit erreichen?

Nach den harten Formulierungen von Sascha Lobo zum Thema Bullshit (http://www.spiegel.de/netzwelt/web/kommunikation-im-internet-sascha-lobo-ueber-netz-bullshit-a-1022976.html) muss ich nun aufpassen, nicht allzu platt zu wirken und in die gleichen Fallen zu tappen - von wegen: natürlich ist es wichtig, dass sich Unternehmen auch mit Themen des Datenschutzes beschäftigen etc.pp.

Read More »

Post a Comment

Big Data – waren wir nicht schon vor Jahren digital?

Big Data schwirrt weiter durch unseren Alltag. Versprechungen von neuen bahnbrechenden Möglichkeiten wechseln sich dabei ab mit Horrorszenarien, die uns die gläserne Zukunft androhen.

All dies läuft verstärkt unter der Überschrift Digitalisierung ab, als ob wir nicht schon seit etlichen Jahren alle möglichen digitalen Werkzeuge nutzen, um effizienter zu werden.

Ist hier wirklich eine neue Revolution im Gange – in der Industrie spricht man ja z.B. von der vierten industriellen Revolution – oder haben wir mit einer neuen Marketing-Schlacht zu tun, die nun mal eben einen entsprechend griffigen Titel braucht?

Read More »

Post a Comment

Cyber Kriminalität

Ganz früher war die Welt einfach. Der gemeine Neandertaler brauchte nur visuelle Analytik, um zu erkennen dass sein gegenüber mehr Fleisch erbeutet hatte als er selbst. Der Griff zur Keule war dann nur ein offensichtlicher nächster Schritt. Genauso einfach war damals Verbrechensbekämpfung. Auch hier spielte die vorgenannte Keule eine wahrscheinlich erhebliche Rolle. Seitdem hat sich viel getan. Zum einen ist aus der Keule zunächst eine Stich-, später eine Hiebwaffe geworden. Aus dieser entwickelte sich dann der sechs-schüssige Revolver Millimeter 38. Und welch eine Verbesserung der Angriffsmöglichkeiten eines Bankräubers muss es gewesen sein, von dieser Limitierung (sechs Schuss, dann einzelnes Nachschieben der Patronen) auf die allseits aus alten Filmen bekannte Maschinenpistole mit dem runden Patronenlager (Stichwort: Geigenkasten).

Rüde Methoden sind heute noch üblich, vor allem, wenn es darum geht, fungible Güter zu ergattern oder anderen schlicht abzunehmen. Da werden Geldtransporter gesprengt, Bankautomaten aus ihrer Verankerung gerissen und ganze Bankfilialen per Detonation zugänglich gemacht.

Wie viel filigraner ist da ein fast schon sezierender Angriff mittels eines speziell geschriebenen Stückes Software, das spezielle Ziele attackiert, sich ausgeklügelte Informationen zu Nutze macht und dann innerhalb von Sekundenbruchteilen zielgenau Geldsummen verschieben kann, die selbst mit einem Geldtransporter nicht zu bewegen wären.

Read More »

Post a Comment