Bei der Herstellung von hochauflösenden Flüssigkristallanzeigen (engl. lyquid cristal display, LCD) werden chromophore Farbpigmente auf Nanometergröße gemahlen und dann weiterverarbeitet. Dieser Mahlprozess ist teuer. Ein Erkennen und Bestätigen der Hauptursachen für eine kürzere Mahlzeit sind somit zeit- und kostenkritisch. Doch wie geht man vor, wenn man aufgrund starker Wechselwirkungen (ein Parameter ist abhängig von einem oder mehreren weiteren Parametern) nur einen Bruchteil der erwarteten wichtigen Einflußgrößen aufdeckt. Es ist ein Thema der Qualitätssicherung.
Lesen Sie wie Sie mit Hilfe von fortgeschrittenen statistischen Verfahren, sowie Versuchsplanung mit Definitive Screening Designs ein effizientes Umgehen solcher Hindernisse zu meistern ist und in diesem realen Beispiel Einsparungen im 6-stelligem Bereich erzielt werden konnten.
Sicherung der Qualität – ein alltäglicher Prozess oft abseits der allgemeinen Wahrnehmung
Qualität begegnet uns nahezu überall. Nicht sonderlich verwunderlich erscheint es dass überall um die Sicherung der Qualität, trotz immer schärferer Anforderungen, gerungen wird. Meist passiert dies im Hintergrund, fernab vom Normalsterblichen auf der Straße: Auswertung von Telefonieverhalten, automatischen Geodatenerkennung in jedem Navigationsgerät oder Mobilfunkgeräts, Bonusprogrammen und mehr, aber auch sämtliche direkt und indirekt genutzten Gebrauchsgegenstände. Das hat auch seine Gründe. Niemand möchte wirklich laufend erfahren, welche Herausforderungen in der Herstellung von Bauteilen für ein Auto oder Flugzeug oder die täglich verwendete Waschmaschine sowie den Laptop bestehen, solange alles sicher und reibungslos funktioniert.
Ganz anders sehen es die Unternehmen. Dort bietet ein besseres Verstehen der Gründe für Kundenzufriedenheit und Kundenverhalten, ein Kosten- oder Zeitvorsprung in der Herstellung bei gleicher Qualität einen klaren Wettbewerbsvorteil. Das schafft wiederum Freiräume für neue Produktentwicklungen oder für neu entwickelte Programme, Inovation als Grundlage zur Festigung seiner Marktposition.
Fallbeispiel: Kostenreduzierung bei der Herstellung von hochauflösenden LCDs
Wir wollen ein reales Fallbeispiel betrachten: In einem Herstellungsprozess von hochauflösenden LCDs müssen wir die Partikel chromophorer Farbpigmente auf eine Größe unter 200 nm (1 Nanometer entspricht 1 Millionstel Milimeter) mahlen. Das wird u.a. in einer horizontalen Perlenmühle gemacht. Dabei wird die Dispersion von Pigmenten einem mit Perlen gefüllten Kessel zugeführt. Die Perlen werden mit hoher Geschwindigkeit erregt um die Pigmentpartikel zu mahlen.
Die benötigte Zeit, um unter 200nm zu gelangen ist unsere kritische zu minimierende Zielgröße. Der Mahlprozess ist zudem sehr energie-intensiv und somit doppelt kostentreibend. Ein Verständnis, welche Einflußgrößen signifikanten Einfluß auf die Mahlzeit haben, ist das erste Ziel. Eine Optimierung der Einstellungen das Zweite. Betrachten wir als erstes die vergangenen Messungen der Mahlzeit. Nach den im Labor durchgeführten Tests erkennt man einen Drift zum Schlechteren im Routinebetrieb. Nicht nur, dass wir jetzt mit einer schlechteren mittleren Mahlzeit konfrontiert sind, die starke Streuung gibt uns ein Rätsel auf und birgt zusätzliche Unsicherheiten.
Analyse der historischen Daten – Ursachenforschung mit Schwierigkeiten
Die historischen Daten sollten bestenfalls die Information liefern, welche Parameter wirklich wichtig sind. Aus der Sicht der Datenanalyse würden wir gerne hunderte Beobachtungen haben, um aussagekräftige Modelle zu erstellen. Doch so lange wollen und können wir nicht warten, um das Herstellungsproblem zu lösen. Also arbeiten wir mit einem kleinen Datensatz mit 17 Zeilen bei 16 möglichen Einflußparametern.
Bei der Ursachenforschung weit verbreitet ist die Anwendung von multivariater Analysen und Regression. Da stoßen wir aber bereits auf die ersten Schwierigkeiten. In unseren Prozeßparametern gibt es auch kategorische Größen, für die eine multivariate Analyse nicht anwendbar ist. Möglicherweise verpasse ich dadurch einen wichtigen Zusammenhang. Ein Blick auf die Farbmatrix der Korrelationen der restlichen kontinuierlichen Parameter zeigt ein starke negative Korrelationen der Temperaturparameter mit der Zielgröße „Time to 200 nm“ und moderat starke negative Korrelation der Zeit mit der Anzahl verwendeter Perlen. Die restlichen Parameter scheinen eher weniger bedeutsam für die Zielgröße zu sein.
Stehen zwei Faktoren in Wechselwirkung und eine davon schafft es als signifikante Größe in das Modell, so wird die zweite Größe sehr wahrscheinlich nicht ins Modell aufgenommen. Das liegt daran, dass die dominante, bereits im Modell verwendete Größe die zweite Variable durch die Wechselwirkung beschreibt.
Allerdings gibt es zwischen den Faktoren teilweise erhebliche Korrelationen, die eine Modellierung erschweren können. Gibt es nun mehrere verkettete Wechselwirkungen kann das Modell diese Zusammenhänge nicht mehr ausreichend gut beschreiben. Das kann dann zu falschen Ergebnissen und Schlussfolgerungen führen, selbst wenn der R^2-Wert anzeigt, dass die Daten eigentlich gut durch das Modell beschrieben werden. Das gleiche gilt übrigens bei einer Betrachtung immer nur eines Faktors nach einander, ob nun in einer Bivariaten oder einfaktoriellen Analyse.
Führen wir eine Regression durch, ergibt das Standard Kleinste Quadrate Verfahren ein Singulatitätsproblem, und schrittweise Regression nur eine signifikante Variable, nämlich die Temperatur im Kessel, „Temp(Pot)“. Auch mit dem Entscheidungsbaum erhält man dieses Ergebnis. Ein Vorteil davon ist jedoch, man kann den Baum „schütteln“ und in JMP Spalten für die weitere Teilung sperren. Doch bei vielen Parametern ist dies nicht schön skalierbar. So auch in diesem Fall: ein Sperren von Temp(Pot) ergibt nur eine weitere signifikante Temperaturgröße.
Interaktiver Blick auf die Daten von vielen Seiten läßt unerwartetes Erkennen
Durch die interaktiven, grafischen Möglichkeiten in JMP sowie des Fachwissens erkennen wir, dass auch andere Einflußgrößen wie z.B. die Anzahl der Perlen einen Einfluß haben müssen. Nur werden diese Größen bei der Modellierung stets als nicht signifikant nicht mit ins Modell aufgenommen. Offensichlich entgeht uns mindestens ein wichtiger Zusammenhang.
Zur Erinnerung, wir wollen für die Versuchsplanung unsere möglicherweise wichtigen Faktoren aus den 16 Parametern herausfiltern. Mit dem Versuchsplan sollen dann die wichtigsten Haupteffekte erkannt, abgesichert und durch Modellbildung und Simulation der Prozess optimiert werden. Ein Versuchsplan mit ein oder zwei Faktoren, und der Gewissheit es gibt noch mindestens zwei drei weitere wichtige Einflußgrößen, die man nicht sicher kennt, ist keine gute Grundlage für eine robuste Prozessverbesserung.
Weg zum Erfolg – Fortgeschrittenen statistische Verfahren und optimale Versuchsplanung
Abhilfe schaffen hier vielleicht andere statistische Verfahren, die z.B. durch Randomisierung und Wiederholung Ausreißer, Wechselwirkungen und andere Effekte zumindest besser handhaben können. Eines dieser Verfahren ist Bootstrap Forest in JMP, ein Random Forest Verfahren.
Neben der Temperatur wird nun die erwartete Größe des Anteils an Perlen (%Beads), sowie weitere potentiell wichtigen Größen, wie P(In), P(Out) und %Pigment, der Anteil der zugeführten Pigmente, gefunden. Das bildet nun eine gute Basis für unseren Versuchsplan.
Mit Hilfe eines Definitive Screening Designs möchten wir nun mit möglichst wenig Versuchen die Haupteffekte erkennen. Mit diesem Verfahren ist es möglich auch die offensichtlich bestehenden Wechselwirkungen und möglichen quadratischen Effekte mit einbeziehen. unter Berücksichtigung. Näheres dazu finden Sie u.a. in diesem Blog von Bradley Jones, u.a. ausgezeichnet für die Entwicklung dieses Designs von der American Society for Quality's 2012 mit dem Brumbaugh Award: https://blogs.sas.com/content/jmp/2012/01/30/introducing-definitive-screening-designs/
Prozessoptimierung – Analyse der Versuchsergebnisse und interaktive Parameteroptimierung
Nach der Versuchsdurchführung werden die Daten in JMP analysiert und mit Hilfe des Screeningverfahrens (Figure 8) erkennen wir hier auch gleich die „versteckten“ Zusammenhänge:
Die Temperatur im Kessel ist neben dem Anteil an zugeführten Pigmenten als Haupteffekt signifikant. Der auf Erfahrung bekannte Effekt vom Anteil an Perlen selbst ist nicht signifikant, jedoch gibt es eine bislang noch nicht berücksichtigte Wechselwirkung sowohl mit der Temperatur als auch mit dem Anteil an Pigmenten. Ebenso gibt es einen quadratischen Effekt beim Anteil der zugeführten Pigmente. Erstellt man nun auf dieser Basis ein Modell, kann man im Analysediagramm die Zusammenhänge weiter studieren und die optimale Einstellung für den Prozess finden:
Man erkennt im Analysediagram den quadratischen Effekt in %Pigment und in %Beads (Figure 9/einbetten interaktives HTML: PigmentMill_Modell.htm). Mit Hilfe des Simulators kann ich eine Streuungskomponente mit einbauen und die damit errechneten Simulationsergebnisse als Histogramm darstellen. Das gibt mir auch gleich eine Risikoabschätzung, wie hoch die Rate ist, aus seinen vorgegebenen Spezifikationsgrenzen zu fallen.
Mit Hilfe von Wünschbarkeitsfunktionen, also hier die Minimierung der benötigten Zeit um unter 200nm zu mahlen, kann ich ein Optimum berechnen lassen. Mit den nun optimalen Einstellungen für die Temperatur, %Beads und %Pigment, erreichen wir eine durchschnittliche Dauer von unter 3 Minuten. Das entspricht mehr als einer Verdopplung der Produktion im Vergleich zum Routinebetrieb. Sollten Daten für die Energiekosten vorliegen, könnten wir diese als zweite Zielgröße mit aufnehmen und eine Pareto-optimale Einstellung finden. Hier wollen wir nur betrachten, welchen Effekt eine dauerhafte Temperatursenkung im Kessel auf unsere mittlere Zeit hat. Wir müssen im Mittel mit knapp 1 Minute mehr Zeit rechnen, was immer noch eine deutliche Verbesserung zur ursprünglichen Situation bedeuten würde. Dabei wären aber weitere Kosten für die benötigte Energie eingespart.
Ein Prüfen der nächsten Herstellungsprozesse bestätigt unser Modell und unsere optimalen Einstellungen.