Monday 6 November 2017

Äquivalenz Von Bewegend Durchschnittlich Und Exponentiell Gewichtete Bewegliche Durchschnitt Kontroll Charts


Spreadsheet-Implementierung saisonaler Anpassung und exponentieller Glättung Es ist einfach, saisonale Anpassungen durchzuführen und exponentielle Glättungsmodelle mit Excel zu platzieren. Die Bildschirmbilder und - diagramme werden aus einer Tabellenkalkulation entnommen, die eingerichtet wurde, um multiplikative saisonale Anpassung und lineare exponentielle Glättung auf den folgenden vierteljährlichen Verkaufsdaten von Outboard Marine zu veranschaulichen: Um eine Kopie der Tabellenkalkulation selbst zu erhalten, klicken Sie hier. Die Version der linearen exponentiellen Glättung, die hier für die Demonstration verwendet wird, ist die Brown8217s-Version, nur weil sie mit einer einzigen Spalte von Formeln implementiert werden kann und es gibt nur eine Glättungskonstante zu optimieren. Normalerweise ist es besser, Holt8217s Version zu verwenden, die getrennte Glättungskonstanten für Niveau und Tendenz hat. Der Prognoseprozess verläuft wie folgt: (i) Zuerst werden die Daten saisonbereinigt (ii) dann werden die Prognosen für die saisonbereinigten Daten über lineare exponentielle Glättung erzeugt und (iii) schließlich werden die saisonbereinigten Prognosen quittiert, um Prognosen für die ursprüngliche Serie zu erhalten . Der saisonale Anpassungsprozess wird in den Spalten D bis G durchgeführt. Der erste Schritt der saisonalen Anpassung besteht darin, einen zentrierten gleitenden Durchschnitt zu berechnen (hier in Spalte D durchgeführt). Dies kann getan werden, indem man den Durchschnitt von zwei einjährigen Mittelwerten annimmt, die um eine Periode relativ zueinander versetzt sind. (Eine Kombination von zwei Offset-Mittelwerten anstatt ein einzelner Durchschnitt wird für Zentrierungszwecke benötigt, wenn die Anzahl der Jahreszeiten gleich ist.) Der nächste Schritt ist, das Verhältnis zum gleitenden Durchschnitt zu berechnen - i. e. Die ursprünglichen Daten geteilt durch den gleitenden Durchschnitt in jeder Periode - die hier in Spalte E durchgeführt wird. Dies wird auch als quottrend-Zyklusquote des Musters bezeichnet, insofern als Trend - und Konjunktureffekte als all das betrachtet werden könnten Bleibt nach der Wertung über einen ganzen Jahr Wert von Daten. Natürlich, Monate-zu-Monat-Änderungen, die nicht aufgrund der Saisonalität könnte durch viele andere Faktoren bestimmt werden, aber die 12-Monats-Durchschnitt glättet über sie zu einem großen Teil Der geschätzte saisonale Index für jede Saison wird berechnet, indem zuerst alle Verhältnisse für die jeweilige Jahreszeit gemittelt werden, was in den Zellen G3-G6 unter Verwendung einer AVERAGEIF-Formel durchgeführt wird. Die Durchschnittsverhältnisse werden dann neu skaliert, so dass sie zu genau 100mal die Anzahl der Perioden in einer Jahreszeit oder 400 in diesem Fall, die in den Zellen H3-H6 durchgeführt wird, summieren. Unterhalb der Spalte F werden die VLOOKUP-Formeln verwendet, um den entsprechenden saisonalen Indexwert in jede Zeile der Datentabelle einzufügen, entsprechend dem Viertel des Jahres, das es darstellt. Der zentrierte gleitende Durchschnitt und die saisonbereinigten Daten scheinen so auszusehen: Beachten Sie, dass der gleitende Durchschnitt typischerweise wie eine glattere Version der saisonbereinigten Serie aussieht und an beiden Enden kürzer ist. Ein weiteres Arbeitsblatt in der gleichen Excel-Datei zeigt die Anwendung des linearen exponentiellen Glättungsmodells auf die saisonbereinigten Daten, beginnend in Spalte G. Ein Wert für die Glättungskonstante (alpha) wird über der Prognosespalte (hier in Zelle H9) und eingetragen Zur Bequemlichkeit erhält man den Bereichsnamen quotAlpha. quot (Der Name wird mit dem Befehl quotInsertNameCreatequot zugewiesen.) Das LES-Modell wird initialisiert, indem die ersten beiden Prognosen gleich dem ersten Istwert der saisonbereinigten Serie gesetzt werden. Die Formel, die hier für die LES-Prognose verwendet wird, ist die reine rekursive Form des Brown8217s-Modells: Diese Formel wird in die Zelle eingegeben, die der dritten Periode entspricht (hier Zelle H15) und von dort aus kopiert wird. Beachten Sie, dass die LES-Prognose für die aktuelle Periode auf die beiden vorhergehenden Beobachtungen und die beiden vorangegangenen Prognosefehler sowie auf den Wert von alpha bezieht. So bezieht sich die Prognoseformel in Zeile 15 nur auf Daten, die in Zeile 14 und früher verfügbar waren. (Natürlich, wenn wir einfach anstelle einer linearen exponentiellen Glättung verwenden wollten, könnten wir stattdessen die SES-Formel ersetzen. Wir könnten auch Holt8217s anstelle von Brown8217s LES-Modell verwenden, was zwei weitere Spalten von Formeln benötigt, um das Level und den Trend zu berechnen Die in der Prognose verwendet werden.) Die Fehler werden in der nächsten Spalte (hier Spalte J) durch Subtrahieren der Prognosen aus den Istwerten berechnet. Der Wurzel-Mittelquadratfehler wird als Quadratwurzel der Varianz der Fehler plus dem Quadrat des Mittelwerts berechnet. (Dies folgt aus der mathematischen Identität: MSE VARIANCE (Fehler) (AVERAGE (Fehler)) 2) Bei der Berechnung des Mittelwertes und der Varianz der Fehler in dieser Formel sind die ersten beiden Perioden ausgeschlossen, weil das Modell eigentlich nicht mit der Prognose beginnt Die dritte Periode (Zeile 15 auf der Kalkulationstabelle). Der optimale Wert von alpha kann entweder durch manuelles Ändern von alpha gefunden werden, bis das minimale RMSE gefunden wird, oder Sie können den quotSolverquot verwenden, um eine exakte Minimierung durchzuführen. Der Wert von alpha, den der Solver gefunden hat, wird hier gezeigt (alpha0.471). Es ist in der Regel eine gute Idee, die Fehler des Modells (in transformierten Einheiten) zu skizzieren und auch zu berechnen und ihre Autokorrelationen bei Verzögerungen von bis zu einer Saison zu zeichnen. Hier ist eine Zeitreihenfolge der (saisonbereinigten) Fehler: Die Fehlerautokorrelationen werden mit der CORREL () - Funktion berechnet, um die Korrelationen der Fehler mit sich selbst zu berechnen, die von einer oder mehreren Perioden verzögert sind - Details werden im Tabellenkalkulationsmodell angezeigt . Hier ist eine Handlung der Autokorrelationen der Fehler bei den ersten fünf Verzögerungen: Die Autokorrelationen bei den Verzögerungen 1 bis 3 sind sehr nahe bei null, aber die Spitze bei Verzögerung 4 (deren Wert 0,35 ist) ist etwas lästig - es deutet darauf hin, dass die Der saisonale Anpassungsprozess war nicht ganz erfolgreich. Allerdings ist es eigentlich nur geringfügig signifikant. 95 Signifikanzbänder zum Testen, ob Autokorrelationen signifikant von Null verschieden sind, sind etwa plus-oder-minus 2SQRT (n-k), wobei n die Stichprobengröße und k die Verzögerung ist. Hierbei ist n 38 und k von 1 bis 5, so dass die Quadratwurzel-von-n-minus-k für alle von ihnen etwa 6 ist und daher die Grenzen für die Prüfung der statistischen Signifikanz von Abweichungen von Null ungefähr plus - Oder-minus 26 oder 0,33. Wenn Sie den Wert von alpha von Hand in diesem Excel-Modell variieren, können Sie den Effekt auf die Zeitreihen und Autokorrelationsdiagramme der Fehler sowie auf den root-mean-squared-Fehler beobachten, der nachfolgend dargestellt wird. Am unteren Rand der Kalkulationstabelle wird die Prognoseformel in die Zukunft durch die bloße Substitution von Prognosen für Istwerte an der Stelle, an der die tatsächlichen Daten ausgehen, ausgedrückt. Wo quotthe futurequot beginnt. (Mit anderen Worten, in jeder Zelle, in der ein zukünftiger Datenwert auftreten würde, wird eine Zellenreferenz eingefügt, die auf die für diesen Zeitraum vorgenommene Prognose hinweist.) Alle anderen Formeln werden einfach von oben kopiert: Beachten Sie, dass die Fehler für Prognosen von Die Zukunft wird alle berechnet, um Null zu sein. Das bedeutet nicht, dass die tatsächlichen Fehler null sein werden, sondern vielmehr nur die Tatsache, dass für die Zwecke der Vorhersage wir davon ausgehen, dass die zukünftigen Daten die Prognosen im Durchschnitt entsprechen werden. Die daraus resultierenden LES-Prognosen für die saisonbereinigten Daten sehen so aus: Mit diesem besonderen Wert von alpha, der für Ein-Perioden-Vorhersagen optimal ist, ist der prognostizierte Trend leicht nach oben gerichtet und spiegelt den lokalen Trend wider, der in den letzten 2 Jahren beobachtet wurde oder so. Für andere Werte von alpha könnte eine sehr unterschiedliche Trendprojektion erhalten werden. Es ist in der Regel eine gute Idee zu sehen, was mit der langfristigen Trendprojektion passiert, wenn Alpha abwechslungsreich ist, denn der Wert, der für kurzfristige Prognosen am besten ist, wird nicht unbedingt der beste Wert für die Vorhersage der weiter entfernten Zukunft sein. Zum Beispiel ist hier das Ergebnis, das erhalten wird, wenn der Wert von alpha manuell auf 0,25 gesetzt wird: Der projizierte Langzeittrend ist jetzt eher negativ als positiv Mit einem kleineren Wert von alpha, setzt das Modell mehr Gewicht auf ältere Daten in Die Einschätzung des aktuellen Niveaus und der Tendenz sowie die langfristigen Prognosen spiegeln den in den letzten 5 Jahren beobachteten Abwärtstrend und nicht den jüngsten Aufwärtstrend wider. Diese Tabelle verdeutlicht auch deutlich, wie das Modell mit einem kleineren Wert von Alpha langsamer ist, um auf Quotturning Points in den Daten zu antworten und neigt daher dazu, für viele Perioden in einer Reihe einen Fehler des gleichen Vorzeichens zu machen. Die pro-Schritt-Prognosefehler sind im Durchschnitt größer als die zuvor erhaltenen (RMSE von 34,4 statt 27,4) und stark positiv autokorreliert. Die Lag-1-Autokorrelation von 0,56 übersteigt deutlich den oben berechneten Wert von 0,33 für eine statistisch signifikante Abweichung von Null. Als Alternative zum Anreißen des Alpha-Wertes, um mehr Konservatismus in langfristige Prognosen einzuführen, wird dem Modell manchmal ein quottrend dämpfungsfaktor hinzugefügt, um den projizierten Trend nach einigen Perioden abzubauen. Der letzte Schritt beim Aufbau des Prognosemodells besteht darin, die LES-Prognosen durch Multiplikation mit den entsprechenden saisonalen Indizes zu berechnen. So sind die reseasonalisierten Prognosen in Spalte I einfach das Produkt der saisonalen Indizes in Spalte F und der saisonbereinigten LES-Prognosen in Spalte H. Es ist relativ einfach, Konfidenzintervalle für einstufige Prognosen dieses Modells zu berechnen: erstens Berechnen Sie den RMSE (root-mean-squared error, der nur die Quadratwurzel des MSE ist) und berechnen Sie dann ein Konfidenzintervall für die saisonbereinigte Prognose durch Addition und Subtraktion von zweimal dem RMSE. (Im Allgemeinen ist ein 95-Konfidenzintervall für eine Prognose von einer Periode vorausgehend gleich der Punktprognose plus-oder-minus-zweimal der geschätzten Standardabweichung der Prognosefehler, vorausgesetzt, die Fehlerverteilung ist annähernd normal und die Stichprobengröße Ist groß genug, sagen wir, 20 oder mehr. Hier ist die RMSE anstatt der Stichproben-Standardabweichung der Fehler die beste Schätzung der Standardabweichung der zukünftigen Prognosefehler, weil es Bias sowie zufällige Variationen berücksichtigt.) Die Vertrauensgrenzen Für die saisonbereinigte prognose werden dann neu geschrieben. Zusammen mit der Prognose, indem sie mit den entsprechenden saisonalen Indizes multipliziert werden. In diesem Fall ist die RMSE gleich 27,4 und die saisonbereinigte Prognose für die erste zukünftige Periode (Dez-93) beträgt 273,2. So dass das saisonbereinigte 95 Konfidenzintervall von 273,2-227,4 218,4 bis 273,2227,4 328,0 liegt. Multiplikation dieser Grenzen durch Dezembers Saisonindex von 68,61. Wir erhalten niedrigere und obere Konfidenzgrenzen von 149,8 und 225,0 um die Dez-93-Punkt-Prognose von 187,4. Vertrauensgrenzen für Prognosen, die mehr als eine Periode im Vorfeld sind, werden sich im Allgemeinen mit dem Unsicherheitsgrad über das Niveau und den Trend sowie die saisonalen Faktoren erweitern, aber es ist schwierig, sie im Allgemeinen durch analytische Methoden zu berechnen. (Der richtige Weg, um die Vertrauensgrenzen für die LES-Prognose zu berechnen, ist die Verwendung der ARIMA-Theorie, aber die Unsicherheit in den saisonalen Indizes ist eine andere Sache.) Wenn Sie ein realistisches Konfidenzintervall für eine Prognose von mehr als einer Periode haben möchten, nehmen Sie alle Quellen von Fehler in Rechnung, Ihre beste Wette ist es, empirische Methoden zu verwenden: Zum Beispiel, um ein Konfidenzintervall für eine 2-Schritt voraus Prognose zu erhalten, könnten Sie eine weitere Spalte auf der Kalkulationstabelle erstellen, um eine 2-Schritt-Prognose für jeden Zeitraum zu berechnen ( Durch bootstrapping der one-step-ahead-prognose). Dann berechnen Sie die RMSE der 2-Schritt-voraus Prognose Fehler und verwenden Sie diese als Grundlage für ein 2-Schritt-voraus Vertrauen Intervall. Designs von ein-und zweiseitigen exponentiellen EWMA-Charts Exponentiell gewichtete gleitende Durchschnitt (EWMA) Kontrollkarten sind Entwickelt für die Überwachung der Rate der Vorkommen von seltenen Ereignissen auf der Grundlage der interarrival Zeiten dieser Ereignisse. Die durchschnittlichen Lauflängen der EWMA-Charts werden genau auf der Grundlage der Lösung eines Satzes von Differentialgleichungen bestimmt. Die Auswirkungen der Verwendung von Grenzen auf den einseitigen EWMA-Diagrammen werden untersucht und es werden vernünftige Entscheidungsmöglichkeiten vorgeschlagen. Zur Bestimmung der Diagrammparameter eines einseitigen oder zweiseitigen EWMA-Diagramms ist ein einfaches Konstruktionsverfahren vorgesehen. Das mit dem Designverfahren erhaltene Diagramm ist innerhalb der Klasse der EWMA-Charts optimal. Die kumulativen Summen (CUSUM) und EWMA-Charts werden anhand der durchschnittlichen Lauflänge verglichen. Das CUSUM-Diagramm ist bei der Erkennung des beabsichtigten Mittels optimal, während das EWMA-Diagramm etwas weniger empfindlich ist. Möchten Sie den Rest dieses Artikels lesen? Zitate Zitate In diesem Sinne ist diese Arbeit ein Versuch, die Kluft zwischen Theorie und Anwendungen der sequentiellen Analyse zu überbrücken. Es ist anzumerken, dass die Notwendigkeit, die Leistung des CUSUM-Diagramms (oder des SPRT oder eines anderen Kontrollplans für diese Angelegenheit) numerisch zu bewerten, durch die Tatsache bestimmt wird, dass die entsprechenden Merkmale (z. B. der Null-Zustand ARL, der ASN-Funktion oder die OC-Funktion) werden durch ganzzahlige (Erneuerungs-) Gleichungen geregelt, die selten einen analytischen Lösungsfall zulassen, in dem eine analytische geschlossene Lösung möglich ist In 27282930313233 für die CUSUM-Chart in 3435363738 für die SPRT, 394041 für die Exponentiell gewichtete Moving Average (EWMA) Chart (eingeführt von Roberts 17), und in 21.424344454647und 48, Kapitel 4 für die Generalized ShiryaevRoberts Verfahren. Da die Kontrolle chartsx27 Leistungsbewertung ein anhaltendes Problem bei der angewandten sequentiellen Analyse (vor allem bei der Qualitätskontrolle) ist, ist die numerische Behandlung der entsprechenden Integralgleichungen de facto zu einem gesonderten Forschungsfeld geworden, und die Literatur zum Thema ist in der Tat sehr groß. Abstrakt Ausblenden abstrakt ABSTRAKT: Wir schaffen eine einfache Verbindung zwischen bestimmten In-Control-Merkmalen der CUSUM Run Length und ihren Out-of-Control-Pendants. Die Verbindung erfolgt in Form von gepaarten Integral - (Erneuerungs-) Gleichungen. Die Ableitung nutzt die Identität des Waldx27s-Likelihood-Verhältnisses und die bekannte Tatsache, dass das CUSUM-Diagramm der wiederholten Anwendung von Waldx27s SPRT gleichkommt. Die betrachteten Merkmale umfassen die gesamte Lauflängenverteilung und alle entsprechenden Momente, ausgehend von der Null-Zustand-ARL. Ein besonderer praktischer Nutzen unseres Ergebnisses ist, dass es ermöglicht, dass die In - und Out-of-Control-Eigenschaften der CUSUM Run Length gleichzeitig berechnet werden. Darüber hinaus können aufgrund der Äquivalenz des CUSUM-Diagramms zu einer Sequenz von SPRTs die ASN - und OC-Funktionen eines SPRT unter der Null und unter der Alternative auch gleichzeitig berechnet werden. Dies würde die Effizienz einer beliebigen numerischen Methode verdoppeln, die man wählen kann, um die tatsächlichen Berechnungen durchzuführen. Volltext Artikel Jun 2016 Aleksey S. Polunchenko quotTime-between-Event (TBE) Kontrolldiagramm hat sich als wirksam und effizient bei der Überwachung von High-Yield-Prozess erwiesen. Für variable TBE-Charts entwickelten Forscher exponentielles CUSUM-Diagramm (Lucas, 1985 Vardeman amp Ray, 1985), exponentielles EWMA-Diagramm (Gan, 1998) und Exponentialdiagramm (Xie, Goh, amp Ranjan, 2002 Zhang, Xie, amp Goh, 2006) . Und für Attribut TBE Charts wurde die kumulative Zählung des konformen (CCC) Chart weitgehend untersucht (Kuralmani, Xie, Goh, amp Gan, 2002 Ranjan, Xie, amp Goh, 2003 Xie, Goh, amp Kuralmani, 2000). Abstrakt Ausblenden abstrakt ABSTRAKT: Für einen stabilen Herstellungsprozess werden Qualitätsprobleme oft durch Änderungen der Prozessdispersion verursacht. Zwar gab es viel Forschung über die Überwachung der Prozessdispersion, die bestehenden Untersuchungen von synthetischen Diagrammen zur Überwachung der Prozessdispersion konzentrieren sich nur auf die Aufwärtsschichtüberwachung. Allerdings ist auch die Verringerung der Schichtüberwachung notwendig und wichtig. In diesem Papier wird ein synthetisches S 2 - Tiagramm vorgeschlagen, um gleichzeitig sowohl Aufwärts - als auch Abwärtsverschiebungen zu überwachen, und es besteht aus einem doppelseitigen S 2 - Unterplan von Shewhart-Typ und einem konformen Lauflängen-Unterdiagramm. In dem bekannten In-Control-Varianz-Fall benötigt das konforme Lauflängen-Sub-Diagramm nur eine untere Steuergrenze und das vorgeschlagene synthetische S 2 - Tiagramm ist als durchschnittliche Lauflänge (ARL) unvoreingenommen dargestellt. Die Wirkung der Parameterschätzung auf die vorgeschlagene synthetische S 2 - Tabelle wird ebenfalls untersucht, da es ein wichtiges Thema ist, vor allem in den realen Herstellungsprozessen. In Anbetracht der Tatsache, dass die In-Control-Varianz in der Regel unbekannt ist und durch Phase-I-Proben in der Praxis geschätzt werden muss, wird ein neues synthetisches S 2 - Tiagramm entwickelt, bei dem auch ein konformes Lauflängen-Sub-Diagramm nur eine untere Kontrollgrenze benötigt Abweichung wird geschätzt. Darüber hinaus werden optimale Entwürfe für bekannte und unbekannte Parameterfälle untersucht. Der Vorteil der vorgeschlagenen Tabelle in der Leistung ist in den Ergebnissen des Vergleichs mit dem ARL-unvoreingenommene S 2 Diagramm gezeigt. Auch ein Beispiel veranschaulicht die Konstruktion und das Anwendungsverfahren dieser vorgeschlagenen Tabelle. Volltext Artikel Aug 2015 Baocai Guo Bing Xing Wang Yuan Cheng quotFor diesem Grund werden TBE-Kontrollkarten oft als exponentielle Kontrollkarten bezeichnet. Da Lucas (1985) und Vardeman und Ray (1985) erstmals das TBE-Kontrollschema vorgestellt haben, haben sich viele neuere Studien auf das TBE-Kontrollschema konzentriert, einschließlich des Exponentialdiagramms (Chan, Xie und Goh 2000 Chan et al., 2002 Jones und Champ 2002 Xi, Goh und Ranjan 2002 Zhang, Xie und Goh 2005 Zhang, Xie und Goh 2006 Zhang et al. 2011 Dovoedo und Chakraborti 2012), der exponentielle CUSUM-Chart (Lucas 1985 Gan 1994 Borror, Kates und Montgomery 2003 Cheng Und Chen 2011 Qu et al. 2013 Zhang, Megahed und Woodall 2014) und die exponentielle EWMA-Chart (Gan 1998 Ozsan, Testik und Wei 2010 Chen 2012). Die durchschnittliche Lauflänge (ARL) wird weithin verwendet, um die Leistung der Kontrollkarten zu bewerten. Abstrakt Ausblenden abstrakt ABSTRAKT: Exponentielle Diagramme, die auf Zeit-zwischen-Ereignissen (TBE) Daten basieren, werden weitgehend untersucht und in verschiedenen Bereichen angewendet. Die mittlere Zeit zum Signal (ATS) wird anstelle der durchschnittlichen Lauflänge verwendet, um die Leistung von TBE-Diagrammen zu bewerten, da das ATS sowohl die Anzahl als auch die Zeit der Proben, die geprüft werden, bis ein Signal auftritt, beinhaltet. Ein ATS-unvoreingenommene exponentielles Kontrolldiagramm wird vorgeschlagen, wenn der In-Control-Parameter bekannt ist. In Anbetracht der Notwendigkeit, in der Praxis zu beginnen, einen Produktionsprozess so bald wie möglich zu überwachen, wird ein sequentielles Stichprobenverfahren angenommen und der In-Control-Parameter wird durch einen unvoreingenommenen und konsistenten Schätzer geschätzt. Einige spezifische Richtlinien zum Stoppen der Aktualisierung der Kontrollgrenzen werden aus der Beziehung zwischen der Stichprobengröße der Phase I und der tatsächlichen falschen Alarmrate erhalten. Schließlich werden zwei echte Beispiele gegeben, um die Implementierung und Effizienz der vorgeschlagenen Methode zu veranschaulichen. Volltext Artikel Apr 2015Verfahren Lauflängen für CUSUM Schemata, wenn Beobachtungen exponentiell verteilt zitiert Zitate Zitate Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Zitat Es ist anzumerken, dass die Notwendigkeit, die Leistung des CUSUM-Diagramms (oder des SPRT oder eines anderen Kontrollplans für diese Angelegenheit) numerisch zu bewerten, durch die Tatsache bestimmt wird, dass die entsprechenden Merkmale (z. B. der Null-Zustand ARL, der ASN-Funktion oder die OC-Funktion) werden durch ganzzahlige (Erneuerungs-) Gleichungen geregelt, die selten einen analytischen Lösungsfall zulassen, in dem eine analytische geschlossene Lösung möglich ist In 27282930313233 für die CUSUM-Chart in 3435363738 für die SPRT, 394041 für die Exponentiell gewichtete Moving Average (EWMA) Chart (eingeführt von Roberts 17), und in 21.424344454647und 48, Kapitel 4 für die Generalized ShiryaevRoberts Verfahren. Da die Kontrolle chartsx27 Leistungsbewertung ein anhaltendes Problem bei der angewandten sequentiellen Analyse (vor allem bei der Qualitätskontrolle) ist, ist die numerische Behandlung der entsprechenden Integralgleichungen de facto zu einem gesonderten Forschungsfeld geworden, und die Literatur zum Thema ist in der Tat sehr groß. Abstrakt Ausblenden abstrakt ABSTRAKT: Wir schaffen eine einfache Verbindung zwischen bestimmten In-Control-Merkmalen der CUSUM Run Length und ihren Out-of-Control-Pendants. Die Verbindung erfolgt in Form von gepaarten Integral - (Erneuerungs-) Gleichungen. Die Ableitung nutzt die Identität des Waldx27s-Likelihood-Verhältnisses und die bekannte Tatsache, dass das CUSUM-Diagramm der wiederholten Anwendung von Waldx27s SPRT gleichkommt. Die betrachteten Merkmale umfassen die gesamte Lauflängenverteilung und alle entsprechenden Momente, ausgehend von der Null-Zustand-ARL. Ein besonderer praktischer Nutzen unseres Ergebnisses ist, dass es ermöglicht, dass die In - und Out-of-Control-Eigenschaften der CUSUM Run Length gleichzeitig berechnet werden. Darüber hinaus können aufgrund der Äquivalenz des CUSUM-Diagramms zu einer Sequenz von SPRTs die ASN - und OC-Funktionen eines SPRT unter der Null und unter der Alternative auch gleichzeitig berechnet werden. Dies würde die Effizienz einer beliebigen numerischen Methode verdoppeln, die man wählen kann, um die tatsächlichen Berechnungen durchzuführen. Volltext Artikel Jun 2016 Aleksey S. Polunchenko quot. H X x j E Sei X P und X E das Wahrscheinlichkeitsmaß und die induzierte Erwartung entsprechend dem Anfangswert. 0 x X Vardeman und Ray 15 quot Abstrakt Ausblenden Abstrakt ABSTRAKT: Das kumulative Summen (CUSUM) Diagramm bietet gute Leistung bei der Erkennung von kleinen Verschiebungen des Prozessmittels. In dieser Arbeit entnehmen wir explizite Formeln der durchschnittlichen Lauflänge, wenn Beobachtungen einen Trend bilden stationäres pth Ordnung autoregressives Modell mit exponentieller Verteilung weißes Rauschen auf CUSUM-Diagramm. Die numerischen Ergebnisse aus expliziten Formeln und dem numerischen Integrationsansatz werden vorgestellt. Unsere Ergebnisse zeigen, dass die explizite Formel die Berechnungszeiten reduzieren kann, um die ARL im Vergleich zum numerischen Integrationsansatz zu bewerten. Die vorgeschlagenen expliziten Formeln von ARL sind sehr nützlich, um ein optimales CUSUM-Diagramm zu entwerfen. Artikel Okt 2015 Computer amp Industrial Engineering Saowanit Sukparungsee Piyapatr Busabodin Yupaporn Areepong quotTime-between-Event (TBE) Kontrolldiagramm hat sich als wirksam und effizient bei der Überwachung von High-Yield-Prozess erwiesen. Für variable TBE-Charts entwickelten Forscher exponentielles CUSUM-Diagramm (Lucas, 1985 Vardeman amp Ray, 1985), exponentielles EWMA-Diagramm (Gan, 1998) und Exponentialdiagramm (Xie, Goh, amp Ranjan, 2002 Zhang, Xie, amp Goh, 2006) . Und für Attribut TBE Charts wurde die kumulative Zählung des konformen (CCC) Chart weitgehend untersucht (Kuralmani, Xie, Goh, amp Gan, 2002 Ranjan, Xie, amp Goh, 2003 Xie, Goh, amp Kuralmani, 2000). Abstrakt Ausblenden abstrakt ABSTRAKT: Für einen stabilen Herstellungsprozess werden Qualitätsprobleme oft durch Änderungen der Prozessdispersion verursacht. Zwar gab es viel Forschung über die Überwachung der Prozessdispersion, die bestehenden Untersuchungen von synthetischen Diagrammen zur Überwachung der Prozessdispersion konzentrieren sich nur auf die Aufwärtsschichtüberwachung. Allerdings ist auch die Verringerung der Schichtüberwachung notwendig und wichtig. In diesem Papier wird ein synthetisches S 2 - Tiagramm vorgeschlagen, um gleichzeitig sowohl Aufwärts - als auch Abwärtsverschiebungen zu überwachen, und es besteht aus einem doppelseitigen S 2 - Unterplan von Shewhart-Typ und einem konformen Lauflängen-Unterdiagramm. In dem bekannten In-Control-Varianz-Fall benötigt das konforme Lauflängen-Sub-Diagramm nur eine untere Steuergrenze und das vorgeschlagene synthetische S 2 - Tiagramm ist als durchschnittliche Lauflänge (ARL) unvoreingenommen dargestellt. Die Wirkung der Parameterschätzung auf die vorgeschlagene synthetische S 2 - Tabelle wird ebenfalls untersucht, da es ein wichtiges Thema ist, vor allem in den realen Herstellungsprozessen. In Anbetracht der Tatsache, dass die In-Control-Varianz in der Regel unbekannt ist und durch Phase-I-Proben in der Praxis geschätzt werden muss, wird ein neues synthetisches S 2 - Tiagramm entwickelt, bei dem auch ein konformes Lauflängen-Sub-Diagramm nur eine untere Kontrollgrenze benötigt Abweichung wird geschätzt. Darüber hinaus werden optimale Entwürfe für bekannte und unbekannte Parameterfälle untersucht. Der Vorteil der vorgeschlagenen Tabelle in der Leistung ist in den Ergebnissen des Vergleichs mit dem ARL-unvoreingenommene S 2 Diagramm gezeigt. Auch ein Beispiel veranschaulicht die Konstruktion und das Anwendungsverfahren dieser vorgeschlagenen Tabelle. Volltext Artikel Aug 2015 Baocai Guo Bing Xing Wang Yuan Cheng

No comments:

Post a Comment