Erforschung der exponentiell gewichteten beweglichen Durchschnitt. Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Aromen In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität zu berechnen, um diesen Artikel zu lesen, siehe Verwenden der Volatilität, um zukünftiges Risiko zu messen Wir haben Google verwendet S tatsächliche Aktienkursdaten, um die tägliche Volatilität auf der Grundlage von 30 Tagen der Bestandsdaten zu berechnen In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren die exponentiell gewichtete gleitenden Durchschnitt EWMA Historical Vs Implizite Volatilität Zuerst lassen Sie diese Metrik in ein bisschen setzen Der Perspektive Es gibt zwei breite Ansätze historische und implizite oder implizite Volatilität Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, messen wir die Geschichte in der Hoffnung, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung von Volatil enthält Ity Für verwandte Lesung, siehe Die Verwendungen und Grenzen der Volatilität. Wenn wir auf nur die drei historischen Ansätze auf der linken Seite konzentrieren, haben sie zwei Schritte gemeinsam. Calculate die Reihe von periodischen returns. Apply ein Gewichtungsschema. Zunächst berechnen wir Die periodische Rückkehr Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Begriffen ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse, dh Preis heute geteilt durch den Preis gestern, und so weiter. Dies produziert ein Reihe von täglichen Renditen, von ui zu u im, je nachdem, wieviele Tage m Tage, die wir messen. Das bekommt uns zum zweiten Schritt Dies ist, wo die drei Ansätze unterscheiden Im vorherigen Artikel Mit Volatility To Gauge Future Risk haben wir gezeigt, dass unter Ein paar akzeptable Vereinfachungen, die einfache Varianz ist der Durchschnitt der quadratischen returns. Notice, dass dies summiert jede der periodischen Rückkehr, dann teilt, dass insgesamt durch die Anzahl der Tage oder Beobachtungen m Also, es ist wirklich jus T ein Durchschnitt der quadrierten periodischen Rückkehr Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben Also, wenn Alpha a ist ein Gewichtungsfaktor speziell, ein 1 m, dann eine einfache Varianz sieht so etwas aus. Die EWMA verbessert auf einfache Varianz Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen Gestern hat die sehr jüngste Rendite keinen Einfluss mehr auf die Varianz als im letzten Monat s return Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden durchschnittlichen EWMA, in dem neuere Renditen größeres Gewicht haben, behoben Auf der Varianz. Der exponentiell gewichtete gleitende Durchschnitt EWMA führt Lambda ein, der als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle von gleichen Gewichten jede quadratische Rückkehr mit einem Multiplikator wie folgt gewichtet. Zum Beispiel RiskMetrics TM, Eine finanzielle Risikomanagement-Gesellschaft, neigt dazu, ein Lambda von 0 94 oder 94 zu verwenden. In diesem Fall wird die erste jüngste quadrierte periodische Rückkehr um 1 bis 0 bewertet. 94 94 0 6 Die n Ext-Quadraten-Rückkehr ist einfach ein Lambda-Vielfache des Vorgewichts in diesem Fall 6 multipliziert mit 94 5 64 Und das dritte Gewicht des Vorjahres entspricht 1-0 94 0 94 2 5 30.Das ist die Bedeutung von Exponential in EWMA jedes Gewicht Ist ein konstanter Multiplikator, dh Lambda, der kleiner sein muss als einer des vorherigen Tagesgewichtes. Dies stellt eine Abweichung sicher, die gewichtet oder voreingenommen auf neuere Daten ist. Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für Google an Volatilität Der Unterschied zwischen einfacher Volatilität Und EWMA für Google ist unten gezeigt. Simple Volatilität wirkt effektiv jede periodische Rendite um 0 196 wie in Spalte O gezeigt haben wir zwei Jahre täglich Aktienkursdaten Das ist 509 tägliche Renditen und 1 509 0 196 Aber beachten Sie, dass Spalte P zuteilt Ein Gewicht von 6, dann 5 64, dann 5 3 und so weiter Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Remember Nachdem wir die ganze Serie in Spalte Q summieren, haben wir die Varianz, die das Quadrat der Standardabweichung If ist Wir wollen Volatilität, wir nee D zu erinnern, um die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA in Google s Fall Es ist wichtig Die einfache Varianz gab uns eine tägliche Volatilität von 2 4 aber die EWMA gab eine tägliche Volatilität von Nur 1 4 siehe die kalkulationstabelle für Details Anscheinend hat sich die Volatilität von Google in letzter Zeit abgebrochen, so dass eine einfache Varianz künstlich hoch sein könnte. Heute ist die Abweichung eine Funktion der Pior Day s Abweichung Sie werden bemerken, dass wir eine lange Reihe von exponentiell berechnen müssen Sinkende gewichte Wir haben hier die Mathematik gewonnen, aber eines der besten Eigenschaften der EWMA ist, dass die ganze Serie bequem auf eine rekursive formula. Recursive reduziert, dass heute s Varianzreferenzen dh eine Funktion der vorherigen Variante ist Finden Sie diese Formel in der Kalkulationstabelle auch, und es produziert genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt Heute ist die Abweichung unter EWMA gleich gestern abweichend von Lambda plus gestern ss gewichtet Gekreuzte Rückkehr gewogen von einem Minus Lambda Beachten Sie, wie wir nur zwei Begriffe zusammen addieren gestern s gewichtete Varianz und gestern gewichtet, quadrierte return. Even so, lambda ist unser Glättungsparameter Ein höheres Lambda zB wie RiskMetric s 94 zeigt langsameren Zerfall in der Serie - In relativer Hinsicht werden wir mehr Datenpunkte in der Serie haben und sie werden langsam abfallen. Auf der anderen Seite, wenn wir das Lambda reduzieren, geben wir einen höheren Zerfall an, wenn die Gewichte schneller abfallen und als direkte Ergebnis des schnellen Zerfalls, weniger Datenpunkte werden verwendet In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können. Zusammenfassung Volatilität ist die momentane Standardabweichung eines Bestandes und die häufigste Risiko-Metrik Es ist auch die Quadratwurzel Der Abweichung Wir können die Abweichung historisch oder implizit implizite Volatilität messen Wenn man historisch misst, ist die einfachste Methode einfacher Abweichung. Aber die Schwäche mit einfacher Abweichung ist, dass alle Renditen gleich sind Acht So stehen wir vor einem klassischen Kompromiss, wir wünschen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit weniger relevante Daten verdünnt Der exponentiell gewichtete gleitende Durchschnitt EWMA verbessert die einfache Varianz, indem er den periodischen Renditen Gewichte zuweist Dies können wir beide eine große Stichprobengröße verwenden, aber auch ein größeres Gewicht auf neuere Renditen geben. Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle. Moving durchschnittliche und exponentielle Glättung Modelle. Als ein erster Schritt in Bewegung über mittlere Modelle, zufällige Walk-Modelle und lineare Trend-Modelle, Nicht-Sektion Muster und Trends können mit einem Umzug extrapoliert werden - Groß - oder Glättungsmodell Die Grundannahme hinter Mittelwertbildung und Glättung von Modellen ist, dass die Zeitreihe lokal stationär mit einem langsam variierenden Mittel ist. Daher nehmen wir einen bewegten lokalen Durchschnitt, um den aktuellen Wert des Mittelwerts zu schätzen und dann das als Prognose zu verwenden Die nahe Zukunft Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-without-drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als geglättete Version des Originals bezeichnet Serie, weil kurzfristige Mittelung hat die Wirkung der Glättung der Beulen in der ursprünglichen Serie Durch die Anpassung der Grad der Glättung der Breite des gleitenden Durchschnitt, können wir hoffen, schlagen s Ome Art der optimalen Balance zwischen der Leistung der mittleren und zufälligen Wandermodelle Die einfachste Art von Mittelungsmodell ist die. Einfache gleichgewichtete Moving Average. Die Prognose für den Wert von Y zum Zeitpunkt t 1, der zum Zeitpunkt t gemacht wird, entspricht dem Einfacher Durchschnitt der letzten m Beobachtungen. Hier und anderswo verwende ich das Symbol Y-Hut, um für eine Prognose der Zeitreihe Y zu stehen, die am frühestmöglichen früheren Datum durch ein gegebenes Modell gemacht wurde. Dieser Durchschnitt ist in der Periode & lgr; m 1 2 zentriert, was bedeutet, dass die Schätzung von Das lokale Mittel neigt dazu, hinter dem wahren Wert des lokalen Mittels um etwa m 1 2 Perioden zu liegen. So sagen wir, dass das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt m 1 2 relativ zu dem Zeitraum ist, für den die Prognose berechnet wird Dies ist die Zeitspanne, mit der die Prognosen dazu neigen, hinter den Wendepunkten in den Daten zu liegen. Zum Beispiel, wenn Sie die letzten 5 Werte mittelschätzen, werden die Prognosen etwa 3 Perioden spät in Reaktion auf Wendepunkte sein. Beachten Sie, dass wenn m 1, Das einfache gleitende durchschnittliche SMA-Modell entspricht dem zufälligen Walk-Modell ohne Wachstum Wenn m sehr groß ist, vergleichbar mit der Länge der Schätzperiode ist das SMA-Modell gleichbedeutend mit dem mittleren Modell Wie bei jedem Parameter eines Prognosemodells ist es üblich Um den Wert von ki anzupassen Um die bestmögliche Anpassung an die Daten zu erhalten, dh die kleinsten Prognosefehler im Durchschnitt. Hierbei handelt es sich um ein Beispiel für eine Serie, die zufällige Schwankungen um ein langsam variierendes Mittel zeigt. Zuerst wollen wir versuchen, es mit einem zufälligen Spaziergang zu platzieren Modell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Term. Die zufällige Spaziergang Modell reagiert sehr schnell auf Änderungen in der Serie, aber in diesem Fall nimmt es viel von dem Rauschen in den Daten die zufälligen Schwankungen sowie das Signal der lokalen Bedeutet, wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Terminen ausprobieren, bekommen wir einen glatteren Prognosen. Der 5-fach einfache gleitende Durchschnitt liefert deutlich kleinere Fehler als das zufällige Spaziergang Modell in diesem Fall Das Durchschnittsalter der Daten in diesem Prognose ist 3 5 1 2, so dass es dazu neigt, hinter Wendepunkte um etwa drei Perioden zurückzukehren. Zum Beispiel scheint ein Abschwung in der Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich nicht um einige Perioden später. Nicht, Term Prognosen aus dem SMA Mod El sind eine horizontale gerade Linie, genauso wie im zufälligen Spaziergangmodell So geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Allerdings sind die Prognosen aus dem zufälligen Walk-Modell einfach gleich dem letzten beobachteten Wert, die Prognosen von Das SMA-Modell ist gleich einem gewichteten Durchschnitt der jüngsten Werte. Die von Statgraphics für die Langzeitprognosen des einfachen gleitenden Durchschnittes berechneten Konfidenzgrenzen werden nicht größer, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht korrekt. Leider gibt es keinen zugrunde liegenden Statistische Theorie, die uns sagt, wie sich die Konfidenzintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Vertrauensgrenzen für die längerfristigen Prognosen zu berechnen. Zum Beispiel könnten Sie eine Tabellenkalkulation erstellen, in der das SMA-Modell steht Würde zur Vorhersage von 2 Schritten voraus, 3 Stufen voraus, etc. innerhalb der historischen Daten Probe Sie konnten dann die Probe Standardabweichungen der Fehler bei jeder Prognose h Orizon, und konstruieren dann Konfidenzintervalle für längerfristige Prognosen durch Hinzufügen und Subtrahieren von Vielfachen der entsprechenden Standardabweichung. Wenn wir einen 9-fach einfach gleitenden Durchschnitt versuchen, bekommen wir noch glattere Prognosen und mehr von einem nacheilenden Effekt. Das Durchschnittsalter ist Jetzt 5 Perioden 9 1 2 Wenn wir einen 19-fachen gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10.Notice, dass die Prognosen in der Tat hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welche Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, auch einen 3-Term-Durchschnitt. Model C, der 5-fache gleitende Durchschnitt, ergibt den niedrigsten Wert von RMSE um eine kleine Marge über die 3-Term - und 9-Term-Mittelwerte und Ihre anderen stats sind fast identisch Also, bei Modellen mit sehr ähnlichen Fehlerstatistiken können wir wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen. Zurück zum Seitenanfang. Brown s Simple Exponential Glättung exponentiell gewichtet Gleitender Durchschnitt. Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, dass es die letzten k Beobachtungen gleichermaßen behandelt und alle vorherigen Beobachtungen vollständig ignoriert. Intuitiv sollten die vergangenen Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel die jüngste Beobachtung sollte Bekomme ein bisschen mehr Gewicht als die 2. jüngsten, und die 2. jüngsten sollte ein bisschen mehr Gewicht als die 3. letzte, und so weiter Die einfache exponentielle Glättung SES Modell erreicht dies. Let bezeichnen eine Glättung Konstante eine Zahl zwischen 0 und 1 Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Reihe L zu definieren, die die aktuelle Ebene repräsentiert, dh der mittlere Mittelwert der Reihe, wie sie von den Daten bis zur Gegenwart geschätzt wird. Der Wert von L zum Zeitpunkt t wird rekursiv aus seinem eigenen vorherigen Wert wie dieser berechnet. Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorherigen geglätteten Wert und der aktuellen Beobachtung, wo die Nähe des interpolierten Wertes auf die meisten re Cent Beobachtung Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert. Egalentlich können wir die nächste Prognose direkt in Bezug auf vorherige Prognosen und vorherige Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation Zwischen vorheriger Prognose und vorheriger Beobachtung. In der zweiten Version wird die nächste Prognose durch Anpassung der vorherigen Prognose in Richtung des vorherigen Fehlers um einen Bruchteil erreicht. Ist der Fehler zum Zeitpunkt t In der dritten Version ist die Prognose ein Exponentiell gewichtet, dh ermäßigt gleitender Durchschnitt mit Rabattfaktor 1.Die Interpolationsversion der Prognoseformel ist die einfachste zu verwenden, wenn Sie das Modell auf einer Tabellenkalkulation implementieren, die es in eine einzelne Zelle passt und enthält Zellreferenzen, die auf die vorherige Prognose hinweisen, die vorherige Beobachtung und die Zelle, wo der Wert von gespeichert ist. Hinweis, dass, wenn 1, ist das SES-Modell gleichbedeutend mit einem zufälligen Spaziergang Modell Witz Hout-Wachstum Wenn 0, ist das SES-Modell äquivalent zum mittleren Modell, vorausgesetzt, dass der erste geglättete Wert gleich dem mittleren Return to top of page gesetzt ist. Das Durchschnittsalter der Daten in der einfach-exponentiellen Glättungsprognose ist 1 relativ Zu dem Zeitraum, für den die Prognose berechnet wird. Dies soll nicht offensichtlich sein, aber es kann leicht durch die Auswertung einer unendlichen Reihe gezeigt werden. Daher ist die einfache gleitende Durchschnittsprognose dazu neigt, hinter den Wendepunkten um etwa 1 Perioden zurückzukehren 5 die Verzögerung ist 2 Perioden, wenn 0 2 die Verzögerung 5 Perioden beträgt, wenn 0 1 die Verzögerung 10 Perioden ist, und so weiter. Für ein gegebenes Durchschnittsalter dh Betrag der Verzögerung, ist die einfache exponentielle Glättung SES Prognose etwas überlegen, die einfache Bewegung Durchschnittliche SMA-Prognose, weil sie relativ viel Gewicht auf die jüngste Beobachtung - es ist etwas mehr reagiert auf Veränderungen in der jüngsten Vergangenheit Zum Beispiel ein SMA-Modell mit 9 Begriffe und ein SES-Modell mit 0 2 haben beide ein Durchschnittsalter Von 5 für die da Ta in ihren Prognosen, aber das SES-Modell setzt mehr Gewicht auf die letzten 3 Werte als das SMA-Modell und zugleich vergisst es nicht ganz über Werte, die mehr als 9 Perioden alt sind, wie in dieser Tabelle gezeigt. Ein anderer wichtiger Vorteil von Das SES-Modell über das SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der stufenlos variabel ist, so dass er leicht mit einem Solver-Algorithmus optimiert werden kann, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert des SES-Modells für diese Serie erweist sich Um 0 2961 zu sein, wie hier gezeigt. Das Durchschnittsalter der Daten in dieser Prognose beträgt 1 0 2961 3 4 Perioden, was ähnlich ist wie bei einem 6-fach einfach gleitenden Durchschnitt. Die langfristigen Prognosen aus dem SES-Modell sind Eine horizontale Gerade wie im SMA-Modell und das zufällige Spaziergang Modell ohne Wachstum Allerdings ist zu beachten, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftig aussehenden Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für den Rand Om walk model Das SES-Modell geht davon aus, dass die Serie etwas vorhersehbarer ist als das zufällige Walk-Modell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells, so dass die statistische Theorie der ARIMA-Modelle eine fundierte Grundlage für die Berechnung von Konfidenzintervallen für die SES-Modell Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht-seasonalen Differenz, einem MA 1-Term und keinem konstanten Term, der sonst als ARIMA-0,1,1-Modell ohne Konstante bekannt ist. Der MA 1 - Koeffizient im ARIMA-Modell entspricht dem Menge 1 im SES-Modell Wenn Sie beispielsweise ein ARIMA-0,1,1-Modell ohne Konstante an die hier analysierte Baureihe anpassen, erweist sich der geschätzte MA 1 - Koeffizient auf 0 7029, was fast genau ein minus 0 2961 ist. Es ist möglich, die Annahme eines nicht-null konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu geben Sie einfach ein ARIMA-Modell mit einer nicht-seasonalen Differenz und einem MA 1-Term mit einer Konstante, dh einem ARIMA 0,1,1-Modell an Mit konstanten Die langfristigen prognosen werden Dann haben Sie einen Trend, der gleich der durchschnittlichen Tendenz ist, die über die gesamte Schätzperiode beobachtet wird. Sie können dies nicht in Verbindung mit saisonaler Anpassung tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA eingestellt ist. Allerdings können Sie eine konstante Länge hinzufügen - Exponentieller Trend zu einem einfachen exponentiellen Glättungsmodell mit oder ohne saisonale Anpassung durch Verwendung der Inflationsanpassungsoption im Prognoseverfahren Die entsprechende Inflationsrate pro Wachstumsrate pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell, das an die Daten angepasst ist, geschätzt werden Konjunktion mit einer natürlichen Logarithmus-Transformation, oder sie kann auf anderen, unabhängigen Informationen über langfristige Wachstumsaussichten basieren. Zurück zum Seitenanfang. Brown s Linear ie doppelte exponentielle Glättung. Die SMA-Modelle und SES-Modelle gehen davon aus, dass es keinen Trend gibt Jede Art in den Daten, die in der Regel ok oder zumindest nicht zu schlecht für 1-Schritt-voraus Prognosen, wenn die Daten relativ noi ist Sy, und sie können modifiziert werden, um einen konstanten linearen Trend wie oben gezeigt zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen den Lärm auszeichnet und wenn es nötig ist Prognose mehr als 1 Periode voraus, dann könnte die Schätzung eines lokalen Trends auch ein Problem sein Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungs-LES-Modell zu erhalten, das lokale Schätzungen von Level und Trend berechnet. Der einfachste zeitveränderliche Trend Modell ist Brown s lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren Eine ausgefeiltere Version dieses Modells, Holt s, ist Unten diskutiert. Die algebraische Form von Brown s linearen exponentiellen Glättungsmodell, wie das des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von verschiedenen, aber e ausgedrückt werden Quivalentformen Die Standardform dieses Modells wird gewöhnlich wie folgt ausgedrückt: S bezeichnet die einfach geglättete Reihe, die durch Anwendung einer einfachen exponentiellen Glättung auf die Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch. Erinnern Sie sich, dass unter einfacher exponentieller Glättung dies die Prognose für Y in der Periode t 1 sein würde. Dann sei S die doppelt geglättete Reihe, die durch Anwendung einer einfachen exponentiellen Glättung unter Verwendung derselben zu der Reihe S erhalten wird. Zunächst ist die Prognose für Y tk für irgendwelche K & sub1 ;, ist gegeben durch. Dies ergibt e 1 0, dh ein wenig zu betrügen, und die erste Prognose gleich der tatsächlichen ersten Beobachtung und e 2 Y 2 Y 1, wonach Prognosen unter Verwendung der obigen Gleichung erzeugt werden, ergibt die gleichen angepassten Werte Als die auf S und S basierende Formel, wenn diese mit S 1 S 1 Y 1 gestartet wurden Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt s Linear Exponential Smoothing. Brown S LES-Modell berechnet lokale Schätzungen von Level und Trend durch Glättung der jüngsten Daten, aber die Tatsache, dass es tut dies mit einem einzigen Glättungsparameter stellt eine Einschränkung auf die Datenmuster, dass es in der Lage ist, die Ebene und Trend sind nicht erlaubt, variieren beim Unabhängige Raten Holt s LES Modell adressiert dieses Problem durch die Einbeziehung von zwei Glättungskonstanten, eine für die Ebene und eine für den Trend Zu jeder Zeit t, wie in Browns Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T T des lokalen Tendenzes Hier werden sie rekursiv aus dem Wert von Y, der zum Zeitpunkt t beobachtet wurde, und den vorherigen Schätzungen des Niveaus und des Tendenzes durch zwei Gleichungen berechnet, die eine exponentielle Glättung für sie separat anwenden. Wenn das geschätzte Niveau und der Trend zum Zeitpunkt t-1 Sind L t 1 bzw. T t-1, so ist die Prognose für Y t, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der Istwert beobachtet wird, wird die aktualisierte Schätzung der Level wird rekursiv durch Interpolation zwischen Y t und seiner Prognose L t-1 T t-1 berechnet, wobei Gewichte von und 1 verwendet werden. Die Änderung des geschätzten Pegels, nämlich L t L t 1, kann als eine verrauschte Messung der Trend zur Zeit t Die aktualisierte Schätzung des Trends wird dann rekursiv durch Interpolation zwischen L berechnet T L t 1 und die vorherige Schätzung des Trends T t-1 unter Verwendung von Gewichten von und 1.Die Interpretation der Trend-Glättungskonstante ist analog zu der der Pegel-Glättungs-Konstante. Modelle mit kleinen Werten gehen davon aus, dass sich der Trend ändert Nur sehr langsam im Laufe der Zeit, während Modelle mit größeren davon ausgehen, dass es sich schneller ändert Ein Modell mit einem großen glaubt, dass die ferne Zukunft sehr unsicher ist, denn Fehler in der Trendschätzung werden bei der Prognose von mehr als einer Periode voraus Der Seite. Die Glättungskonstanten und können in der üblichen Weise durch Minimierung des mittleren quadratischen Fehlers der 1-Schritt-voraus-Prognosen geschätzt werden. Wenn dies in Statgraphics geschieht, ergeben sich die Schätzungen als 0 3048 und 0 008 Der sehr kleine Wert von Bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten einnimmt, so dass dieses Modell grundsätzlich versucht, einen langfristigen Trend abzuschätzen. Analog zu dem Begriff des Durchschnittsalters der Daten, die bei der Schätzung von t verwendet werden Die lokale Ebene der Serie, das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet wird, ist proportional zu 1, wenn auch nicht genau gleich. In diesem Fall ergibt sich das 1 0 006 125 Dies ist eine sehr genaue Nummer Insofern als die Genauigkeit der Schätzung von isn t wirklich 3 Dezimalstellen, aber es ist von der gleichen allgemeinen Größenordnung wie die Stichprobengröße von 100, so dass dieses Modell durchschnittlich über ziemlich viel Geschichte bei der Schätzung der Trend Die Prognose Handlung ist Unten zeigt, dass das LES-Modell einen eher größeren lokalen Trend am Ende der Serie schätzt als der im SES-Trendmodell geschätzte konstante Trend. Auch der Schätzwert ist nahezu identisch mit dem, der durch die Anpassung des SES-Modells mit oder ohne Trend erhalten wird , So ist dies fast das gleiche model. Now, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll einen lokalen Trend schätzen Wenn Sie Augapfel dieser Handlung, sieht es aus, als ob die lokale Tendenz hat sich nach unten am Ende der Serie Wh At ist passiert Die Parameter dieses Modells wurden durch die Minimierung der quadratischen Fehler von 1-Schritt-voraus Prognosen, nicht längerfristige Prognosen geschätzt, in welchem Fall der Trend macht nicht viel Unterschied Wenn alles, was Sie suchen, sind 1 - step-ahead-Fehler, sehen Sie nicht das größere Bild der Trends über 10 oder 20 Perioden Um dieses Modell mehr im Einklang mit unserer Augapfel-Extrapolation der Daten zu bekommen, können wir manuell die Trend-Glättung konstant so einstellen, dass es Verwendet eine kürzere Grundlinie für Trendschätzung Wenn wir z. B. wählen, um 0 1 zu setzen, dann ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so vermitteln Hier ist das, was die Prognose-Plot aussieht, wenn wir 0 1 setzen, während wir 0 3 halten. Das sieht intuitiv vernünftig für diese Serie aus, obwohl es wahrscheinlich gefährlich ist, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was geht es um die Fehlerstatistik Hier ist Ein Modellvergleich f Oder die beiden oben gezeigten Modelle sowie drei SES-Modelle Der optimale Wert des SES-Modells beträgt etwa 0 3, aber mit 0 oder 0 2 ergeben sich ähnliche Ergebnisse mit etwas mehr oder weniger Ansprechverhalten. Eine Holt s lineare Exp-Glättung Mit alpha 0 3048 und beta 0 008. B Holt s lineare exp Glättung mit alpha 0 3 und beta 0 1. C Einfache exponentielle Glättung mit alpha 0 5. D Einfache exponentielle Glättung mit alpha 0 3. E Einfache exponentielle Glättung mit alpha 0 2.Die Statistiken sind fast identisch, so dass wir wirklich die Wahl auf der Basis von 1-Schritt-voraus Prognose Fehler innerhalb der Daten Probe Wir müssen auf andere Überlegungen zurückfallen Wenn wir stark glauben, dass es sinnvoll ist, die aktuelle Basis zu stützen Trend-Schätzung, was in den letzten 20 Perioden passiert ist, so können wir einen Fall für das LES-Modell mit 0 3 und 0 1 machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle Sei leichter zu erklären und würde auch mehr middl geben E-of-the-road Prognosen für die nächsten 5 oder 10 Perioden Zurück zum Seitenanfang. Welche Art der Trend-Extrapolation ist am besten horizontal oder linear Empirische Hinweise deuten darauf hin, dass, wenn die Daten bereits angepasst wurden, wenn nötig für die Inflation, dann Es kann unklug sein, kurzfristige lineare Trends sehr weit in die Zukunft zu extrapolieren Trends, die heute deutlich sichtbar sind, können aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und zyklische Abschwünge oder Aufschwünge in einer Branche aus diesem Grund einfacher exponentieller Fall sein Glättung führt oft zu einem besseren Out-of-Sample, als es sonst zu erwarten wäre, trotz seiner naiven horizontalen Trend-Extrapolation Dämpfte Trendmodifikationen des linearen exponentiellen Glättungsmodells werden auch in der Praxis häufig verwendet, um eine Note des Konservatismus in seine Trendprojektionen einzuführen. Der gedämpfte Trend LES-Modell kann als Spezialfall eines ARIMA-Modells implementiert werden, insbesondere ein ARIMA 1,1,2-Modell. Es ist möglich, Konfidenzintervalle zu berechnen Langfristige Prognosen, die durch exponentielle Glättungsmodelle erzeugt werden, indem sie sie als Sonderfälle von ARIMA-Modellen betrachten. Vorsicht nicht, dass alle Software die Konfidenzintervalle für diese Modelle korrekt berechnet. Die Breite der Konfidenzintervalle hängt von dem RMS-Fehler des Modells ab Von Glättung einfach oder linear iii der Wert s der Glättungskonstante s und iv die Anzahl der vorangegangenen Perioden, die Sie prognostizieren Im Allgemeinen breiten sich die Intervalle schneller aus, wenn sie im SES-Modell größer werden und sie breiten sich viel schneller aus, wenn linear und nicht einfach Glättung wird verwendet Dieses Thema wird im ARIMA-Modell-Abschnitt der Notizen weiter unten diskutiert. Zurück zum Seitenanfang. Exponentielle Filter. Diese Seite beschreibt eine exponentielle Filterung, die einfachste und beliebteste Filter Dies ist Teil des Bereichs Filterung, die Teil eines Leitfadens ist Zu Fehlererkennung und Diagnose. Überblick, Zeitkonstante und analoges Äquivalent. Der einfachste Filter ist der exponentielle Filter Es hat nur einen Tuning-Parameter anders Als das Sample-Intervall Es erfordert die Speicherung von nur einer Variablen - die vorherige Ausgabe Es ist ein IIR autoregressive Filter - die Effekte eines Eingangs ändern Zerfall exponentiell bis die Grenzen der Displays oder Computer-Arithmetik verstecken it. In verschiedenen Disziplinen, verwenden Sie diese Filter wird auch als exponentielle Glättung bezeichnet In einigen Disziplinen wie Investitionsanalyse wird der Exponentialfilter als exponentiell gewichtete Moving Average EWMA oder nur Exponential Moving Average EMA bezeichnet. Dies missbraucht die traditionelle ARMA gleitende durchschnittliche Terminologie der Zeitreihenanalyse, da es gibt Kein Eingabestatus, der verwendet wird - nur der Stromeingang. Es ist die diskrete Zeitäquivalent der Verzögerung erster Ordnung, die üblicherweise bei der analogen Modellierung von Dauerregelungssystemen verwendet wird. In elektrischen Schaltungen ist ein RC-Filterfilter mit einem Widerstand und einem Kondensator ein Verzögerung erster Ordnung Bei der Betonung der Analogie zu analogen Schaltungen ist der Einzelabstimmungsparameter die Zeitkonstante, die üblicherweise als geschrieben wird Der Kleinbuchstabe Griechischer Buchstabe Tau In der Tat entsprechen die Werte bei den diskreten Stichprobenzeiten genau der äquivalenten kontinuierlichen Zeitverzögerung mit der gleichen Zeitkonstante. Die Beziehung zwischen der digitalen Implementierung und der Zeitkonstante ist in den nachstehenden Gleichungen dargestellt. Exponentielle Filtergleichungen und Initialisierung. Das exponentielle Filter ist eine gewichtete Kombination der vorherigen Schätzausgabe mit den neuesten Eingabedaten, wobei die Summe der Gewichte gleich 1 ist, so dass die Ausgabe mit dem Eingang im Steady-Zustand übereinstimmt. Folgende Filter-Notation wurde bereits eingeführt. ykay k-1 1 - ax k. wo xk ist die rohe Eingabe zum Zeitpunkt Schritt kyk ist die gefilterte Ausgabe zum Zeitschritt ka ist eine Konstante zwischen 0 und 1, normalerweise zwischen 0 8 und 0 99 a-1 oder a wird manchmal als Glättungskonstante bezeichnet Systemen mit einem festen Zeitschritt T zwischen den Samples wird die Konstante a nur dann vereinfacht und gespeichert, wenn der Applikationsentwickler einen neuen Wert der gewünschten Zeitkonstante spezifiziert. Dabei ist tau der Filte R Zeitkonstante in den gleichen Zeiteinheiten wie T. Für Systeme mit Datenabtastung in unregelmäßigen Intervallen muss die Exponentialfunktion oben mit jedem Zeitschritt verwendet werden, wobei T die Zeit seit der vorherigen Probe ist. Die Filterausgabe wird gewöhnlich initialisiert Um die erste Eingabe anzupassen. Wenn sich die Zeitkonstante 0 nähert, geht a auf Null, so dass es keine Filterung gibt, die die Ausgabe gleich der neuen Eingabe ist. Wenn die Zeitkonstante sehr groß wird, nähert sich 1 1, so dass die neue Eingabe fast sehr schwer ignoriert wird Filterung. Die Filtergleichung oben kann in den folgenden Prädiktor-Korrektor-Äquivalent umgeordnet werden. Diese Form macht es deutlicher, dass die variable Schätzausgabe des Filters als unverändert von der vorherigen Schätzung y k-1 plus ein Korrekturtermin auf der Grundlage der Unerwartete innovation - der Unterschied zwischen dem neuen Eingang xk und der Vorhersage y k-1 Diese Form ist auch das Ergebnis der Ableitung des Exponentialfilters als einfacher Spezialfall eines Kalman-Filters, der die optimale Lösung ist Ein Schätzproblem mit einem bestimmten Satz von Annahmen. Schrittreaktion. Ein Weg, um den Betrieb des exponentiellen Filters zu visualisieren, ist, seine Antwort über die Zeit auf eine Stufeneingabe zu zeichnen, dh beginnend mit dem Filtereingang und Ausgabe bei 0 den Eingangswert Wird plötzlich auf 1 geändert. Die daraus resultierenden Werte sind unten aufgetragen. Im obigen Diagramm wird die Zeit durch die Filterzeitkonstante Tau geteilt, so dass man die Ergebnisse für jeden beliebigen Zeitraum leichter vorhersagen kann, für jeden Wert der Filterzeitkonstante Nach a Zeit gleich der Zeitkonstante, steigt der Filterausgang auf 63 21 seines Endwertes Nach einer Zeit gleich 2 Zeitkonstanten steigt der Wert auf 86 47 seines Endwertes Die Ausgänge nach Zeiten gleich 3,4 und 5 mal Konstanten sind 95 02, 98 17 bzw. 99 33 des Endwertes. Da der Filter linear ist, bedeutet dies, dass diese Prozentsätze für jede Größe der Schrittänderung verwendet werden können, nicht nur für den Wert von 1, der hier verwendet wird Die Schrittantwort in der Theorie nimmt eine Infinit Die Zeit, von einem praktischen Standpunkt aus, denke an den Exponentialfilter, da 98 bis 99 nach einer Zeit gleich 4 bis 5 Filterzeitkonstanten reagiert. Variationen auf dem Exponentialfilter. Es gibt eine Variation des Exponentialfilters, der als nichtlinearer Exponentialfilter bezeichnet wird Weber, 1980 beabsichtigt, das Lärm in einer bestimmten typischen Amplitude stark zu filtern, aber dann schneller auf größere Änderungen zu reagieren. Copyright 2010 - 2013, Greg Stanley. Share diese Seite.
Comments
Post a Comment