Gleitender Durchschnittlicher Wolfram

Autoregressive Moving-Average Simulation (erste Ordnung) Die Demonstration ist so eingestellt, dass die gleiche zufällige Reihe von Punkten verwendet wird, egal wie die Konstanten und variiert werden. Allerdings, wenn die quotrandomizequot Taste gedrückt wird, wird eine neue zufällige Serie generiert und verwendet werden. Halten Sie die zufällige Serie identisch ermöglicht es dem Benutzer, genau zu sehen, die Auswirkungen auf die ARMA-Reihe von Änderungen in den beiden Konstanten. Die Konstante ist auf (-1,1) begrenzt, da sich die Divergenz der ARMA-Reihe ergibt. Die Demonstration ist nur für einen Prozess erster Ordnung. Zusätzliche AR-Begriffe würden komplexere Reihen erzeugen, während zusätzliche MA-Begriffe die Glättung erhöhen würden. Für eine detaillierte Beschreibung von ARMA-Prozessen siehe beispielsweise G. Box, G. M. Jenkins und G. Reinsel, Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. Englewood Cliffs, NJ: Prentice-Halle, 1994. RELATED LINKSWolfram Language Revolutionäre wissensbasierte Programmiersprache. Wolfram Cloud Zentrale Infrastruktur für Wolframs Cloud-Produkte amp services. Wolfram Science Technology - ermöglicht die Wissenschaft des rechnerischen Universums. Computable Document Format Berechnete interaktive Dokumente. Wolfram Engine Software-Engine, die die Wolfram Language implementiert. Wolfram Natural Language Understanding System Wissensbasierte, breit angelegte natürliche Sprache. Wolfram Data Framework Semantisches Framework für reale Daten. Wolfram Universal Deployment System Sofortige Bereitstellung über Cloud, Desktop, Mobile und vieles mehr. Wolfram Wissensdatenbank WolframAlpha. Group Abstract Message BoardsGeschichte und Hintergrund, die erste kamen mit Moving Averages Technische Analysten haben mit gleitenden Durchschnitte jetzt für mehrere Jahrzehnte. Sie sind so allgegenwärtig in unserer Arbeit, dass die meisten von uns nicht wissen, woher sie kamen. Statistiker kategorisieren Moving Averages als Teil einer Familie von Werkzeugen für ldquoTime Series Analysisrdquo. Andere in dieser Familie sind: ANOVA, das arithmetische Mittel, Korrelationskoeffizient, Kovarianz, Unterschied Tisch, der kleinsten Quadrate, Maximum Likelihood, gleitender Durchschnitt, Periodogramm, Prediction Theorie, Zufallsvariable, Random Walk, Rest, Varianz. Lesen Sie mehr über jede dieser und ihre Definitionen bei Wolfram. Die Entwicklung des ldquomoving averagerdquo geht auf das Jahr 1901 zurück, obwohl der Name später angewendet wurde. Vom Mathematikhistoriker Jeff Miller: BEWEGLICHES DURCHSCHNITT. Diese Technik zum Glätten von Datenpunkten wurde jahrzehntelang verwendet, bevor dieses oder irgendein allgemeiner Begriff in Gebrauch kam. 1909 GU Yule (Journal of the Royal Statistical Society. 72, 721-730) beschreiben die ldquoinstantaneous averagesrdquo RH Hooker 1901 berechnet als ldquomoving-averages. rdquo Yule nicht den Begriff in seinem Lehrbuch übernehmen, aber es trat Zirkulation durch WI Kingrsquos Elemente der statistischen Methode (1912). ldquoMoving averagerdquo auf eine Art von stochastischen Prozess bezieht, ist eine Abkürzung von H. Woldrsquos ldquoprocess averagerdquo (Eine Studie in der Analyse von stationären Zeitreihen (1938)) zu bewegen. Wold beschrieb, wie spezielle Fälle des Prozesses in den 1920er Jahren von Yule (in Verbindung mit den Eigenschaften der variierenden Differenzkorrelationsmethode) und Slutsky John Aldrich untersucht worden waren. Von StatSoft Inc. kommt diese Beschreibung von Exponential Smoothing. Die eine von mehreren Techniken für die Gewichtung von Vergangenheit Daten unterschiedlich ist: ldquoExponentielle Glättung hat sich als Prognosemethode für eine Vielzahl von Zeitreihen-Daten sehr beliebt. Historisch wurde das Verfahren unabhängig von Robert Goodell Brown und Charles Holt entwickelt. Brown arbeitete für die US-Marine während des Zweiten Weltkriegs, wo seine Aufgabe war es, ein Tracking-System für Brandbekämpfung Informationen zur Berechnung der Lage der U-Boote zu entwerfen. Später setzte er diese Technik auf die Prognose der Ersatzteilnachfrage (ein Bestandskontrollproblem). Er beschrieb diese Ideen in seinem Buch 1959 über die Bestandskontrolle. Holtrsquos Forschung durch das Office of Naval Research unabhängig gesponsert wurde, entwickelte er Modelle der exponentiellen Glättung für konstante Prozesse verarbeitet, mit linearen Trends und saisonale data. rdquo Holtrsquos Papier, ldquoForecasting Seasonals und Trends von Exponentiell gewichtete gleitende Averagesrdquo 1957 in O. N.R. veröffentlicht wurde Forschung Memorandum 52, Carnegie Institute of Technology. Es gibt es nicht online kostenlos, aber kann von denen mit Zugang zu akademischen Papier Ressourcen zugänglich sein. Nach unserem Wissen war P. N. (Pete) Haurlan die erste, die exponentielle Glättung für die Verfolgung der Aktienkurse verwendet. Haurlan war ein tatsächlicher Raketenwissenschaftler, der für JPL in den frühen sechziger Jahren arbeitete und folglich hatte er Zugang zu einem Computer. Er nannte sie nicht ldquoexponential Moving Averages (EMAs) rdquo oder mathematisch modischen ldquoexponentially gewichteten gleitenden Durchschnitte (EWMAs) rdquo. Stattdessen nannte er sie ldquoTrend Valuesrdquo und nannte sie durch ihre Glättungskonstanten. So, was heute allgemein als eine 19-Tage-EMA bezeichnet wird, nannte er ein ldquo10 Trendrdquo. Da seine Terminologie das Original für eine solche Verwendung bei der Aktienkursverfolgung war, verwenden wir daher diese Terminologie in unserer Arbeit weiter. Haurlan hatte EMAs bei der Konstruktion der Tracking-Systeme für Raketen eingesetzt, die zum Beispiel ein sich bewegendes Objekt wie einen Satelliten, einen Planeten usw. abfangen mussten. Wenn der Weg zum Ziel ausgeschaltet wäre, müsste eine Art von Eingabe angewendet werden An den Lenkmechanismus, aber sie wollten nicht übertreiben oder untertreiben, dass Eingang und entweder instabil oder nicht drehen. Daher war die richtige Art der Glättung von Dateneingaben hilfreich. Haurlan nannte dieses ldquoProportional Controlrdquo, was bedeutet, dass der Lenkmechanismus nicht versuchen würde, den gesamten Tracking-Fehler auf einmal auszugleichen. EMAs waren leichter in frühe analoge Schaltungen als andere Filtertypen zu codieren, da sie nur zwei Stücke von variablen Daten benötigen: den aktuellen Eingangswert (z. B. Preis, Position, Winkel usw.) und den vorherigen EMA-Wert. Die Glättungskonstante wäre fest verdrahtet in die Schaltungsanordnung, so daß der ldquomemoryrdquo nur diese beiden Variablen verfolgen muß. Ein einfacher gleitender Durchschnitt erfordert andererseits das Verfolgen aller Werte innerhalb der Rückblickperiode. Also ein 50-SMA würde bedeuten, die Verfolgung von 50 Datenpunkten, dann Mittelung sie. Es bindet viel mehr Rechenleistung. Mehr über EMAs im Vergleich zu Simple Moving Averages (SMAs) bei Exponential versus Simple. Haurlan gründete den Trade Levels-Newsletter in den 1960er Jahren, so dass JPL für die lukrativere Arbeit. Sein Rundschreiben war ein Sponsor der Charting The Market TV-Show auf KWHY-TV in Los Angeles, die erste TA-TV-Show, die von Gene Morgan. Die Arbeit von Haurlan und Morgan waren ein großer Teil der Inspiration hinter Sherman und Marian McClellanrsquos Entwicklung der McClellan-Oszillator und Summation Index, der exponentielle Glättung von Advance-Decline Daten beziehen. Sie können eine Broschüre von 1968 mit dem Titel Measuring Trend Values ​​lesen, die von Haurlan ab Seite 8 des MTA Award Handout veröffentlicht wird. Die wir für die Teilnehmer der MTA-Konferenz 2004 vorbereiteten, wo Sherman und Marian mit dem MTArsquos Lifetime Achievement Award ausgezeichnet wurden. Haurlan listet nicht die Herkunft dieser mathematischen Technik auf, stellt aber fest, dass sie seit vielen Jahren in der Luft - und Raumfahrttechnik verwendet wurde.


Comments