Sunday 19 November 2017

Moving Average Autocorrelation Matrix


Media móvil Este ejemplo le enseña cómo calcular el promedio móvil de una serie de tiempo en Excel. Una gran ventaja se utiliza para suavizar las irregularidades (picos y valles) para reconocer fácilmente las tendencias. 1. En primer lugar, echemos un vistazo a nuestra serie de tiempo. 2. En la ficha Datos, haga clic en Análisis de datos. Nota: no puede encontrar el botón Análisis de datos Haga clic aquí para cargar el complemento Herramientas de análisis. 3. Seleccione Media móvil y haga clic en Aceptar. 4. Haga clic en el cuadro Rango de entrada y seleccione el rango B2: M2. 5. Haga clic en el cuadro Interval y escriba 6. 6. Haga clic en el cuadro Rango de salida y seleccione la celda B3. 8. Trazar un gráfico de estos valores. Explicación: dado que establecemos el intervalo en 6, el promedio móvil es el promedio de los 5 puntos de datos anteriores y el punto de datos actual. Como resultado, los picos y valles se suavizan. El gráfico muestra una tendencia creciente. Excel no puede calcular el promedio móvil para los primeros 5 puntos de datos porque no hay suficientes puntos de datos anteriores. 9. Repita los pasos 2 a 8 para el intervalo 2 y el intervalo 4. Conclusión: Cuanto mayor sea el intervalo, más se suavizarán los picos y los valles. Cuanto más pequeño es el intervalo, más cerca están las medias móviles de los puntos de datos reales. ¿Te gusta este sitio web gratis? Comparte esta página en GooglePurpose: Comprobar las gráficas de autocorrelación de Randomness (Box y Jenkins, págs. 28-32) son una herramienta comúnmente utilizada para comprobar la aleatoriedad en un conjunto de datos. Esta aleatoriedad se determina mediante el cálculo de autocorrelaciones para los valores de datos en diferentes intervalos de tiempo. Si son aleatorias, tales autocorrelaciones deben estar cerca de cero para todas las separaciones de tiempo-retraso. Si no es aleatorio, entonces una o más de las autocorrelaciones serán significativamente no-cero. Además, las parcelas de autocorrelación se utilizan en la fase de identificación del modelo para los modelos autorregresivos y móviles de serie temporal de Box-Jenkins. La autocorrelación es solo una medida de aleatoriedad Tenga en cuenta que no correlacionado no significa necesariamente aleatorio. Los datos que tienen una autocorrelación significativa no son aleatorios. Sin embargo, los datos que no muestran una autocorrelación significativa todavía pueden mostrar no aleatoriedad de otras maneras. La autocorrelación es sólo una medida de aleatoriedad. En el contexto de la validación del modelo (que es el tipo primario de aleatoriedad que describimos en el Manual), la comprobación de la autocorrelación suele ser una prueba suficiente de aleatoriedad, ya que los residuos de un modelo de ajuste inadecuado tienden a mostrar aleatoriedad no sutil. Sin embargo, algunas aplicaciones requieren una determinación más rigurosa de la aleatoriedad. En estos casos, una batería de pruebas, que pueden incluir la comprobación de la autocorrelación, se aplican ya que los datos pueden ser no aleatorios de muchas maneras diferentes ya menudo sutiles. Un ejemplo de dónde se necesita un control más riguroso de la aleatoriedad sería probar generadores de números aleatorios. Trazado de muestra: Las autocorrelaciones deben ser cercanas a cero para aleatoriedad. Este no es el caso en este ejemplo y por lo tanto la suposición de aleatoriedad falla. Este gráfico de autocorrelación muestra muestra que la serie temporal no es aleatoria, sino que tiene un alto grado de autocorrelación entre observaciones adyacentes y casi adyacentes. Coeficiente de autocorrelación donde C h es la función de autocovariancia y C 0 es la función de varianza. Obsérvese que R h está entre -1 y 1. Tenga en cuenta que algunas fuentes pueden usar la función Fórmula siguiente para la función de autocovariancia Aunque esta definición tiene menos sesgo, la formulación (1 / N) tiene algunas propiedades estadísticas deseables y es la forma más comúnmente utilizada en la bibliografía estadística. Vea las páginas 20 y 49-50 en Chatfield para más detalles. Eje horizontal: Retardo de tiempo h (h 1, 2, 3.) La línea anterior también contiene varias líneas de referencia horizontales. La línea media está en cero. Las otras cuatro líneas son 95 y 99 bandas de confianza. Observe que hay dos fórmulas distintas para generar las bandas de confianza. Si se utiliza el gráfico de autocorrelación para probar la aleatoriedad (es decir, no hay dependencia temporal en los datos), se recomienda la siguiente fórmula: donde N es el tamaño de la muestra, z es la función de distribución acumulativa de la distribución normal estándar y (alfa ) Es el nivel de significación. En este caso, las bandas de confianza tienen un ancho fijo que depende del tamaño de la muestra. Esta es la fórmula que se utilizó para generar las bandas de confianza en la gráfica anterior. Las gráficas de autocorrelación también se usan en la etapa de identificación del modelo para el ajuste de modelos ARIMA. En este caso, se supone un modelo de media móvil para los datos y se deben generar las siguientes bandas de confianza: donde k es el retraso, N es el tamaño de la muestra, z es la función de distribución acumulativa de la distribución normal estándar y (alfa) es El nivel de significación. En este caso, las bandas de confianza aumentan a medida que aumenta el desfase. La gráfica de autocorrelación puede proporcionar respuestas a las siguientes preguntas: ¿Los datos son aleatorios? ¿Es una observación relacionada con una observación adyacente? ¿Es una observación relacionada con una observación extraída dos veces? ¿Es la serie de tiempo observada el ruido blanco? La serie temporal observada es sinusoidal ¿Es el modelo válido y suficiente? Es la fórmula ss / sqrt válida Importancia: Garantizar la validez de las conclusiones de la ingeniería Aleatoriedad (junto con el modelo fijo, la variación fija y la distribución fija) Es uno de los cuatro supuestos que típicamente subyacen a todos los procesos de medición. El supuesto de aleatoriedad es de importancia crítica por las tres razones siguientes: La mayoría de las pruebas estadísticas estándar dependen de la aleatoriedad. La validez de las conclusiones de la prueba está directamente relacionada con la validez del supuesto de aleatoriedad. Muchas de las fórmulas estadísticas utilizadas comúnmente dependen del supuesto de aleatoriedad, siendo la fórmula más común la fórmula para determinar la desviación estándar de la media de la muestra: donde s es la desviación estándar de los datos. Aunque muy utilizados, los resultados de usar esta fórmula no tienen ningún valor a menos que la suposición aleatoria se mantenga. Para datos univariados, el modelo predeterminado es Si los datos no son aleatorios, este modelo es incorrecto y no válido, y las estimaciones de los parámetros (como la constante) se vuelven sin sentido e inválidas. En resumen, si el analista no comprueba la aleatoriedad, entonces la validez de muchas de las conclusiones estadísticas se vuelve sospechosa. La correlación automática se refiere a la correlación de una serie de tiempo con sus propios valores pasados ​​y futuros. La correlación automática también se denomina a veces correlación retardada o correlación serial, que se refiere a la correlación entre los miembros De una serie de números dispuestos en el tiempo. La autocorrelación positiva puede considerarse una forma específica de persistencia, una tendencia para que un sistema permanezca en el mismo estado de una observación a la siguiente. Por ejemplo, la probabilidad de que el mañana sea lluvioso es mayor si hoy es lluvioso que si hoy está seco. Las series de tiempo geofísicas frecuentemente se correlacionan automáticamente debido a los procesos de inercia o de remanencia en el sistema físico. La correlación automática complica la aplicación de las pruebas estadísticas mediante la reducción del número de observaciones independientes, también complican la identificación de co varianza significativa o correlación entre series de tiempo, es predecible, probabilísticamente, porque los valores futuros dependen de los valores actuales y pasados. Tres herramientas para evaluar la correlación automática de un tiempo (1) el diagrama de series de tiempo (2) el amplificador de diagrama de dispersión retrasado (3) la función de correlación automática. Un patrón más claro para un modelo de MA está en el ACF. El ACF tendrá autocorrelaciones no nulas sólo en los retrasos involucrados en el modelo. PACF toma en consideración la correlación entre una serie cronológica y cada uno de sus valores intermedios retardados. La identificación de un modelo de MA a menudo se hace mejor con el ACF en lugar del PACF. Para un modelo de MA, el PACF teórico no se apaga, sino que disminuye hacia 0 de alguna manera. Esto es útil para detectar la ORDEN de un modelo auto regresivo. Es decir, el PACF para una serie temporal con retardo 1 tendrá valor no nulo hasta 1, la función de autocorrelación parcial (PACF) da la correlación parcial de una serie cronológica con sus propios valores rezagados, controlando los valores de La serie de tiempo en todos los retrasos más cortos. Esto contrasta con la función de autocorrelación, que no controla otros desfases. La identificación de un modelo AR a menudo se hace mejor con el PACF. Para un modelo AR, el PACF teórico se cierra fuera del orden del modelo. La frase se cierra significa que en teoría, las autocorrelaciones parciales son iguales a 0, más allá de ese punto . Dicho de otro modo, el número de autocorrelaciones parciales distintas de cero da el orden del modelo AR. Por el orden del modelo nos referimos al retraso más extremo de x que se utiliza como predictor. Esta función fue introducida por Cleveland en 1972 para series temporales estacionarias discretas. Hay 2 Métodos para estimar IACF. 1) Estimación del espectro de datos mediante suavizado del periodograma, tomando el recíproco de la estimación y luego calcular la transformación de Fourier. 2) Aproximación del modelo mediante un proceso AR adecuado, estimando los parámetros de este modelo usando las Ecuaciones de Yule-Walker. Las autocorrelaciones inversas de una serie temporal se definen como las autocorrelaciones asociadas con la inversa de la densidad espectral de la serie. Pueden calcularse calculando las autocorrelaciones asociadas con la inversa de una estimación de densidad espectral. Dos métodos diferentes de estimar las autocorrelaciones inversas surgen de dos métodos diferentes de estimar la densidad espectralauto-regresivo y el suavizado periodograma. Las estimaciones de las autocorrelaciones inversas se utilizan para ayudar a identificar un parsimonioso, media móvil, modelo auto-regresivo para la serie y para proporcionar estimaciones iniciales aproximadas de los parámetros para una búsqueda iterativa para el máximo de la función de verosimilitud. Las técnicas discutidas se aplican a las lecturas de la concentración del proceso químico, a las mediciones de la velocidad del viento ya los datos sísmicos lunares. 47 Vistas middot Ver Upvotes middot No para reproducción middot Respuesta solicitada por Prerna TyagiARIMAX modelo de serie de tiempo estacionario Cuando hablamos de series de tiempo, significa una serie de procesos afectados por su propio estado pasado. O bien es un proceso de Markov que está determinado sólo por sus estados anteriores, o no, tenemos que aprender algo más para construir un modelo de estimación correcto para esto, porque no podemos usar el método de matriz de covarianza para construirlo. Aquí es donde entra en juego la autocorrelación (parcial). Afortunadamente, son fáciles de calcular.160 () En este post, echemos un vistazo a la media móvil integrada autorregresiva con variables exógenas. Para las series temporales estacionarias, este modelo cubre todo lo que se debe considerar. Autocorrelación y autocorrelación parcial Como se mencionó anteriormente, series de tiempo requiere algo más que matriz de covarianza porque se supone que es una combinación de estados anteriores, al menos parcialmente. Bueno, puede recordar una regla básica Así, tenemos que calcular la autocorrelación parcial de sus estados anteriores. Procedimientos de cálculo de autocorrelación (1) Preparar una matriz (n k1) de (2) Estandarizar esta matriz dividiendo cada columna por desviaciones estándar después de substraer los medios de cada columna. Dejemos esta matriz estandarizada X. (3) Ahora, podemos calcular la matriz de autocorrelación. (4) Esta matriz de autocorrelación será una matriz (k1, k1) como Procedimientos de cálculo de autocorrelación parcial (1) Tome la primera columna de, dejando fuera 1 y deje este vector P. Será un vector (k, 1) como ( 2) Tomar, dejando fuera su última fila y columna. Será una matriz (k, k). Deja esta matriz. (3) Ahora, podemos calcular el vector de autocorrelación parcial. (4) Este vector de autocorrelación parcial será un vector (k, 1) como Usted puede preguntarse por qué necesitamos matriz de aucorrelation (parcial), no matriz de covarianza. La razón se proporcionará en la información adicional a continuación. Por ahora, vamos a seguir adelante con el consenso de usarlo. (1) Identificación del modelo Una vez calculadas las autocorrelaciones, podemos graficarlas y observar su forma. Se llama correlograma. La forma del correlograma nos dice la propiedad de las series temporales y, por tanto, qué tipo de modelo se utilizará. Se resume a continuación Si el correlograma es (1) Declinación exponencial a cero: AR (p) (2) Bouncing positivo y negativo, convergente a cero: AR (p) (3) Esencialmente cero con 1 o más picos: MA (q) (4) Decaimiento después de algunos retrasos: ARMA (p, q) (5) Todos (cerca de) cero: Ruido blanco (6) Picos en algunos intervalos: Existe estacionalidad (7) Sin decaimiento a cero: Son algunos otros métodos para la selección de modelos tales como AIC (Akaikes Information Criterion) y FPE (Akaikes Final Prediction Error). Puedes mirar en ellos si quieres. Creo que es suficiente, sin embargo. Bueno, ya sabes, el empleo de suposiciones y variables apropiadas es mucho más importante para los economistas y analistas para construir un modelo de toma de sentido. (2) Identificación de pedidos para AR (p) Una vez que su AR (p) encontrado es bueno para los datos, entonces tenemos que identificar p. Grafique la autocorrelación parcial y observe su forma. Se llama correlograma parcial. La orden apropiada p es 1 punto antes de una desaceleración repentina y significativa a cero. Por ejemplo, si el correlograma parcial lee 0,9, 0,8, 0,78, 0,21, 0,18, etc. sobre los retrasos, entonces el orden p debe ser 3. (3) Identificación de orden para MA (q) El orden del modelo de media móvil se determina en el mismo Manera como AR (p), pero utilizando correlogram. (4) Intervalo de confianza para la prueba de aleatoriedad y orden de MA (q) Cuando el correlogram se cuelga alrededor de cero (caso 5 anterior), podemos asegurarnos de que sea aleatorio o no al ver si está dentro del intervalo de confianza o no. Sin embargo, tenga en cuenta que todas las variables económicas aleatorias no permanecen necesariamente dentro de este rango, incluso si son aleatorios o siguiendo el modelo de media móvil es por eso que Hirotogu Akaike desarrolló AIC y FPE para automatizar la selección del modelo. Intervalo de confianza de la autocorrelación para aleatoriedad: 160 donde z es la puntuación z para el intervalo de confianza correspondiente. Y podemos hacer lo mismo para el orden q del modelo de media móvil. Intervalo de confianza de la autocorrelación para MA (q): Pero, personalmente, creo que tener una mirada en (parcial) correlogram es suficiente, sin embargo. Y finalmente, aquí está el intervalo de confianza 95 de la autocorrelación parcial. Si realmente desea construir un modelo para explicar los datos lo más posible, entonces tendrá que determinar el orden p como el punto justo antes de la desaceleración en este intervalo de confianza. 95 Intervalo de confianza de la autocorrelación parcial: Se trata de un correlograma calculado a partir de los precios de las acciones diarias de Microsoft a lo largo de 2008. Lo calculé por sólo 5 retrasos, pero se puede ver su obviamente cerca de 1 y muy lentamente disminuyendo. Es uno de los patrones comunes en las series temporales no estacionarias. No importa que conozca patrones comunes o no, podemos concluir que el precio de las acciones es no estacionario, ya que el correlogram parece obviamente no nulo. Y aquí hay otro correlograma. Se trata de un correlograma calculado a partir de los rendimientos diarios de las acciones de Microsoft a lo largo de 2008. Como se menciona en el artículo Revisión de la regresión ordinaria y previsualización de series de tiempo, sus datos de precios básicamente de acciones integradas de 1 orden. Usted puede ver su fluctuación alrededor de cero. Por lo tanto, podemos concluir que los retornos del precio de las acciones son estacionarios y el ruido blanco. Nota: Como la devolución diaria del precio de las acciones es un ruido blanco, podemos concluir el precio de las acciones es un proceso de caminata al azar. Porque, como usted debe saber, el precio de hoy es la suma del precio de ayer y la vuelta diaria de hoy. Se puede escribir como dónde está el ruido blanco. Por lo tanto, podemos decir que es una caminata aleatoria. De todas formas, una vez que tenemos el vector de autocorrelación parcial, entonces la parte izquierda es extremadamente fácil. Vamos a entrar en el modelo. Ahora, vamos a echar un vistazo a la media autorregresiva modelo de media móvil con variables exógenas. No te preocupes por su largo título. Si bien es muy popular y se utiliza comúnmente para explicar las series de tiempo, es simplemente una combinación de 3 modelos: modelo autorregresivo utilizando estados anteriores modelo de media móvil utilizando residual pasado y modelo de regresión ordinay utilizando variables externas, en series de tiempo integrado. Su escrito generalmente como ARIMAX (p, d, q, b) que es el título de este post. A continuación se presentan los conceptos de modelo autorregresivo y móvil. El modelo autorregresivo asume el proceso de Markov, es decir, el estado actual (o valor) está totalmente determinado solamente por estados pasados. Se expresa como Nota media móvil aquí no tiene nada que ver con la media móvil simple / exponencial / ponderada, un indicador técnico de las acciones / bonos / materias primas / tipos de cambio, sugerido por Joseph Granville. Bueno, en realidad, creo que no debería ser llamado promedio móvil, ya que no utiliza medios de datos que varían con el tiempo como un coeficiente de regresión. Por lo tanto, su nombre media móvil no implica nada sobre el modelo, sólo confunde a los estudiantes. De todos modos, el modelo de media móvil en la econometría asume series temporales determinadas por los residuos. Por lo tanto, su escrito como Como puede ver, ya que no tiene otras variables, es automáticamente asumiendo que el cambio actual por paso está determinado por los cambios pasados ​​por paso. Por lo general, después de la integración de I (d), AR (p) se calcula y luego MA (q) sigue. Finalmente, se introducen b variables externas y se calcula la regresión lineal ordinaria. Eso es ARIMAX (p, d, q, b) modelo. A veces tenemos que ajustar los datos para la estacionalidad se introducirá como información adicional en este artículo. Paso 1: Calcule la autocorrelación de los datos y el correlograma gráfico para determinar el modelo. Si es necesario, inténtelo de algún orden. En este caso, digamos que el correlograma se está descomponiendo después de unos pocos retrasos (caso 4) para los datos integrados de 1 orden. Por lo tanto, necesitamos ARMA (p, q) modelo de datos de I (1) que es ARIMA (p, d, q). Paso 2: Calcule la autocorrelación parcial y grafique el correlograma parcial para determinar el orden pyq. Paso 3: Construir AR (p). Coeficientes son, afortunadamente, autocorrelaciones parciales. Paso 4: Recoger los residuos y calcular su autocorrelación y autocorrelaciones parciales. Debe ser un poco más fácil porque ya sabemos q. Paso 5: Construir MA (q). Su prácticamente computar AR (p) una vez más para los residuos término para el orden q. Por supuesto, los coeficientes son autocorrelaciones parciales residuales. Paso 6: Ahora tenemos ARIMA (p, d, q). Por último, calcular la regresión lineal ordinaria para el Paso 7: Combinar AR (p), MA (q) y OLR. Entonces, su ARIMAX (p, d, q, b). Después de construir el modelo ARIMAX, necesitamos probar si nuestro modelo es lo suficientemente bueno, dejando fuera cualquier variable innecesaria. Para este propósito, tenemos que comprobar la aleatoriedad en los residuos. Si el residuo es aleatorio, significa que es un ruido blanco, es decir, nuestro modelo funciona bien. Procedimiento de prueba es como a continuación Ljung-Box prueba se implementa para probar la aleatoriedad en una serie. Paso 1: Calcule ARIMAX (p, d, q, b) y autocorrelaciones de término residual en el modelo ARIMAX. Paso 2: Calcule la estadística Q Paso 3: Compare Q con Chi-cuadrado Si Q excede al Chi-cuadrado, entonces nuestro modelo no es suficiente. (1) Razón de la matriz de autocorrelación (parcial) Ahora, veamos por qué para la matriz de autocorrelación. Es sencillo. Bueno, puede recordar, para WLS, tuvimos que dividir el término residual por desviación estándar de la muestra que se hizo para corregir la heteroscedasticidad. Por tener un detalle de vista, puede ver que estamos haciendo lo mismo para las series de tiempo mediante la derivación de la matriz de autocorrelación lo que hicimos anteriormente es esencialmente, por lo tanto, estamos dividiendo la varianza de muestra o covarianza por desviación estándar (o co-desviación estándar). En otras palabras, estamos corrigiendo la heteroscedasticidad en series de tiempo. Tenemos que hacerlo siempre, porque la autovariancia en la serie de tiempo es siempre heteroskedastic que estaría cerca de la varianza para 1 o 2 retrasos, pero muy volátil en el azar para más retrasos. Por lo tanto, tenemos que corregir heteroskedasticity de la misma manera que lo hicimos para White Least Square sobre la variación volátil en el azar. (2) Condiciones de AR (p) y MA (q) Como regresión lineal ordinaria o generalizada, los modelos de series temporales también tienen sus condiciones. Es como a continuación Las series temporales de tendencias son a menudo no estacionarias. Por lo tanto, tenemos que detrend en estos casos tomando la diferencia de órdenes: 1 orden para la tendencia lineal 2 órdenes para la tendencia cuadrática. Tomar la diferencia es una forma de hacer los datos estacionarios y se puede hacer de muchas maneras, como tomar logaritmos, cambios en porcentaje, la diferencia en el valor en sí. (4) Ajuste de la estacionalidad Si las series temporales tienen estacionalidad, tenemos 2 opciones. Ajustar los datos para la estacionalidad o incluir el término estacional en el modelo. Lo que elija, tenemos que primero, si es que alguno, averigua la estacionalidad, porque a veces el caso no sabemos la longitud del ciclo. Aquí es cómo hacerlo. (1) Si el correlograma muestra picos en algunos intervalos especificados, entonces ese intervalo es la longitud del ciclo, p. Cuando tenemos series de tiempo cíclicas anuales que son datos mensuales, entonces el correlograma dará un pico a los rezagos de 12, 24, 36 (2) Dibuje un gráfico de ejecución calculando la media de la muestra y restándola de cada observación. Si hay ciclos, entonces mostrará ciclos de actualización. Tratamiento de la estacionalidad (1) Incluir término estacional en el modelo p. Cuando el ciclo es de 1 año y tenemos datos mensuales, incluir en el modelo. Se llama modelo SARIMA. (2) Haga una nueva serie de tiempo ajustando la estacionalidad y construya un modelo para estos nuevos datos. Para el ajuste, ver abajo. Paso 1: Calcule el promedio móvil simple de la misma manera que un indicador técnico en los mercados financieros, sugerido por Joseph Granville. A veces se escribe como SMA (g). Por ejemplo, si tiene datos trimestrales que muestran estacionalidad anual (g 4), calcule el promedio de 4 observaciones. Estableciendo este promedio m, entonces será como los siguientes pasos Paso 2: Empareje este promedio móvil con la observación central de la longitud del ciclo. Por ejemplo, cuando g 5, entonces 160 Si g 9, entonces Nota: Puede ver si g es probabilidades, SMA corresponderá directamente a cada observaciones de 0.5 (1 g) - ésima observación. Si g es un even, entonces tenemos que ajustar SMA, p. Si g 4, entonces primero SMA (4) debe llegar a la 2.5a observación que no existe. Por lo tanto, en el caso g es par, debemos tomar el promedio de SMAs vecinos decir, cuando g 8, entonces será como el siguiente Paso 3: Una vez que SMA está emparejado con observaciones, tenemos 2 opciones. Sustraiga SMA de los datos si se asume la estacionalidad constante, o divida datos por SMA si se asume la estacionalidad proporcional. Entonces, podemos obtener el índice estacional. Finalmente, restar la estacionalidad de los datos si se asume la estacionalidad constante, o dividir los datos por estacionalidad si se supone que la estacionalidad proporcional es proporcional a la estacionalidad. Luego, obtendremos datos ajustados a la marea. Wikipedia. , Disponible en Wikipedia. Correlograma, disponible en Wikipedia. Box-Jenkins, disponible en NIST. 6.4.4.6.3. Parcela de Autocorrelación parcial, disponible desde NIST. 1.3.3.27. Trama espectral, disponible en Kurita. Takio. , Disponible en Swift. L. y Spiezia. F. Métodos Cuantitativos para Negocios, Administración y Finanzas, 4ª ed. 2008. Post navigation Category Buscar Hottests Autor Meta-info Stats8.4 Modelos de media móvil En lugar de utilizar valores pasados ​​de la variable de pronóstico en una regresión, un modelo de media móvil utiliza errores de pronóstico anteriores en un modelo tipo regresión. Y c e teta teta e dots theta e, donde et es ruido blanco. Nos referimos a esto como un modelo MA (q). Por supuesto, no observamos los valores de et, por lo que no es realmente regresión en el sentido usual. Observe que cada valor de yt puede considerarse como una media móvil ponderada de los últimos errores de pronóstico. Sin embargo, los modelos de media móvil no deben confundirse con el suavizado promedio móvil que discutimos en el Capítulo 6. Un modelo de media móvil se utiliza para pronosticar valores futuros mientras que el suavizado medio móvil se utiliza para estimar el ciclo de tendencias de valores pasados. Figura 8.6: Dos ejemplos de datos de modelos de media móvil con diferentes parámetros. A la izquierda: MA (1) con y t 20e t 0.8e t-1. Derecha: MA (2) con y t e t - e t-1 0.8e t-2. En ambos casos, e t es el ruido blanco normalmente distribuido con media cero y varianza uno. La Figura 8.6 muestra algunos datos de un modelo MA (1) y un modelo MA (2). Al cambiar los parámetros theta1, dots, thetaq, se obtienen diferentes patrones de series temporales. Al igual que con los modelos autorregresivos, la varianza del término de error y sólo cambiará la escala de la serie, no los patrones. Es posible escribir cualquier modelo estacionario AR (p) como un modelo MA (infty). Por ejemplo, usando la sustitución repetida, podemos demostrar esto para un modelo de AR (1): begin yt amp phi1y et amp phi1 (phi1y e) ph php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php php 1, el valor de phi1k se hará más pequeño a medida que k sea mayor. Así que finalmente obtenemos yt et phi1 e phi12 e phi13 e cdots, un proceso MA (infty). El resultado inverso se cumple si imponemos algunas limitaciones a los parámetros de MA. Entonces el modelo MA se llama inversible. Es decir, que podemos escribir cualquier proceso de MA (q) invertible como un proceso de AR (infty). Los modelos Invertibles no son simplemente para permitirnos convertir de modelos MA a modelos AR. También tienen algunas propiedades matemáticas que los hacen más fáciles de usar en la práctica. Las restricciones de invertibilidad son similares a las limitaciones de estacionariedad. Para un modelo MA (1): -1lttheta1lt1. Para un modelo MA (2): -1lttheta2lt1, theta2theta1 gt-1, theta1-theta2 lt 1. Condiciones más complicadas se mantienen para qge3. Una vez más, R se encargará de estas limitaciones al estimar los modelos.

No comments:

Post a Comment