Autorregresivo de media móvil ARMA (p, q) los modelos de análisis de series temporales - Parte 2 de Michael Salas-Moore el 24 de agosto de 2015, de la Parte 1 se considera el modelo autorregresivo de orden p, también conocido como el modelo AR (p). Hemos introducido como una extensión del modelo de paseo aleatorio en un intento de explicar la correlación serial adicional en series de tiempo financieras. En última instancia, nos dimos cuenta de que no era lo suficientemente flexible como para captar realmente la totalidad de la autocorrelación en los precios de cierre de Amazon Inc. (AMZN) y el Índice de Equidad de SampP500 Estados Unidos. La razón principal de esto es que ambos de estos activos son condicionalmente heterocedástica. lo que significa que son no estacionarias y tienen períodos más o menos varianza o volatilidad de la agrupación, y no es tomado en cuenta por el modelo AR (p). En próximos artículos, finalmente, construir hasta el autorregresivo integrado en movimiento modelos Promedio (ARIMA), así como los modelos condicionalmente heteroscedásticos de las familias ARCH y GARCH. Estos modelos nos darán nuestros primeros intentos realistas de precios de los activos de predicción. En este artículo, sin embargo, vamos a introducir el promedio móvil de orden q modelo, conocido como MA (q). Este es un componente del modelo más general ARMA y como tal tenemos que entender que antes de seguir adelante. Le recomiendo que lea los artículos anteriores en la colección de análisis de series temporales si no lo ha hecho. Todos ellos se pueden encontrar aquí. De media móvil (MA) Modelos de orden q Justificación Un modelo en movimiento promedio es similar a un modelo autorregresivo, excepto que en lugar de ser una combinación lineal de los valores de la serie de tiempo pasado, es una combinación lineal de los últimos términos de ruido blanco. Intuitivamente, esto significa que el modelo MA ve este tipo de perturbaciones de ruido blanco al azar directamente en cada valor actual del modelo. Esto está en contraste con un modelo AR (p), donde los choques de ruido blanco se ven sólo indirectamente. a través de la regresión en términos anteriores de la serie. Una diferencia clave es que el modelo MA referida solamente ver los últimos choques q para un modelo particular MA (q), mientras que el (p) modelo AR tomará todas las crisis anteriores en cuenta, aunque de una manera cada vez menos débil. Definición Matemáticamente, el MA (q) es un modelo de regresión lineal y está estructurado de manera similar a AR (p): media móvil de orden q Modelo Un modelo de serie temporal, es un modelo de media móvil de orden q. MA (q), si: comienzan xt beta1 peso w w ldots betaq final, donde es ruido blanco con E (en peso) 0 y varianza sigma2. Si tenemos en cuenta el operador de desplazamiento hacia atrás. (Véase un artículo anterior), entonces podemos volver a escribir lo anterior como una función de la phi: comienzan xt (1 beta 1 de la beta 2 de 2 ldots betaq q) en peso PHIQ () en peso final vamos a hacer uso de la función phi en artículos posteriores. Segundo Propiedades orden como con AR (p) la media de un proceso MA (q) es cero. Esto es fácil de ver como la media es simplemente una suma de medio de términos de ruido blanco, que son todos ellos cero. comienza el texto enspace mux E (xt) suma E (wi) 0 final comienzan sigma2w texto enspace (1 beta21 ldots beta2q) final de texto enspace RHoK left 1 texto enspace k 0 suma Betai beta / sumq beta2i texto enspace k 1, ldots, q 0 texto enspace k gt q extremo derecho. Donde beta0 1. estaban ahora va a generar algunos datos simulados y utilizarlo para crear correlograms. Esto hará que la fórmula anterior para RHoK algo más concreto. Las simulaciones y Correlogramas MA (1) Vamos a empezar con un (1) proceso de MA. Si fijamos beta1 0.6 obtenemos el siguiente modelo: Al igual que con los modelos AR (p) en el artículo anterior, podemos utilizar R para simular una serie tal y luego trazar la correlogram. Dado que hemos tenido mucha práctica en la anterior serie de artículos análisis de series temporales de llevar a cabo las parcelas, voy a escribir el código R en su totalidad, en lugar de dividirlo: La salida es la siguiente: Como se ha visto anteriormente en la fórmula para RHoK , para k gt q, todas las autocorrelaciones debe ser cero. Desde q 1, deberíamos ver un pico significativo en k1 y picos entonces insignificantes posterior a esa. Sin embargo, debido al sesgo de muestreo que debemos esperar para ver 5 (marginalmente) picos significativos sobre una parcela de muestreo de autocorrelación. Esto es precisamente lo que el correlogram nos muestra en este caso. Tenemos un pico significativo en k1 y picos entonces insignificantes para k gt 1, excepto en k4 donde tenemos un pico marginalmente significativa. De hecho, esta es una manera útil de ver si un modelo MA (q) es adecuada. Al echar un vistazo en el correlogram de una serie particular, podemos ver cuántas existen retardos distintos de cero secuenciales. Si existen tales retardos q entonces podemos intentar legítimamente para ajustar un modelo MA (q) a una serie particular. Ya que tenemos la evidencia de nuestros datos simulados de un (1) proceso de MA, fueron ahora va a tratar de adaptarse a una (1) modelo MA con nuestros datos simulados. Desafortunadamente, tampoco hay un comando ma equivalente al comando ar modelo autorregresivo en R. En lugar de ello, hay que utilizar el comando más general Arima y establecer el autorregresivo y componentes integrados a cero. Hacemos esto mediante la creación de un 3-vector y el establecimiento de los dos primeros componentes (los parámetros autogressive e integrados, respectivamente) a cero: Recibimos una salida útil a partir de la orden de Arima. En primer lugar, podemos ver que el parámetro se ha estimado en 0.602 sombrero, que está muy cerca del verdadero valor de beta 1 0.6. En segundo lugar, los errores estándar ya están calculados para nosotros, por lo que es fácil de calcular los intervalos de confianza. En tercer lugar, recibimos una varianza estimada, log-probabilidad y el Criterio de Información de Akaike (necesaria para la comparación de modelos). La principal diferencia entre Arima y ar es que Arima estima un término de intersección ya que no resta el valor medio de la serie. Por lo tanto tenemos que tener cuidado al realizar predicciones utilizando el comando Arima. Así volver a este punto más adelante. Como una comprobación rápida se va a calcular los intervalos de confianza para el sombrero: Podemos ver que el intervalo de confianza del 95 contiene el valor verdadero del parámetro de 0,6 beta1 y así podemos juzgar el modelo de un buen ajuste. Obviamente, esto se debe esperar ya que simula los datos en el primer lugar ¿Cómo hacer las cosas cambian si se modifica el signo de la beta 1 al -0,6 Vamos a realizar el mismo análisis: La salida es la siguiente: Podemos ver que en k1 tenemos una significativa pico en el correlogram, excepto que muestra una correlación negativa, ya que se casó esperar de un MA (1) modelo con primer coeficiente negativo. Una vez más, todos los picos más allá k1 son insignificantes. Permite encajar un (1) modelo MA y estimar el parámetro: el sombrero de -0,730, que es una pequeña subestimación de -0.6 beta1. Por último, vamos a calcular el intervalo de confianza: Podemos ver que el verdadero valor del parámetro de beta1-0.6 está contenida dentro del intervalo de confianza del 95, que nos proporciona evidencia de un buen ajuste del modelo. MA (3) Permite ejecutar a través del mismo procedimiento para un proceso MA (3). Esta vez debemos esperar picos significativos en k, y picos significativos o relevantes para k gt 3. Vamos a utilizar los siguientes coeficientes: 0,6 beta1, beta2 0.4 y 0.2 beta3. Permite simular un (3) proceso de MA de este modelo. Ive aumentó el número de muestras aleatorias a 1000 en esta simulación, lo que hace más fácil ver la verdadera estructura de autocorrelación, a expensas de hacer la serie original más difíciles de interpretar: La salida es la siguiente: Como era de esperar los tres primeros picos son significativos . Sin embargo, también lo es la cuarta. Sin embargo, podemos legítimamente sugieren que esto puede ser debido al sesgo de muestreo, ya que esperamos para ver 5 de los picos siendo significativa más allá de KQ. Vamos ahora adaptarse a una MA (3) modelo a los datos para tratar de estimar parámetros: El sombrero de las estimaciones de 0,544, 0,345 y sombrero sombrero de 0,298 están cerca de los verdaderos valores de la Beta10.6, beta20.4 y beta30.3, respectivamente. También podemos producir los intervalos de confianza usando los respectivos errores estándar: En cada caso los intervalos de confianza del 95 contienen el verdadero valor del parámetro y podemos concluir que tenemos un buen ajuste con nuestra (3) modelo MA, como cabría esperar. Datos Financieros En la Parte 1 se consideró Amazon Inc. (AMZN) y el Índice de Equidad de SampP500 Estados Unidos. Hemos equipado el modelo AR (p) a ambos y encontramos que el modelo no fue capaz de capturar con eficacia la complejidad de la correlación serial, especialmente en el elenco de la SampP500, donde los efectos de memoria a largo parecen estar presentes. No voy a trazar los gráficos de nuevo por los precios y autocorrelación, en lugar enferma usted se refiere a la entrada anterior. Amazon Inc. (AMZN) Le permite comenzar por tratar de encajar una selección de MA (q) modelos para AMZN, es decir, con q en. Al igual que en la parte 1, así utilizar quantmod para descargar los precios diarios de AMZN y luego convertirlos en un flujo de retornos de registro de los precios de cierre: Ahora que tenemos las declaraciones de registro de flujo podemos utilizar el comando Arima para adaptarse MA (1), MA (2) y (3) los modelos MA y luego estimar los parámetros de cada uno. Por MA (1) tenemos: Podemos trazar los residuos de los retornos diarios de registro y el modelo ajustado: Tenga en cuenta que tenemos un par de picos significativos en los retardos k2, k11, k16 y k18, lo que indica que el MA (1) modelo es Es improbable que sea un buen ajuste para el comportamiento de los retornos de registro AMZN, ya que este no se ve como una realización de ruido blanco. Vamos a tratar un (2) Modelo MA: Tanto de las estimaciones de los coeficientes beta son negativos. Lets parcela los residuos una vez más: Podemos ver que no hay casi cero autocorrelación en los primeros retardos. Sin embargo, tenemos cinco picos marginalmente significativos en los retardos K12, K16, K19, K25 y K27. Esto sugiere que el MA (2) modelo es la captura de una gran cantidad de la autocorrelación, pero no todos los efectos de memoria de largo. ¿Qué tal un (3) modelo MA Una vez más, podemos trazar los residuos: El MA (3) los residuos parcela se ve casi idéntica a la de la (2) Modelo MA. Esto no es sorprendente, ya que fueron la adición de un nuevo parámetro de un modelo que ha explicado aparentemente lejos la mayor parte de las correlaciones en los retardos más cortos, pero que no tendrá mucho efecto en el largo plazo se retrasa. Toda esta evidencia sugiere el hecho de que un modelo MA (q) es poco probable que sea útil para explicar la totalidad de la correlación en serie en el aislamiento. al menos para AMZN. SampP500 Si recuerdan, en la parte 1 vimos que la primera orden diferenciada diaria estructura de retornos de registro de la SampP500 poseía muchos picos significativos en diversos desfases, tanto a corto y largo plazo. Esto proporcionó evidencia de heteroscedasticidad condicional (es decir, la volatilidad de la agrupación) y los efectos de memoria de largo. Esto nos lleva a la conclusión de que el modelo AR (p) no fue suficiente para capturar toda la autocorrelación presente. A medida que hemos visto anteriormente el modelo MA (q) era insuficiente para captar la correlación serial adicional en los residuos del modelo ajustado a la primera orden diferenciada serie diaria de precios de registro. Ahora vamos a tratar de ajustar el modelo MA (q) a la SampP500. Uno podría preguntarse por qué estamos haciendo esto es si sabemos que es poco probable que sea un buen ajuste. Esta es una buena pregunta. La respuesta es que tenemos que ver exactamente cómo tampoco un buen ajuste, ya que este es el proceso final vamos a seguir cuando nos encontramos con mucho los modelos más sofisticados, que son potencialmente más difíciles de interpretar. Vamos a empezar por la obtención de los datos y su conversión a una primera orden diferenciada serie de precios transformados logarítmicamente de cierre diarios como en el artículo anterior: Ahora vamos para adaptarse a un (1), MA (2) y MA (3) modelo MA de la serie, como lo hicimos anteriormente para AMZN. Vamos a empezar con MA (1): Le permite hacer una gráfica de los residuos de este modelo ajustado: El primer pico significativo se produce en k2, pero hay muchos más en k en. Esto claramente no es una realización de ruido blanco y por lo que debemos rechazar la (1) modelo MA como un buen ajuste potencial para el SampP500. ¿La situación mejora con MA (2) Una vez más, vamos a hacer un gráfico de los residuos de esta (2) Modelo MA equipada: Si bien el pico a k2 ha desaparecido (como casarse esperar), todavía nos quedamos con los picos significativos en muchos retardos más largos en los residuos. Una vez más, nos encontramos con el (2) Modelo MA no es un buen ajuste. Debemos esperar, para el (3) modelo MA, para ver la correlación de menos de serie en k3 que para el MA (2), pero una vez más, también hay que contar con ninguna reducción de los retrasos adicionales. Finalmente, vamos a hacer un gráfico de los residuos de esta MA (3) modelo ajustado: Esto es precisamente lo que vemos en la correlogram de los residuos. De ahí que el MA (3), al igual que con los otros modelos anteriores, no es un buen ajuste para la SampP500. Los próximos pasos Hemos ahora examinaron dos principales modelos de series de tiempo en los detalles, a saber, el modelo Autogressive de orden p, AR (p) y luego de media móvil de orden q, MA (q). Hemos visto que theyre tanto capaz de explicar un poco de la autocorrelación en los residuos de primer orden en diferencias de precios diarios de registro de acciones e índices, pero agrupamiento de la volatilidad y la memoria a largo efectos persiste. Por último, es el momento de dirigir nuestra atención a la combinación de estos dos modelos, es decir, el promedio móvil autorregresivo de orden p, q, ARMA (p, q) para ver si mejora la situación aún más. Sin embargo, tendremos que esperar hasta el próximo artículo para una discusión completa de Michael Salas-Moore Mike es el fundador de QuantStart y ha estado involucrado en la industria de las finanzas cuantitativas en los últimos cinco años, principalmente como un desarrollador quant y más tarde como cuant consultoría comerciante por seto funds. A RIMA significa autorregresivos integrados en movimiento modelos Promedio. Univariado (solo vector) ARIMA es una técnica de predicción que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su principal aplicación es en el área de predicción a corto plazo que requiere un mínimo de 40 puntos de datos históricos. Funciona mejor cuando sus datos exhibe un patrón estable o constante en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de que los autores originales), ARIMA es generalmente superior a técnicas de suavizado exponencial cuando los datos son razonablemente largo y la correlación entre las observaciones anteriores es estable. Si los datos son de corto o muy volátiles, y luego algún método de alisado puede funcionar mejor. Si usted no tiene al menos 38 puntos de datos, se debe considerar otro método que no ARIMA. El primer paso en la aplicación de la metodología ARIMA es para comprobar si hay estacionariedad. Estacionariedad implica que la serie se mantiene en un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, a continuación, sus datos no es estacionaria. Los datos también debe mostrar una varianza constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y crece a un ritmo más rápido. En tal caso, las subidas y bajadas en la estacionalidad se harán más dramática en el tiempo. Sin estas condiciones de estacionariedad se cumplen, muchos de los cálculos asociados con el proceso no se puede calcular. Si una representación gráfica de los datos indica no estacionariedad, entonces debería diferencia de la serie. La diferenciación es una excelente manera de transformar una serie no estacionaria a uno estacionario. Esto se realiza restando la observación en el periodo actual de la anterior. Si esta transformación se realiza sólo una vez para una serie, se dice que los datos han sido primera diferenciados. Este proceso elimina esencialmente la tendencia si la serie está creciendo a un ritmo bastante constante. Si está creciendo a un ritmo creciente, se puede aplicar el mismo procedimiento y la diferencia de los datos de nuevo. Sus datos serían entonces segundo diferenciada. Autocorrelaciones son valores numéricos que indican cómo una serie de datos está relacionado con sí mismo en el tiempo. Más precisamente, se mide la fuerza con los valores de datos en un número especificado de periodos aparte se correlacionan entre sí en el tiempo. El número de períodos separados generalmente se llama el retraso. Por ejemplo, una autocorrelación en medidas de retardo 1 cómo valora 1 periodo aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso de 2 medidas de cómo los datos de dos períodos separados están correlacionadas en toda la serie. Autocorrelaciones pueden variar 1--1. Un valor cercano a 1 indica una correlación positiva alta, mientras que un valor cercano a -1 indica una correlación negativa alta. Estas medidas son más a menudo evaluados a través de representaciones gráficas llamadas correlagrams. Un correlagram representa los valores de autocorrelación para una serie dada en diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. metodología ARIMA intenta describir los movimientos de una serie de tiempo estacionaria en función de lo que se denomina autorregresivo y moviendo parámetros medios. Estos se conocen como parámetros AR (autoregessive) y los parámetros MA (promedios móviles). Un modelo AR con sólo 1 de parámetros se puede escribir como. X (t) Un (1) X (t-1) E (t) en la que X (t) de series de tiempo bajo investigación Un (1) el parámetro autorregresivo de orden 1 X (t-1) las series de tiempo se retrasó 1 periodo E (t) el término de error del modelo Esto simplemente significa que cualquier valor dado de X (t) puede explicarse por alguna función de su valor anterior, X (t-1), además de algunos errores aleatorios inexplicable, E (t). Si el valor estimado de A (1) fue 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionado con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), además de algunos al azar de error e (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Mover Modelos Promedio: Un segundo tipo de modelo de Box-Jenkins se llama un modelo de media móvil. Aunque estos modelos son muy similares al modelo AR, el concepto detrás de ellos es muy diferente. Móviles parámetros medios relacionan lo que ocurre en el período t sólo a los errores aleatorios que ocurrieron en periodos pasados, es decir, E (t-1), E (t-2), etc en lugar de X (t-1), X ( t-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA se puede escribir de la siguiente manera. X (t) - B (1) E (t-1) E (t) El término B (1) se llama un MA de orden 1. El signo negativo delante del parámetro se utiliza para la única convención y por lo general se imprime a cabo automáticamente por la mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente con el error aleatorio en el periodo anterior, E (t-1), y con el término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil se pueden extender a estructuras de orden superior que cubren diferentes combinaciones y en movimiento longitudes medias. metodología ARIMA también permite que los modelos que se construirán que incorporan tanto autorregresivo y moviendo parámetros medios juntos. Estos modelos se conocen como modelos mixtos a menudo. Aunque esto lo convierte en una herramienta de pronóstico más complicado, de hecho, la estructura puede simular la serie mejor y producir un pronóstico más exacto. modelos puros implican que la estructura se compone sólo de los parámetros AR o MA - no ambas. Los modelos desarrollados por este enfoque generalmente se llaman los modelos ARIMA, ya que utilizan una combinación de autorregresivo (AR), la integración (I) - refiriéndose al proceso de diferenciación inversa para producir el pronóstico, y moviendo las operaciones promedio (MA). Un modelo ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (P), el número de operadores de diferenciación (d), y el más alto orden del plazo de media móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo de segundo orden autorregresivo de primer orden con un componente promedio cuya serie se ha diferenciado una vez para inducir estacionariedad en movimiento. Recogiendo la Especificación de la derecha: El principal problema en la clásica Box-Jenkins está tratando de decidir qué especificación ARIMA utilizar - i. e. cuántos parámetros AR y / o MA que incluyen. Esto es lo que gran parte de la caja-Jenkings 1976 se dedicó al proceso de identificación. Dependía de gráfica y numérica eva - luación de la autocorrelación de la muestra y las funciones de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en la complejidad, los patrones no se detectan tan fácilmente. Para hacer las cosas más difíciles, los datos representan solamente una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, error de medición, etc.) pueden distorsionar el proceso de identificación teórica. Es por ello que la modelización ARIMA tradicional es más un arte que una science.2.1 Moving Modelos Promedio (modelos MA) modelos de series temporales conocidos como modelos ARIMA puede incluir términos autorregresivos y / o términos de medias móviles. En la Semana 1, aprendimos un término autorregresivo en un modelo de series de tiempo para la variable x t es un valor rezagado de x t. Por ejemplo, un retraso de 1 x término autorregresivo es t-1 (multiplicado por un coeficiente). Esta lección define términos de medias móviles. Un término promedio móvil en un modelo de series de tiempo es un error pasado (multiplicado por un coeficiente). Sea (en peso desbordado N (0, sigma2w)), lo que significa que el w t son de forma idéntica, distribuido de forma independiente, cada uno con una distribución normal con media 0 y la misma varianza. El 1º orden moviendo modelo de media, denotado por MA (1) es (xt theta1w mu peso) El orden 2º movimiento modelo de media, denotado por MA (2) es (mu xt peso theta1w theta2w) El q º orden moviendo modelo de media , denotado por MA (q) es (mu xt wt theta1w theta2w puntos thetaqw) Nota. Muchos libros de texto y programas de software definen el modelo con signos negativos antes de los términos. Esto no cambia las propiedades teóricas generales del modelo, aunque no voltear los signos algebraicos de valores de los coeficientes estimados y los términos (unsquared) en las fórmulas para FCA y varianzas. Es necesario comprobar su software para verificar si los signos negativos o positivos se han utilizado con el fin de escribir correctamente el modelo estimado. R utiliza señales positivas en su modelo subyacente, como lo hacemos aquí. Propiedades teóricas de una serie de tiempo con un MA (1) Nota Modelo que el único valor distinto de cero en el ACF teórico es de retardo 1. Todos los demás autocorrelaciones son 0. Así, un ACF muestra con una autocorrelación significativa sólo en el retardo 1 es un indicador de un posible MA (1) modelo. Para los estudiantes interesados, pruebas de estas propiedades son un apéndice de este folleto. Ejemplo 1 Supongamos que un MA (1) modelo es x t 10 w w t 0,7 t-1. donde (en peso desbordado N (0,1)). Por lo tanto el coeficiente 1 0.7. El ACF teórico está dado por una trama de esta sigue ACF. La trama se acaba de mostrar es la ACF teórico para un MA (1) con 1 0.7. En la práctica, una muestra de costumbre suelen proporcionar un patrón tan claro. El uso de R, simulamos n 100 valores de las muestras utilizando el modelo x 10 w t t t 0,7 W-1 donde w t iid N (0,1). Para esta simulación, un gráfico de series temporales de datos de la muestra de la siguiente manera. No podemos decir mucho de esta trama. El ACF de la muestra para la simulación de datos sigue. Vemos un aumento en el retardo 1 seguido por valores generalmente no significativos para retardos pasado 1. Tenga en cuenta que la muestra ACF no coincide con el patrón teórico de la MA subyacente (1), que es que todas las autocorrelaciones para los retrasos del pasado 1 estarán 0 . una muestra tendría un ACF muestra ligeramente diferente se muestra a continuación, pero probablemente tendría las mismas características generales. Theroretical Propiedades de una serie temporal con un modelo MA (2) Para el (2) Modelo MA, propiedades teóricas son las siguientes: Tenga en cuenta que los únicos valores no nulos en la ACF teórica son los GAL 1 y 2. Autocorrelaciones para retardos más altos son 0 . por lo tanto, una muestra con ACF autocorrelaciones significativas en los retardos 1 y 2, pero autocorrelaciones no significativos para retardos más alto indica una posible MA (2) del modelo. iid N (0,1). Los coeficientes son 1 0,5 y 2 0.3. Debido a que este es un MA (2), el ACF teórica tendrá valores distintos de cero solamente en los retardos 1 y 2. Los valores de los dos autocorrelaciones son distintos de cero Una trama de la ACF teórico sigue. Como casi siempre es el caso, datos de la muestra suele comportarse tan perfectamente como teoría. Hemos simulado n 150 valores de la muestra para el modelo x 10 w t t t-0,5 W 0,3 W 1 T-2. donde w t iid N (0,1). El gráfico de series temporales de datos de la siguiente manera. Al igual que con el gráfico de series temporales de los (1) datos de las muestras MA, usted no puede decir mucho de ella. El ACF de la muestra para la simulación de datos sigue. El patrón es típico para situaciones en las que una (2) modelo de MA puede ser útil. Hay dos picos estadísticamente significativas en los retardos 1 y 2, seguido por los valores no significativos para otros retardos. Tenga en cuenta que debido a un error de muestreo, el ACF muestra no coincide con el patrón teórico exactamente. ACF para el general MA (q) Modelos Una característica de los modelos MA (q), en general, es que hay autocorrelaciones distintos de cero para los primeros retardos q autocorrelaciones y 0 para todos los GAL gt q. No unicidad de la conexión entre los valores de 1 y (Rho1) en MA (1) Modelo. En el MA (1) modelo, para cualquier valor de 1. el recíproco 1/1 da el mismo valor para A modo de ejemplo, utilizar 0,5 por 1. y luego usar 1 / (0,5) 2 por 1. Usted conseguirá (Rho1) 0,4 en ambos casos. Para satisfacer una restricción teórica llamada invertibilidad. que restringir MA (1) modelos de tener valores con valor absoluto menor que 1. En el ejemplo dado, 1 0,5 habrá un valor de parámetro permisible, mientras que 1 1 / 0.5 2 no lo hará. Invertibilidad de modelos Un modelo MA MA se dice que es invertible si es algebraicamente equivalente a un modelo AR orden infinito convergentes. Al converger, nos referimos a que los coeficientes AR disminuyen a 0 a medida que avanzamos en el tiempo. Invertibilidad es una restricción de software programado en series de tiempo utilizado para estimar los coeficientes de los modelos con los términos MA. No es algo que comprobamos en el análisis de datos. Información adicional acerca de la restricción invertibilidad de MA (1) modelos se da en el apéndice. Teoría avanzada Nota. Para un modelo MA (q) con un ACF especificado, sólo hay un modelo invertible. La condición necesaria para invertibilidad es que los coeficientes tienen valores tales que la ecuación 1- 1 y-. - Q y q 0 tiene soluciones para y que están fuera del círculo unitario. R Código de los ejemplos en el Ejemplo 1, que representa el ACF teórica del modelo x 10 w t t. 7w t-1. y luego simulado n 150 valores de este modelo y se representó la serie temporal de la muestra y la ACF muestra para los datos simulados. Los comandos R utilizan para trazar el ACF teórico fueron: acfma1ARMAacf (mac (0,7), lag. max10) 10 rezagos de ACF para MA (1) con 0,7 theta1 lags0: 10 crea una variable llamada desfases que va de 0 a 10. parcela (retardos, acfma1, xlimc (1,10), ylabr, Type H, principal ACF para MA (1) con theta1 0,7) abline (H0) agrega un eje horizontal de la gráfica el primer comando determina la ACF y lo almacena en un objeto acfma1 llamado (nuestra elección del nombre). El comando plot (los comandos 3º) parcelas se retrasa en comparación con los valores de ACF para desfases del 1 al 10. Cuando las etiquetas El parámetro ylab el eje Y y el parámetro principal pone un título en la parcela. Para ver los valores numéricos de la ACF sólo tiene que utilizar el comando acfma1. La simulación y las parcelas se realizaron con los siguientes comandos. xcarima. sim (n150, lista (mac (0,7))) Simula n 150 valores de MA (1) xxc10 añade 10 para hacer medias por defecto 10. Simulación en el sentido de 0. plot (x, TypeB, mainSimulated MA (1) datos) ACF (x, xlimc (1,10), mainACF para datos de muestras simuladas) En el Ejemplo 2, se representa gráficamente la ACF teórica del modelo XT 10 en peso de 0,5 w t-1 0,3 W T-2. y luego simulado n 150 valores de este modelo y se representó la serie temporal de la muestra y la ACF muestra para los datos simulados. Los comandos R utilizados fueron acfma2ARMAacf (mac (0.5,0.3), lag. max10) acfma2 lags0: 10 parcela (GAL, acfma2, xlimc (1,10), ylabr, Type H, principal ACF para MA (2) con theta1 0,5, theta20.3) abline (H0) xcarima. sim (n150, lista (mac (0,5, 0,3))) xxc10 plot (x, TypeB, principal simulada MA (2) Serie) ACF (x, xlimc (1,10), mainACF para MA simulada (2) datos) Apéndice: Prueba de propiedades de MA (1) para los estudiantes interesados, aquí están las pruebas de las propiedades teóricas de la (1) modelo MA. Diferencia: (texto (xt) w texto (mu theta1 en peso) 0 texto (en peso) de texto (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Cuando h 1, la expresión anterior 1 w 2. Para cualquier h 2, la expresión anterior 0 . la razón es que, por definición de independencia del peso. E (k w w j) 0 para cualquier k j. Además, como la w t tiene media 0, E (w w j j) E (w j 2) w 2. Por una serie de tiempo, aplicar este resultado para obtener el ACF dado anteriormente. Un modelo MA invertible es uno que puede ser escrito como un modelo AR orden infinito que converge de manera que los coeficientes AR convergen a 0 a medida que avanzamos infinitamente en el tiempo. Bien demostrar invertibilidad para el (1) modelo de MA. Tenemos entonces sustituto de la relación (2) A la hora de w t-1 en la ecuación (1) (3) (ZT en peso theta1 (z - theta1w) en peso theta1z - theta2w) t-2. la ecuación (2) se convierte en A continuación, sustituir relación (4) para W t-2 en la ecuación (3) (ZT en peso theta1 z - theta21w peso theta1z - theta21 (z - theta1w) en peso theta1z - theta12z theta31w) Si tuviéramos que continuar ( infinitamente), obtendríamos el modelo AR orden infinito (ZT en peso theta1 z - theta21z theta31z - theta41z puntos) Obsérvese, sin embargo, que si 1 1, los coeficientes multiplicadores de los retardos z aumentará (infinitamente) de tamaño a medida que avanzamos en la espalda hora. Para evitar esto, necesitamos 1 LT1. Esta es la condición para un MA (1) modelo invertible. Modelo de la orden infinito MA En la semana 3, así que ver un AR (1) modelo puede ser convertido en un modelo de orden infinito MA: (xt - mu peso phi1w phi21w puntos phik1 w puntos resumen phij1w) Esta suma de términos de ruido blanco es conocido últimos como la representación causal de un AR (1). En otras palabras, x t es un tipo especial de MA con un número infinito de términos que se remontan en el tiempo. Esto se llama una orden infinito MA o MA (). Una orden MA finito es un AR orden infinito y cualquier orden de AR finito es un MA orden infinito. Recordemos en la semana 1, se observó que la exigencia de un AR estacionario (1) es que 1 LT1. Permite calcular el Var (x t) utilizando la representación causal. Este último paso se utiliza un hecho básico acerca serie geométrica que requiere (phi1lt1) diverge de lo contrario las series. NavigationDocumentation es la media incondicional del proceso, y x03C8 (L) es un, infinito-grado del polinomio operador de retardos racional, (1 x03C8 1 L x03C8 2 L 2 x2026). Nota: la propiedad constante de un objeto modelo Arima corresponde a c. y no la media incondicional 956. Por Wolds descomposición 1. La ecuación 5-12 corresponde a un proceso estocástico estacionario proporciona los coeficientes x03C8 i son absolutamente sumable. Este es el caso cuando el polinomio AR, x03D5 (L). es estable . decir, considerando todas sus raíces se encuentran fuera del círculo unitario. Además, el proceso es causal proporcionan el polinomio MA es invertible. decir, considerando todas sus raíces se encuentran fuera del círculo unitario. Caja de herramientas de la econometría hace cumplir la estabilidad y invertibilidad de los procesos ARMA. Cuando se especifica el uso de un modelo ARMA Arima. se produce un error si se introduce coeficientes que no corresponden a un polinomio AR MA polinómica o invertible estable. Del mismo modo, la estimación de estacionariedad impone restricciones y invertibilidad durante la estimación. Referencias 1 Wold, H. Un estudio en el análisis de estacionario de series temporales. Uppsala, Suecia: Almqvist amp Wiksell, 1938. Seleccione su CountryAutoregressive media móvil ARMA (p, q) los modelos de análisis de series temporales - Parte 2 Por Michael Salas-Moore el 24 de agosto de 2015, de la parte 1 que considera el modelo autorregresivo de orden p , también conocido como el modelo AR (p).
No comments:
Post a Comment