Antes de 1970, los econometristas y analistas de series de tiempo usado métodos muy diferentes para modelar una serie de tiempo. Económetras modelado de series temporales son una regresión lineal estándar con variables explicativas que sugiere la teoría económica / intuición para explicar los movimientos de los datos de series temporales. Se supone que la serie de momento no estacionario (crecimiento horas extras) no tuvo ningún efecto en su análisis empírico. analistas de series de tiempo, por otro lado ignoran este análisis econométrico tradicional. Modelaron una serie de tiempo como una función de sus valores pasados. Se trabajó en torno al problema de la no estacionariedad diferenciando los datos para que sea estacionaria. Entonces, Clive Granger y Paul Newbold sucedieron 1. Los econometristas se vieron obligados a prestar atención a los métodos de los analistas de series de tiempo, el más famoso de los cuales fue el BoxJenkins enfoque desarrollado por George P Box y Jenkins Gwilym y publicados en su legendaria monografía análisis de series temporales : Predicción y control 2. Box y Jenkins afirmaron (con éxito) que los datos no estacionarios se pueden hacer estacionario diferenciando la serie. Esta serie, Mathy / matemáticas es la entrada en el análisis de Box-Jenkins. El modelo general para Mathy / matemáticas se escribe como, mathYphi1Y phi2Y. phipY theta2epsilon epsilonttheta1epsilon. thetaqepsilon / matemáticas donde mathphi / matemáticas y maththeta / matemáticas son parámetros desconocidos y mathepsilon / matemáticas son independientes idénticamente distribuidas términos de error con media cero. Aquí, Mathy / matemáticas sólo se expresa en términos de sus valores pasados y los valores actuales y pasados de los términos de error. Este modelo se llama Moving autorregresivo integrado de media o mathARIMA (p, d, q) / modelo matemático de mathY. p / matemáticas es el número de valores retardados de Mathy / matemática que representa la naturaleza autorregresivo (AR) del modelo, mathq / matemáticas es el número de valores rezagados del término de error que representa la naturaleza de media móvil (MA) del modelo y mathd / matemáticas es el número de veces Mathy / matemáticas tiene que haber diferencias para producir el estacionaria Mathy / matemáticas. El término integrado implica que con el fin de obtener una previsión de Mathy / matemáticas. tenemos que resumir (o integrar más) los valores de Mathy / matemáticas porque Mathy / matemáticas son los valores diferenciados de la serie original Mathy. / Matemáticas Si no hay diferenciación está involucrado, este modelo se denomina autorregresivo de media móvil mathARMA (p, q) / matemáticas con mathp / matemáticas y mathq / matemáticas que conserva su significado original y sin mathd. / Matemáticas El término mathARIMA / o matemáticas mathARMA / matemáticas es muy confuso porque ambos, el Mathar / matemáticas y componentes / matemáticas mathMA tienen la misma forma matemática. Los dos son combinaciones lineales de los valores presentes y pasados de variables aleatorias. El componente / matemáticas Mathar es la combinación lineal de los valores observables de Mathy / matemáticas mientras que el componente / matemáticas mathMA es la combinación lineal de los términos de perturbación de ruido blanco no observables. Esta es sólo una de esas trivialidades que se acostumbraría a con el tiempo. Económetras ignoró el enfoque Box-Jenkins al principio, pero se vieron obligados a prestar atención a ellos cuando se previsiones mathARIMA / matemáticas comenzaron superando consistentemente pronósticos basados en modelos econométricos estándar. La falta de una teoría económica sólida detrás de la mathARIMA / matemáticas era preocupante para económetras a aceptar. Ellos respondieron mediante el desarrollo de otra clase de modelos que incorporan auroregressive y los componentes móviles del promedio de enfoque Box-Jenkins con el enfoque de variables explicativas de la econometría estándar. El más simple de estos modelos es el mathARIMAX / matemáticas que es sólo una mathARIMA / matemáticas con variables explicativas adicionales proporcionados por la teoría económica. Un mathARIMAX / matemática estándar debería ser escrita como, mathYbeta. X phi1Y phi2Y. phipY theta2epsilon epsilonttheta1epsilon. thetaqepsilon / matemáticas donde mathx / matemáticas puede ser cualquier variable económica. 3k Vistas middot Ver upvotes middot Not for Reproduction Echale un vistazo a este enlace: 8 ARIMA modelos OTexts Este es el capítulo dedicado a los modelos ARIMA de un fantástico libro de texto gratuito en línea sobre el pronóstico de series de tiempo desde el pedido Rob J Hyndman P de la parte autorregresiva . Ese es el número de términos desconocidos que multiplican su señal en tiempos pasados (tantas veces pasadas como su valor p) el grado de diferenciación D de la primera cuestión. Número de veces que se tiene a la diferencia de su tiempo-serie para tener una orden uno Q estacionaria de la parte media móvil. Ese es el número de términos desconocidos que multiplican sus errores de pronóstico en tiempos pasados (tantas veces pasadas como su valor q) Hay buenas técnicas para estimar los parámetros evaluados (en base a la autocorrelación - ACF - y las funciones de autocorrelación parcial - PACF): people. duke. edu/ y el proceso puede ser complejo y requiere mucho tiempo, aún más si tiene muchas series de tiempo para manejar con. En R hay una función llamada auto. arima en el paquete de previsión que evaluar todos estos parámetros de forma automática, incluso la parte estacionalidad (valores adicionales para el cálculo en caso de que haya estacionalidad en su serie de tiempo). 1.8K Vistas middot middot Ver upvotes No es para ReproductionA RIMA es sinónimo de autorregresivos integrados en movimiento modelos Promedio. Univariado (solo vector) ARIMA es una técnica de predicción que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su principal aplicación es en el área de predicción a corto plazo que requiere un mínimo de 40 puntos de datos históricos. Funciona mejor cuando sus datos exhibe un patrón estable o constante en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de que los autores originales), ARIMA es generalmente superior a técnicas de suavizado exponencial cuando los datos son razonablemente largo y la correlación entre las observaciones anteriores es estable. Si los datos son de corto o muy volátiles, y luego algún método de alisado puede funcionar mejor. Si usted no tiene al menos 38 puntos de datos, se debe considerar otro método que no ARIMA. El primer paso en la aplicación de la metodología ARIMA es para comprobar si hay estacionariedad. Estacionariedad implica que la serie se mantiene en un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, a continuación, sus datos no es estacionaria. Los datos también debe mostrar una varianza constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y crece a un ritmo más rápido. En tal caso, las subidas y bajadas en la estacionalidad se harán más dramática en el tiempo. Sin estas condiciones de estacionariedad se cumplen, muchos de los cálculos asociados con el proceso no se puede calcular. Si una representación gráfica de los datos indica no estacionariedad, entonces debería diferencia de la serie. La diferenciación es una excelente manera de transformar una serie no estacionaria a uno estacionario. Esto se realiza restando la observación en el periodo actual de la anterior. Si esta transformación se realiza sólo una vez para una serie, se dice que los datos han sido primera diferenciados. Este proceso elimina esencialmente la tendencia si la serie está creciendo a un ritmo bastante constante. Si está creciendo a un ritmo creciente, se puede aplicar el mismo procedimiento y la diferencia de los datos de nuevo. Sus datos serían entonces segundo diferenciada. Autocorrelaciones son valores numéricos que indican cómo una serie de datos está relacionado con sí mismo en el tiempo. Más precisamente, se mide la fuerza con los valores de datos en un número especificado de periodos aparte se correlacionan entre sí en el tiempo. El número de períodos separados generalmente se llama el retraso. Por ejemplo, una autocorrelación en medidas de retardo 1 cómo valora 1 periodo aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso de 2 medidas de cómo los datos de dos períodos separados están correlacionadas en toda la serie. Autocorrelaciones pueden variar 1--1. Un valor cercano a 1 indica una correlación positiva alta, mientras que un valor cercano a -1 indica una correlación negativa alta. Estas medidas son más a menudo evaluados a través de representaciones gráficas llamadas correlagrams. Un correlagram representa los valores de autocorrelación para una serie dada en diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. metodología ARIMA intenta describir los movimientos de una serie de tiempo estacionaria en función de lo que se denomina autorregresivo y moviendo parámetros medios. Estos se conocen como parámetros AR (autoregessive) y los parámetros MA (promedios móviles). Un modelo AR con sólo 1 de parámetros se puede escribir como. X (t) Un (1) X (t-1) E (t) en la que X (t) de series de tiempo bajo investigación Un (1) el parámetro autorregresivo de orden 1 X (t-1) las series de tiempo se retrasó 1 periodo E (t) el término de error del modelo Esto simplemente significa que cualquier valor dado de X (t) puede explicarse por alguna función de su valor anterior, X (t-1), además de algunos errores aleatorios inexplicable, E (t). Si el valor estimado de A (1) fue 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionado con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), además de algunos al azar de error e (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Mover Modelos Promedio: Un segundo tipo de modelo de Box-Jenkins se llama un modelo de media móvil. Aunque estos modelos son muy similares al modelo AR, el concepto detrás de ellos es muy diferente. Móviles parámetros medios relacionan lo que ocurre en el período t sólo a los errores aleatorios que ocurrieron en periodos pasados, es decir, E (t-1), E (t-2), etc en lugar de X (t-1), X ( t-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA se puede escribir de la siguiente manera. X (t) - B (1) E (t-1) E (t) El término B (1) se llama un MA de orden 1. El signo negativo delante del parámetro se utiliza para la única convención y por lo general se imprime a cabo automáticamente por la mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente con el error aleatorio en el periodo anterior, E (t-1), y con el término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil se pueden extender a estructuras de orden superior que cubren diferentes combinaciones y en movimiento longitudes medias. metodología ARIMA también permite que los modelos que se construirán que incorporan tanto autorregresivo y moviendo parámetros medios juntos. Estos modelos se conocen como modelos mixtos a menudo. Aunque esto lo convierte en una herramienta de pronóstico más complicado, de hecho, la estructura puede simular la serie mejor y producir un pronóstico más exacto. modelos puros implican que la estructura se compone sólo de los parámetros AR o MA - no ambas. Los modelos desarrollados por este enfoque generalmente se llaman los modelos ARIMA, ya que utilizan una combinación de autorregresivo (AR), la integración (I) - refiriéndose al proceso de diferenciación inversa para producir el pronóstico, y moviendo las operaciones promedio (MA). Un modelo ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (P), el número de operadores de diferenciación (d), y el más alto orden del plazo de media móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo de segundo orden autorregresivo de primer orden con un componente promedio cuya serie se ha diferenciado una vez para inducir estacionariedad en movimiento. Recogiendo la Especificación de la derecha: El principal problema en la clásica Box-Jenkins está tratando de decidir qué especificación ARIMA utilizar - i. e. cuántos parámetros AR y / o MA que incluyen. Esto es lo que gran parte de la caja-Jenkings 1976 se dedicó al proceso de identificación. Dependía de gráfica y numérica eva - luación de la autocorrelación de la muestra y las funciones de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en la complejidad, los patrones no se detectan tan fácilmente. Para hacer las cosas más difíciles, los datos representan solamente una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, error de medición, etc.) pueden distorsionar el proceso de identificación teórica. Es por ello que la modelización ARIMA tradicional es más un arte que una science. Autoregressive Moving error promedio Procesos 13 13 13 13 13 13 Autoregresivo en movimiento procesos de error promedio (errores ARMA) y otros modelos que implican retrasos de términos de error puede estimarse utilizando declaraciones FIT y simulados o pronosticar usando SOLVE declaraciones. modelos ARMA para el proceso de error se utilizan a menudo para los modelos con los residuos de autocorrelación. La macro AR se puede utilizar para especificar los modelos con los procesos de error autorregresivos. La macro MA se puede utilizar para especificar modelos con el movimiento de los procesos de error promedio. Los errores autorregresivos Un modelo con errores autorregresivos de primer orden, AR (1), tiene la forma, mientras que un AR (2) Proceso de error tiene la forma y así sucesivamente para los procesos de orden superior. Tenga en cuenta que los s son independientes e idénticamente distribuidos y tienen un valor esperado de 0. Un ejemplo de un modelo con un AR (2) componente es Usted escribirá este modelo de la siguiente manera: o equivalentemente usando la macro AR como media móvil Modelos 13 A modelo de primer orden con errores promedio en movimiento, MA (1), tiene la forma en que se distribuyen idéntica e independientemente con media cero. An (2) Proceso de error MA tiene la forma y así sucesivamente para los procesos de orden superior. Por ejemplo, puede escribir un modelo de regresión lineal simple con MA (2) que se mueve como promedio de errores donde MA1 y MA2 son los parámetros de media móvil. Tenga en cuenta que RESID. Y se define automáticamente por MODELO PROC como Tenga en cuenta que es RESID. Y. La función ZLAG debe ser utilizado para los modelos MA para truncar la recursividad de los GAL. Esto asegura que los errores retardados comienzan en cero en la fase de latencia de aspiración normal y no se propagan los valores perdidos cuando las variables período de demora de cebado están desaparecidos, y asegura que los futuros errores son cero en lugar de desaparecidos durante la simulación o predicción. Para más detalles sobre las funciones de retardo, consulte la sección 34Lag Logic.34 Este modelo escrito usando la macro MA es la Forma General de modelos ARMA El proceso general ARMA (p, q) tiene la siguiente forma Un ARMA (p, q) modelo puede ser especificada de la siguiente manera en la que AR y MA j representan el autorregresivo y moviendo parámetros promedio para los distintos grupos de acción local. Se puede utilizar cualquier nombre que desee para estas variables, y hay muchas formas equivalentes que la especificación se podría escribir. Vector procesos ARMA también pueden ser estimadas con el modelo PROC. Por ejemplo, un AR de dos variables (1) proceso para los errores de la Y1 dos variables endógenas y Y2 se puede especificar de la siguiente manera Convergencia Problemas con ARMA modelos modelos ARMA puede ser difícil de estimar. Si las estimaciones de los parámetros no están dentro del rango apropiado, un movimiento modelos de promedio términos residuales van a crecer de forma exponencial. Los residuales calculados para las observaciones posteriores pueden ser muy grandes o pueden desbordarse. Esto puede ocurrir ya sea porque los valores de arranque no se utilizaron o porque las iteraciones se alejan de los valores razonables. Se debe tener cuidado en la elección de los valores de partida para los parámetros ARMA. A partir de los valores de parámetros, 001 ARMA suelen trabajar si el modelo se ajusta a los datos del pozo y el problema es bien acondicionado. Tenga en cuenta que un modelo MA menudo puede ser aproximado por un modelo AR de orden superior, y viceversa. Esto puede resultar en alta colinealidad en modelos ARMA mixtos, que a su vez puede causar graves malos acondicionado en los cálculos y la inestabilidad de las estimaciones de los parámetros. Si usted tiene problemas de convergencia, mientras que la estimación de un modelo con procesos ARMA error, tratar de estimar en los pasos. En primer lugar, utilice una instrucción FIT para estimar sólo los parámetros estructurales con los parámetros ARMA mantenidas a cero (o en las estimaciones previas razonables si está disponible). A continuación, utilice otra declaración FIT para estimar los parámetros ARMA solamente, utilizando los valores de los parámetros estructurales de la primera carrera. Como los valores de los parámetros estructurales son propensos a estar cerca de sus estimaciones finales, las estimaciones de los parámetros ARMA pueden ahora convergen. Por último, utilice otra declaración FIT para producir estimaciones simultáneas de todos los parámetros. Dado que los valores iniciales de los parámetros son ahora probablemente muy cerca de sus estimaciones conjuntas finales, las estimaciones deberían converger rápidamente si el modelo es adecuado para los datos. Las condiciones iniciales AR 13 13 13 13 13 13 13 13 13 13 Los desfases iniciales de los términos de error de AR (p) los modelos se pueden modelar de diferentes maneras. Los métodos de inicio de error autorregresivos apoyados por procedimientos / ETS SAS son los siguientes: CLS mínimos cuadrados condicionales (ARIMA y procedimientos modelo) ULS incondicionales mínimos cuadrados (AutoReg, ARIMA, y procedimientos modelo) ML máxima verosimilitud (AutoReg, ARIMA, y los procedimientos de modelo) YW Yule-Walker (procedimiento AutoReg solamente) HL Hildreth-Lu, que borra las primeras observaciones de p (procedimiento modelo) Véase el capítulo 8. para una explicación y discusión de los méritos de varios AR (p) métodos de inicio. Las inicializaciones CLS, ULS, ML, y HL pueden ser realizadas por MODELO Proc. Para (1) errores de AR, estas inicializaciones se pueden producir como se muestra en la Tabla 14.2. Estos métodos son equivalentes en muestras grandes. Tabla 14.2: Inicializaciones realizadas por MODELO PROC: AR (1) ERRORES inicial de MA Condiciones 13 13 13 13 13 13 Los desfases iniciales de los términos de error de MA (q) modelos también se pueden modelar de diferentes maneras. El siguiente movimiento paradigmas promedio de inicio de error son compatibles con los procedimientos y el modelo ARIMA: ULS incondicionales de mínimos cuadrados CLS condicional mínimos cuadrados ML máxima verosimilitud El método de mínimos cuadrados condicionales de la estimación de movimiento términos de error promedio no es óptima porque ignora el problema de inicio. Esto reduce la eficiencia de las estimaciones, a pesar de que siguen siendo imparcial. Los residuos retardados iniciales, que se extiende antes del inicio de los datos, se supone que son 0, su valor esperado incondicional. Esto introduce una diferencia entre estos residuos y los mínimos cuadrados generalizados residuales para la covarianza media móvil, el cual, a diferencia del modelo autorregresivo, persiste a través del conjunto de datos. Por lo general, esta diferencia converge rápidamente a 0, pero para los procesos de media móvil casi no invertible la convergencia es bastante lento. Para minimizar este problema, usted debe tener un montón de datos, y las estimaciones de los parámetros de media móvil debe estar dentro del rango invertible. Este problema se puede corregir a expensas de escribir un programa más complejo. Incondicionales de mínimos cuadrados estimaciones para el (1) proceso de MA se pueden producir mediante la especificación del modelo de la siguiente manera: errores de media móvil pueden ser difíciles de estimar. Usted debe considerar el uso de un AR (p) aproximación al proceso de media móvil. Un proceso de media móvil por lo general puede ser bien aproximada por un proceso autorregresivo si los datos no han sido suavizadas o diferenciada. La macro La macro AR AR SAS genera instrucciones de programación para el modelo de proceso para los modelos autorregresivos. La macro AR es parte del software SAS / ETS y no hay opciones especiales necesita ser configurado para utilizar la macro. El proceso autorregresivo se puede aplicar a los errores de ecuaciones estructurales o a los propios serie endógeno. La macro AR puede ser utilizado para auto regresión univariante sin restricciones de vectores autorregresivos vector autorregresivo restringido. Univariado Autorregresión 13 para modelar el término de error de una ecuación como un proceso autorregresivo, utilice la siguiente instrucción después de la ecuación: Por ejemplo, supongamos que Y es una función lineal de X1 y X2, y un (2) Error de AR. Se podría escribir este modelo de la siguiente manera: Las llamadas a AR deben venir después de todas las ecuaciones que el proceso se aplica a. La invocación de la macro de proceder, AR (y, 2), produce las declaraciones que aparecen en la salida de lista en la figura 14.49. Figura 14.50: lista de salida Opción para un modelo AR con retardos en el 1, 12, y 13 Hay variaciones en el condicional método de mínimos cuadrados, dependiendo de si las observaciones en el inicio de la serie se utilizan para 34warm up34 el proceso AR. Por defecto, el método de mínimos cuadrados condicionales AR utiliza todas las observaciones y asume ceros para los desfases iniciales de los términos autorregresivos. Mediante el uso de la opción M, puede solicitar que la AR utilizar los mínimos cuadrados incondicionales (ULS) o el método de máxima verosimilitud (ML) en su lugar. Por ejemplo: Las discusiones de estos métodos se proporcionan en el Conditions34 inicial 34AR anteriormente en esta sección. Mediante el uso de la opción n MCLS, puede solicitar que las primeras observaciones n usarse para calcular las estimaciones de los retardos autorregresivos iniciales. En este caso, el análisis comienza con la observación n 1. Por ejemplo: Puede utilizar la macro AR aplicar un modelo autorregresivo de la variable endógena, en lugar de con el término de error, utilizando la opción TYPEV. Por ejemplo, si desea agregar los últimos cinco retardos de Y de la ecuación en el ejemplo anterior, se puede usar AR para generar los parámetros y LAG mediante las siguientes declaraciones: Las declaraciones anteriores generan el resultado que se muestra en la Figura 14.51. El modelo de elaboración de las listas de Compilado instrucción de código de programa como Analizada PRED. yab x1 x2 c RESID. y PRED. y - ACTUAL. y ERROR. y PRED. y - y OLDPRED. y PRED. y YL1 ZLAG1 (y) ZLAG2 YL2 (y ) yl3 ZLAG3 (y) ZLAG4 yl4 (y) yl5 ZLAG5 (y) RESID. y PRED. y - ACTUAL. y ERROR. y PRED. y - y la figura 14.51: lista de salida de opción de un modelo AR de Y Y Este modelo predice como una combinación lineal de X1, X2, una intercepción, y los valores de y en los últimos cinco períodos. Sin restricciones de vectores autorregresivos 13 para modelar los términos de error de un conjunto de ecuaciones como un proceso autorregresivo vectorial se utilizará el siguiente formulario de la macro AR después de las ecuaciones: El valor ProcessName es cualquier nombre que se proporciona para la AR para usar en la fabricación de nombres para el parámetros autorregresivos. Puede utilizar la macro AR para modelar varios procesos AR diferentes para diferentes conjuntos de ecuaciones mediante el uso de diferentes nombres de proceso para cada conjunto. El nombre del proceso asegura que los nombres de las variables utilizadas son únicos. Utilice un valor ProcessName corto para el proceso si son estimaciones de los parámetros que se escriben en un conjunto de datos de salida. La macro AR intenta construir nombres de los parámetros inferiores o iguales a ocho caracteres, pero esto está limitado por la longitud del nombre. que se usa como un prefijo para los nombres de los parámetros AR. El valor variablelist es la lista de las variables endógenas de las ecuaciones. Por ejemplo, supongamos que los errores para ecuaciones Y1, Y2, Y3 y son generados por un proceso de vector autorregresivo de segundo orden. Puede utilizar las siguientes afirmaciones: que genera el siguiente código para Y1 e Y2 similar para e Y3: Sólo los mínimos cuadrados condicionales método (MCL o MCLS n) se pueden utilizar para los procesos de vectores. También puede utilizar el mismo formulario con las restricciones que la matriz de coeficientes sea 0 en los retardos seleccionados. Por ejemplo, los estados aplican un proceso vector de tercer orden a los errores ecuación con todos los coeficientes en el retardo 2 restringido a 0 y con los coeficientes en los retardos 1 y 3 sin restricciones. Usted puede modelar las tres series Y1-Y3 como un proceso autorregresivo vectorial en las variables en lugar de en los errores mediante la opción TYPEV. Si se desea modelar Y1-Y3 como una función de los valores pasados de algunas variables o constantes exógenos Y1-Y3 e, puede usar AR para generar las declaraciones de los términos de retraso. Escribe una ecuación para cada variable para la parte nonautoregressive del modelo, y luego llamar AR con la opción TYPEV. Por ejemplo, la parte nonautoregressive del modelo puede ser una función de variables exógenas, o puede ser parámetros de intercepción. Si no hay componentes exógenos al modelo de vectores autorregresivos, incluyendo no intercepta, a continuación, asignar cero a cada una de las variables. Debe haber una asignación a cada una de las variables antes de AR se llama. Este ejemplo modelos del vector Y (A1 A2 A3) como una función lineal única de su valor en los dos períodos anteriores y un vector de error de ruido blanco. El modelo tiene 18 (3 veces 3 3 veces 3) parámetros. Sintaxis de la macro AR Hay dos casos de la sintaxis de la macro AR. El primero de ellos tiene el nombre de forma general especifica un prefijo para AR para usar en la construcción de nombres de variables necesarias para definir el proceso AR. Si no se especifica el endolist, la lista de valores por defecto endógenos para nombrar. que debe ser el nombre de la ecuación a la que el proceso de error AR se va a aplicar. El valor de nombre no puede exceder de ocho caracteres. nlag es el fin del proceso AR. endolist especifica la lista de ecuaciones para que el proceso de AR se va a aplicar. Si se administra más de un nombre, un proceso de vectores sin restricciones se crea con los residuos estructurales de todas las ecuaciones incluidas como regresores en cada una de las ecuaciones. Si no se especifica, por defecto endolist nombrar. laglist especifica la lista de retardos en la que los términos AR se van a añadir. Los coeficientes de los términos en que aparece desfases no se ponen a 0. Todos los desfases mencionados debe ser menor o igual a nlag. y no debe haber duplicados. Si no se especifica, los valores por defecto a todos los GAL laglist 1 a nlag. Método M especifica el método de estimación de implementar. Los valores válidos de M son condicionales (CLS mínimos cuadrados estimaciones), ULS (incondicional de mínimos cuadrados estimaciones), y ML (estimaciones de máxima probabilidad). MCLS es el valor predeterminado. Sólo MCLS está permitido cuando se especifica más de una ecuación. Los métodos de la ULS y ML no son compatibles con los modelos de vectores AR AR. TYPEV especifica que el proceso AR se va a aplicar a las variables endógenas sí mismos en lugar de a los residuos estructurales de las ecuaciones. Restringido de vectores autorregresivos 13 13 13 13 Puede controlar qué parámetros están incluidos en el proceso, lo que restringe aquellos parámetros que no se incluye a 0. En primer lugar, utilice la opción AR con DEFER para declarar la lista de variables y definir la dimensión del proceso. A continuación, utilice AR adicional llama a generar condiciones para las funciones seleccionadas con variables seleccionadas en los retardos seleccionados. Por ejemplo, las ecuaciones de error producidos son Este modelo establece que los errores de Y1 dependen de los errores tanto de Y1 y Y2 (pero no Y3) en ambos retardos 1 y 2, y que los errores de Y2 y Y3 dependen de los errores anteriores para las tres variables, pero sólo en el retardo 1. AR Macro sintaxis para restringido vector AR se permite un uso alternativo de AR para imponer restricciones a un proceso AR vector llamando AR varias veces para especificar diferentes términos AR y se queda para diferentes ecuaciones. La primera llamada tiene el nombre de forma general especifica un prefijo para AR para usar en la construcción de nombres de variables necesarias para definir el proceso AR vectorial. nlag especifica el orden del proceso AR. endolist especifica la lista de ecuaciones para que el proceso de AR se va a aplicar. DEFER especifica que AR no es generar el proceso de AR pero es esperar a que la información adicional especificada en adelante AR exige el mismo valor de nombre. Las llamadas posteriores tienen el nombre de forma general es la misma que en la primera llamada. eqlist especifica la lista de ecuaciones para los que las especificaciones en esta llamada AR se van a aplicar. Sólo los nombres especificados en el valor endolist de la primera convocatoria para el valor de nombre puede aparecer en la lista de ecuaciones en eqlist. varlist especifica la lista de ecuaciones cuyos quedado estructural residuales son incluidos entre los regresores en las ecuaciones en eqlist. Sólo los nombres de la endolist de la primera convocatoria para el valor del nombre pueden aparecer en lista de variables. Si no se especifica, por defecto varlist a endolist. laglist especifica la lista de retardos en la que los términos AR se van a añadir. Los coeficientes de los términos en los retardos no enumerados se pone a 0. Todos los desfases mencionados deben ser menor o igual al valor de nlag. y no debe haber duplicados. Si no se especifica, por defecto laglist a todos los GAL 1 a nlag. El MA Macro 13 El SAS macro MA genera instrucciones de programación para el modelo de PROC para mover modelos de promedio. La macro MA es parte del software SAS / ETS y no se necesitan opciones especiales para utilizar la macro. El proceso de error de media móvil se puede aplicar a los errores de ecuaciones estructurales. La sintaxis de la macro MA es la misma que la macro AR excepto que no hay argumento de tipo. 13 Cuando se utiliza el MA y macros AR combinada, la macro MA deben seguir la macro AR. Las siguientes declaraciones SAS / IML producen un ARMA (1, (1 de 3)) proceso de error y guardarlo en el MADAT2 conjunto de datos. Las siguientes declaraciones PROC modelo son utilizados para estimar los parámetros de este modelo con estructura de error de máxima verosimilitud: las estimaciones de los parámetros producidos por esta ejecución se muestran en la Figura 14.52. Máxima Verosimilitud ARMA (1, (1 de 3)) Figura 14.52: Las estimaciones de un ARMA (1, (1 de 3)) Proceso de sintaxis de la macro MA Hay dos casos de la sintaxis de la macro MA. El primero de ellos tiene el nombre de forma general especifica un prefijo para MA utilizar en la construcción de los nombres de las variables necesarias para definir el proceso de MA y es el endolist predeterminado. nlag es el fin del proceso de MA. endolist especifica las ecuaciones para que el proceso de MA se va a aplicar. Si se administra más de un nombre, la estimación CLS se utiliza para el proceso de vectores. laglist especifica los retardos en la que los términos MA se van a añadir. Todos los retardos mencionados debe ser menor que o igual a nlag. y no debe haber duplicados. Si no se especifica, los valores por defecto a todos los GAL laglist 1 a nlag. Método M especifica el método de estimación de implementar. Los valores válidos de M son condicionales (CLS mínimos cuadrados estimaciones), ULS (incondicional de mínimos cuadrados estimaciones), y ML (estimaciones de máxima probabilidad). MCLS es el valor predeterminado. Sólo MCLS está permitido cuando se especifica más de una ecuación en la endolist. MA Sintaxis Macro para Restringido vector de media móvil 13 se permite un uso alternativo de MA de imponer restricciones a un proceso MA vector llamando MA varias veces para especificar diferentes términos MA y sufre un retraso de diferentes ecuaciones. La primera llamada tiene el nombre de forma general especifica un prefijo para MA utilizar en la construcción de nombres de variables necesarias para definir el proceso MA vectorial. nlag especifica el orden del proceso MA. endolist especifica la lista de ecuaciones para que el proceso de MA se va a aplicar. DEFER especifica que MA no es generar el proceso de MA, pero es esperar a que la información adicional especificada en la tarde MA exige el mismo valor de nombre. Las llamadas posteriores tienen el nombre de forma general es la misma que en la primera llamada. eqlist especifica la lista de ecuaciones para los que las especificaciones en la presente convocatoria MA se van a aplicar. varlist especifica la lista de ecuaciones cuyos quedado estructural residuales son incluidos entre los regresores en las ecuaciones en eqlist. laglist especifica la lista de retardos en la que los términos MA se van a added. Autoregressive media móvil ARMA (p, q) los modelos de análisis de series temporales - Parte 1 Por Michael Salas-Moore el 17 de agosto de 2015 en el último artículo mirábamos paseos aleatorios y ruido blanco como modelos básicos de series de tiempo para ciertos instrumentos financieros, como los precios de las acciones y el índice de acciones diarias. Hemos encontrado que en algunos casos un modelo de paseo aleatorio era insuficiente para capturar el comportamiento de autocorrelación completo del instrumento, lo que motiva modelos más sofisticados. En el próximo par de artículos que vamos a discutir tres tipos de modelo, a saber, el modelo autorregresivo (AR) de orden p, la media de modelo en movimiento (MA) de orden q, y el mixto Autogressive media móvil modelo (ARMA) de orden p , q. Estos modelos nos ayudarán intentamos capturar o explicar más de la correlación serial presente dentro de un instrumento. En última instancia, nos proporcionarán un medio para pronosticar los precios futuros. Sin embargo, es bien sabido que series de tiempo financieras poseen una propiedad conocida como agrupamiento de la volatilidad. Es decir, la volatilidad del instrumento no es constante en el tiempo. El término técnico para este comportamiento se conoce como heterocedasticidad condicional. Dado que la AR, MA y ARMA modelos no son condicionalmente heterocedástica, es decir, que no toma en cuenta la volatilidad agrupación, que en última instancia, tendrá que utilizar un modelo más sofisticado para nuestras predicciones. Estos modelos incluyen el modelo Autogressive condicional Heterocedástico (ARCH) y el modelo generalizado Autogressive condicional Heterocedástico (GARCH), y las muchas variantes de los mismos. GARCH es particularmente conocido en finanzas cuantitativo y se utiliza principalmente para las simulaciones de series de tiempo financiera como medio para la estimación del riesgo. Sin embargo, como con todos los artículos QuantStart, quiero construir hasta estos modelos a partir de versiones más simples para que podamos ver cómo cada nueva variante cambia nuestra capacidad predictiva. A pesar del hecho de que AR, MA y ARMA modelos son relativamente sencillos de series temporales, que son la base de los modelos más complicados como la autorregresivos integrados de media móvil (ARIMA) y la familia GARCH. Por lo tanto es importante que los estudiamos. Una de nuestras primeras estrategias de negociación en la serie de artículos de series de tiempo será combinar ARIMA y GARCH con el fin de predecir los precios de n periodos de antemano. Sin embargo, tendremos que esperar hasta que hemos discutido tanto ARIMA y GARCH por separado antes de las aplicamos a una estrategia real de cómo vamos a proceder en este artículo vamos a describir algunos de los nuevos conceptos de series de tiempo que también necesitan de los métodos restantes, a saber estricta estacionariedad y el criterio de información de Akaike (AIC). Con posterioridad a estos nuevos conceptos que seguirá el patrón tradicional para el estudio de nuevos modelos de series temporales: Justificación - La primera tarea es proporcionar una razón por la que estaban interesados en un modelo en particular, como los cuantos. ¿Por qué estamos introduciendo el modelo de series de tiempo ¿Qué efectos puede capturar ¿Qué ganamos (o perder) mediante la adición de complejidad mayor definición - Tenemos que proporcionar la definición completa matemática (y la notación asociada) del modelo de series de tiempo con el fin de reducir al mínimo cualquier ambigüedad. Segundo Orden Propiedades - Vamos a discutir (y en algunos casos derivar) las segundas propiedades de orden del modelo de serie temporal, lo que incluye su media, su varianza y su función de autocorrelación. Correlograma - Utilizaremos las segundas propiedades de orden para trazar un correlogram de una realización del modelo de series de tiempo con el fin de visualizar su comportamiento. Simulación - Simularemos realizaciones del modelo de series de tiempo y luego ajustar el modelo para estas simulaciones para asegurar que tenemos implementaciones precisas y comprender el proceso de adaptación. Real de datos financieros - Vamos a ajustar el modelo de serie temporal a los datos financieros reales y considerar la correlogram de los residuos con el fin de ver cómo el modelo da cuenta de la correlación en serie en la serie original. Predicción - Nos creará n-paso por delante de las previsiones del modelo de serie temporal para las realizaciones particulares con el fin de producir en última instancia, las señales de comercio. Casi todos los artículos que escribo sobre los modelos de series de tiempo caerán en este patrón y que nos permitirá comparar fácilmente las diferencias entre cada modelo, ya que añaden complejidad. Se va a empezar por mirar estricta estacionalidad y la AIC. Estrictamente estacionario Proporcionamos la definición de estacionariedad en el artículo sobre la correlación serial. Sin embargo, debido a que vamos a estar entrando en el reino de muchas series financiera, con varias frecuencias, tenemos que asegurarnos de que nuestros modelos (eventuales) tener en cuenta la volatilidad variable en el tiempo de estas series. En particular, tenemos que considerar su heterocedasticidad. Vamos a venir a través de este problema cuando tratamos de encajar ciertos modelos de la serie histórica. Generalmente, no todos de la correlación serial en los residuos de los modelos de armarios puede explicarse sin tener en cuenta la heterocedasticidad. Esto nos lleva de nuevo a la estacionalidad. Una serie no es estacionaria en la varianza si tiene volatilidad variable en el tiempo, por definición. Esto motiva una definición más rigurosa de estacionariedad, a saber estricta estacionariedad: Estrictamente Stationary Series A modelo de serie temporal, es estrictamente estacionario si la distribución estadística conjunta de los elementos de x, ldots, x es el mismo que el de xm, ldots, xm, forall ti, m. Uno puede pensar de esta definición tan simple que la distribución de las series de tiempo no se ha modificado para cualquier cambio abritrary en el tiempo. En particular, la media y la varianza son constantes en el tiempo para una serie estrictamente estacionario y el autocovarianza entre xt y xs (digamos) sólo depende de la diferencia absoluta de t y s, t-s. Nosotros regresaremos serie estrictamente estacionaria en el futuro puestos. Criterio de Información de Akaike he mencionado en artículos anteriores que tendríamos que considerar el tiempo que permiten elegir la mejores modelos distintos. Esto es cierto no sólo de análisis de series temporales, sino también de la máquina de aprendizaje y, en términos más generales, las estadísticas en general. Los dos métodos principales que vamos a utilizar (por el momento) son el Criterio de Información de Akaike (AIC) y el criterio de información bayesiano (a medida que avanzamos más allá con nuestros artículos sobre Bayesiano Estadísticas). Bien considerar brevemente la AIC, como se va a utilizar en la Parte 2 del artículo ARMA. AIC es esencialmente una herramienta para ayudar en la selección del modelo. Es decir, si tenemos una selección de modelos estadísticos (incluidas las series de tiempo), entonces el AIC estima la calidad de cada modelo, con relación a los otros que tenemos disponible. Se basa en la teoría de la información. que es un tema muy interesante, en el fondo que, lamentablemente, no podemos entrar en demasiados detalles acerca. Se intenta equilibrar la complejidad del modelo, que en este caso significa el número de parámetros, con lo bien que se ajusta a los datos. Vamos a proporcionar una definición: Criterio de Información de Akaike Si tomamos la función de verosimilitud para un modelo estadístico, que tiene parámetros K, L y maximiza la probabilidad. entonces el criterio de información de Akaike viene dada por: El modelo preferido, entre una selección de modelos, tiene la AIC minio del grupo. Se puede ver que la AIC crece a medida que el número de parámetros, k, aumenta, pero se reduce si los incrementos negativos de probabilidad logarítmica. Esencialmente se penaliza a los modelos que son sobreajuste. Vamos a ser la creación de AR, modelos ARMA de diferentes órdenes y MA y una manera de elegir el mejor modelo de ajuste a un determinado conjunto de datos es utilizar la AIC. Esto es lo que así se hace en el siguiente artículo, principalmente para modelos ARMA. Autorregresivo (AR) Modelos de orden p El primer modelo se va a tener en cuenta, que constituye la base de la parte 1, es el modelo autorregresivo de orden p, a menudo abreviado como AR (p). Justificación En el artículo anterior hemos considerado el paseo aleatorio. donde cada término, xt es sólo depende de la expresión anterior, x y un término estocástico ruido blanco, WT: El modelo autorregresivo es simplemente una extensión del paseo aleatorio que incluye términos más atrás en el tiempo. La estructura del modelo es lineal. Ese es el modelo depende linealmente de los términos anteriores, con coeficientes de cada término. Aquí es donde viene el regresiva a partir de autorregresivo. Se trata esencialmente de un modelo de regresión donde los términos anteriores son los predictores. Modelo autorregresivo de orden p Un modelo de series de tiempo, y es un modelo autorregresivo de orden p. AR (p), si: comenzar xt alfa 1 x ldots alphap x peso suma p alphai x peso final Donde es ruido blanco y alphai en mathbb, con alphap neq 0 para un proceso autorregresivo de p-orden. Si tenemos en cuenta el operador de desplazamiento hacia atrás. (Ver artículo anterior), entonces podemos volver a escribir lo anterior como una teta en función de: comenzar thetap () xt (1 - alfa 1 - alfa 2 2 - ldots - alphap) xt peso termina Tal vez el primero que se observa sobre el modelo AR (p) es que un camino aleatorio es simplemente AR (1) con alpha1 igual a la unidad. Como dijimos anteriormente, el modelo autogressive es una extensión de la caminata al azar, por lo que esto tiene sentido es sencillo de hacer predicciones con el modelo AR (p), para cualquier tiempo t, ya que una vez que tenemos los coeficientes alphai determinaron, nuestra estimación simplemente se convierte en: comienza el sombrero t alfa 1 x ldots alphap X Fin de ahí que podemos hacer n-paso por delante pronósticos mediante la producción de sombrero t, sombrero, gorra, etc hasta el sombrero. De hecho, una vez que tenemos en cuenta los modelos ARMA en la Parte 2, vamos a utilizar el R función para crear pronósticos (junto con el error estándar de confianza bandas de intervalo) que le ayudará a producir señales de comercio predecir. Estacionariedad para autorregresivo Procesos Uno de los aspectos más importantes del modelo AR (p) es que no siempre es estacionario. De hecho, la estacionariedad de un modelo particular depende de los parámetros. He tocado en esto antes en un artículo anterior. Con el fin de determinar si un AR (p) el proceso es estacionario o no tenemos que resolver la ecuación característica. La ecuación característica es simplemente el modelo autorregresivo, escrita en forma de desplazamiento hacia atrás, ajuste a cero: Se resuelve esta ecuación para. Para que el proceso autorregresivo particular, a ser estacionario necesitamos que todos los valores absolutos de las raíces de esta ecuación para mayor que la unidad. Esta es una propiedad muy útil y nos permite calcular rápidamente si un AR (p) el proceso es estacionario o no. Vamos a considerar algunos ejemplos para que esta idea concreta: Random Walk - El AR (1) con el proceso de alfa1 1 tiene la ecuación característica theta 1 -. Es evidente que esto tiene raíz 1 y como tal no es estacionaria. AR (1) - Si elegimos frac alfa1 obtenemos XT frac x peso. Esto nos da una ecuación característica de 1 - frac 0, que tiene una raíz 4 gt 1 y por lo que este AR en particular (1) proceso es estacionario. AR (2) - Si fijamos alfa1 alfa2 frac entonces obtenemos frac frac xt x x peso. Su ecuación característica se convierte en - frac () () 0, lo que da dos raíces de 1, -2. Dado que este tiene una raíz unitaria es una serie no estacionaria. Sin embargo, otros AR (2) la serie puede ser estacionaria. Segundas propiedades de orden La media de un proceso AR (p) es cero. Sin embargo, las autocovarianzas y autocorrelaciones son dadas por las funciones recursivas, conocidas como las ecuaciones de Yule-Walker. Las propiedades completas se dan a continuación: comienzan mux E (xt) 0 final comienzan Gammak gamma suma p alphai, enspace k 0 final comienzan RHoK rho suma p alphai, enspace k 0 extremo en cuenta que es necesario conocer los valores de los parámetros alphai antes de la el cálculo de las autocorrelaciones. Ahora que el weve declaró el segundo propiedades de orden podemos simular diferentes órdenes de AR (p) y trazar las correlograms correspondientes. Las simulaciones y Correlogramas AR (1) Le permite comenzar con un (1) proceso de AR. Esto es similar a un camino aleatorio, excepto que alpha1 no tiene que igual a la unidad. Nuestro modelo va a tener alfa1 0.6. El código R para la creación de esta simulación se da como sigue: Nótese que nuestro bucle se lleva a cabo de 2 a 100, no 1 a 100, como xt-1 cuando t0 no es indexable. De manera similar para los procesos de orden superior AR (p), t debe variar de p a 100 en este bucle. Se puede trazar la realización de este modelo y su correlogram asociada utilizando la función de diseño: Deja ahora pasa a la colocación de un proceso AR (p) y la simulación de datos que hemos acaba de generar, para ver si podemos recuperar los parámetros subyacentes. Usted puede recordar que llevamos a cabo un procedimiento similar en el artículo sobre el ruido blanco y paseos aleatorios. Pues resulta que R proporciona un ar comando útil para adaptarse a los modelos autorregresivos. Podemos utilizar este método nos dice en primer lugar el mejor orden p del modelo (según lo determinado por el AIC arriba) y nos proporcionan estimaciones de los parámetros para el alphai, que podemos usar para formar los intervalos de confianza. Para completar, permite recrear la serie X: Ahora usamos el comando ar para adaptarse a un modelo autorregresivo AR en nuestro simulado (1) proceso, utilizando la estimación de máxima verosimilitud (MLE) como el procedimiento de ajuste. Vamos a extraer en primer lugar el orden obtenido mejor: El comando ar ha determinado con éxito que nuestro modelo de series de tiempo subyacente es un (1) proceso de AR. A continuación, podemos obtener el parámetro (s) alphai estimaciones: El procedimiento MLE ha producido una estimación, el sombrero de 0,523, que es ligeramente más bajo que el verdadero valor de alfa 1 0.6. Por último, podemos utilizar el error estándar (con la varianza asintótica) para construir intervalos de confianza del 95 alrededor del parámetro (s) subyacente. Para lograr esto, simplemente creamos un vector c (-1.96, 1.96) y luego se multiplica por el error estándar: El verdadero parámetro se encuentre dentro del intervalo de confianza del 95, como se casó esperar del hecho de que hemos generado la realización del modelo concreto . ¿Qué tal si cambiamos el -0.6 alfa1 Como antes de que podamos encajar un AR (p) utilizando el modelo AR: Una vez que recuperamos el orden correcto del modelo, con un muy buen sombrero estimación de -0.597 alpha1-0.6. También vemos que el verdadero parámetro cae dentro del intervalo de confianza del 95 una vez más. AR (2) Le permite añadir un poco más de complejidad a nuestros procesos autorregresivos mediante la simulación de un modelo de orden 2. En particular, vamos a establecer alpha10.666, sino que también establece alfa2 -0.333. Aquí está el código completo para simular y trazar la realización, así como la correlogram para una serie como: Al igual que antes, podemos ver que el correlogram difiere significativamente de la de ruido blanco, como casarse esperar. Hay estadísticamente picos significativos en K1, K3 y K4. Una vez más, se va a utilizar el comando ar para adaptarse a un modelo AR (p) a nuestro AR subyacente (2) realización. El procedimiento es similar al de la AR (1) en forma: El orden correcto se ha recuperado y el parámetro calcula el sombrero y el sombrero 0,696 -0,395 no están demasiado lejos de los verdaderos valores de los parámetros de alpha10.666 y alpha2-0.333. Tenga en cuenta que recibimos un mensaje de advertencia de convergencia. Nótese también que R realmente utiliza la función arima0 para calcular el modelo AR. Además de aprender en los artículos siguientes, AR (p) son simplemente modelos ARIMA (p, 0, 0) modelos, y por lo tanto un modelo AR es un caso especial de ARIMA sin componente de media móvil (MA). Así también a utilizar el comando Arima para crear intervalos de confianza alrededor de múltiples parámetros, es por ello que hemos dejado de hacer aquí. Ahora que hayamos creado algunos datos simulados es el momento de aplicar el modelo AR (p) para series de tiempo activo financiero. Información Financiera de Amazon Inc. Deja comienzan obteniendo el precio de las acciones de Amazon (AMZN) usando quantmod como en el último artículo: La primera tarea consiste en trazar siempre el precio de una breve inspección visual. En este caso también el uso de los precios de cierre diarios: Youll aviso de que quantmod añade algo de formato para nosotros, es decir, la fecha, y un cuadro ligeramente más bonita que las cartas habituales R: Ahora vamos a tomar las logarítmicas rendimientos de AMZN y luego la primera - order diferencia de la serie con el fin de convertir la serie de precios original a partir de una serie no estacionaria a una (potencialmente) uno estacionario. Esto nos permite comparar manzanas con manzanas entre acciones, índices o cualquier otro activo, para su uso en la estadística multivariante posteriores, como cuando se calcula una matriz de covarianza. Si desea una explicación detallada de por qué los rendimientos de registro son preferibles, echar un vistazo a este artículo sobre al Quantivity. Vamos a crear una nueva serie, amznrt. para mantener nuestra declaración de registro diferenciadas: Una vez más, podemos trazar la serie: En esta etapa queremos trazar la correlogram. Estaban buscando para ver si la serie diferenciada parece que el ruido blanco. Si no lo hace, entonces hay correlación serial inexplicable, lo que podría explicarse por un modelo autorregresivo. Notamos un pico statististically significativa en k2. Por lo tanto hay una posibilidad razonable de correlación serial inexplicable. Tenga en cuenta sin embargo, que esto puede ser debido a sesgo de muestreo. Como tal, podemos tratar el montaje de un modelo AR (p) a la serie y producir intervalos de confianza para los parámetros: Montaje del modelo autorregresivo ar a la primera orden diferenciada serie de precios de la madera produce una (2) modelo AR, con sombrero -0.0278 y -0,0687 sombrero. También he de salida de la varianza aysmptotic de manera que podemos calcular los errores estándar de los parámetros y producir intervalos de confianza. Queremos ver si el cero es parte del intervalo de confianza del 95, como si lo es, se reduce nuestra confianza en que tenemos un cierto AR subyacente (2) Proceso para la serie AMZN. Para el cálculo de los intervalos de confianza al 95 para cada parámetro, se utilizan los siguientes comandos. Tomamos la raíz cuadrada del primer elemento de la matriz de varianza asintótica para producir un error estándar, a continuación, crear los intervalos de confianza multiplicándolo por -1.96 y 1.96, respectivamente, para el nivel 95: Tenga en cuenta que esto se hace más sencillo cuando se utiliza la función de Arima , pero bien esperar hasta que la parte 2 antes de introducirlo correctamente. Por lo tanto, podemos ver que para alfa1 cero está contenido dentro del intervalo de confianza, mientras que para alfa2 cero no está contenido en el intervalo de confianza. Por lo tanto, debemos ser muy cuidadosos al pensar que realmente tenemos un AR generativa subyacente (2) modelo para AMZN. En particular, se observa que el modelo autorregresivo no tiene en cuenta agrupamiento de la volatilidad, lo que conduce a la agrupación de correlación serial en series de tiempo financieras. Cuando consideramos los modelos ARCH y GARCH en artículos posteriores, vamos a dar cuenta de esto. Cuando llegamos a usar la función de Arima completa en el próximo artículo, vamos a hacer predicciones de la serie de precios de registro diario con el fin de que nos permita crear las señales de comercio. SampP500 Índice de Equidad de EE. UU. Junto con las acciones individuales que también se puede considerar el índice de acciones de EE. UU., la SampP500. Le permite aplicar todos los comandos anteriores de esta serie y producir las parcelas como antes: podemos trazar los precios: Al igual que antes, así crear la primera diferencia orden de los precios de cierre de registro: Una vez más, podemos trazar la serie: Está claro a partir de este gráfico que la volatilidad no es estacionaria en el tiempo. Esto también se refleja en la trama de la correlogram. Hay muchos picos, incluyendo k1 y k2, que son estadísticamente significativa más allá de un modelo de ruido blanco. Además, vemos la evidencia de los procesos de memoria larga, ya que hay algunos picos estadísticamente significativas en k16, k18 y k21: En última instancia, necesitaremos un modelo más sofisticado que un modelo autorregresivo de orden p. Sin embargo, en esta etapa todavía podemos tratar apropiado tal modelo. Vamos a ver lo que obtenemos si lo hacemos así: Usando ar produce un AR (22) del modelo, es decir, un modelo con 22 parámetros distintos de cero ¿Qué nos dice esto es indicativo de que es posible que haya mucha más complejidad en la correlación serial de un modelo lineal simple de los precios del pasado puede realmente explicar. Sin embargo, esto ya lo sabíamos porque podemos ver que existe una importante correlación en serie de la volatilidad. Por ejemplo, considere el período de alta volatilidad en torno a 2008. Esto motiva la siguiente serie de modelos, es decir, la media móvil MA (q) y la media móvil autorregresiva ARMA (p, q). Así aprender sobre ambos en la parte 2 de este artículo. Como hemos mencionado en varias ocasiones, en última instancia, estos nos van a llevar a la familia Arima y GARCH de los modelos, los cuales proporcionarán un ajuste mucho mejor a la complejidad de la correlación serial Samp500. Esta voluntad nos permite mejorar significativamente nuestros pronósticos y finalmente producen las estrategias más rentables. Michael Salas-Moore Mike es el fundador de QuantStart y ha estado involucrado en la industria de las finanzas cuantitativas en los últimos cinco años, principalmente como un desarrollador quant y luego como consultora comerciante cuant para los fondos de cobertura.
No comments:
Post a Comment