Capítulo 4 AR(p): Proceso Autoregresivo

Los modelos autoregresivos se basan en la idea de que el valor actual de la serie Xt, puede explicarse en función de p valores pasados Xt1,Xt2,...Xtp, donde p determina el número de rezagos necesarios para pronosticar un valor actual.

El modelo autoregresivo de orden p está dado por:

Xt=ϕ0+ϕ1Xt1+ϕ2Xt2+...+ϕpXtp+ϵt

Expresado en términos del operador de retardos

Xtϕ0ϕ1Xt1ϕ2Xt2...ϕpXtp=ϵtϕ0+(1ϕ1Bϕ2B2ϕ3B3...ϕpBp)Xt=ϵtϕp(B)Xt=ϵt+ϕ0

donde ϵt es un proceso de ruido blanco y ϕ0,ϕ1,ϕ2,...ϕp son parámetros del modelo.

4.1 Proceso Autoregresivo de orden 1: AR(1)

En los procesos AR(1) la variable Xt está determinada únicamente por el valor pasado, esto es Xt1.

Xt=ϕ0+ϕ1Xt1+ϵt

Donde ϵt es un ruido blanco con media 0 y con varianza σ2 e independiente de Xt. Para verificar que sea estacionario (débilmente) se debe verificar la estacionalidad en media y covarianza.

4.1.1 Estacionario en Media

E(Xt)=E(ϕ0+ϕ1Xt1+ϵt)=ϕ0+ϕ1E(Xt1)+E(ϵt)=ϕ0+ϕ1E(Xt1) Para que Xt sea estacionario en la media se debe cumplir que E(Xt)=E(Xt1)

Entonces:

(1ϕ1)E(Xt)=ϕ0    E(Xt)=ϕ01ϕ1 por lo tanto E(Xt)=ϕ01ϕ1 y ϕ11.

4.1.2 Estacionario en Covarianza

Para que AR(1) sea estacionario, la varianza tiene que ser constante y finita en el tiempo.

γ0=Var(Xt)=E[(XtE(Xt))2]=E[(ϕ0+ϕ1Xt1+ϵtϕ0ϕ1E(Xt1))2]=E[(ϕ1(Xt1E(Xt1))+ϵt)2]=E[ϕ1(Xt1E(Xt1))2+2ϕ1(Xt1E(Xt1))ϵt+ϵ2t]=ϕ2E[(Xt1E(Xt1))2]+2ϕ1E[Xt1E(Xt1)]E(ϵt)+E[ϵ2t]=ϕ21Var(Xt1)+σ2

Buscamos que Xt sea estacionario en la varianza, por lo que bajo el supuesto de proceso estacionario:

Var(Xt)=Var(Xt1)Var(Xt)=γ0=ϕ21Var(Xt1)+σ2γ0=ϕ21γ0+σ2(1ϕ21)γ0=σ2γ0=σ21ϕ21

Véase que para que sea estacionario, con varianza constante y finita es necesario que |ϕ1|<1. En resumen

Var(Xt)=γ0=σ21ϕ2

Respecto a la covarianza Cov(Xt,Xtk) para K=1,..., se tiene lo siguiente

Cov(Xt,Xtk)=γk=E[(XtE(Xt))(XtkE(Xtk))]=E[(ϕ1(Xt1E(Xt1))+ϵt)(XtkE(Xtk))]=E[ϕ1(Xt1E(Xt1))(XtkE(Xtk))]+E[ϵt(XtkE(Xtk))]=ϕ1E[(Xt1E(Xt1))(XtkE(Xtk))]=ϕ1γk1

Entonces: γ1=γ0ϕγ2=γ1ϕ

es estacionario en covarianza si |\phi_1|<1 y la función de covarianza será:

\gamma_k= \left\{ \begin{aligned} \frac{\sigma^2}{1-\phi_1^2} \ \ \ \ k=0\\ \phi_1 \gamma_{k-1} \ \ \ \ k>0 \end{aligned} \right.

Los coeficientes de correlación quedan determinados por la siguiente expresión:

\rho_k = \frac{Cov(X_t, X_{t-k})}{\sqrt{Var(X_t)}\sqrt{Var(X_{t-k})}} = \frac{\gamma_k}{\gamma_0} = \frac{\phi_1\gamma_{k-1}}{\gamma_0} = \phi_1\frac{\gamma_{k-1}}{\gamma_0} = \phi_1\rho_{k-1}

Por lo que la función de autocorrelación para AR(1) es :

\rho_k= \left\{ \begin{aligned} 1 \ \ \ \ \ \ k=0\\ \phi \rho_{k-1} \ \ \ \ k\geq 1 \end{aligned} \right. = \left\{ \begin{array}{lr} 1 & k=0\\ \phi_1\frac{\gamma_{k-1}}{\gamma_o} & k\geq 1 \end{array} \right.

Observemos que para el modelo AR(1), la función de autocorrelación es exponencial

\begin{split} \rho_0 &= 0\\ \rho_1&=\phi_1\rho_o=\phi_1\\ \rho_2&=\phi_1\rho_1=\phi_1^2\\ &\ \ \vdots\\ \rho_k&=\phi_1^k \end{split} \implies \rho_k= \left\{ \begin{array}{lr} 1 & k=0\\ \phi_1^2 & k\geq 1 \end{array} \right.

  • Caso particular: AR(1): X_t = \phi_1X_{t-1}+\epsilon_t, es decir que \phi_0 = 0. Para este caso se tiene \mathbb{E}(X_t) = \phi_1\mathbb{E}(X_{t-1})\implies(1-\phi_1)\mathbb{E}(X_t) = 0\implies\mathbb{E}(X_t) = \frac{0}{(1-\phi_1)} = 0.

A continuación se muestran los resultados para un modelo AR(1) de la siguiente forma X_t=0.35X_{t-1}+\epsilon_t

Además de las gráficas de Autocorrelación simple y parcial.

4.2 Proceso Autoregresivo de orden 2: AR(2)

En los procesos AR(2) la variable X_t está determinada por el valor pasado y el anterior a este.

X_t=\phi_0 + \phi_1 X_{t-1}+\phi_2 X_{t-2}+\epsilon_t

Donde \epsilon_t es un ruido blanco (media cero y varianza \sigma^2). Asumiendo estacionariedad débil, se tiene que la media y la varianza del proceso serán las siguientes.

4.2.1 Estacionario en Media

Bajo el supuesto de estacionalidad:

\begin{split} & \mathbb{E}(X_t) = \mathbb{E}(X_{t-1}) = \mathbb{E}(X_{t-2})\\ \implies &(1-\phi_1-\phi_2)\mathbb{E}(X_t) = \phi_0\\ \implies &\mathbb{E}(X_t) = \frac{\phi_0}{1-\phi_1-\phi_2} \end{split}

\therefore Para que sea estacionario, se tiene que cumplir que 1-\phi_1-\phi_2 \neq 0.

4.2.2 Estacionario en Covarianza

\begin{split} \gamma_0 &= \mathbb{E}\left[(X_t-\mathbb{E}(X_t))^2\right]\\ & = \mathbb{E}\left[(\phi_0+\phi_1 X_{t-1}+\phi_2 X_{t-2}+\epsilon_t-\phi_0 -\phi_1\mathbb{E}(X_{t-1})-\phi_2 \mathbb{E}(X_{t-2}))^2\right]\\ & = \mathbb{E}\left[(\phi_1(X_{t-1}-\mathbb{E}(X_{t-1}))+\phi_2(X_{t-2}-\mathbb{E}(X_{t-2}))+\epsilon_0)^2\right]\\ & = \mathbb{E}[\phi_1^2(X_{t-1}-\mathbb{E}(X_{t-1}))^2 + 2\phi_1\phi_2(X_{t-1}-\mathbb{E}(X_{t-1}))(X_{t-2}-\mathbb{E}(X_{t-2}))\\ & \ \ \ \ \ \ \ \ + \phi_2^2(X_{t-2}-\mathbb{E}(X_{t-2}))^2+\epsilon_0^2+\cdots]\\ & = \phi_1^2\gamma_0+2\phi_1\phi_2\gamma_1+\phi_2^2\gamma_0+\sigma^2 \end{split}

Pero, véase lo siguiente

\begin{split} \gamma_1 &= \mathbb{E}\left[(X_{t}-\mathbb{E}(X_{t}))(X_{t-1}-\mathbb{E}(X_{t-1}))\right]\\ &=\mathbb{E}\left[(\phi_1(X_{t-1}-\mathbb{E}(X_{t-1}))+\phi_2(X_{t-2}-\mathbb{E}(X_{t-2}))+\epsilon_t)(X_{t-1}-\mathbb{E}(X_{t-1}))\right]\\ &= \mathbb{E}\left[\phi_1(X_{t-1}-\mathbb{E}(X_{t-2}))^2+\phi_2(X_{t-1}-\mathbb{E}(X_{t-1}))(X_{t-2}-\mathbb{E}(X_{t-2}))+\epsilon_t(X_{t-1}-\mathbb{E}(X_{t-1}))\right]\\ &=\phi_1\gamma_0+\phi_2\gamma_1\\ \implies &\gamma_1 = \frac{\phi_1}{(1-\phi_2)}\gamma_0 = \phi_1\gamma_0+\phi_2\gamma_1 \end{split}

En general la autocovarianza de orden k, para k>1 será:

\begin{split} \gamma_k &= \mathbb{E}\left[(X_{t}-\mathbb{E}(X_{t})(X_{t-k}-\mathbb{E}(X_{t-k})\right]\\ & = \mathbb{E}\left[(\phi_1(X_{t-1}-\mathbb{E}(X_{t-1}))+\phi_2(X_{t-2}-\mathbb{E}(X_{t-2}))+\epsilon_t)(X_{t-k}-\mathbb{E}(X_{t-k})\right]\\ &=\mathbb{E}\left\{[\phi_1(X_{t-1}-\mathbb{E}(X_{t-1}))][(X_{t-k}-\mathbb{E}(X_{t-k}))]\right\} + \mathbb{E}\left\{[\phi_2(X_{t-2}-\mathbb{E}(X_{t-2}))][(X_{t-k}-\mathbb{E}(X_{t-k}))]\right\} \\ & = \phi_1\gamma_{k-1}+\phi_2\gamma_{k-2} \end{split}

Entonces la función de autocovarianza de un modelo AR(2) es la siguiente

\gamma_k = \left\{ \begin{array}{ccc} \gamma_0 & \mbox{ si }& k=0\\ \gamma_1 & \mbox{ si }& k=1\\ \phi_1\gamma_{k-1}+\phi_2\gamma_{k-2}& \mbox{si} & k>1\\ \end{array} \right. Y la correspondiente función de autocorrelación de un modelo AR(2) es:

\rho_k = \left\{ \begin{array}{ccc} 1 & \mbox{ si }& k=0\\ \frac{\gamma_1}{\gamma_0} = \frac{\phi_1}{1-\phi_2} & \mbox{ si }& k=1\\ \phi_1\rho_{k-1}+\phi_2\rho_{k-2}& \mbox{si}& k>1\\ \end{array} \right.

A continuación se da un ejemplo de un modelo AR(2) de la siguiente forma X_t=0.8X_{t-1}-0.4X_{t-2}+\epsilon_t

Y al igual que para el ejemplo del modelo AR(1), se agregan las gráficas de autocorrelación simple y parcial.

Algo interesante de tener los procesos en términos de operadores de retardos es que podemos obtener las condiciones de estacionariedad en AR por las raíces del polinomio que se deriva de esta notación:

\begin{split} AR(1):& X_t = \phi_1 X_{t-1}+\epsilon_t\\ \implies & (1-\phi_1 B)X_t = \epsilon_t\\ \implies &B = \frac{1}{\phi_1}\implies |\phi_1|<1 \end{split} \begin{split} AR(2):& X_t = \phi_1X_{t-1}+\phi_2X_{t-2}+\epsilon_t\\ \implies & (1-\phi_1B-\phi_2B^2)X_t = \epsilon_t \end{split}

Por lo que las raíces del polinomio (1-\phi_1B-\phi_2B^2) serán B^1, B^2 = \frac{\theta_1\pm\sqrt{\theta_1^2+4\theta_2}}{-2\theta_2}.

Y gracias a todo esto, podemos interpretar que para que los procesos sean estacionarios, se solicita que las raíces estén fuera del círculo unitario, es decir: |B^1|>1 y |B^2|>1.