Documentos de Académico
Documentos de Profesional
Documentos de Cultura
881 445 129 4 PDF
881 445 129 4 PDF
RESUMEN
En este artículo se comparan, mediante un estudio de Monte Carlo,
el comportamiento en muestras pequeñas de dos estimadores alter-
nativos del error cuadrático medio (ECM) de predicción con paráme-
tros estimados para modelos estructurales de series temporales, uno
que incluye un término que trata de recoger el error proveniente de la
estimación de los parámetros, y otro que no incluye dicho término.
Para el modelo estructural más sencillo, el modelo de paseo aleatorio
más ruido, se comparan ambos estimadores con el verdadero ECM
de predicción con parámetros estimados para diferentes tamaños de
muestra, valores de los parámetros y horizontes de predicción.
1. INTRC^DUCCION
Yr=Nt+Yr+Wr+£r (1.1)
1 18 ESrADiSr^CA ESPAÑ4LA
Ei problema se plantea porque coma ya señala Pierce ( 1975) rara vez cono-
cermos los parámetros del modela y, en la práctica, para ilevar a cabo prediccio-
nes basadas en cualquier modelo hemos de estimar en primer lugar los paráme-
tros de manera eficíente. Nuestros predictores son, por io tanto, únicamente
estimaciones de los predictores óptimos lo que conlleva un aumento en el ECM
de predicción. Estas cuestiones han despertado el interós en Ios últimos años
sobre la distribución del error de predicción con parámetros estimados.
Yt = Z'ar + ^t
(2.1j
ar - ^ at-1 + n t
ERROR CUADRATICO MEDIO DE PRED^CCION PARA MODELOS ESTRUCTURALES DE SERIES TEMPORA^ES 11^
^^^^-NC°(^E Q))
En los modelos estructurales de series temporales, el vector estado a,^ está
formado par ios elementos que determinan los componentes no observables de
la serie, como µ^, ^r, etc. Tanto z', de orden (1 xk), como C de orden (kxk), son
matrices conocidas que no dependen de los parámetros del rnodelo y cuya
estructura es distinta para cada Modelo Estructural que estemos considerando
en particular.
Vamos a denotar por yr (nx1) al vector de parámetros del modelo (2.1), que
incluye únicamente aÉ y los parámetros contenidos en Q.
YT+s/T^^^ = Z'aT+slT(W)
{2.2)
donde ar+^r(W )= E[ar+sl Yr^ Yr-^ ^•••, Y^ ]
Esta predicción yr+^{y,) se puede interpretar como la media de la distribución
de yT+s condicionada a las observaciones hasta e incluyendo yT. Si no suponemos
normalidad en el modelo (2.1) el predictor (2.2} ya no sería la esperanza condi-
cionada ni sería óptimo. Sin embargo, seguirá siendo el predictor lineal de ECM
mínimo.
ECMCYr+^r{v^)] = Z'Pr+^r{^) z + QZ
(2.3}
donde Pr+^rr{^) = E{[ar+s - ar+^r-r{^)][ar+s ar+^r{w)]'3
Está formula nos proporciona el ECM de predicción condicionado a los pará-
metros del modeio. Por lo tanto, bajo el supuesto de que el vector de parámetros
y^ es conocido, la fórmula (2.3) es correcta. Tanto el predictor ( 2.2) como su ECM
asociado (2.3) se pueden obtener aplicando repetidamen#e las ecuaciones del
filtro de Kalman al modelo (2.1), con toda la información en ia serie yt, t= 1,
2,...,T.
criterio de actuación suele ser el siguiente. En primer lugar estimamos los pará-
metros de forma eficiente por máxima verosimilitud (1) y posteriormente se sus-
tituyen en (2.2) los valores desconocidos y^ por sus estimaciones máximos
verosimiles, ^. De esta forma el predictor de yT+s con parámetros estimados es:
Aunque el predictor yT+^{ yr) era óptimo cuando conocíamos !os parámetros del
modelo, esto no implica que yT+^{yr} sea el predictor óptimo para un modelo con
parámetros estimados. Sin embargo, yT+^{yr) es e! pr^dictor más usado en la
práctica y, por lo tanto, nos interesa estudiar sus propiedades.
.YT+s ^ YT+sJT{^) ' U' T+s ^ YT+slTC^)1 + U' T+s/T^V^) ^ YT+slT{W )J (2.5)
Como los dos sumandos de (2.5) son independientes porque hemos supuesto
que !os términos de perturbación ^t y nr son normales independientes, e! ECM
de predicción con parámetros estimados se puede escribir como:
donde el primer sumando viene dado por (2.3), es decir, e! ECM de predicción
con parámetros conocidos y e! segundo representa lo que añadimos al ECM de
prediccián para recoger la variabilidad muestral de !as estimaciones de los
parámetros.
Aunque e! ECM del predictor yT+s,7-(y^) viene dado por (2.6), en la práctica e!
estimador usual del ECM de predicción que se utiliza se basa simplemente en
sustituir e! verdadero valor de los parámetros desconocidos por sus estimaciones
máximo-verosimiles en la fórr^ula ( 2.3}^Pero este estimador del ECM del predic-
tor yT+^{y^}, denotado por ECM[yT+^{^)J, presenta dos problemas fundamenta-
les en muestras finitas. En primer lugar, no tiene en cuenta e! error que proviene
de la estimación de los parámetros y, en segundo lugar, puede presentar sesgos
(1) Véase HARVEY, A. C. y S. PETERS (1984) para una discusión sobre los distintos
métodos de estimación máximo-verosímil de los paráme#ros desconocidos de los modelos
estruc#urales.
ERRC3R CUADRATICO MEDIO DE PREDICC^I4N PARA MC.^DEI_.OS ESTRUCT ^SRAt ES UE SER ^ ES TEMF'OR.F1l ES 1^1
Por otra parte, la fórmula (2.6^ no nos proporciona un estimador adecuado para
el ECM de predicción ya que presenta las dificultades de ser complicada de
calcular porque el segundo sumando habria que obtenerlo por medio de simula-
ciones. Bloomfield (1972), Yamamoto (1976) y^8ailiie (1980) entre otros, han
estudiado este término para modelos autorregresivos y han derivado expresiones
asintóticas basadas en la distribución asintática de los parámetros estimados. AI
aplicar estos resultados asintóticos a!os estudios con muestras finitas que ge-
neralmente se realizan en la práctica, se han de tener en cuenta que las estima-
ciones de los paráme#ros en muestras finitas pueden estar seriamente sesgadas
y que estos sesgos se trasladarán a la distribución condicianada de las predic-
ciones dados los valores observados de la variable endógena utilizados para
iniciar las predicciones. Además cuando predecimos estamos condicionando a
ciertos valores de la variable endógena, la distribución de las estimaciones de
las parámetros estará también condicionada y esto afectará a la distribución de
los errores de predicción. En este sentido, se han desarrollado en la literatura
estudios sobre la distribución del error de predicción con parámetros estimados
condicionada a los datos observados. Los trabajos de Phillips (1979) y Fuller y
Hasza (1981) se centran en modelos autorregresivos y el de Ansley y Kohn
(1986} en modelos en el espacio de los estados.
^
Vamos a proponer un estimador alternativo para el ECM del predictor yT+^{^^ ),
derivando una expresión analítica para el segundo sumando del segundo miem-
bro de ( 2.6) condicionada a 1os datos observados.
Podemos observar que, sustituyendo las expresiones (2.2) y(2.4), este segun-
do sumando de (2.6) se puede escribir como:
^T+slT^4^Í - .yT+s^l^{^)^2 ^
(2-7)
= Z^F^^ar+^rr{^) - ar+.^r{ 4^)]^ar+^r{^^) ! ar+^{4^))'}z
lo que significa que la parte del error de predicción que proviene de la estimación
de los parámetros es una combinación lineal del error de predicción del vector
estado que proviene de ia estimacián de los parámetros. Por lo #anta, para derivar
una expresión analítica para (2.7) podemos aplicar la aproximación propuesta
por Ansley y Kohn (1986).
ciona una corrección de orden 1l T a Pr+^{y^) que es la expresión usual, bajo las
siguientes condiciones de regularidad:
aa r^srr{ ^ )
A r+^r( 4^ ^ _
a^
y el término Op(1IT^ se puede despreciar, para tamaños muestrales grandes,
camparado con AT^^(y^) ( y^-y^).
iii) La esperanza condicionada:
donde --^
V es la matriz de covarianzas de {os estimadores ^r evaluada en el
T
verdadero valor de los parámetros yr.
iv) z, C, Q tienen segundas derivadas continuas con respecto a yr.
La aproximación a! ECM de predicción es de la forma:
ECM * CYT+^r{ ^ }l = Z' ^°T+srr( ^ )Z + a2 + ^^- [z'A r+^{ yr > V( ^W) A' r+ sr1{ V^^ >z^
Yr=Nr+^r
(3.1)
I^t - t^r-^ + ^1r
donde
^r U^ a
^ IV o g ^2
^1 r n
Este modelo, está escrito directamente en el espacio de los estados cón
Z^=c=1,yG?=añ
124 FSTAD(STfCA ESF'A(VOt_A
Por la tanto, para el modefo que nos ocupa la predicción óptima para la serie
observada es la misma que para el vector estado.
. .
T-1 T-1
L(,^,y) ^ ^ glogc ^e'^) - n ^ - ;^
^-
{^ (3.4)
1^^ ^^ p g^ej ^
donde ^,^ = 2nj/T^`, j= 1, ..., T^`-1, y T"k = T-d, siendo d el orden de diferenciación
necesario para que la serie (^ -L}dyt sea estacionaria. Además I(^,j) es la ordenada
correspondiente de! periodograma y g(e^^) es la función generatriz espectral que
para el modelo (3.1) es de 1a forma g(e^^`) = 6^ + 2(1-cos^,^) a^.
1 a9(e^^) dg(e^)
1/ 2 ^ ^^ 2
9'(e^ ) a4^^ aWn
2(1 - cos^,^)
1/ 2 ^g( e'^
^) -2 1/ 2 ^ ^^2
9^t e^ ) (3.5)
2(1 - cos^,^) 4(1 - 2cos^.^)2
1/ 2^ ^^ 2 1/ 2^ ^^ 2
9^( e^ ) 9( e^ )
ii) La diferencia
Mr+^w) _ amr+^^)
ay^
T--1
P(W) + Qñ
^( 4^ ) = F,( + ^.2 + Q2
W> ^ F
Para cada tamaño muestral T y para cada par de valores (a^,a?) se generan
artificialmente N= 1.000 muestras de yt que siguen el modelo (3.1). Una vez
generadas las variables aleatorias pseudonormales, r^t y>E^, ia serie de observa-
ciones yt se obtienen a partir det modelo (3.1), utilizando como valor inicial de1
vector estado m^ = 0. Para cada tamaño muestral T, se han generado series de
observaciones yt de tamaño T+ 100. Las 100 primeras observaciorties se recha-
zan para evitar que nuestros datos dependan de los valores iniciales tornados
para generar la secie. Las T observaciones siguientes se utiíizan para estimar los
parámetros del modelo.
Para cada tamaño muestral T y para cada par de valores ( Q^, c^^ ) se han
calculado los siguientes estad ísticos:
1) N
sQ^ + Q2 + ^
ECMo^.Yr+srrE4^}^ - P^(^) + ^ [mr+^rtW ) - mr^^r{^)j^
N la 1
4) * N
5} ^ * ,^ ^ 1 N ^ ^^ ^2 ^
ECM [yr+^r{^)l ^ [Pr(^) + san + aF + MT+^{V^) V(T.#^) ^r+^r(V^)];
"
N fa ^
derivadas M+
r ^r{ ^ } = amT+^ , amT^^ . Estas derivadas del vector estado se
aQ^2 aQn2
han calculado analíticarnente y el conjunto de recursiones se corren de forma
paralela al filtro de Kalman, siendo ínícializadas como sigue:
Los estadísticos (1)-(5) han sido calculados para tres horizontes de predicción
s= 1, 3, 12. Para el modelo (3.1) que estamos considerando el predictor de yT+s,
s= 1, 2,... viene dado par (3.2} que es !a estimación de! vector estado en el
momento T: m^. Por lo tanto, como la corrección de orden 1/T al ECM de
predicción con parámetros estimados que hemos propuesto depende sólo de la
estimación del vec#ar estado en el momento T y de la matriz de covarianzas de
las estimadores, que son las mismas para todo s, sólo es necesaría calcularla
una vez para cada terna ^T,vñ,Q?) o(T,^ñ,^?).
ECMo[YT+^r{W)] ^ ECMCYT+^r{V^)l
R^ ^ EC^ CYT+^r{ ^w )]
^ CUADR01
^
ECM[yT♦^{yr)] como estimador del ECM de prediccián con parámetros
estirnados
T= 25 T= 50 T= 100 T= 200
R^ R2 R^ R2 R^ R2 R1 R2
o^= 0.05 1.09 1.06 1.06 1.02 1.02 1.01 1.01 1.01
Qz
^-- p.1 1.10 1.06 1.04 1.05 1.02 1.04 1.0 ^ 1. 02
,^2^-- p_5 1.05 0.97 ^ 1.02 1.01 1.01 1.02 1.00 1.00
Q2
n-- 1.00 1.03 0.96 1.03 0.98 1.01 1.00 1.01 1.01
Q^_^ o.ao 1.04 0.96 1.02 1.01 1.01 1.01 1.00 0.99
n
Por otro lado, nos interesa c^omprobar ia calidad de ECM[yT+^(^)] como
estimador de su correspondiente cantidad poblacional ECM[yT+^-(y^)]. La colum-
na R2 del Cuadro 1 trata de recoger los sesgos en la estimación de ECM[yT+^{y,}j
debidos a los sesgos en la estimación de ^os parámetros a través de la razón:
n
_ ECM CYT+^r{W )1
^2 ECM CYT+$rr( ^ )l
^
Se puede observar que para valores de Q^ pequeños, ECM[yT+^-{^r)j está siste-
máticamente sesgado hacia arriba, hasta un 13 por 100 para T= 25 y un 9 por
100 para T= 50. Estos sesgos en la estimación de ECM[yT+,^{y ^ )] van disrninu-
yendo conforme aumenta añ y nos alejamos de la zona de no invertibilidad del
modelo, hasta cambiar de signo y, asi, para valores grandes de Q^, el estimador
n
ECM[yT♦^{ y,)] está sesgado hacia abajo, por ejemplo para Q^ = 50, es un 93 por
100 de ECM[yT+^{^r)]. Estos sesgos desaparecen rápidamente con el tamaño
muestral.
n ^
__ ECM CYr+^(W )] _ ECM LYr+^{ ^ )l
R3 ECMo CYT+^r{ 4^?] R4 ECMo IYr+^r( v^ )I
CUADRI^ 2
Comparación de Errores Cuadráticos Medios de Prediccián
con parámetros estimados
T R^ R{ R^ R3 R4 RS R^ R^ R5
4. CoNCLUSIONES
REFERENCIAS
ANSLEY, C. F. y KoHN, R. (1986). Prediction mean squared error for state space
models with estima#ed parameters, Biometrika, 76, 467-473.
HARVEY, A. C. (1990). Forecasting, Structural Time Series Models and the Kalman
Filter, Cambridge Academic Press.
SUMMARY