Documentos de Académico
Documentos de Profesional
Documentos de Cultura
a1
b1
b2
:
_a Departamento
_ki(yi mi_)2:
El escalar _ 2 (0; 1] se denomina factor de olvido. Si se hace igual a la unidad
entonces todos los errores cometidos afectan de igual forma. En caso de que _
sea estrictamente menor que uno, los errores recientes (muestras proximas a k)
tienen mas relevancia que los lejanos en el tiempo. De esta forma se permite
que la estimacion de los parametros pueda capturar las variaciones temporales
yn
yn+1
...
yk
; Mk =
mn
mn+1
...
mk
; Wk =
_kn
_kn1
...
_
1
;
Se obtiene que el ndice a minimizar viene dado por
Jk(_) = (Yk Mk_)Wk(Yk Mk_):
Denotemos _k el valor que minimiza el funcional Jk(_). Para obtener el valor
optimo de _k analizamos el funcional para una perturbacion _k + _ respecto
del optimo:
Jk(_k + _) = (Yk Mk(_k + _))Wk(Yk Mk(_k + _))
= (Yk Mk_k)Wk(Yk Mk_k) + _Mk WkMk_k
(Yk Mk_k)WkMk_ _Mk Wk(Yk Mk_k)
= Jk(_k) + _Mk WkMk_k 2_Mk Wk(Yk Mk_k):
Supongamos ahora que elegimos _k tal que se eliminen los terminos lineales
respecto de _ (esto es equivalente a hacer cero el gradiente respecto de _k):
Mk Wk(Yk Mk_k) = 0
De aqu inferimos que Mk WkYk = Mk WkMk_k o equivalentemente:
_k = (Mk WkMk)1Mk WkYk: (1)
Con esta eleccion resulta que
Jk(_k + _) = Jk(_k) + _Mk WkMk_k _ Jk(_k); 8_:
Esta ultima ecuacion garantiza que la eleccion _k = (Mk WkMk)1Mk WkYk es
optima en el sentido de los mnimos cuadrados ponderados.
2 Formulaci_on Recursiva
En esta seccion se mostrara como obtener el valor de _k en el instante de
muestreo k del valor del vector parametrico _k1 obtenido en el periodo de
muestreo anterior. Definamos, dado k, la matriz
Pk =
(
k
i=n
_kimi mi
)1
: (2)
_k1imi mi
)1
:
Por tanto,
P1
k=
k
i=n
_kimi mi
= mk mk +
k1
i=1
_kimi mi
= mk mk + _
k1
i=1
_k1imi mi
= mk mk + _P1
k1:
De esta forma hemos inferido la relacion que relaciona Pk con Pk1:
Pk =
(
mk mk + _P1
k1
)1
: (3)
El siguiente lema permite obtener una relacion algebraica entre Pk y Pk1
que evita realizar la inversa de una matriz. El lema que se presenta aqu es
un caso particular de un resultado mas generico denominado en la literatura
especializada lema de inversion.
Lema 1 Supongamos que la matriz sim_etrica P es invertible. Entonces, dado
el escalar _ > 0 y el vector _la m se tiene que:
(
mm + _P1)1
=
1
_
(
P
(mP)(mP)
_ + mPm
)
:
Demostraci_on:
De la definicion de inversa de una matriz inferimos que para demostrar el
lema basta con probar la siguiente igualdad:
(
mm + _P1)(
1
_
(
P
(mP)(mP)
_ + mPm
))
= I:
En efecto,
=
(
mm + _P1)(
1
_
(
P
(mP)(mP)
_ + mPm
))
=
1
_
m(mP) + I
m(mPm)(mP)
_(_ + mPm)
_m(mP)
_(_ + mPm)
=I+
1
_
m(mP)
(
1
mPm
_ + mPm
_
_ + mPm
)
=I+
1
_
m(mP)
(
1
_ + mPm
_ + mPm
)
= I:
2
De la aplicacion directa del lema anterior a la ecuacion (3) obtenemos que
Pk =
1
_
(
Pk1
(mkPk1)(mkPk1)
_ + mkPk1mk
)
: (4)
Esta igualdad tiene muchas implicaciones practicas. Entre ellas destacamos que
la matriz Pk se obtiene del regresor mk y del valor de Pk1 sin la necesidad
de realizar la inversa de ninguna matriz. Notese que esto es algo significativo
puesto que Pk se definio en la ecuacion (2) como la inversa de una matriz