Está en la página 1de 4

1 Formulaci_on del problema

Supongamos que los escalares yi, i = 0; 1; : : : representan la salida (muestreada)


de un sistema dinamico. Asumamos asimismo que el valor de la salida yi puede
ser aproximado por una expresion del tipo
yi _ mi_; i = 0; 1; : : : ;
donde mi 2 IR1nm es un vector fila denominado regresor que esta constituido
por valores pasados de las entradas y salidas del sistema. Por otro lado, _ es un
vector columna donde se concentran los distintos parametros que determinan la
relacion entre las entradas y salidas del sistema. Dentro de las entrada podemos
asumir las acciones de control y las perturbaciones medibles.
Como ejemplo, supongase un sistema con salida y y una entrada u y una
relacion entre la salida y entrada dada por la siguiente ecuacion en diferencias:
yi = a1yi1 + b1ui1 + b2ui2 + vi:
El escalar vi aglutina los errores en la medida, errores de modelado, etc. En
este caso, el regresor para un determinado instante de muestreo i es
mi =
[
yi1 ui1 ui2
]
:
El termino vi no se introduce en el regresor puesto que es un termino de error
que no es conocido a priori. Por otro lado, el vector parametrico _ sera
_=

a1
b1
b2
:
_a Departamento

de Ingenier__a de Sistemas y Autom_atica, Universidad de Sevilla, Escuela


Superior de Ingenieros, Camino de los Descubrimientos s/n, 41092 Sevilla. Spain. e-mail:
talamo@us.es

El problema de identificacion parametrica consiste en estimar el vector parametrico


_ de la observacion de las salidas yi y sus respectivos regresores mi. Notese que
no siempre es posible construir el regresor. Por ejemplo, si se disponen solo de
datos a partir de i = 0 en adelante, no se podra construir el regresor m0 puesto
que este depende de los valores pasados y1, u1 y u2. El primer regresor que
podra ser construido es m2, que vendra dado por
[
y1 u1 u0
]
. Por este
motivo, es usual que se asuma que el primer par salida regresor disponible es el
(yn;mn), donde n suele ser mayor cero.
El problema de identificacion es especialmente interesante en el contexto de
sistemas variantes con el tiempo. En este caso los parametros que definen la
relacion entrada-salida cambian de una forma mas o menos suave con el tiempo.
En este contexto se denota como _k la estimacion del vector parametrico en el
instante de muestreo k. En los mnimos cuadrados se obtiene _k de forma que
se minimize de forma ponderada el error cuadratico. Es decir, se minimiza el
funcional
Jk(_) =
k
i=n

_ki(yi mi_)2:
El escalar _ 2 (0; 1] se denomina factor de olvido. Si se hace igual a la unidad
entonces todos los errores cometidos afectan de igual forma. En caso de que _
sea estrictamente menor que uno, los errores recientes (muestras proximas a k)
tienen mas relevancia que los lejanos en el tiempo. De esta forma se permite
que la estimacion de los parametros pueda capturar las variaciones temporales

de los mismos. La adecuada eleccion del valor de _ es crtica para la obtencion


de resultados satisfactorios. Si definimos
Yk =

yn
yn+1
...
yk

; Mk =

mn
mn+1
...
mk

; Wk =

_kn
_kn1
...
_
1

;
Se obtiene que el ndice a minimizar viene dado por
Jk(_) = (Yk Mk_)Wk(Yk Mk_):
Denotemos _k el valor que minimiza el funcional Jk(_). Para obtener el valor
optimo de _k analizamos el funcional para una perturbacion _k + _ respecto
del optimo:
Jk(_k + _) = (Yk Mk(_k + _))Wk(Yk Mk(_k + _))
= (Yk Mk_k)Wk(Yk Mk_k) + _Mk WkMk_k
(Yk Mk_k)WkMk_ _Mk Wk(Yk Mk_k)
= Jk(_k) + _Mk WkMk_k 2_Mk Wk(Yk Mk_k):
Supongamos ahora que elegimos _k tal que se eliminen los terminos lineales
respecto de _ (esto es equivalente a hacer cero el gradiente respecto de _k):
Mk Wk(Yk Mk_k) = 0
De aqu inferimos que Mk WkYk = Mk WkMk_k o equivalentemente:
_k = (Mk WkMk)1Mk WkYk: (1)
Con esta eleccion resulta que
Jk(_k + _) = Jk(_k) + _Mk WkMk_k _ Jk(_k); 8_:
Esta ultima ecuacion garantiza que la eleccion _k = (Mk WkMk)1Mk WkYk es
optima en el sentido de los mnimos cuadrados ponderados.

2 Formulaci_on Recursiva
En esta seccion se mostrara como obtener el valor de _k en el instante de
muestreo k del valor del vector parametrico _k1 obtenido en el periodo de
muestreo anterior. Definamos, dado k, la matriz
Pk =
(
k
i=n

_kimi mi
)1
: (2)

Esta matriz juega un papel muy relevante no solo en la obtencion de _k sino


tambien en la caracterizacion probabilstica de las estimaciones parametricas
obtenidas. Notese que Pk es una matriz simetrica puesto que esta definida
como la inversa de una matriz simetrica. Como se muestra a continuacion, es
posible obtener Pk de forma recursiva utilizando para ello Pk1. La siguiente
expresion proporciona el valor de Pk1 en la muestra k 1:
Pk1 =
(
k1
i=n

_k1imi mi
)1
:
Por tanto,
P1
k=
k
i=n

_kimi mi
= mk mk +
k1
i=1

_kimi mi
= mk mk + _
k1
i=1

_k1imi mi
= mk mk + _P1
k1:
De esta forma hemos inferido la relacion que relaciona Pk con Pk1:
Pk =
(
mk mk + _P1
k1

)1
: (3)
El siguiente lema permite obtener una relacion algebraica entre Pk y Pk1
que evita realizar la inversa de una matriz. El lema que se presenta aqu es
un caso particular de un resultado mas generico denominado en la literatura
especializada lema de inversion.
Lema 1 Supongamos que la matriz sim_etrica P es invertible. Entonces, dado
el escalar _ > 0 y el vector _la m se tiene que:
(
mm + _P1)1
=
1
_
(
P
(mP)(mP)
_ + mPm
)
:
Demostraci_on:
De la definicion de inversa de una matriz inferimos que para demostrar el
lema basta con probar la siguiente igualdad:
(
mm + _P1)(
1
_
(
P

(mP)(mP)
_ + mPm
))
= I:
En efecto,
=
(
mm + _P1)(
1
_
(
P
(mP)(mP)
_ + mPm
))
=
1
_
m(mP) + I
m(mPm)(mP)
_(_ + mPm)
_m(mP)
_(_ + mPm)
=I+
1
_
m(mP)
(
1
mPm
_ + mPm
_
_ + mPm
)
=I+
1
_
m(mP)
(
1
_ + mPm
_ + mPm
)
= I:
2
De la aplicacion directa del lema anterior a la ecuacion (3) obtenemos que
Pk =
1
_
(
Pk1
(mkPk1)(mkPk1)
_ + mkPk1mk
)
: (4)
Esta igualdad tiene muchas implicaciones practicas. Entre ellas destacamos que
la matriz Pk se obtiene del regresor mk y del valor de Pk1 sin la necesidad
de realizar la inversa de ninguna matriz. Notese que esto es algo significativo
puesto que Pk se definio en la ecuacion (2) como la inversa de una matriz

También podría gustarte