Documentos de Académico
Documentos de Profesional
Documentos de Cultura
(Filtrado)
de Seales
5
2012
Objetivos:
establecer el alcance del problema de estimacin de una seal en presencia de ruido;
establecer el criterio de optimalidad asociado al mnimo error cuadrtico medio;
establecer el concepto de innovacion;
desarrollar filtros para sucesiones aleatorias;
5.1 INTRODUCCION
La estimacin de seales requiere, usualmente, la determinacin del valor de una seal
analgica para todos los valores del tiempo. Como ejemplos, pueden mencionarse la estimacin del valor de una seal de audio transmitida a travs de un canal con ruido, o el seguimiento de la localizacin de un objeto en el aire sobre la base del rebote ruidoso de una seal
radrica. A diferencia del problema en el cual el receptor conoce lo que puede esperar (sobre
la base de un conjunto de M seales posibles), en este caso la seal a estimar puede presentar
un conjunto continuo de valores en un intervalo dado. As, la tarea del receptor consiste en
estimar valores de una forma de onda que puede ser vista como una funcin muestreada de un
proceso aleatorio.
Los contenidos del presente captulo son analizados considerando que se dispone de
una o ms observaciones ruidosas de cierta seal, a partir de las cuales se debe estimar su valor verdadero. Para ello, y por razones que se harn evidentes en el transcurso del desarrollo
del captulo, se desarrollarn estimadores que minimicen el error cuadrtico medio (o esperado) entre la estimacin y la seal verdadera (desconocida), el cual se expresa como:
{[
]}
2
E X (t ) X (t )
una seal Y(t) = X(t) + N(t) para producir una estimacin X (t ) de la seal X(t).
En general, se considerar la estimacin de una seal a partir de un nmero finito de
observaciones de un proceso aleatorio X(t); adems de la importancia propia del tema, es la
base a partir de la cual se desarrollarn los filtros de Kalman y de Wiener.
En todos los casos, tal como se ha expresado, el objetivo ser minimizar el error cuadrtico esperado (o medio) entre la estimacin y el valor verdadero de la seal (o variable
aleatoria) que se est estimando. Adems, se restringir el anlisis a los estimadores (o filtros)
lineales.
Mencionemos, por ltimo, que se considerarn conocidas la media y las funciones de
correlacin necesarias; en captulos posteriores se tratar el modo de obtenerlas a partir de
conjuntos de datos.
y, dado que el ltimo trmino es cero (pues E{S - S} = E{S} - S = 0), resulta:
E{(S - a)2} = S2 + (S - a)2
Esta expresin muestra que el valor de la estimacin que minimiza el ECM es a = S y que el
mnimo ECM alcanzable es la varianza, ya que para cualquier valor de a diferente al valor
medio, el error medio cuadrtico es la varianza mas el cuadrado de la diferencia entre el estimador a y S.
Estimacin de S a partir de una nica observacin X.
Considrese, ahora, que X y S son variables aleatorias relacionadas. As, habiendo sido
observada X, se busca un estimador lineal de S de la forma:
S = h0 + h1 X
tal que E{( S S ) 2 } resulte minimizado mediante una seleccin adecuada de h0 y h1. Ntese,
que este estimador S es una funcin lineal de X. Se considera, adems, que son conocidos
todos los momentos necesarios de X y S.
El ECM se puede expresar como:
2
E{( S S ) 2 } = E [S h0 h1 X ]
Derivando respecto a los parmetros h0 y h1 e igualando a cero, dado que las operaciones de derivacin y esperanza pueden ser intercambiadas, resulta:
(5.1a)
(5.1b)
E (S h0 h1 X )
= 2 E{S h0 h1 X } = 0
h0
E (S h0 h1 X )
= 2 E{(S h0 h1 X )X } = 0
h1
(5.2)
(5.3)
{ }
E X 2 = X2 + X2
la (5.3) resulta:
XS + X S = h0 X + h1 X2 + h1 X2
XS
X2
y finalmente, reemplazando en la (5.2), resulta:
h1 =
h0 = S
XS
X
X2
(5.4)
(5.5)
Las expresiones (5.4) y (5.5) establecen los coeficientes del estimador propuesto. Puede mostrarse, siguiendo una metodologa similar a la utilizada en el pargrafo anterior, que el estimador minimiza el ECM.
A continuacin, se busca la forma que asume en este caso el ECM que se ha minimizado. En general, el error cuadrtico medio es:
E (S h0 h1 X ) = E{(S h0 h1 X )(S h0 h1 X )}
2
pero, al considerar las expresiones de las (5.1), el segundo y tercer sumando de la ltima expresin se anulan y resulta:
{ }
= S2 + S2 S2 +
= S2
XS
( XS + X S )
X S XS
2
X
X2
2
XS
X2
XS
S2 X2
2
2
E (S h0 h1 X ) = S2 XS
S2 = S2 1 XS
2
(5.6)
Y T = (Y1 , L , Yn )
d (X , Y ) = E X T Y = E X iYi
i =1
d (X, X ) = E X T X = E X i2
i =1
Con estas definiciones en mente, la expresin E {X T Y}= 0 implica decir que los vectores X e Y son ortogonales. Si se aplican estas consideraciones a los resultados del pargrafo
anterior, pueden establecerse condiciones que resultarn de utilidad en desarrollos posteriores.
Obsrvese la figura 5.2; para cuya construccin se ha considerado que todos los valores medios son nulos. Vemos que:
1. El error S hX es ortogonal a X [ecuacin (5.1b) con los valores medios nulos].
2. El estimador de S es su proyeccin sobre el eje X.
As, cualquier estimador de S obtenido a partir de la observacin X, que sea distinto al
de mnimo ECM, tendr mayor, o a lo sumo, igual valor absoluto del error y, por lo tanto, el
estimador que minimiza el ECM es el ptimo entre los estimadores lineales ya que ninguno
puede tener menor error que este.
En problemas de filtrado ms complejos a analizar en el futuro, se ver que las dos
condiciones continan siendo descriptoras fundamentales de los filtros lineales ptimos.
h X (i)
i
i =1
E S h0
E S h0
h X (i) = 0
(5.7a)
i =1
h X (i) X ( j ) = 0
i
(5.7b)
j = 1, , n
i =1
h
i
(5.8)
X (i )
i =1
E S h0
hi X (i ) X ( j ) X ( j )
i =1
) = E S + h
X (i )
h X (i)(X ( j) ) = 0
n
X ( j)
i =1
i =1
= E (S S ) X ( j ) X ( j ) hi X (i ) X (i ) X ( j ) X ( j )
i =1
) (
= E (S S ) X ( j ) X ( j )
)(
i =1
X (i )
X ( j)
)}
{(
)(
)}
lo que produce:
n
hC
i
XX
(i, j ) = SX ( j )
j = 1, 2, , n
(5.9)
i =1
Al igual que en los casos anteriores, puede mostrarse que las expresiones dadas por
(5.8) y (5.9) son las que minimizan el ECM.
Las n ecuaciones establecidas por la (5.9) pueden ser expresadas en forma matricial
definiendo:
X T = [ X (1), X (2), L , X (n)]
h T = [h1 , h2 , L hn ]
XX = [C XX (i, j )]
TSX = SX (1) , SX ( 2) , L , SX ( n )
(5.10)
a partir de la cual podemos obtener, considerando que existe la inversa de XX, la expresin:
h = XX1 SX
(5.11)
que es la solucin de la (5.9) y que, junto con la (5.8) definen el estimador buscado.
Ejemplo 5.1:
Se desea establecer la relacin entre cierta seal S y la secuencia observada X(1), X(2). Hallar el
estimador de mnimo error medio cuadrtico S = h0 + h1 X (1) + h2 X (2) .
Los momentos necesarios para su establecimiento son:
S = 1; S = 0,01; X(1) = 0,02; CXX(1,1) = (0,005)2; X(2) = 6x10-3; CXX(2,2) = (9x10-3)2;
CXX(1,2) = CXX(2,1) = 0; SX(1) = 3x10-5; SX(2) = 4x10-6
Solucin:
3x10 5
0
6
3 2
(9 x10 ) 4 x10
y, dado que:
4
1
0
XX
= 4x10
4
1,24x10
0
resulta:
h1 = 1,2
h2 = 0,0494
Ecuacin de Yule-Walker
Consideremos ahora el caso en que S(n) es una secuencia aleatoria WSS con media nula, que ser estimada a partir de N observaciones de la forma: X(N) = S(n - N). Dado que la secuencia es de media nula vemos, por la (5.8), que h0 = 0; as, el estimador es de la forma:
S (n) =
h S (n i)
i
i =1
adems, en este caso (de media nula y sin ruido), podemos decir que: CXX = RSS, de modo que
la (5.9) conduce a:
N
h R
i
SS
(i j ) = R SS ( j )
j = 1, 2, , N
(5.12)
i =1
en la que hi es la ponderacin asignada a S(n i), con i = 1, 2, , N. La (5.12) puede ser expresada en forma matricial, resultando:
R SS (1) R SS (2)
R SS (0)
R (1)
R SS (0) R SS (1)
SS
R SS (2)
R SS (1) R SS (0)
M
M
M
R SS ( N 1)
L R SS ( N 1) h1 R SS (1)
L R SS ( N 2) h2 R SS (2)
L R SS ( N 3) =
M
L
R SS (0) h N R SS ( N )
(5.13)
Las (5.12) (5.13) reciben el nombre de ecuacin de Yule Walker y son anlogas a
la vista al tratar los procesos tipo AR; adems, es similar a la (5.10), con las consideraciones
del caso.
Ejemplo 5.2:
Si RSS(n) = an, hallar el mejor estimador lineal de S(n) en trminos de las N observaciones previas; es decir, hallar:
S (n) = h1 S (n 1) + h2 S (n 2) + L + h N S (n N )
Solucin:
A partir de la (5.13), podemos escribir:
1
N 1
a
a a2
L a N 1 h1 a
2
L a N 2 h2 a
3
a
=
N
L
1 h N a
h T = [a,0, L ,0]
E S h0
hi X (i ) . S h0
i =1
n
h j X ( j ) = E S h0 hi X (i ) S h0 E S h0
j =1
i =1
n
n
h j E S h0 hi X (i ) X ( j )
j =1
i =1
h X (i)
i
i =1
Por las condiciones de ortogonalidad dadas en las ecuaciones (5.7), el segundo y tercer
trmino se anulan; en consecuencia, la expresin anterior resulta:
} { }
E ( S S ) 2 = E S 2 h0 S
h E{X (i)S}
i
i =1
E ( S S ) 2 = S2 + S2 S2
h [E{X (i)S}
n
X (i )
S ]
i =1
A fin de introducir la nomenclatura a utilizar en el desarrollo del filtro de Kalman, denominamos al ECM, P(n), o residual, nombre que recibe el ECM cuando corresponde al estimador ptimo. Es decir que, la expresin anterior resulta:
P ( n ) = E ( S S ) 2 = S2
h
i
(5.14)
X (i ) S
i =1
Si ahora aplicamos estos resultados a la expresin de la ecuacin de Yule-Walker, definida mediante la expresin (5.13), en la que la estimacin S (n) determinaba los pesos en un
filtro digital finito cuando S(n) es un proceso dbilmente estacionario con media nula y sin
ruido, es decir que X(i) = S(n - i), con i = 1, 2, , N, el ECM, tal como fue definido, se expresa:
{[
]}
2
P ( N ) = E S ( n) S (n) = R SS (0)
h R
i
SS
(5.15)
(i )
i =1
E {( S S )} = 0
Por otra parte, dado que el estimador es una combinacin lineal de las observaciones, resulta:
E {( S S ) S} = 0
(5.16)
{ }
(5.17)
E {SS} = E S 2
} {
} {
} {
} {
E ( S S ) 2 = E ( S S )( S S ) = E ( S S ) S E ( S S ) S = E ( S S ) S
} { } { }
E ( S S ) 2 = E S 2 E S 2
(5.18)
Esta ltima expresin, puede ser visualizada en el contexto de la figura 5.2; es decir, si
S = hX , entonces, lo expresado en la (5.18) es que S es la proyeccin de S sobre el hiperplano de las observaciones, con el error normal a la estimacin.
Ejemplo 5.3:
Hallar el residual del EMC para el estimador hallado en el Ejemplo 5.1
Solucin:
Usando la (5.14), obtenemos:
400
6
6
5
P (2) = E ( S S ) 2 = (0,01) 2 (3x10 5 )
(4 x10 ) 4,42 x10
5
81
Ejemplo 5.4:
Hallar el EMC residual para el Ejemplo 5.2
Solucin:
A partir de la ecuacin (5.15), obtenemos:
{[
P( N ) = E S (n) S (n)
] }= R
2
= 1 a2
5.3 INNOVACIONES
Se introducir, a continuacin, el concepto de innovaciones. Al desarrollar el estimador vectorial lineal, se estableci la (5.11) como solucin para encontrar los coeficientes del
filtro ptimo que minimiza el ECM. La aplicacin de esta expresin puede conducir a expresiones que contengan matrices de dimensiones considerables; surge entonces el inters por
desarrollar algn mtodo alternativo de solucin que permita reducir las dimensiones de la
(5.11). Podra pensarse que si, en vez de utilizar el conjunto de observaciones X(1), X(2), ,
X(n) que frecuentemente contiene informacin redundante, utilizamos estrictamente el aporte
novedoso que pudieran contener estas observaciones, se arribara a expresiones ms compactas. Esta idea da lugar al enfoque de estimar la variable S utilizando las innovaciones contenidas en las observaciones X(1), X(2), , X(n). La metodologa resultante ser utilizada posteriormente en el desarrollo de los filtros de Kalman y Wiener.
En los desarrollos de este apartado consideraremos, por razones de simplicidad, valores medios nulos, es decir que:
E{S } = E{X (i )} = 0 ,
i = 1, , n
y que todas las variables poseen una distribucin conjunta de probabilidad Gaussiana. Si las
distribuciones no fueran Gaussianas, al considerar nicamente estimadores lineales se obtendran resultados similares.
Abordaremos el problema tratando el caso de un estimador ptimo S1 , en trminos una
nica observacin X(1) de la forma usual hasta aqu (ntese el uso de subndice para distinguir
los estimadores lineales al utilizar innovaciones), para luego ir agregando observaciones al
estimador obtenido.
resulta:
h1 =
E {SX (1)}
(5.19)
E X 2 (1)
(5.20)
X2 ( 2 )
X2 (1)
X2 ( 2 )
+ X (1) X ( 2 ) 2 X (1)
X (1)
En la que X(1)X(2) es el coeficiente de correlacin entre X(1) y X(2). En nuestro caso, dado que
tanto X(2) como X(1) poseen media nula, resulta:
E{X (2) | X (1)} = a1 X (1)
en la que:
a1 = X (1) X ( 2 )
X2 ( 2 )
2
X (1)
X (1) X ( 2 )
X2 ( 2 )
X2 (1) X2 ( 2 )
2
X (1)
X (1) X ( 2 )
X2 (1)
Ntese que este resultado tiene la misma forma que el obtenido en la ecuacin (5.4).
En definitiva, la (5.20) queda:
V X ( 2) = X (2) a1 X (1)
(5.21)
Deben destacarse, a partir de lo visto, las siguientes propiedades:
1. VX(2) es una combinacin lineal de X(1) y X(2).
adems:
2. E{V X (2)} = E{X (2) a1 X (1)} = 0
3. E {V X ( 2) X (1)} = E {[X ( 2) a1 X (1)]X (1)} = E {X ( 2) X (1)} a1 E {X 2 (1)}
X (1) X ( 2 ) 2
= X (1) X ( 2 ) a1 X2 (1) = X (1) X ( 2 )
X (1) = 0
X2 (1)
4. X ( 2) = V X ( 2) + a1 X (1)
(5.22)
(5.23)
2
V X ( 2) h2 SVX ( 2 )
0
con lo que h1 resulta:
h1 =
SX (1)
2
X (1)
E{SX (1)}
E X 2 (1)
tal como se haba establecido en la (5.19) para el caso de una nica observacin, en tanto que
h2 se expresa:
SV ( 2 ) E{SV X (2)}
(5.24)
h2 = 2 X =
VX ( 2)
E {V X2 (2)}
Ntese, que los valores esperados de las expresiones anteriores pueden ser calculados
con la ayuda de la (5.21).
Prosiguiendo con nuestro anlisis, incluiremos ahora el efecto de considerar X(3) al
agregar su innovacin VX(3). Por definicin, es:
V X (3) = X (3) E{X (3) | X (1), X (2)}
(5.25)
Ahora bien, dado que, de acuerdo a la (5.23), X(2) es una combinacin lineal de X(1) y
VX(2), el conocimiento de X(1) y X(2) es equivalente a conocer X(1) y VX(2); es decir:
E{X (3) | X (1), X ( 2)} = E{X (3) | X (1), V X ( 2)}
o, por la (5.25),
en la que:
b1 =
b2 =
E X 2 (1)
E V X2 ( 2)
con h1 y h2 definidos tal como en las ecuaciones (5.19) y (5.24) y h3 dado por:
h3 =
E{SV X (3)}
E V X2 (3)
El anlisis precedente puede ser extendido hacia el caso general, obtenindose el estimador:
S n =
h V
j
(5.26)
( j)
j =1
en el que:
V X (1) = X (1)
V X ( j ) = X ( j ) E{X ( j ) | X (1), L , X ( j 1)}
y
hj =
j = 2,3, ,n
E{SV X ( j )}
(5.27)
(5.28)
(5.29)
E V X2 ( j )
{[
P ( n ) = E S S n
] }= E {S } E {S }=
2
2
n
2
n
= E h jV X ( j )
j =1
2
S
= S2
h
2
j
j =1
2
VX ( j )
i = 2, 3, , n
y, cindonos al caso Gaussiano de media nula, en el cual E{X (i ) | X (1),L, X (i 1)} es una funcin lineal, es decir:
E{X (i ) | X (1),L, X (i 1)} =
i 1
b X ( j)
j
j =1
vemos que VX(i) es una funcin lineal de X(i), X(i - 1), , X(1), es decir:
(5.30)
V X (i ) = X (i )
i 1
X ( j)
j =1
(5.31)
Dado que VX(i) es la parte impredecible de X(i), la ecuacin (5.31) descompone X(i) en una
parte predecible, que es la esperanza condicional, y una parte no predecible, que es la innovacin VX(i).
De acuerdo a las ecuaciones (5.28) y (5.30), la innovacin VX(i) es una funcin lineal
de X(n) de la forma:
V X (1) = X (1)
V X (2) = X (2) + (2,1) X (1)
V X (3) = X (3) + (3,1) X (1) + (3,2) X (2)
M
(5.32)
siendo las (i,j), constantes que sern especificadas posteriormente. Anlogamente, podemos
decir que X(n) es una funcin lineal de VX(n):
X (1) = V X (1)
X ( 2) = V X ( 2) + l ( 2,1)V X (1)
X (3) = V X (3) + l (3,1)V X (1) + l (3,2)V X ( 2)
M
en las que las l(i,j) son constantes que se especifican a partir de las (i,j).
Lo anterior puede escribirse en forma compacta expresando que:
VX(n) = X(n), siendo una transformacin lineal, o filtro
X(n) = L VX(n), siendo L otra transformacin lineal, o filtro
Las L y pueden obtenerse de la siguiente forma: en primer trmino, se busca una transformacin lineal tal que:
X = VX
(5.33)
en la que XT = [X(1), , X(n)]; es una matriz de dimensin n x n y VXT = [VX(1), , VX(n)]. Ntese, adems, que la matriz de covarianza de VX es diagonal (pues las innovaciones son incorrelacionadas).
Para que el filtro sea causal (es decir, realizable) y para guardar coherencia con lo expresado hasta aqu, debe ser una matriz triangular inferior, pues VX(1) debe depender solo de
X(1), VX(2) debe depender solo de X(1) y X(2) y as sucesivamente; o sea:
0
0
0 X (1) V X (1)
L
(1,1)
(2,1) (2,2)
0
0 X ( 2) V X (2)
L
M
M
M
M
M
M
0
L (n, n) X (n) V X (n)
(n,1) (n,2) (n,3)
(5.34)
Las ecuaciones (5.33) y (5.34) son idnticas y generalizan los resultados obtenidos
mediante las ecuaciones (5.31) a (5.32).
Avanzando en el razonamiento, para que satisfaga las ecuaciones (5.27) y (5.28),
debe cumplirse que (i,i) = 1 y en particular, dado que la primera observacin es idntica a
VX(1), es:
(1,1) = 1
Si recordamos que:
E{X(i)} = 0
i = 1, , n
la covarianza entre X(i) y X(j) se reduce a E{X(i)X(j)} = RXX(i,j) y puede hallarse (2,1) de la siguiente forma:
E{V X (1)V X (2)} = 0 = E{X (1)[ ( 2,1) X (1) + X (2)]}
= (2,1) R XX (1,1) + R XX (1,2) = 0
(2,1) =
R XX (1,2)
R XX (1,1)
(5.35)
X = 1
12
4
2
1
1
2
1
4
1
2
1
Solucin:
Segn sabemos:
0
0
1
1
0
= (2,1)
(3,1) (3,2) 1
1
R XX (1,2) 2 1
=
=
2
R XX (1,1)
1
(3,1) + (3,2) + =0
y
(3,2) = -
(5.36)
0
0
1
Es decir, teniendo L definida por la (5.37), podemos recuperar X a partir de VX pasando a este ltimo a travs del filtro L.
Ejemplo 5.6:
Usando los resultados del Ejemplo 5.5, hallar L y X en trminos de VX.
Solucin:
L=
= 12
1 4
0
1
1
0
1
Luego:
X(1) = VX(1)
X(2) = VX(1) + VX(2)
X(3) = VX(1) + VX(2) + VX(3)
Revisin
esperanza condicional E{ X(n)| X(1), X(2), , X(n-1)}. Dado que las innovaciones de una secuencia son mutuamente ortogonales, se ve que VX(n) es la parte de X(n) que es ortogonal al
espacio definido por X(1), X(2), , X(n-1). La ortogonalidad de las innovaciones, permite que la
ponderacin, o peso, de cada innovacin pueda ser calculada independientemente de las otras.
En las prximas secciones, se discutir la forma que asumen los estimadores ptimos
ya analizados cuando se los utiliza para predecir y filtrar digitalmente secuencias aleatorias.
En esta seccin, a menos que se diga lo contrario, todos los procesos involucrados en
nuestro anlisis son dbilmente estacionarios y con media nula.
Filtros Digitales de Wiener con Datos Almacenados
Siendo S(n) la secuencia aleatoria de media nula correspondiente a la seal y (n) una
secuencia de ruido blanco con media nula. Adems, se considera que S(n) y (n) son incorrelacionadas; bajo estos supuestos, S(n) y (n) son ortogonales.
Consideramos que los datos se encuentran almacenados y X(n) est disponible para todo n; es decir que, en principio, el filtro puede no ser de longitud finita.
Bajo estos supuestos, el estimador ptimo (el que minimiza el ECM), tiene la forma:
S =
h( k ) X ( n k )
(5.38)
k =
{[
]}
2
E S (n) S (n)
E S ( n)
h( k ) X ( n k ) X ( n i ) = 0
k =
lo que conduce a:
h( k ) R
R XS (i ) =
XX
(i k )
(5.39)
k =
|f| <
o bien:
S XS ( f )
S XX ( f )
H( f ) =
(5.40)
|f| <
{[
P = E S (n) S ( n)
= RSS (0)
h( k ) R
k =
(k )
SX
(5.41)
k =
P ( m) = R SS ( m)
h( k ) R
SX
(m k )
(5.42)
k =
|f| <
Luego:
+1 / 2
P ( m) =
1 / 2
y
+1 / 2
P = P ( 0) =
[S
SS
( f ) H ( f ) S SX ( f )]df
(5.43)
1 / 2
Ahora bien, en cualquier caso prctico, dado que las memorias son finitas, la suma de
la ecuacin (5.38) debe ser finita de modo que puedan ser aplicados los mtodos desarrollados
en el apartado 5.1. En efecto, la inversin de la matriz resultante de las (5.39) es imposible,
debido a la suma de infinitos trminos y, por lo tanto, no hay solucin para h(k).
Sin embargo, cuando RXX(m) = 0 para |m| > M, entonces la ecuacin (5.39) se reduce a
una matriz de dimensin 2M + 1, que puede ser invertida para permitir obtener los coeficientes
del filtro: h(-M), h(-M+1), , h(0), , h(M).
Ejemplo 5.7:
Si X(n) = S(n) (es decir, sin ruido), hallar el filtro no causal ptimo H(f) y P.
Solucin:
S SS ( f )
=1
S XX ( f )
y, usando la (5.43)
+1 / 2
[S
P = P ( 0) =
SS
( f ) S SS ( f )]df = 0
1 / 2
Obviamente, si S(n) puede ser observada sin adicin de ruido, entonces la estimacin ser igual
a la seal y, en consecuencia, H(f) = 1 h(n) = (n) con el error residual P = 0.
Consideraremos el mismo problema de la seccin anterior, excepto que ahora buscamos un estimador de la forma:
S (n) =
h( k ) X ( n k )
k =0
el filtro puede ser implementado mediante M retardos y M + 1 amplificadores, resultando, entonces, un filtro realizable o causal, de respuesta finita. El filtro buscado es, en el caso en que
se cuenta con las observaciones X(0), X(1), , X(n), de la forma:
S (n) =
X (n k )
k =0
(5.44)
en la que:
hT = [h0, h1, , hn]
R XX
L
R XX (1)
R XX (n)
R XX (0)
R (1)
R XX (0) L R XX (n 1)
= XX
M
M
M
R XX (0)
R XX (n) R XX (n 1) L
R TXS = E{S ( n)[X (n), X (n 1),L, X (0)]} = [RSS (0), RSS (1),L, RSS ( n)]
(5.45)
en la que el ltimo sumando se anula debido a la independencia entre seal y ruido de observacin.
Bajo las condiciones establecidas, se dice que la expresin (5.11), o la (5.44), define
los pesos de un filtro discreto de Wiener finito. El ECM, para este caso, est dado por la
(5.15); es decir:
P (n) = RSS (0)
h R
i
SS (i )
i =1
Ejemplo 5.8:
Sea S(n) un conjunto de funciones constantes en el tiempo con E{S(n)} = 0 y E{S2(n)} = s2.
Por su parte, X(n) = S(n) + (n), siendo (n) una secuencia de ruido blanco con media nula y
E{2(n)} = 2.
Si X(n 1) es la ltima observacin (es decir, ho = 0), hallar los coeficientes h del estimador y el
residual P(n) como funcin de n.
Solucin:
X (n k )
k =1
A fin de poder usar la (5.44), establecemos los valores de RXS(k) y RXX(k). Considerando la
(5.45), es:
RXS (k ) = RSS (k ) = E{S (n) S (n + k )} = E S 2 (n) = S2
Por otra parte:
} {
R XX (k ) = E S 2 (n) + E 2 (n) = S2 + 2 (k )
en la que se introduce:
k =0
k0
1
0
(k ) =
para que la expresin tenga validez ante independencia entre las muestras de ruido.
Reemplazando ahora en la (5.44), se llega a trminos de la forma:
n
S2 h j + hi 2 = s2
(5.46)
j =1
para poder despejar hi, se suma ahora miembro a miembro esta expresin para i = 1 a n, resultando:
n S2
+ 2
j =1
= n S2
i =1
es decir:
n
hj =
j =1
n S2
n S2 + 2
+ hi 2 = S2
S2
hi =
n +
2
S
1
n +
i = 1, , n ; =1/
Ntese que todos los hi son de la misma forma, tal como poda esperarse, debido a que S es una
constante y a que el ruido es estacionario. Ntese, adems, que los pesos hi cambian (decrecen)
al aumentar el ndice n.
El filtro discreto de Wiener resultante es, entonces, de la forma:
S (n) =
n + X (i) = n + X
1
i =1
i =1
La ltima expresin, muestra que S (n) es la suma ponderada de las observaciones. Si la relacin
ruido-seal es pequea comparada con n, entonces S (n) es simplemente el promedio de las
observaciones.
Finalmente, destaquemos que el residual P(n) est dado por la ecuacin (5.15), es decir:
P (n) = S2
2
S
j =1
2
1
n
= S2 1
=
n +
n + n +
Ejemplo 5.9:
Dadas las observaciones X(0), , X(n); n 2, las que son de la forma X(n) = S(n) + (n), considerando que seal y ruido son incorrelacionados, con:
R SS (0) = 3
R SS (1) = 1
2
1
R SS (2) =
4
R SS (n) = 0
n>2
1
R (n) = 4
0
n=0
n0
R XX h = R XS
en la que:
R XS (k ) = RSS (k )
R XX (k ) = RSS (k ) + R (k )
R XX (0) = 1
R XX (1) = 1
2
1
R XX (2) =
4
R XX (n) = 0
n>2
12
1
4
h0 3
4
1 h = 1
2 1
2
1 h2 1
2
1
1
2
0 3 2
h0 4 3 2 3
4 3
2
5
1
2
= 1
h1 = 3
3
3 2 6
h
1
4
0
2
2 0
3
3 4
A partir de lo cual se verifica que solo hay dos pesos (h) que son distintos que cero y son la solucin al problema planteado.
Es decir que, el filtro buscado es de la forma:
S (n) = 2 X (n) + 1 X (n 1)
3
6
Esta expresin est representada en la figura 5.5 y recibe, usualmente, la denominacin de Filtro de Wiener Discreto Finito.
El filtro de Kalman es un filtro digital recursivo que permite realizar una estimacin
ptima, en tiempo real, de los estados de un sistema a partir de mediciones ruidosas. Estos
estados comprenden todas las variables necesarias para describir completamente el comportamiento de un sistema en funcin del tiempo. Las mediciones ruidosas pueden ser interpretadas, en el caso vectorial general, como una seal multidimensional con ruido, siendo los estados del sistema las seales desconocidas buscadas. Las estimaciones realizadas mediante el
filtro de Kalman son estadsticamente ptimas, en el sentido que minimizan el error cuadrtico medio de la estimacin. Este filtro representa una mejora sustancial respecto a su predecesor entre los filtros de mnimo ECM, el ya presentado filtro de Wiener, que es de aplicacin
limitada a seales de tipo estacionario.
El Filtro de Kalman consiste, esencialmente, en un conjunto de ecuaciones matemticas ordenadas para implementar un algoritmo recursivo de clculo. Conceptualmente, podemos decir que, a partir de una estimacin inicial (de estados y del error residual), el filtro calcula los pesos (ganancias de Kalman) que sern utilizados para ponderar la combinacin de la
nueva informacin en relacin a la estimacin previa para obtener una nueva estimacin (ptima) de estados.
Las mediciones (en cada ciclo) son vectores que el algoritmo recursivo procesa en
forma secuencial. Es decir, que el algoritmo se repite en cada ciclo con un nuevo conjunto de
mediciones, utilizando nicamente los valores almacenados de la iteracin anterior. Este procedimiento lo diferencia de otros algoritmos de procesamiento que deben almacenar todas las
mediciones previas.
Dado que el filtro establece una estimacin actualizada de estados a partir de las ltimas mediciones disponibles, debe actualizarse tambin el error residual, de forma que refleje
la nueva informacin agregada, reduciendo la incertidumbre.
Finalmente, para poder procesar el prximo vector de medicin, el filtro debe proyectar la estimacin de estados y su covarianza asociada para el siguiente perodo.
Puede observarse que, al procesarse en forma recursiva las mediciones, la incertidumbre de las estimaciones de los estados (o error residual) debiera ir decreciendo, lo que en general ocurre. Si embargo, dado que en el paso de prediccin se pierde algo de informacin, en
ciertos casos la incertidumbre puede tender a cierto estado estacionario. En otros, si en la medicin no hay ruido aleatorio, la incertidumbre tiende a cero.
Dado que la incertidumbre en la estimacin de estados vara en el tiempo, tambin lo
harn las ganancias; as, en trminos generales, podemos decir que el filtro de Kalman es un
filtro digital de ganancia variable.
Si el estado de un sistema es constante, el filtro de Kalman se reduce a una forma recursiva de solucin del problema de mnimos cuadrados.
En lo que resta del captulo, veremos una descripcin general del filtro, discutiremos
brevemente las ventajas de los filtros recursivos y desarrollaremos el algoritmo para el filtro
ptimo de Kalman en el caso escalar.
Descripcin General del Filtro
(5.47)
en la que a(n) es una serie de constantes conocidas y W(n) es ruido blanco. En caso que S(n)
sea una secuencia aleatoria estacionaria, las a(n) se mantendrn constantes con n. No obstante,
a(n) puede variar con n al considerarse una secuencia no estacionaria (recordemos que los
filtros de Wiener no son aplicables en caso de secuencias no estacionarias).
El modelo dado por la (5.47) puede ser extendido a un modelo de orden superior tipo
ARMA de la forma:
S ( n) =
[a(n) S (n i) + W (n + 1 i)]
i
i =1
(5.49)
en la que (n), ruido de la observacin, es ruido blanco, independiente tanto de W(n) como de
S(n). Denominamos a la (5.49) modelo de las observaciones.
Dado que, en nuestro caso, la bsqueda la orientaremos hacia un filtro ptimo de tipo
recursivo, de forma que pueda ser fcilmente implementado en computadora con bajo requerimiento de capacidad de almacenamiento, definiremos su forma general.
Estimadores Recursivos
Sea S(n) una constante desconocida cuyo valor se desea estimar a partir de un conjunto
de observaciones X (1), L , X (n) de la forma: X(n) = S(n) + (n), en la que (n) es ruido blanco
estacionario con media nula. Si se considera que un estimador lineal es apropiado (por ejemplo, si X es Gaussiano), se podra proponer que la estimacin S (n) sea, directamente, el promedio de las observaciones; as, la estimacin de S(n + 1) sera:
1
S (n + 1) =
n
X (i) =
i =1
X (1) + X ( 2) + L + X ( n 1) + X (n)
n
(5.50)
El problema que presenta esta forma de estimador se relaciona con la cantidad de memoria requerida para almacenar las observaciones, que crece con n. Esto puede solucionarse
simplemente expresando la estimacin dada por la (5.50) en forma recursiva. Si:
X (1) + L + X (n 1)
S (n) =
n 1
Esta implementacin del filtro solo requiere que sean almacenadas la estimacin previa y la nueva observacin. Ntese, adems, que el estimador es una combinacin lineal entre
la nueva informacin y la ltima estimacin. Cuando desarrollemos el filtro de Kalman, hallaremos que tiene una forma similar.
Filtro de Kalman Escalar
su varianza es conocida.
4. a(n) es un conjunto de constantes conocidas.
El objetivo es hallar un predictor lineal de mnimo ECM para S(n + 1), a partir de las
observaciones X (1), L , X (n) .
A partir de las consideraciones Gaussianas sobre los modelos de seal y observacin
utilizados, sabemos que el estimador lineal ptimo es el establecido en la seccin 5.2, de forma:
S (n + 1) = E {S ( n + 1) X (1), L , X (n)} =
h X (i)
i
(5.51)
i =1
y, dado que sabemos que las observaciones X son linealmente equivalentes a las innovaciones
VX, podemos escribir, tal como se estableci en la seccin 5.3, una forma equivalente a la
(5.51), haciendo:
S (n + 1) =
h V
j
(5.52)
( j)
j =1
Debemos ahora, sin perder de vista nuestro objetivo de hallar una forma recursiva para
el estimador, hallar los valores de hj, teniendo en cuenta que, por ortogonalidad:
2 ( j )
E {V X ( j )V X ( k )} = V
0
j=k
(5.53)
jk
Demostrar que el filtro de Kalman ptimo es una combinacin lineal de una actualizacin
del estimador previo, ms la innovacin ponderada de la observacin ms reciente.
Hallar una expresin recursiva para el error.
Hallar una expresin recursiva para las ponderaciones a ser utilizadas en la combinacin
lineal.
El procedimiento indicado es vlido tanto para el caso escalar considerado, como para
el ms general caso vectorial.
Combinacin lineal del estimador previo y la innovacin. Consideremos, para comenzar, el error S ( n + 1) S ( n + 1) , el cual es ortogonal a las observaciones X(j), con j n.
Dado que la innovacin VX(j) es una combinacin lineal de las X(j), con j n, el error ser tambin ortogonal a VX(j) con j n, es decir:
{[
E S ( n + 1) S ( n + 1) V X ( j ) = 0
y, en consecuencia:
(5.54)
A partir de las ecuaciones (5.52) y (5.53) se establece que para cada j = 1, , n, del trmino de la derecha de la (5.54), es:
E S (n + 1)V X ( j ) = h j V2 ( j )
E{S (n + 1)VX ( j )}
V2 ( j )
(5.55)
j =1
E{S (n + 1)V X ( j )}
V X ( j)
V2 ( j )
(5.56)
Ntese, que la expresin obtenida mediante la (5.55) asume la forma ya vista, tanto para los
coeficientes del estimador vectorial lineal como para los coeficientes del estimador basado en
innovaciones.
Para arribar a la forma recursiva usaremos el modelo de seal dado por la (5.47); as:
E{S (n + 1)V X ( j )} = E{[a ( n + 1) S (n) + W (n + 1)]V X ( j )}
(5.57)
Sin embargo, el ltimo trmino de la (5.57) es nulo; en efecto, dado que W(n + 1) es independiente de S(k) para k n, se verifica que:
E{W (n + 1) S (k )} = 0
kn
kn
E {W (n + 1) X (k )} E {W (n + 1) (k )} = E{W (n + 1) X (k )} = 0
kn
pues W(n + 1) es independiente de (k) para todo k y n. Finalmente, dado que VX (j) es una combinacin lineal de las X(k), con k j, se verifica que:
E{W (n + 1) X (k )} = E{W (n + 1)V X ( j )} = 0
jn
j =1
E{S (n)V X ( j )}
VX ( j)
V2 ( j )
(5.58)
Volviendo a la (5.56), podemos decir que es vlida para cualquier valor de n y, en particular, para n + 1 = n; resultando:
S (n) =
n 1
j =1
E{S (n)V X ( j )}
V X ( j)
V2 ( j )
X
V2 (n)
Si se define:
k ( n) =
(5.59)
(5.60)
(5.61)
y, dado que se demuestra que S (n) es un estimador lineal de mnimo ECM de la forma:
S ( n ) = E{X ( n ) | V X (1),L,V X ( n 1)}
(5.62)
(5.63)
para mostrar que el mejor estimador de la etapa n (el trmino entre llaves) es una combinacin
lineal del estimador S (n) y la observacin X(n).
Antes de tratar de hallar el valor de k(n), buscaremos una forma recursiva para la expresin del error.
~
(5.64)
~
P(n) = E S 2 (n)
(5.65)
Por otra parte, a partir de la (5.62) y usando el modelo de observaciones dado por la
(5.49), escribimos:
V X (n) = S (n) + (n) S (n)
(5.66)
para obtener, utilizando la definicin de la (5.64),
~
V X ( n) = S ( n) + ( n)
{
{
{[
}
}
~
E {S ( n )V X ( n )} = E S ( n ) S ( n ) + E {S ( n ) ( n )}
~
= E S (n)S (n)
~
~
= E S ( n ) + S ( n ) S ( n )
~
y, dado que el trmino E S (n) S (n) se anula por ortogonalidad, resulta:
~
E {S ( n )V X ( n )} = E S 2 ( n ) = P ( n )
(5.67)
} {[
]}
2
~
P (n + 1) = E S 2 (n + 1) = E S (n + 1) S ( n + 1)
Ahora, si usamos la (5.61) para S (n + 1) y el modelo de seal para S(n + 1), obtenemos:
{[
]}
= E {[a (n + 1)[S (n) S (n)] a (n + 1)k ( n)V (n) + W (n + 1)] }
2
P (n + 1) = E a(n + 1) S (n) + W (n + 1) a(n + 1) S (n) a (n + 1)k ( n)V X (n)
2
]}
Ahora bien, en la ltima expresin, el cuarto trmino se anula por definicin de innovaciones y por el hecho que S (n) es una combinacin lineal de VX(1), , VX(n - 1). De igual
modo, los dos ltimos trminos son cero pues W(n + 1) es ortogonal a S(n), S (n) y VX(n). Con
estas consideraciones, y usando la (5.67), se obtiene:
{[
]}
2
E V X2 (n) = E S (n) + (n) S (n) = P (n) + 2 (n)
lo que conduce a:
P ( n + 1) = a 2 (n + 1) P ( n) + a 2 ( n + 1) k 2 ( n) P ( n) + 2 (n) + W2 ( n + 1) 2a 2 ( n + 1) k (n) P ( n)
P (n + 1) = a 2 (n + 1) [1 k (n)] P( n) + k 2 ( n) 2 (n) + W2 (n + 1)
2
(5.68)
(5.69)
2 ( n + 1)
P (n + 1) = a 2 (n + 1) k 2 ( n) P ( n) + 2 ( n) 2a 2 ( n + 1)k (n) P ( n) + P (n) + W2
a ( n + 1)
Si se denomina:
D 2 = P (n) + 2 (n)
y
C = P ( n) +
resulta:
W2 (n + 1)
a 2 (n + 1)
(5.70)
Si expresamos, en la (5.70), el trmino del corchete como el cuadrado de una diferencia, podemos escribir que:
2
P (n + 1) = a 2 (n + 1)[k (n) D B ]
(5.71)
en la que debe verificarse, comparando la (5.71) con la (5.70), que 2k(n)BD = 2P(n)k(n) y que
C = B2.
Se ve, en la (5.71), que para minimizar P(n+1) debo anular el corchete, lo que se logra
haciendo que:
k ( n) =
B
D
es decir que:
k ( n) =
P ( n)
P(n) + 2 (n)
(5.72)
Con la (5.72), que recibe el nombre de ganancia de Kalman, se completa el conjunto de ecuaciones necesarias para establecer el Filtro de Kalman escalar.
A modo de consideracin final, si se reemplaza el valor hallado para k(n) en la (5.69) y
se opera, se obtiene:
P (n + 1) = a 2 (n + 1)[1 k (n)]P (n) + W2 (n + 1)
(5.73)
Recapitulando, en primer trmino habamos adoptado, para describir la seal (o estado), el
modelo dado por la (5.47):
S(n) = a(n)S(n 1) + W(n)
P ( n)
P (n) + 2 (n)
Para la ejecucin del algoritmo, se consideran, como valores de inicializacin, los siguientes:
n=1
2
2
P(1) = 2 (en general, se asume un valor que sea mayor que y que )
S (1) = S (usualmente se considera nulo el valor inicial)
X ( n) = S ( n) + ( n)
W2 (n) = 14
2 (n) = 1 2
k (1) =
{[
P(1)
1
=
=2
2
3
P (1) + 1 + 1
2
S (2) = (0,6) 1 2
{[
S (3) = (0,6) 1 37
87
P (2)
37
0,37
=
=
0,425
2
1
87
P(2) + 0,37 +
2
P (3) = 0,36
50
(0,37) + 1 = 0,326
4
87
Si a(n) no vara con n y tanto W(n) como (n) son estacionarias (es decir, que tanto
(n) como 2 (n) son constantes), k(n) y P(n) tienden a valores lmite a medida que n .
Estos lmites pueden ser establecidos a partir de la aplicacin de la (5.72) y considerando que
en la (5.73) P(n + 1) = P(n) = P
En efecto:
2
W
P = a 2 (1 k ) P + W2
k=
P
P + 2
Luego:
2
P = a 2
2
P +
P + W2
) [
)]
W2 + 2 a 2 1 + W2 + 2 a 2 1
+ 4 2 W2
Usando este valor en la (5.72) obtenemos la ganancia de Kalman de estado estacionario(o rgimen permanente) k.
Ejemplo 5.11:
Usando los datos del Ejemplo 5.11, hallar los valores lmite de k y P:
Solucin:
0,25 + 0,5(0,36 1) +
k=
0,32
0,390
0,32 + 0,5
0,320