Está en la página 1de 31

Estimacin

(Filtrado)
de Seales

5
2012

Objetivos:
establecer el alcance del problema de estimacin de una seal en presencia de ruido;
establecer el criterio de optimalidad asociado al mnimo error cuadrtico medio;
establecer el concepto de innovacion;
desarrollar filtros para sucesiones aleatorias;

5.1 INTRODUCCION
La estimacin de seales requiere, usualmente, la determinacin del valor de una seal
analgica para todos los valores del tiempo. Como ejemplos, pueden mencionarse la estimacin del valor de una seal de audio transmitida a travs de un canal con ruido, o el seguimiento de la localizacin de un objeto en el aire sobre la base del rebote ruidoso de una seal
radrica. A diferencia del problema en el cual el receptor conoce lo que puede esperar (sobre
la base de un conjunto de M seales posibles), en este caso la seal a estimar puede presentar
un conjunto continuo de valores en un intervalo dado. As, la tarea del receptor consiste en
estimar valores de una forma de onda que puede ser vista como una funcin muestreada de un
proceso aleatorio.

Figura 5.1: Estimacin (o filtrado) de seales:

Los contenidos del presente captulo son analizados considerando que se dispone de
una o ms observaciones ruidosas de cierta seal, a partir de las cuales se debe estimar su valor verdadero. Para ello, y por razones que se harn evidentes en el transcurso del desarrollo
del captulo, se desarrollarn estimadores que minimicen el error cuadrtico medio (o esperado) entre la estimacin y la seal verdadera (desconocida), el cual se expresa como:

{[

]}

2
E X (t ) X (t )

Esta accin es analizada, frecuentemente, como un problema de separacin de seal y


ruido o filtrado de seales a partir de ruido de banda ancha, de all el nombre de filtrado para
el proceso de estimacin. En la figura 5.1 se muestra un ejemplo del proceso de filtrado de

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 2 de 31

una seal Y(t) = X(t) + N(t) para producir una estimacin X (t ) de la seal X(t).
En general, se considerar la estimacin de una seal a partir de un nmero finito de
observaciones de un proceso aleatorio X(t); adems de la importancia propia del tema, es la
base a partir de la cual se desarrollarn los filtros de Kalman y de Wiener.
En todos los casos, tal como se ha expresado, el objetivo ser minimizar el error cuadrtico esperado (o medio) entre la estimacin y el valor verdadero de la seal (o variable
aleatoria) que se est estimando. Adems, se restringir el anlisis a los estimadores (o filtros)
lineales.
Mencionemos, por ltimo, que se considerarn conocidas la media y las funciones de
correlacin necesarias; en captulos posteriores se tratar el modo de obtenerlas a partir de
conjuntos de datos.

5.2 ESTIMADORES LINEALES DE MNIMO ERROR CUADRATICO MEDIO


Comenzaremos nuestro estudio considerando el caso en que se estima una variable
aleatoria como un valor constante, para luego basar el estimador en cierto nmero de observaciones de una variable aleatoria relacionada, procurando, en todos los casos, reducir el error
cuadrtico medio (ECM) del estimador.
Estimacin de una variable aleatoria con un valor constante.
Se encontrar, en este caso, el ms simple de los estimadores que minimizan el ECM
de una variable aleatoria: la estimacin mediante una constante.
Sea la variable aleatoria S, cuyo valor medio y varianza estn dados, respectivamente,
por:
S = E{S }
y
S2 = E (S S )2

Si se estima el valor de la variable aleatoria S mediante cierta constante a, es decir:


S = a

el ECM estar dado por:

E{(S - a)2} = E{[(S - S) + (S - a)]2}


= E{(S - S)2} + E{(S - a)2} + E{2(S - S)(S - a)}
= S2 + (S - a)2 + 2(S - a)E{S - S}

y, dado que el ltimo trmino es cero (pues E{S - S} = E{S} - S = 0), resulta:
E{(S - a)2} = S2 + (S - a)2

Esta expresin muestra que el valor de la estimacin que minimiza el ECM es a = S y que el
mnimo ECM alcanzable es la varianza, ya que para cualquier valor de a diferente al valor
medio, el error medio cuadrtico es la varianza mas el cuadrado de la diferencia entre el estimador a y S.
Estimacin de S a partir de una nica observacin X.
Considrese, ahora, que X y S son variables aleatorias relacionadas. As, habiendo sido
observada X, se busca un estimador lineal de S de la forma:
S = h0 + h1 X

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 3 de 31

tal que E{( S S ) 2 } resulte minimizado mediante una seleccin adecuada de h0 y h1. Ntese,
que este estimador S es una funcin lineal de X. Se considera, adems, que son conocidos
todos los momentos necesarios de X y S.
El ECM se puede expresar como:

2
E{( S S ) 2 } = E [S h0 h1 X ]

Derivando respecto a los parmetros h0 y h1 e igualando a cero, dado que las operaciones de derivacin y esperanza pueden ser intercambiadas, resulta:

(5.1a)

(5.1b)

E (S h0 h1 X )
= 2 E{S h0 h1 X } = 0
h0
E (S h0 h1 X )
= 2 E{(S h0 h1 X )X } = 0
h1

Operando con la (5.1a), es:


E{S h0 h1 X } = E{S} h0 h1 E{ X } = S h0 h1 X = 0
h0 = S h1 X

(5.2)

Ahora, a partir de la (5.1b), se obtiene:


E{(S h0 h1 X )X } = E{ XS} h0 E{ X } h1 E{ X 2 } = 0

(5.3)

en la que se reconoce al segundo momento como:

{ }

E X 2 = X2 + X2

adems, sabiendo que la covarianza entre X y S es:


XS = E{( X X )(S S )} = E{XS } E{X } S X E{S } + X S = E{XS } X S

la (5.3) resulta:
XS + X S = h0 X + h1 X2 + h1 X2

de la que se determina, considerando la (5.2):

XS
X2
y finalmente, reemplazando en la (5.2), resulta:
h1 =

h0 = S

XS
X
X2

(5.4)

(5.5)

Las expresiones (5.4) y (5.5) establecen los coeficientes del estimador propuesto. Puede mostrarse, siguiendo una metodologa similar a la utilizada en el pargrafo anterior, que el estimador minimiza el ECM.
A continuacin, se busca la forma que asume en este caso el ECM que se ha minimizado. En general, el error cuadrtico medio es:

E (S h0 h1 X ) = E{(S h0 h1 X )(S h0 h1 X )}
2

= E{(S h0 h1 X )S } E{(S h0 h1 X )h0 } E{(S h0 h1 X )h1 X }

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 4 de 31

pero, al considerar las expresiones de las (5.1), el segundo y tercer sumando de la ltima expresin se anulan y resulta:

{ }

E (S h0 h1 X ) = E{(S h0 h1 X )S } = E S 2 h0 E{S } h1 E{XS }


2

= S2 + S2 S2 +
= S2

XS

( XS + X S )
X S XS
2
X
X2

2
XS
X2

Recordando que el coeficiente de correlacin es:


XS =

XS
S2 X2

la expresin anterior resulta:

2
2
E (S h0 h1 X ) = S2 XS
S2 = S2 1 XS
2

(5.6)

A partir de la expresin (5.6), se ve que si el coeficiente de correlacin posee un valor


prximo a 1, el ECM tiende a cero; en cambio, si el XS es pequeo el uso de un estimador
lineal tal como el propuesto no introduce ninguna mejora respecto al caso anterior y el ECM
est dado por la varianza de la seal, como en el caso anterior.
Consideraciones vectoriales
Considrense dos vectores aleatorios de dimensin n tales como:
XT = (X 1 ,L, X n )

Y T = (Y1 , L , Yn )

Segn se sabe, se define al producto interno entre ellos como:


n

d (X , Y ) = E X T Y = E X iYi
i =1

y adems que la longitud del vector, o norma, se define como:


n

d (X, X ) = E X T X = E X i2
i =1

Con estas definiciones en mente, la expresin E {X T Y}= 0 implica decir que los vectores X e Y son ortogonales. Si se aplican estas consideraciones a los resultados del pargrafo
anterior, pueden establecerse condiciones que resultarn de utilidad en desarrollos posteriores.
Obsrvese la figura 5.2; para cuya construccin se ha considerado que todos los valores medios son nulos. Vemos que:
1. El error S hX es ortogonal a X [ecuacin (5.1b) con los valores medios nulos].
2. El estimador de S es su proyeccin sobre el eje X.
As, cualquier estimador de S obtenido a partir de la observacin X, que sea distinto al
de mnimo ECM, tendr mayor, o a lo sumo, igual valor absoluto del error y, por lo tanto, el
estimador que minimiza el ECM es el ptimo entre los estimadores lineales ya que ninguno
puede tener menor error que este.
En problemas de filtrado ms complejos a analizar en el futuro, se ver que las dos
condiciones continan siendo descriptoras fundamentales de los filtros lineales ptimos.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 5 de 31

Figura 5.2: Principio de ortogonalidad

Estimador vectorial lineal de mnimo ECM


Consideremos que se observan los valores X(1), , X(n) de una secuencia aleatoria, a
partir de los cuales se debe estimar el valor de cierta seal S mediante un estimador lineal de
la forma:
S = h0 +

h X (i)
i

i =1

se desea, adems, que E ( S S ) 2 sea minimizado a partir de una adecuada seleccin de hi


(con i = 0, 1, 2, , n).
De acuerdo a la metodologa adoptada, a fin de minimizar el ECM se procede a diferenciar E {( S S ) 2 } respecto a cada hj (con j = 0, 1, 2,, n), obtenindose:

E S h0

E S h0

h X (i) = 0

(5.7a)

i =1

h X (i) X ( j ) = 0
i

(5.7b)

j = 1, , n

i =1

Se denomina a estas expresiones, condiciones de ortogonalidad. Ntese que, a partir


de lo establecido en el pargrafo anterior, la ecuacin (5.7b) establece que el error es ortogonal a cada observacin.
La (5.7a) puede ser escrita como:
h0 = S

h
i

(5.8)

X (i )

i =1

a fin de ser introducida en las n ecuaciones de la (5.7b) de la forma:

E S h0

hi X (i ) X ( j ) X ( j )
i =1

) = E S + h

X (i )

h X (i)(X ( j) ) = 0
n

X ( j)

i =1
i =1

= E (S S ) X ( j ) X ( j ) hi X (i ) X (i ) X ( j ) X ( j )
i =1

) (

)} h E{(X (i) )(X ( j )

= E (S S ) X ( j ) X ( j )

)(

i =1

En la ltima expresin, reemplazamos:


SX ( j ) = E {(S S )(X ( j ) X ( j ) )}

X (i )

X ( j)

)}

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 6 de 31

{(

)(

)}

C XX (i, j ) = E X (i ) X (i ) X ( j ) X ( j ) = RXX (i, j ) X (i ) X ( j )

lo que produce:
n

hC
i

XX

(i, j ) = SX ( j )

j = 1, 2, , n

(5.9)

i =1

Al igual que en los casos anteriores, puede mostrarse que las expresiones dadas por
(5.8) y (5.9) son las que minimizan el ECM.
Las n ecuaciones establecidas por la (5.9) pueden ser expresadas en forma matricial
definiendo:
X T = [ X (1), X (2), L , X (n)]

h T = [h1 , h2 , L hn ]
XX = [C XX (i, j )]

TSX = SX (1) , SX ( 2) , L , SX ( n )

y en consecuencia, la (5.9) resulta:


XX h = SX

(5.10)

a partir de la cual podemos obtener, considerando que existe la inversa de XX, la expresin:
h = XX1 SX

(5.11)

que es la solucin de la (5.9) y que, junto con la (5.8) definen el estimador buscado.
Ejemplo 5.1:
Se desea establecer la relacin entre cierta seal S y la secuencia observada X(1), X(2). Hallar el
estimador de mnimo error medio cuadrtico S = h0 + h1 X (1) + h2 X (2) .
Los momentos necesarios para su establecimiento son:
S = 1; S = 0,01; X(1) = 0,02; CXX(1,1) = (0,005)2; X(2) = 6x10-3; CXX(2,2) = (9x10-3)2;
CXX(1,2) = CXX(2,1) = 0; SX(1) = 3x10-5; SX(2) = 4x10-6
Solucin:

Partiendo de la ecuacin (5.11), es:


h1 (0.005) 2
h2 = 0

3x10 5
0
6
3 2
(9 x10 ) 4 x10

y, dado que:
4

1
0
XX
= 4x10
4
1,24x10
0

resulta:
h1 = 1,2

h2 = 0,0494

y, usando la (5.8), se obtiene:

h0 = 1 1,2(0,02) 0,0049(0,006) 0,98


Luego, el mejor estimador es:

S = 0,98 + 1,2 X 1 + 0,05 X 2

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 7 de 31

Ecuacin de Yule-Walker

Consideremos ahora el caso en que S(n) es una secuencia aleatoria WSS con media nula, que ser estimada a partir de N observaciones de la forma: X(N) = S(n - N). Dado que la secuencia es de media nula vemos, por la (5.8), que h0 = 0; as, el estimador es de la forma:
S (n) =

h S (n i)
i

i =1

adems, en este caso (de media nula y sin ruido), podemos decir que: CXX = RSS, de modo que
la (5.9) conduce a:
N

h R
i

SS

(i j ) = R SS ( j )

j = 1, 2, , N

(5.12)

i =1

en la que hi es la ponderacin asignada a S(n i), con i = 1, 2, , N. La (5.12) puede ser expresada en forma matricial, resultando:
R SS (1) R SS (2)
R SS (0)
R (1)
R SS (0) R SS (1)
SS

R SS (2)
R SS (1) R SS (0)

M
M
M

R SS ( N 1)

L R SS ( N 1) h1 R SS (1)
L R SS ( N 2) h2 R SS (2)
L R SS ( N 3) =

M

L
R SS (0) h N R SS ( N )

(5.13)

Las (5.12) (5.13) reciben el nombre de ecuacin de Yule Walker y son anlogas a
la vista al tratar los procesos tipo AR; adems, es similar a la (5.10), con las consideraciones
del caso.
Ejemplo 5.2:
Si RSS(n) = an, hallar el mejor estimador lineal de S(n) en trminos de las N observaciones previas; es decir, hallar:
S (n) = h1 S (n 1) + h2 S (n 2) + L + h N S (n N )
Solucin:
A partir de la (5.13), podemos escribir:
1



N 1
a

resulta simple ver que:

a a2

L a N 1 h1 a
2
L a N 2 h2 a
3
a
=


N
L
1 h N a

h T = [a,0, L ,0]

satisface la ecuacin; luego:


S (n) = aS (n 1)

es el estimador de mnimo ECM.


Dado que S (n) es el mejor estimador, y dado que ignora todos los valores previos de S excepto
el ltimo, se concluye que la funcin de autocorrelacin geomtrica da por resultado un estimador de tipo Markov.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 8 de 31

Clculo del Error

Retomando el problema de estimar S a partir de X(1), , X(n) y suponiendo que hemos


hallado el mejor estimador, procederemos a calcular el valor que asume el ECM en este caso,
para establecer la bondad del estimador hallado.
Consideremos que, mediante las expresiones (5.8) y (5.9), hemos establecido los hi coeficientes del estimador. El ECM est dado por:

E S h0

hi X (i ) . S h0
i =1

n


h j X ( j ) = E S h0 hi X (i ) S h0 E S h0

j =1
i =1



n
n

h j E S h0 hi X (i ) X ( j )

j =1
i =1

h X (i)
i

i =1

Por las condiciones de ortogonalidad dadas en las ecuaciones (5.7), el segundo y tercer
trmino se anulan; en consecuencia, la expresin anterior resulta:

} { }

E ( S S ) 2 = E S 2 h0 S

h E{X (i)S}
i

i =1

Ahora bien, reemplazando el segundo momento de S y usando la (5.8), resulta:

E ( S S ) 2 = S2 + S2 S2

h [E{X (i)S}
n

X (i )

S ]

i =1

A fin de introducir la nomenclatura a utilizar en el desarrollo del filtro de Kalman, denominamos al ECM, P(n), o residual, nombre que recibe el ECM cuando corresponde al estimador ptimo. Es decir que, la expresin anterior resulta:

P ( n ) = E ( S S ) 2 = S2

h
i

(5.14)

X (i ) S

i =1

Si ahora aplicamos estos resultados a la expresin de la ecuacin de Yule-Walker, definida mediante la expresin (5.13), en la que la estimacin S (n) determinaba los pesos en un
filtro digital finito cuando S(n) es un proceso dbilmente estacionario con media nula y sin
ruido, es decir que X(i) = S(n - i), con i = 1, 2, , N, el ECM, tal como fue definido, se expresa:

{[

]}

2
P ( N ) = E S ( n) S (n) = R SS (0)

h R
i

SS

(5.15)

(i )

i =1

Finalmente, volviendo a las consideraciones vectoriales, es interesante observar que,


por las condiciones de ortogonalidad:
E {( S S ) X (i )} = 0

E {( S S )} = 0

Por otra parte, dado que el estimador es una combinacin lineal de las observaciones, resulta:

E {( S S ) S} = 0

(5.16)

{ }

(5.17)

E {SS} = E S 2

en consecuencia, considerando la (5.16), el residual puede escribirse:

} {

} {

} {

} {

E ( S S ) 2 = E ( S S )( S S ) = E ( S S ) S E ( S S ) S = E ( S S ) S

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 9 de 31

y, teniendo en cuenta la (5.17), podemos establecer que:

} { } { }

E ( S S ) 2 = E S 2 E S 2

(5.18)

Esta ltima expresin, puede ser visualizada en el contexto de la figura 5.2; es decir, si
S = hX , entonces, lo expresado en la (5.18) es que S es la proyeccin de S sobre el hiperplano de las observaciones, con el error normal a la estimacin.
Ejemplo 5.3:
Hallar el residual del EMC para el estimador hallado en el Ejemplo 5.1
Solucin:
Usando la (5.14), obtenemos:

400
6
6
5
P (2) = E ( S S ) 2 = (0,01) 2 (3x10 5 )
(4 x10 ) 4,42 x10
5
81

Ejemplo 5.4:
Hallar el EMC residual para el Ejemplo 5.2
Solucin:
A partir de la ecuacin (5.15), obtenemos:

{[

P( N ) = E S (n) S (n)

] }= R
2

SS (0) aRSS (1)

= 1 a2

Ntese que, en este caso, el EMC es independiente de N

5.3 INNOVACIONES

Se introducir, a continuacin, el concepto de innovaciones. Al desarrollar el estimador vectorial lineal, se estableci la (5.11) como solucin para encontrar los coeficientes del
filtro ptimo que minimiza el ECM. La aplicacin de esta expresin puede conducir a expresiones que contengan matrices de dimensiones considerables; surge entonces el inters por
desarrollar algn mtodo alternativo de solucin que permita reducir las dimensiones de la
(5.11). Podra pensarse que si, en vez de utilizar el conjunto de observaciones X(1), X(2), ,
X(n) que frecuentemente contiene informacin redundante, utilizamos estrictamente el aporte
novedoso que pudieran contener estas observaciones, se arribara a expresiones ms compactas. Esta idea da lugar al enfoque de estimar la variable S utilizando las innovaciones contenidas en las observaciones X(1), X(2), , X(n). La metodologa resultante ser utilizada posteriormente en el desarrollo de los filtros de Kalman y Wiener.
En los desarrollos de este apartado consideraremos, por razones de simplicidad, valores medios nulos, es decir que:
E{S } = E{X (i )} = 0 ,
i = 1, , n
y que todas las variables poseen una distribucin conjunta de probabilidad Gaussiana. Si las
distribuciones no fueran Gaussianas, al considerar nicamente estimadores lineales se obtendran resultados similares.
Abordaremos el problema tratando el caso de un estimador ptimo S1 , en trminos una
nica observacin X(1) de la forma usual hasta aqu (ntese el uso de subndice para distinguir
los estimadores lineales al utilizar innovaciones), para luego ir agregando observaciones al
estimador obtenido.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 10 de 31

En el caso de disponer de una nica observacin, el estimador es de la forma:


S1 = h1 X (1)

Dado que las condiciones de ortogonalidad requieren que:


E{[S h1 X (1)]X (1)} = 0

resulta:
h1 =

E {SX (1)}

(5.19)

E X 2 (1)

Habiendo arribado a este resultado, similar al obtenido en (5.4), deseamos mejorar la


estimacin de S considerando, adems, X(2). Este problema ya ha sido abordado al considerar
el Estimador Vectorial Lineal de Mnimo ECM, pero ahora lo haremos desde el punto de vista
de las innovaciones; para ello definiremos, en primer trmino como innovacin VX(2) de X2 a
la parte impredecible de X(2); es decir:
V X (2) = X (2) E{X (2) | X (1)}

(5.20)

Se sabe, del estudio de las propiedades de las distribuciones Gaussianas multivariadas


que, en general:

X2 ( 2 )

E{X (2) | X (1)} = X ( 2 ) X (1) X (1) X ( 2)

X2 (1)

X2 ( 2 )

+ X (1) X ( 2 ) 2 X (1)
X (1)

En la que X(1)X(2) es el coeficiente de correlacin entre X(1) y X(2). En nuestro caso, dado que
tanto X(2) como X(1) poseen media nula, resulta:
E{X (2) | X (1)} = a1 X (1)

en la que:
a1 = X (1) X ( 2 )

X2 ( 2 )

2
X (1)

X (1) X ( 2 )

X2 ( 2 )

X2 (1) X2 ( 2 )

2
X (1)

X (1) X ( 2 )
X2 (1)

Ntese que este resultado tiene la misma forma que el obtenido en la ecuacin (5.4).
En definitiva, la (5.20) queda:
V X ( 2) = X (2) a1 X (1)
(5.21)
Deben destacarse, a partir de lo visto, las siguientes propiedades:
1. VX(2) es una combinacin lineal de X(1) y X(2).
adems:
2. E{V X (2)} = E{X (2) a1 X (1)} = 0
3. E {V X ( 2) X (1)} = E {[X ( 2) a1 X (1)]X (1)} = E {X ( 2) X (1)} a1 E {X 2 (1)}
X (1) X ( 2 ) 2
= X (1) X ( 2 ) a1 X2 (1) = X (1) X ( 2 )
X (1) = 0
X2 (1)
4. X ( 2) = V X ( 2) + a1 X (1)

(5.22)
(5.23)

Habiendo establecido la innovacin VX(2), se define el estimador S 2 de S sobre la base


de X(1) y la innovacin de X(2), en la forma ya estudiada; es decir:
S 2 = h1 X (1) + h2V X (2)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 11 de 31

en la que X(1) es la observacin anterior y VX(2) es la innovacin, o parte de X(2) impredecible


a partir del conocimiento de X(1).
Sabemos, a partir de la (5.22), que VX(2) y X(1) son ortogonales; as, la (5.10) puede
escribirse como:
X2 (1)
0 h1 SX (1)
=

2
V X ( 2) h2 SVX ( 2 )
0
con lo que h1 resulta:
h1 =

SX (1)

2
X (1)

E{SX (1)}

E X 2 (1)

tal como se haba establecido en la (5.19) para el caso de una nica observacin, en tanto que
h2 se expresa:
SV ( 2 ) E{SV X (2)}
(5.24)
h2 = 2 X =
VX ( 2)
E {V X2 (2)}
Ntese, que los valores esperados de las expresiones anteriores pueden ser calculados
con la ayuda de la (5.21).
Prosiguiendo con nuestro anlisis, incluiremos ahora el efecto de considerar X(3) al
agregar su innovacin VX(3). Por definicin, es:
V X (3) = X (3) E{X (3) | X (1), X (2)}

(5.25)

Ahora bien, dado que, de acuerdo a la (5.23), X(2) es una combinacin lineal de X(1) y
VX(2), el conocimiento de X(1) y X(2) es equivalente a conocer X(1) y VX(2); es decir:
E{X (3) | X (1), X ( 2)} = E{X (3) | X (1), V X ( 2)}

o, por la (5.25),

V X (3) = X (3) E{X (3) | X (1),V X (2)}

Adems, teniendo en cuenta que habamos considerado funciones de distribucin de


probabilidad Gaussianas de media nula, es:
E{X (3) | X (1), V X (2)} = b1 X (1) + b2V X (2)

en la que:
b1 =
b2 =

E{X (3) X (1)}

E X 2 (1)

E{X (3)V X (2)}

E V X2 ( 2)

En consecuencia, podemos escribir:


V X (3) = X (3) b1 X (1) b2V X (2)

En forma anloga a lo establecido para el caso de dos observaciones, se establecen las


siguientes propiedades:
1. VX(3) es una combinacin lineal de X(1), X(2) y X(3)
2. E{VX(3)} = 0
3. E{VX(3)X(1)} = E{VX(3)VX(2)} = 0

Finalmente, el estimador puede establecerse como:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 12 de 31

S 3 = h1 X (1) + h2V X (2) + h3V X (3)

con h1 y h2 definidos tal como en las ecuaciones (5.19) y (5.24) y h3 dado por:
h3 =

E{SV X (3)}
E V X2 (3)

Uso de Innovaciones en Estimadores Multivariable

El anlisis precedente puede ser extendido hacia el caso general, obtenindose el estimador:
S n =

h V
j

(5.26)

( j)

j =1

en el que:
V X (1) = X (1)
V X ( j ) = X ( j ) E{X ( j ) | X (1), L , X ( j 1)}

y
hj =

j = 2,3, ,n

E{SV X ( j )}

(5.27)
(5.28)
(5.29)

E V X2 ( j )

Finalmente, el ECM residual P(n) resulta, a partir de la ecuacin (5.18):

{[

P ( n ) = E S S n

] }= E {S } E {S }=
2

2
n

2
n

= E h jV X ( j )

j =1

2
S

= S2

h
2
j

j =1

2
VX ( j )

La ltima expresin surge a partir de la ortogonalidad entre VX(j) y VX(i), i j y permite


tener una expresin general para el error que complementa a las expresiones (5.26) y (5.29) en
la definicin de un estimador en trminos de las innovaciones. Puede demostrarse que el estimador obtenido es equivalente al estimador lineal vectorial de la seccin 5.1.
Definicin Matricial de las Innovaciones

Se describir la relacin general entre un conjunto de observaciones X(1), X(2), , X(n)


y las innovaciones VX(1), VX(2), , VX(n).
Como ya ha establecido, mediante las (5.27) y (5.28), se define la innovacin VX(i) de
X(i) como:
V X (1) = X (1)
V X (i ) = X (i ) E{X (i ) | X (1), L , X (i 1)} ,

i = 2, 3, , n

y, cindonos al caso Gaussiano de media nula, en el cual E{X (i ) | X (1),L, X (i 1)} es una funcin lineal, es decir:
E{X (i ) | X (1),L, X (i 1)} =

i 1

b X ( j)
j

j =1

vemos que VX(i) es una funcin lineal de X(i), X(i - 1), , X(1), es decir:

(5.30)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 13 de 31

V X (i ) = X (i )

i 1

X ( j)

j =1

La (5.28) puede ser reescrita como:


X (i ) = E{X (i ) | X (1), L , X (i 1)} + V X (i )

(5.31)

Dado que VX(i) es la parte impredecible de X(i), la ecuacin (5.31) descompone X(i) en una
parte predecible, que es la esperanza condicional, y una parte no predecible, que es la innovacin VX(i).
De acuerdo a las ecuaciones (5.28) y (5.30), la innovacin VX(i) es una funcin lineal
de X(n) de la forma:
V X (1) = X (1)
V X (2) = X (2) + (2,1) X (1)
V X (3) = X (3) + (3,1) X (1) + (3,2) X (2)
M

(5.32)

siendo las (i,j), constantes que sern especificadas posteriormente. Anlogamente, podemos
decir que X(n) es una funcin lineal de VX(n):
X (1) = V X (1)
X ( 2) = V X ( 2) + l ( 2,1)V X (1)
X (3) = V X (3) + l (3,1)V X (1) + l (3,2)V X ( 2)
M

en las que las l(i,j) son constantes que se especifican a partir de las (i,j).
Lo anterior puede escribirse en forma compacta expresando que:
VX(n) = X(n), siendo una transformacin lineal, o filtro
X(n) = L VX(n), siendo L otra transformacin lineal, o filtro

Las L y pueden obtenerse de la siguiente forma: en primer trmino, se busca una transformacin lineal tal que:
X = VX
(5.33)
en la que XT = [X(1), , X(n)]; es una matriz de dimensin n x n y VXT = [VX(1), , VX(n)]. Ntese, adems, que la matriz de covarianza de VX es diagonal (pues las innovaciones son incorrelacionadas).
Para que el filtro sea causal (es decir, realizable) y para guardar coherencia con lo expresado hasta aqu, debe ser una matriz triangular inferior, pues VX(1) debe depender solo de
X(1), VX(2) debe depender solo de X(1) y X(2) y as sucesivamente; o sea:
0
0
0 X (1) V X (1)
L
(1,1)
(2,1) (2,2)
0
0 X ( 2) V X (2)
L

(3,1) (3,2) (3,3) 0 L


0 X (3)

M
M
M
M
M
M


0


L (n, n) X (n) V X (n)
(n,1) (n,2) (n,3)

(5.34)

Las ecuaciones (5.33) y (5.34) son idnticas y generalizan los resultados obtenidos
mediante las ecuaciones (5.31) a (5.32).
Avanzando en el razonamiento, para que satisfaga las ecuaciones (5.27) y (5.28),
debe cumplirse que (i,i) = 1 y en particular, dado que la primera observacin es idntica a
VX(1), es:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 14 de 31

(1,1) = 1

Si recordamos que:
E{X(i)} = 0

i = 1, , n

la covarianza entre X(i) y X(j) se reduce a E{X(i)X(j)} = RXX(i,j) y puede hallarse (2,1) de la siguiente forma:
E{V X (1)V X (2)} = 0 = E{X (1)[ ( 2,1) X (1) + X (2)]}
= (2,1) R XX (1,1) + R XX (1,2) = 0

(2,1) =

R XX (1,2)
R XX (1,1)

(5.35)

Anlogamente, para resolver (3,1) y (3,2), se utilizan las ecuaciones:


E{V X (1)V X (3)} = 0

E{V X (2)V X (3)} = 0

y, repitiendo este procedimiento, se hallan todos los componentes de la matriz


Ejemplo 5.5:
Hallar la transformacin cuando E{X(n)} = 0
es:
1

X = 1
12
4

y la matriz de covarianza de X(1), X(2) y X(3)


1

2
1
1
2

1
4
1
2
1

Solucin:

Segn sabemos:
0
0
1

1
0
= (2,1)
(3,1) (3,2) 1

(2,1) se calcula a partir de la (5.35) usando X:


(2,1) =

1
R XX (1,2) 2 1
=
=
2
R XX (1,1)
1

(3,1) y (3,2) se calculan de:

E{V X (1)V X (3)} = 0

E{X (1)[ (3,1) X (1) + (3,2) X (2) + X (3)]} = 0

(3,1) + (3,2) + =0
y

E{V X (2)V X (3)} = 0


E{[ 12 X (1) + X (2)][ (3,1) X (1) + (3,2) X (2) + X (3)]} = 0
-(3,1) - (3,2)-1/8 + (3,1) + (3,2) + = 0

(3,2) = -

(5.36)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 15 de 31

El uso de este resultado en la (5.36), produce


(3,1) = 0
y, en consecuencia:
1 0
= 12 1
0 12

0
0
1

Hemos mostrado un procedimiento mediante el cual puede ser hallado un filtro (o


transformacin) que es la innovacin de X, si X tiene media nula. Si se hubiese considerado
un proceso no Gaussiano, entonces su transformacin podra haber producido variables aleatorias no correlacionadas y ortogonales, pero no necesariamente independientes.
Puede demostrarse que la matriz triangular inferior posee inversa, la cual tambin
ser triangular inferior. Si denominamos:
-1 = L
(5.37)
entonces:
X = L VX

Es decir, teniendo L definida por la (5.37), podemos recuperar X a partir de VX pasando a este ltimo a travs del filtro L.
Ejemplo 5.6:
Usando los resultados del Ejemplo 5.5, hallar L y X en trminos de VX.
Solucin:

L=

= 12
1 4

0
1
1

0
1

Luego:

X(1) = VX(1)
X(2) = VX(1) + VX(2)
X(3) = VX(1) + VX(2) + VX(3)

Revisin

En las secciones precedentes, se ha mostrado como hallar el mejor estimador de cierta


variable aleatoria S o de cierta secuencia S(n) con n como ndice temporal, en trminos de otra
secuencia correlacionada X(n). Este estimador es ptimo, pues minimiza el ECM entre S(n) y
el estimador S (n) . Sin embargo, este estimador solo es ptimo entre los estimadores lineales.
Existe una clase de estimadores ptimos no lineales, que no hemos tratado aqu por las limitaciones que presentan sus aplicaciones prcticas (exigen el conocimiento de las funciones de
distribucin conjunta de la secuencia observada).
Los estimadores lineales ptimos se basan en la proyeccin de la cantidad a ser estimada, S, sobre el espacio definido por las observaciones X(1), X(2), , X(n), de forma tal que el
error S S sea ortogonal a las observaciones. Dado que es importante conocer la bondad de
los estimadores hallados, se ha calculado el ECM o residual.
Finalmente, se ha introducido el concepto de las innovaciones VX(n) correspondientes a
una secuencia aleatoria Gaussiana X(1), X(2), , X(n); las que han quedado definidas como la
parte impredecible de X(n). Es decir, que la innovacin de X(n) es la diferencia entre X(n) y la

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 16 de 31

esperanza condicional E{ X(n)| X(1), X(2), , X(n-1)}. Dado que las innovaciones de una secuencia son mutuamente ortogonales, se ve que VX(n) es la parte de X(n) que es ortogonal al
espacio definido por X(1), X(2), , X(n-1). La ortogonalidad de las innovaciones, permite que la
ponderacin, o peso, de cada innovacin pueda ser calculada independientemente de las otras.

5.4 FILTROS PARA SUCESIONES ALEATORIAS

Al considerarse el problema de estimar una secuencia aleatoria S(n) a partir de cierta


secuencia aleatoria observada X(m), suele adoptarse la siguiente terminologa:
1. Si es posible observar una secuencia de X(m) muestras y se busca estimar el valor
de S(n), siendo m < n, estamos ante un problema de prediccin. Si, en particular, se
trata el caso en que X(j) = S(j) se lo denomina problema de prediccin pura (sin ruido).
2. Si es posible observar una secuencia de X(m) muestras y se busca estimar el valor
de S(n), siendo m n, estamos ante un problema de filtrado. Solo en el caso en que
m = n, el proceso es llevado a cabo en tiempo real y recibe el nombre de causal o
realizable. En general, cuando m > n, los datos deben almacenarse previamente y
constituyen un filtro no causal.

Figura 5.3: Variantes de estimadores

En las prximas secciones, se discutir la forma que asumen los estimadores ptimos
ya analizados cuando se los utiliza para predecir y filtrar digitalmente secuencias aleatorias.

5.5 FILTROS DIGITALES DE WIENER

En esta seccin, a menos que se diga lo contrario, todos los procesos involucrados en
nuestro anlisis son dbilmente estacionarios y con media nula.
Filtros Digitales de Wiener con Datos Almacenados

Para representar la relacin entre la medicin X y la seal S se considera el modelo


simple ya utilizado que denominamos modelo de ruido aditivo, el que se representa como:
X(n) = S(n) + (n)

Siendo S(n) la secuencia aleatoria de media nula correspondiente a la seal y (n) una
secuencia de ruido blanco con media nula. Adems, se considera que S(n) y (n) son incorrelacionadas; bajo estos supuestos, S(n) y (n) son ortogonales.
Consideramos que los datos se encuentran almacenados y X(n) est disponible para todo n; es decir que, en principio, el filtro puede no ser de longitud finita.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 17 de 31

Bajo estos supuestos, el estimador ptimo (el que minimiza el ECM), tiene la forma:

S =

h( k ) X ( n k )

(5.38)

k =

Segn se ha definido, el ECM:

{[

]}

2
E S (n) S (n)

puede ser minimizado mediante la aplicacin de las condiciones de ortogonalidad establecidas


en el apartado anterior y que, para este caso, resultan:

E S ( n)
h( k ) X ( n k ) X ( n i ) = 0

k =

lo que conduce a:

h( k ) R

R XS (i ) =

XX

(i k )

(5.39)

k =

Si tomamos transformada de Fourier a ambos lados de la (5.39), resulta:


SXS(f) = H(f)SXX(f)

|f| <

o bien:
S XS ( f )
S XX ( f )

H( f ) =

(5.40)

|f| <

Por su parte, el ECM resultante, o residual, es:

{[

P = E S (n) S ( n)
= RSS (0)

] }= E S (n) h(k ) X (n k ) S (n)

h( k ) R

k =

(k )

SX

(5.41)

k =

Si, de acuerdo a lo definido en la (5.14), es:

P ( m) = R SS ( m)

h( k ) R

SX

(m k )

(5.42)

k =

entonces, lo expresado mediante la (5.41) es P = P(0). Si tomamos transformada de Fourier a


ambos lados de la ecuacin (5.42), obtenemos:
PF(f) = SSS(f) H(f)SSX(f)

|f| <

Luego:
+1 / 2

P ( m) =

( f ) exp(+ j 2fm )df

1 / 2

y
+1 / 2

P = P ( 0) =

[S

SS

( f ) H ( f ) S SX ( f )]df

(5.43)

1 / 2

Ahora bien, en cualquier caso prctico, dado que las memorias son finitas, la suma de
la ecuacin (5.38) debe ser finita de modo que puedan ser aplicados los mtodos desarrollados
en el apartado 5.1. En efecto, la inversin de la matriz resultante de las (5.39) es imposible,
debido a la suma de infinitos trminos y, por lo tanto, no hay solucin para h(k).

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 18 de 31

Sin embargo, cuando RXX(m) = 0 para |m| > M, entonces la ecuacin (5.39) se reduce a
una matriz de dimensin 2M + 1, que puede ser invertida para permitir obtener los coeficientes
del filtro: h(-M), h(-M+1), , h(0), , h(M).
Ejemplo 5.7:
Si X(n) = S(n) (es decir, sin ruido), hallar el filtro no causal ptimo H(f) y P.
Solucin:

A partir de la ecuacin (5.40), obtenemos:


H( f ) =

S SS ( f )
=1
S XX ( f )

y, usando la (5.43)
+1 / 2

[S

P = P ( 0) =

SS

( f ) S SS ( f )]df = 0

1 / 2

Obviamente, si S(n) puede ser observada sin adicin de ruido, entonces la estimacin ser igual
a la seal y, en consecuencia, H(f) = 1 h(n) = (n) con el error residual P = 0.

Filtros Digitales de Wiener Causales

Consideraremos el mismo problema de la seccin anterior, excepto que ahora buscamos un estimador de la forma:
S (n) =

h( k ) X ( n k )
k =0

El filtro, as definido, es un filtro realizable o causal; es decir que para su realizacin


solo es necesario conocer valores actuales y pasados de X para estimar la secuencia S(n). En
este caso, desde el punto de vista conceptual, el filtro puede ser realizado en la forma en que
se muestra en la figura 5.4. Si, de hecho, luego de un retardo mayor a M, la correlacin entre
muestras y seal es cero, o sea:
RSX(m) = 0,
|m| > M

Figura 5.4: Esquema de un filtro digital

el filtro puede ser implementado mediante M retardos y M + 1 amplificadores, resultando, entonces, un filtro realizable o causal, de respuesta finita. El filtro buscado es, en el caso en que
se cuenta con las observaciones X(0), X(1), , X(n), de la forma:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 19 de 31

S (n) =

X (n k )

k =0

cuya solucin es la ya presentada en la ecuacin (5.11), es decir:


h = R XX1 R XS

(5.44)

en la que:
hT = [h0, h1, , hn]

R XX

L
R XX (1)
R XX (n)
R XX (0)
R (1)
R XX (0) L R XX (n 1)
= XX
M

M
M

R XX (0)
R XX (n) R XX (n 1) L

R TXS = E{S ( n)[X (n), X (n 1),L, X (0)]} = [RSS (0), RSS (1),L, RSS ( n)]

(5.45)

Pues, para cada producto:


E{S (n) X (n i )} = E{S (n)[S (n i ) + (n i )]} = RSS (i ) + E{S (n) (n i )}

en la que el ltimo sumando se anula debido a la independencia entre seal y ruido de observacin.
Bajo las condiciones establecidas, se dice que la expresin (5.11), o la (5.44), define
los pesos de un filtro discreto de Wiener finito. El ECM, para este caso, est dado por la
(5.15); es decir:
P (n) = RSS (0)

h R
i

SS (i )

i =1

Ejemplo 5.8:
Sea S(n) un conjunto de funciones constantes en el tiempo con E{S(n)} = 0 y E{S2(n)} = s2.
Por su parte, X(n) = S(n) + (n), siendo (n) una secuencia de ruido blanco con media nula y
E{2(n)} = 2.
Si X(n 1) es la ltima observacin (es decir, ho = 0), hallar los coeficientes h del estimador y el
residual P(n) como funcin de n.
Solucin:

Nuestro objetivo es hallar los coeficientes del estimador:


S (n) =

X (n k )

k =1

A fin de poder usar la (5.44), establecemos los valores de RXS(k) y RXX(k). Considerando la
(5.45), es:
RXS (k ) = RSS (k ) = E{S (n) S (n + k )} = E S 2 (n) = S2
Por otra parte:

R XX (k ) = E{X (n) X (n + k )} = E{[S (n) + (n)][S (n + k ) + (n + k )]}

R XX ( k ) = E{S ( n) S (n + k )} + E{ (n) (n + k )} + E{S (n) (n + k )} + E{ (n) S (n + k )}

} {

R XX (k ) = E S 2 (n) + E 2 (n) = S2 + 2 (k )
en la que se introduce:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 20 de 31

k =0
k0

1
0

(k ) =

para que la expresin tenga validez ante independencia entre las muestras de ruido.
Reemplazando ahora en la (5.44), se llega a trminos de la forma:
n

S2 h j + hi 2 = s2

(5.46)

j =1

para poder despejar hi, se suma ahora miembro a miembro esta expresin para i = 1 a n, resultando:
n S2

+ 2

j =1

= n S2

i =1

es decir:
n

hj =

j =1

n S2
n S2 + 2

Usando este resultado en la (5.46) se obtiene:


n S4
n +
2
S

+ hi 2 = S2

o, definiendo al recproco de la relacin seal-ruido como = 2 / s2 = 1/RSR

S2

hi =

n +
2
S

1
n +

i = 1, , n ; =1/

Ntese que todos los hi son de la misma forma, tal como poda esperarse, debido a que S es una
constante y a que el ruido es estacionario. Ntese, adems, que los pesos hi cambian (decrecen)
al aumentar el ndice n.
El filtro discreto de Wiener resultante es, entonces, de la forma:
S (n) =

n + X (i) = n + X
1

i =1

i =1

La ltima expresin, muestra que S (n) es la suma ponderada de las observaciones. Si la relacin
ruido-seal es pequea comparada con n, entonces S (n) es simplemente el promedio de las
observaciones.
Finalmente, destaquemos que el residual P(n) est dado por la ecuacin (5.15), es decir:
P (n) = S2

2
S

j =1

2
1
n
= S2 1
=

n +
n + n +

Se ve que tambin decrece al aumentar n

Ejemplo 5.9:
Dadas las observaciones X(0), , X(n); n 2, las que son de la forma X(n) = S(n) + (n), considerando que seal y ruido son incorrelacionados, con:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 21 de 31

R SS (0) = 3

R SS (1) = 1

2
1
R SS (2) =
4
R SS (n) = 0

n>2

1
R (n) = 4
0

n=0
n0

Hallar el filtro realizable ptimo para S(n)


Solucin:
Los coeficientes del filtro surgen de aplicar la (5.44):

R XX h = R XS

en la que:

R XS (k ) = RSS (k )
R XX (k ) = RSS (k ) + R (k )

de los que resulta:

R XX (0) = 1
R XX (1) = 1

2
1
R XX (2) =
4
R XX (n) = 0

n>2

si se introducen estos valores en la (5.44), resulta:


1

12
1
4

h0 3
4
1 h = 1
2 1
2

1 h2 1

2
1
1
2

0 3 2
h0 4 3 2 3

4 3
2
5
1
2

= 1
h1 = 3
3
3 2 6

h
1
4
0
2
2 0
3
3 4
A partir de lo cual se verifica que solo hay dos pesos (h) que son distintos que cero y son la solucin al problema planteado.
Es decir que, el filtro buscado es de la forma:

S (n) = 2 X (n) + 1 X (n 1)
3
6
Esta expresin est representada en la figura 5.5 y recibe, usualmente, la denominacin de Filtro de Wiener Discreto Finito.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 22 de 31

Figura 5.5: Filtro ptimo del ejemplo 5.9

5.6 FILTRO DE KALMAN

Cuando Rudolf Kalman present formalmente su propuesta de filtrado en 1960; las


computadoras digitales estaban en pleno desarrollo y existan muchas aplicaciones potenciales
para este algoritmo que es, descriptivamente, simple. Desde es momento, y a pesar que la
aplicacin prctica de este filtro requiere un cuidadoso modelado estadstico y cierta precisin
numrica, el filtro de Kalman ha tenido amplia aceptacin y ha permitido resolver un gran
nmero de problemas prcticos en campos tan diversos como navegacin, telecomunicaciones, geologa, oceanografa, control industrial, estimaciones demogrficas, etc.
Descripcin Conceptual

El filtro de Kalman es un filtro digital recursivo que permite realizar una estimacin
ptima, en tiempo real, de los estados de un sistema a partir de mediciones ruidosas. Estos
estados comprenden todas las variables necesarias para describir completamente el comportamiento de un sistema en funcin del tiempo. Las mediciones ruidosas pueden ser interpretadas, en el caso vectorial general, como una seal multidimensional con ruido, siendo los estados del sistema las seales desconocidas buscadas. Las estimaciones realizadas mediante el
filtro de Kalman son estadsticamente ptimas, en el sentido que minimizan el error cuadrtico medio de la estimacin. Este filtro representa una mejora sustancial respecto a su predecesor entre los filtros de mnimo ECM, el ya presentado filtro de Wiener, que es de aplicacin
limitada a seales de tipo estacionario.
El Filtro de Kalman consiste, esencialmente, en un conjunto de ecuaciones matemticas ordenadas para implementar un algoritmo recursivo de clculo. Conceptualmente, podemos decir que, a partir de una estimacin inicial (de estados y del error residual), el filtro calcula los pesos (ganancias de Kalman) que sern utilizados para ponderar la combinacin de la
nueva informacin en relacin a la estimacin previa para obtener una nueva estimacin (ptima) de estados.
Las mediciones (en cada ciclo) son vectores que el algoritmo recursivo procesa en
forma secuencial. Es decir, que el algoritmo se repite en cada ciclo con un nuevo conjunto de
mediciones, utilizando nicamente los valores almacenados de la iteracin anterior. Este procedimiento lo diferencia de otros algoritmos de procesamiento que deben almacenar todas las
mediciones previas.
Dado que el filtro establece una estimacin actualizada de estados a partir de las ltimas mediciones disponibles, debe actualizarse tambin el error residual, de forma que refleje
la nueva informacin agregada, reduciendo la incertidumbre.
Finalmente, para poder procesar el prximo vector de medicin, el filtro debe proyectar la estimacin de estados y su covarianza asociada para el siguiente perodo.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 23 de 31

Puede observarse que, al procesarse en forma recursiva las mediciones, la incertidumbre de las estimaciones de los estados (o error residual) debiera ir decreciendo, lo que en general ocurre. Si embargo, dado que en el paso de prediccin se pierde algo de informacin, en
ciertos casos la incertidumbre puede tender a cierto estado estacionario. En otros, si en la medicin no hay ruido aleatorio, la incertidumbre tiende a cero.
Dado que la incertidumbre en la estimacin de estados vara en el tiempo, tambin lo
harn las ganancias; as, en trminos generales, podemos decir que el filtro de Kalman es un
filtro digital de ganancia variable.
Si el estado de un sistema es constante, el filtro de Kalman se reduce a una forma recursiva de solucin del problema de mnimos cuadrados.
En lo que resta del captulo, veremos una descripcin general del filtro, discutiremos
brevemente las ventajas de los filtros recursivos y desarrollaremos el algoritmo para el filtro
ptimo de Kalman en el caso escalar.
Descripcin General del Filtro

Como ya se ha mencionado, los Filtros de Kalman han mostrado su efectividad en


numerosas aplicaciones prcticas; trabajan con seales no estacionarias y su forma recursiva
es fcil de implementar.
En el desarrollo del filtro de Kalman, adoptaremos la siguiente notacin: S(n), la seal,
es una secuencia Gaussiana de media nula descripta mediante un modelo autorregresivo de
primer orden ( Markov) de la forma:
S(n) = a(n)S(n 1) + W(n)

(5.47)

en la que a(n) es una serie de constantes conocidas y W(n) es ruido blanco. En caso que S(n)
sea una secuencia aleatoria estacionaria, las a(n) se mantendrn constantes con n. No obstante,
a(n) puede variar con n al considerarse una secuencia no estacionaria (recordemos que los
filtros de Wiener no son aplicables en caso de secuencias no estacionarias).
El modelo dado por la (5.47) puede ser extendido a un modelo de orden superior tipo
ARMA de la forma:
S ( n) =

[a(n) S (n i) + W (n + 1 i)]
i

i =1

En este caso, la ecuacin en diferencias de orden superior se transforma a modelo de


estado de la forma:
S(n) = A(n)S(n 1) + W(n)
(5.48)
Se denomina a las ecuaciones tal como (5.47) y (5.48), que describen a S(n), modelo
de seal o modelo de estado.
Por otra parte, se considera que las observaciones X(n) son de la forma:
X(n) = S(n) + (n)

(5.49)

en la que (n), ruido de la observacin, es ruido blanco, independiente tanto de W(n) como de
S(n). Denominamos a la (5.49) modelo de las observaciones.
Dado que, en nuestro caso, la bsqueda la orientaremos hacia un filtro ptimo de tipo
recursivo, de forma que pueda ser fcilmente implementado en computadora con bajo requerimiento de capacidad de almacenamiento, definiremos su forma general.
Estimadores Recursivos

Sea S(n) una constante desconocida cuyo valor se desea estimar a partir de un conjunto
de observaciones X (1), L , X (n) de la forma: X(n) = S(n) + (n), en la que (n) es ruido blanco

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 24 de 31

estacionario con media nula. Si se considera que un estimador lineal es apropiado (por ejemplo, si X es Gaussiano), se podra proponer que la estimacin S (n) sea, directamente, el promedio de las observaciones; as, la estimacin de S(n + 1) sera:
1
S (n + 1) =
n

X (i) =
i =1

X (1) + X ( 2) + L + X ( n 1) + X (n)
n

(5.50)

El problema que presenta esta forma de estimador se relaciona con la cantidad de memoria requerida para almacenar las observaciones, que crece con n. Esto puede solucionarse
simplemente expresando la estimacin dada por la (5.50) en forma recursiva. Si:
X (1) + L + X (n 1)
S (n) =
n 1

entonces, la (5.50) puede ser expresada como:


X (1) + L + X (n 1) X (n) n 1
1
S (n + 1) =
S ( n) + X ( n)
+
=
n
n
n
n

Esta implementacin del filtro solo requiere que sean almacenadas la estimacin previa y la nueva observacin. Ntese, adems, que el estimador es una combinacin lineal entre
la nueva informacin y la ltima estimacin. Cuando desarrollemos el filtro de Kalman, hallaremos que tiene una forma similar.
Filtro de Kalman Escalar

Reiterando las consideraciones ya establecidas:


1. La seal es descripta por: S(n) = a(n)S(n 1) + W(n).
2. W(n) es una secuencia de ruido blanco Gaussiano con media nula, denominada ruido de la
seal. Se considera que la varianza de W(n) es conocida y se la denota por W2 ( n) .
3. S(n) es una variable aleatoria Gaussiana independiente de la secuencia W(n). Se asume que

su varianza es conocida.
4. a(n) es un conjunto de constantes conocidas.

En sntesis, S(n) es una secuencia auto regresiva de primer orden, o secuencia


Gauss-Markov. Adems, tiene forma de ecuacin de estado de primer orden.
5. Las observaciones son de la forma: X(n) = S(n) + (n)
6. (n) es, tambin, una secuencia de ruido blanco Gaussiano con media nula, independiente,
tanto de la secuencia W(n) como de S(n). Su varianza es: 2 (n)

El objetivo es hallar un predictor lineal de mnimo ECM para S(n + 1), a partir de las
observaciones X (1), L , X (n) .
A partir de las consideraciones Gaussianas sobre los modelos de seal y observacin
utilizados, sabemos que el estimador lineal ptimo es el establecido en la seccin 5.2, de forma:
S (n + 1) = E {S ( n + 1) X (1), L , X (n)} =

h X (i)
i

(5.51)

i =1

y, dado que sabemos que las observaciones X son linealmente equivalentes a las innovaciones
VX, podemos escribir, tal como se estableci en la seccin 5.3, una forma equivalente a la
(5.51), haciendo:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 25 de 31


n

S (n + 1) =

h V
j

(5.52)

( j)

j =1

Debemos ahora, sin perder de vista nuestro objetivo de hallar una forma recursiva para
el estimador, hallar los valores de hj, teniendo en cuenta que, por ortogonalidad:
2 ( j )
E {V X ( j )V X ( k )} = V
0

j=k

(5.53)

jk

El procedimiento para establecer una forma operativa del estimador comprende:


1.
2.
3.

Demostrar que el filtro de Kalman ptimo es una combinacin lineal de una actualizacin
del estimador previo, ms la innovacin ponderada de la observacin ms reciente.
Hallar una expresin recursiva para el error.
Hallar una expresin recursiva para las ponderaciones a ser utilizadas en la combinacin
lineal.

El procedimiento indicado es vlido tanto para el caso escalar considerado, como para
el ms general caso vectorial.
Combinacin lineal del estimador previo y la innovacin. Consideremos, para comenzar, el error S ( n + 1) S ( n + 1) , el cual es ortogonal a las observaciones X(j), con j n.
Dado que la innovacin VX(j) es una combinacin lineal de las X(j), con j n, el error ser tambin ortogonal a VX(j) con j n, es decir:

{[

E S ( n + 1) S ( n + 1) V X ( j ) = 0

y, en consecuencia:

E{S (n + 1)V X ( j )} = E S (n + 1)V X ( j )

(5.54)

A partir de las ecuaciones (5.52) y (5.53) se establece que para cada j = 1, , n, del trmino de la derecha de la (5.54), es:

E S (n + 1)V X ( j ) = h j V2 ( j )

As, de la (5.54), se obtiene:


hj =

E{S (n + 1)VX ( j )}
V2 ( j )

(5.55)

la cual, si es aplicada en la (5.52), permite obtener:


S (n + 1) =

j =1

E{S (n + 1)V X ( j )}
V X ( j)
V2 ( j )

(5.56)

Ntese, que la expresin obtenida mediante la (5.55) asume la forma ya vista, tanto para los
coeficientes del estimador vectorial lineal como para los coeficientes del estimador basado en
innovaciones.
Para arribar a la forma recursiva usaremos el modelo de seal dado por la (5.47); as:
E{S (n + 1)V X ( j )} = E{[a ( n + 1) S (n) + W (n + 1)]V X ( j )}

= a (n + 1) E{S (n)V X ( j )} + E{W (n + 1)V X ( j )}

(5.57)

Sin embargo, el ltimo trmino de la (5.57) es nulo; en efecto, dado que W(n + 1) es independiente de S(k) para k n, se verifica que:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 26 de 31

E{W (n + 1) S (k )} = 0

kn

Considerando el modelo de las observaciones para la ltima expresin, resulta:


E{W (n + 1)[ X (k ) (k )]} = 0

kn

E {W (n + 1) X (k )} E {W (n + 1) (k )} = E{W (n + 1) X (k )} = 0

kn

pues W(n + 1) es independiente de (k) para todo k y n. Finalmente, dado que VX (j) es una combinacin lineal de las X(k), con k j, se verifica que:
E{W (n + 1) X (k )} = E{W (n + 1)V X ( j )} = 0

jn

que es lo que se quera probar.


Se puede ahora reemplazar la (5.57) resultante en la (5.56), obtenindose:
S (n + 1) = a (n + 1)

j =1

E{S (n)V X ( j )}
VX ( j)
V2 ( j )

(5.58)

Volviendo a la (5.56), podemos decir que es vlida para cualquier valor de n y, en particular, para n + 1 = n; resultando:
S (n) =

n 1

j =1

E{S (n)V X ( j )}
V X ( j)
V2 ( j )

Utilizando este resultado en la (5.58), podremos obtener la expresin recursiva buscada; en


efecto,

E{S (n)V X (n)}


S (n + 1) = a ( n + 1) S (n) +
V
n
(
)

X
V2 (n)

Si se define:
k ( n) =

(5.59)

E{S (n)VX (n)}


V2 (n)

se puede reescribir la (5.59) de la forma:

S (n + 1) = a (n + 1) S (n) + k (n)V X (n)

(5.60)

S (n + 1) = a (n + 1) S (n) + a (n + 1)k (n)V X (n)

(5.61)

La (5.60) muestra que la estimacin inicial de la etapa n es mejorada por la innovacin


de la observacin en dicha etapa, ponderada mediante una ganancia k(n). El factor a(n + 1) se
utiliza para proyectar al estimador ptimo de la etapa n como estimador de la etapa siguiente,
n + 1. Este estimador (denominado forma predictiva del Filtro de Kalman), podra utilizarse si
no hubiera observacin en la etapa n + 1.
Ahora bien, recordando la definicin de la innovacin:
V X ( n ) = X ( n ) E {X ( n ) | V X (1),L,V X ( n 1)}

y, dado que se demuestra que S (n) es un estimador lineal de mnimo ECM de la forma:
S ( n ) = E{X ( n ) | V X (1),L,V X ( n 1)}

se puede concluir que:


V X ( n ) = X ( n ) S ( n )

(5.62)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 27 de 31

lo cual permite reescribir la (5.60) de la forma:


S (n + 1) = a (n + 1){[1 k (n)]S (n) + k (n) X ( n)}

(5.63)

para mostrar que el mejor estimador de la etapa n (el trmino entre llaves) es una combinacin
lineal del estimador S (n) y la observacin X(n).
Antes de tratar de hallar el valor de k(n), buscaremos una forma recursiva para la expresin del error.
~

Expresin recursiva para el error. Definimos el error S (n) como:


~
S (n) = S (n) S (n)

(5.64)

~
P(n) = E S 2 (n)

(5.65)

Por otra parte, a partir de la (5.62) y usando el modelo de observaciones dado por la
(5.49), escribimos:
V X (n) = S (n) + (n) S (n)
(5.66)
para obtener, utilizando la definicin de la (5.64),
~
V X ( n) = S ( n) + ( n)

Si, por otra parte, se plantea:

{
{
{[

}
}

~
E {S ( n )V X ( n )} = E S ( n ) S ( n ) + E {S ( n ) ( n )}
~
= E S (n)S (n)
~
~
= E S ( n ) + S ( n ) S ( n )

~
y, dado que el trmino E S (n) S (n) se anula por ortogonalidad, resulta:

~
E {S ( n )V X ( n )} = E S 2 ( n ) = P ( n )

(5.67)

En la etapa siguiente, por la (5.64) y la (5.65), ser:

} {[

]}

2
~
P (n + 1) = E S 2 (n + 1) = E S (n + 1) S ( n + 1)

Ahora, si usamos la (5.61) para S (n + 1) y el modelo de seal para S(n + 1), obtenemos:

{[
]}
= E {[a (n + 1)[S (n) S (n)] a (n + 1)k ( n)V (n) + W (n + 1)] }

2
P (n + 1) = E a(n + 1) S (n) + W (n + 1) a(n + 1) S (n) a (n + 1)k ( n)V X (n)
2

P (n + 1) = a 2 ( n + 1) P (n) + a 2 (n + 1)k 2 (n) E V X2 (n) + W2 (n + 1) + 2a 2 (n + 1)k (n) E S (n)V X (n)


2a 2 (n + 1)k (n) E{S (n)V X (n)} 2a(n + 1) E W (n + 1) S (n) S ( n) 2a( n + 1) k (n) E{V X (n)W (n + 1)}

]}

Ahora bien, en la ltima expresin, el cuarto trmino se anula por definicin de innovaciones y por el hecho que S (n) es una combinacin lineal de VX(1), , VX(n - 1). De igual
modo, los dos ltimos trminos son cero pues W(n + 1) es ortogonal a S(n), S (n) y VX(n). Con
estas consideraciones, y usando la (5.67), se obtiene:

P (n + 1) = a 2 (n + 1) P (n ) + a 2 (n + 1)k 2 (n ) E V X2 (n) + W2 ( n + 1) 2a 2 ( n + 1)k ( n) P ( n)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 28 de 31

pero, por la (5.66),

{[

]}

2
E V X2 (n) = E S (n) + (n) S (n) = P (n) + 2 (n)

lo que conduce a:

P ( n + 1) = a 2 (n + 1) P ( n) + a 2 ( n + 1) k 2 ( n) P ( n) + 2 (n) + W2 ( n + 1) 2a 2 ( n + 1) k (n) P ( n)

P (n + 1) = a 2 (n + 1) [1 k (n)] P( n) + k 2 ( n) 2 (n) + W2 (n + 1)
2

(5.68)
(5.69)

La ecuacin (5.69) es la expresin recursiva para el residual; es decir que P(n + 1) es el


error en la etapa (n + 1), obtenido a partir de las observaciones de la etapa n.
Ponderacin (ganancia) que minimiza el ECM. Finalmente, se buscar el valor de la
ponderacin k(n) de la observacin X(n), necesaria para la (5.63). Se reordena la (5.68) de forma tal que el valor hallado minimice el residual (o ECM) P(n + 1); es decir:

2 ( n + 1)
P (n + 1) = a 2 (n + 1) k 2 ( n) P ( n) + 2 ( n) 2a 2 ( n + 1)k (n) P ( n) + P (n) + W2

a ( n + 1)

Si se denomina:
D 2 = P (n) + 2 (n)

y
C = P ( n) +

resulta:

W2 (n + 1)
a 2 (n + 1)

P(n + 1) = a 2 (n + 1) k 2 (n) D 2 2 P(n)k ( n) + C

(5.70)

Si expresamos, en la (5.70), el trmino del corchete como el cuadrado de una diferencia, podemos escribir que:
2
P (n + 1) = a 2 (n + 1)[k (n) D B ]
(5.71)
en la que debe verificarse, comparando la (5.71) con la (5.70), que 2k(n)BD = 2P(n)k(n) y que
C = B2.
Se ve, en la (5.71), que para minimizar P(n+1) debo anular el corchete, lo que se logra
haciendo que:
k ( n) =

B
D

es decir que:
k ( n) =

P ( n)
P(n) + 2 (n)

(5.72)

Con la (5.72), que recibe el nombre de ganancia de Kalman, se completa el conjunto de ecuaciones necesarias para establecer el Filtro de Kalman escalar.
A modo de consideracin final, si se reemplaza el valor hallado para k(n) en la (5.69) y
se opera, se obtiene:
P (n + 1) = a 2 (n + 1)[1 k (n)]P (n) + W2 (n + 1)
(5.73)
Recapitulando, en primer trmino habamos adoptado, para describir la seal (o estado), el
modelo dado por la (5.47):
S(n) = a(n)S(n 1) + W(n)

y, para describir las observaciones, la (5.49):


X(n) = S(n) + (n)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 29 de 31

A partir de consideraciones acerca de estos modelos se estableci entonces el filtro


mediante expresiones, para la estimacin (5.63):
S (n + 1) = a (n + 1){[1 k (n)]S (n) + k (n) X ( n)}

para el error cuadrtico medio (5.73):


P (n + 1) = a 2 ( n + 1)[1 k (n)]P (n) + W2 (n + 1)

y para la ganancia de Kalman (5.72):


k ( n) =

P ( n)
P (n) + 2 (n)

El diagrama en bloques del filtro resultante se muestra en la figura 5.6.

Figura 5.6: Esquema de un filtro de Kalman escalar

Para la ejecucin del algoritmo, se consideran, como valores de inicializacin, los siguientes:
n=1
2
2
P(1) = 2 (en general, se asume un valor que sea mayor que y que )
S (1) = S (usualmente se considera nulo el valor inicial)

En el primer paso del algoritmo se calcula k(n); a continuacin se revisa el valor de


S (n) introduciendo la nueva informacin, es decir, la innovacin aportada por X(n); esta revisin es proyectada a la prxima etapa mediante a(n+1). Finalmente, al error de la etapa P(n) se
lo multiplica por [1 k(n)], se lo proyecta hacia la prxima etapa multiplicndolo por a2(n+1) y
se le adiciona la contribucin de la varianza del ruido de seal.
Reiteramos que, a fin de inicializar el algoritmo en n = 1 (correspondiente a la primera
observacin X(1)), se requiere asignar valores a P(1) y S (1) y lo usual es considerar S (1) = 0 y
que P(1) W2 (1) y P(1) 2 (1) .
Ejemplo 5.10:
Consideremos S(n), una secuencia de seal descripta por:
S (n) = 0,6 S (n 1) + W (n)
y un conjunto de observaciones:

X ( n) = S ( n) + ( n)

Sean W(n) y (n) secuencias independientes y estacionarias de ruido blanco con:

W2 (n) = 14

2 (n) = 1 2

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 30 de 31

Hallar el Filtro de Kalman Escalar correspondiente.


Solucin:
La primera observacin es X(1). Se adoptan como valores iniciales: S (1) = 0; P(1) = 1
Se siguen los pasos indicados en el ltimo prrafo:

k (1) =

{[

P(1)
1
=
=2
2
3
P (1) + 1 + 1
2

]* 0 + 2 3 X (1)}= 0,4 X (1)


P(2) = (0,6) [1 2 ]* 1 + 1 = 0,37
3
4

S (2) = (0,6) 1 2

El ciclo siguiente es:


k ( 2) =

{[

S (3) = (0,6) 1 37

87

P (2)
37
0,37
=
=
0,425
2
1
87
P(2) + 0,37 +
2

]* 0,4 X (1) + 37 87 * X (2)}= (0,6){S (2) + 37 87 [X (2) S (2)]}

(0,6){0,4 X (1) + 0,425 X ( 2) 0,17 X (1)}


(0,6){0,23 X (1) + 0,425 X (2)}
0,138 X (1) + 0,255 X ( 2)

P (3) = 0,36

50
(0,37) + 1 = 0,326
4
87

Si a(n) no vara con n y tanto W(n) como (n) son estacionarias (es decir, que tanto
(n) como 2 (n) son constantes), k(n) y P(n) tienden a valores lmite a medida que n .
Estos lmites pueden ser establecidos a partir de la aplicacin de la (5.72) y considerando que
en la (5.73) P(n + 1) = P(n) = P
En efecto:
2
W

P = a 2 (1 k ) P + W2

k=

P
P + 2

Luego:
2
P = a 2
2
P +

P + W2

Si resolvemos la ecuacin cuadrtica en P precedente y consideramos valores positivos, se llega a:


lim P (n) = P =

) [

)]

W2 + 2 a 2 1 + W2 + 2 a 2 1

+ 4 2 W2

Usando este valor en la (5.72) obtenemos la ganancia de Kalman de estado estacionario(o rgimen permanente) k.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 5 Pg. 31 de 31

Ejemplo 5.11:
Usando los datos del Ejemplo 5.11, hallar los valores lmite de k y P:
Solucin:

0,25 + 0,5(0,36 1) +

[0,25 + 0,5(0,36 1)]2 + 0,5


2

k=

0,32
0,390
0,32 + 0,5

0,320

También podría gustarte