Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ndice
Conceptos bsicos
Calidad de los estimadores
Cota de Cramer Rao
Estimador de mxima verosimilitud
Estimador bayesiano
Estimador lineal de error cuadrtico medio mnimo
1. Conceptos bsicos
Teora de la Estimacin: Rama del procesado de seales y la
la medida o estima.
1. Conceptos bsicos
Estimador
*(z)
1. Conceptos bsicos
Modelo en Teora de la Deteccin (caso binario):
1. Conceptos bsicos
Diferencias entre Teora de la Deteccin y Teora de
la Estimacin:
En los problemas de deteccin, los parmetros
1. Conceptos bsicos
El parmetro cuyo valor desconocido queremos estimar
x ( t ) = Acos( 0 t + )
, es variable aleatoria
1. Conceptos bsicos
Los datos se generan atendiendo a la f.d.p. definida en el
1. Conceptos bsicos
El estimador puede interpretarse como un instrumento de
siguientes factores:
ndice
Conceptos bsicos
= *
El error de estimacin es una v.a., ya que el estimador tiene
S( * ) = E * (z) = E[ * (z)] E[ ]
El sesgo nos da una idea del error sistemtico cometido en la
2
*
*
= E (z) E( (z))
parmetros deterministas:
MSE( * ) = E ( * ) 2
[ { } { } ]
MSE( ) = E {( E { }) + ( E { } )}
MSE( * ) = E ( * E * + E * ) 2
*
2
*
*
*
MSE( ) = E E + S( )
MSE( * ) = E * E * + S 2 ( * ) + 2S( * )E * E *
{(
{ })
{ })
( )
MSE( * ) = var * + S 2 ( * )
{ }]
lim S N* =
{ }
lim var{ N* } = 0
N
N
Estimador asintticamente
insesgado
esmsecienteque
ndice
Conceptos bsicos
Calidad
3. Cota de Cramer-Rao
Se puede conseguir siempre que la varianza de un estimador
CCR =
1
ln[ f (z | )]
E
2
ln[ f (z | )]
3. Cota de Cramer-Rao
Ejercicio 3 (propuesto): Supongamos que X es una va normal o
gaussiana, de la que slo disponemos de N muestras tomadas de
forma independiente. El valor de la media es desconocido y es,
precisamente, el parmetro que nos gustara estimar. Sabiendo que
el estimador de la media es:
ndice
Conceptos bsicos
Calidad
Cota de Cramer Rao
f ( z )} = 0 = ML
{
{ f ( z )}
<
0
mximo
2
= ML
Tmono ( f ( z ))} = 0 = ML
{
f ( z, ) = f ( z ) f ( )
Si se aplica la funcin logaritmo, que es montona creciente:
Tmono ( f ( z, ))} = 0 = ML
{
ln f ( z, ) =
ln f z +
ln f ( )
[ ( )]
ln f ( ) <<
ln f z
[ ( )]
ln[ f ( z )] 0 = ML
5. Estimador bayesiano
Consideramos el parmetro a estimar como una realizacin de
5. Estimador bayesiano
Objetivo: minimizar una funcin de coste medio asociado al error
de estimacin. En primer lugar, es necesario definir la funcin de
coste cuyo valor medio queremos minimizar:
C ( ) = C ( y y ) = C ( y, y )
= y y
El coste
medio del error de estimacin es, formalmente:
E [C ( )] =
C ( y, y ) f ( y, x) dx dy
5. Estimador bayesiano
+
E [C ( )] =
C ( y, y ) f ( y, x) dx dy
E [C ( )] =
C ( y, y ) f ( y x) f (x) dx dy
x
+
E [C ( )] =
C
y,
y
[ ( ) f ( y x) dy] f (x) dx
I ( y ) f (x) dx
5. Estimador bayesiano
Al ser f(x) una funcin no negativa, para minimizar el coste
Coste uniforme:
0 | y
y (x) | / 2
C(y y(x)) =
y (x) |> / 2
1 | y
5. Estimador Bayesiano
Estimador bayesiano de error cuadrtico medio mnimo:
+
E [C ( )] =
C
y,
y
[ ( ) f ( y x) dy] f (x) dx
con I ( y ) =
2
y
y
( ) f ( y x) dy
I ( y ) = 0 yopt = y f ( y x) dy = E [ y x]
y
5. Estimador Bayesiano
yopt =
y f ( y x) dy = E [ y x]
y = ai xi
i=1
2
N
E y ai xi = 0,
a j i=1
j = 1,2,, N
N
E y ai xi x j = 0, 1 j N
i=1
y y=
[ ]
E x j = 0, 1 j N
R x j = 0, 1 j N
Principio de ortogonalidad:
El error (de estimacin) debe
ser ortogonal (en el sentido
estadstico) a los datos, es
decir, la correlacin entre las
variables aleatorias y xj
debe ser nula
N
E y ai xi x j = 0, 1 j N
i=1
y y =
N
ai E [ xi x j ] = E [ y x j ] = 0, 1 j N
i=1
o, equivalentemente,
N
ai Rx x
i
i=1
= Ry x j , 1 j N
Ecuaciones
normales o de
Wiener-Hopf
RX X ai = RY X ,
i
i=1
1 j N
Ecuaciones
normales o de
Wiener-Hopf
RX X RX X a RYX
1 1
1 N
1
1
RX X RX X a N RYX
N 1
N
N N
2
+E y
[ ] = E[ ] [ ]
E y
yteniendoencuentalasecuacionesdeWienerHopf
E y x j = ai E xi x j
sellegaaque:
i=1
1 j N
[ ] = E[ y ] a E[ y x ]
i=1
R y xi
Para disminuir el error de este estimador hay que
aadir datos (xi) que estn correlados con la v.a. (y) a
estimar!
Si aadimos nuevos datos ortogonales (correlacin
nula), no se disminuye el
error de estimacin
ysuspcoecientessecalculanu.lizandolasecuacionesnormales,olo
queeslomismo,minimizandoelvalorcuadr.comediodelerrorde
es.macin(prediccin):