Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Probabilidad
Probabilidad
Muestras
Considerar una variable aleatoria x descrita por la pdf f(x). El espacio de muestras est constituido por todos los posibles valores de x. Un conjunto de n observaciones independientes de x se llama una muestra de tamao n. Es posible definir un nuevo espacio de muestras constituido por todos los posibles valores del vector x =(x1,...,xn). Es decir, la muestra se considera formada por una sola medida aleatoria, caracterizada por las cantidades (x1,...,xn). Las n medidas son independientes La pdf es la misma para cada medida
Estimadores
Considerar la situacin donde se han realizado n medidas de una variable aleatoria cuya pdf se desconoce. El problema central de la estadstica es inferir las propiedades de f(x) basndose en las observaciones x1,...,xn). Especficamente, deseamos construir funciones de los xi para estimar las propiedades de f(x). A menudo se tiene una hiptesis para la pfd f(x;) de un parmetro desconocido (o ms generalmente de un vector de parmetros =(1,...,n)). El objetivo es entonces construir funciones de los xi que permitan estimar los parmetros . Una funcin de x1,...,xn que no contiene parmetros desconocidos se denomina estadstica. Una estadstica que se utiliza para estimar una propiedad de una pdf (media, varianza, etc.) se llama un estimador.
Notacin: El estimador de un parmetro (cuyo valor exacto no se conoce ni es obvio que pueda, en general conocerse) se suele notar como Decimos que un estimador es consistente si converge al valor autntico del parmetro en el lmite de alto n: (lmite de muestra grande o lmite asinttico).
n
lim P > = 0
El procedimiento por el cual estimamos el valor de un parmetro a partir de los datos x1,...,xn se denomina ajuste (de los datos al parmetro). Puesto que un estimador (x1,...,xn ) es una funcin de variables aleatorias, en en s mismo una variable aleatoria. Es decir, si el experimento se remite muchas veces, para cada muestra x=(x1,...,xn ) el estimador tomar valores diferentes, distribuidos de acuerdo a cierta pdf g( ; ) que depende del autntico valor de parmetro. Esta pdf se denomina distribucin de muestreo.
Sesgo
El valor esperado de un estimador con pdf g( ; ) es:
b = E[ ( x)]
NB: El sesgo no depende de los valores x1,...,xn de la muestra, sino del tamao de sta, de la forma funcional del estimador y de la pdf conjunta (que en general no se conoce). Decimos que un parmetro no tiene sesgo si b=0 independientemente del tamao de la muestra. Decimos que un parmetro no tiene sesgo en el lmite asinttico si b=0 cuando n tiene a infinito. Un parmetro consistente pede sin embargo estar sesgado (n finito)
1 n x = xi n i =1
Ley (dbil) de los nmeros grandes: Si existe la varianza de x entoces x es un estimador consistente de la media poblacional .
n
lim x =
Valor esperado de x:
1 n 1 n 1 n E[x ] = E xi = E[xi ] = i = n i =1 n i =1 n i =1
donde x= x
Al igual que para la media, puede demostrarse que la varianza muestral es un estimador sin sesgo de la varianza poblacional 2 . Si la media se conoce entonces tambin es un estimador sin sesgo la cantidad S2.
1 n S2 = (xi )2 = x 2 n 1 i =1
Varianza de la media
Dado un estimador, su varianza se define como:
V[ ] = E[ 2 ] (E[ ])2
Varianza de la media aritmtica:
Varianza de s2
1 n3 3 V[s ] = ( 4 2 ) n n 1
2
( n =
(x )n f (x)dx)
1 n mk = (xi x )k n 1 i =1
Si la la pdf y el (los) parmetro(s) describen realmente los datos, esperamos alta probabilidad para los datos que hemos medido. Anlogamente un parmetro cuyo valor se desve mucho del autntico resultar en baja probabilidad para las medidas observadas.
Funcin de verosimilitud
P(todo xi en [xi , xi + dxi ])= f(x i ; )dxi
i=1 n
L( ) = f(x i ; )
i=1
Ser mxima para la pdf y parmetros correctos. En estadstica clsica L() no es la pdf de sino la pdf conjunta de los x donde: q se trata como un parmetro (del que la pdf depende) los xi estn fijados (los datos ya han sido adquiridos) En estadstica Bayesiana, podemos tratar L()=L(x|) como la pdf de x dado y a usar el teorema de Bayes para calcular la probabilidad posterior p(|x).
L = 0, i = 1, 2,...m i
NB: La definicin no garantiza que los estimadores MV sean ptimos en absoluto! En general, sin embargo, suelen ser la aproximacin ms aceptable al problema de estimar parmetros.
1 t / f (t; ) = e
Nuestro objetivo es estimar el valor del parmetro . Para ello usamos la funcin de verosimilitud (de hecho, su logaritmo, ms fcil de manejar)
1 t log L( ) = log f (t i ; ) = (log i ) i =1 i =1 log L( ) 1 1 = 0 ( 2 ) + (t i )( 2 ) = i =1
n n n
1 n = 2 ti = 0 i =1
1 n = ti n i =1
Valor esperado:
1 n 1 n = t i E[ ] = = n i =1 n i =1
inmediato de calcular, puesto que el estimador es la media muestral, cuyo valor esperado coincide con la media poblacional, esto es con . Por lo tanto el estimador no tiene sesgo. Supongamos que en lugar de la vida media queremos calcular la constante de desintegracin = 1/ : = ( ) = 1/ slo es un estimador sin L L = sesgo de en el lmite de alto n! L L Es decir: El estimador MV de una =0 = 0 siempre que 0 funcin del parmetro , a=a() no es n ms que a=a(). 1 = = n Pero si es un estimador sin sesgo ti i =1 de no necesariamente a es un n 1 n E[ ] = = estimador sin sesgo de a() n 1 n 1
log L 1 n 2 = 0 = (xi )2 2 n i=1 n 1 2 E[ 2 ] = 2 no tiene sesgo en el lmite asinttico n NB la varianza muestral es siempre un estimador sin sesgo pero no es un estimador MV! 1 n s = (xi )2 n 1 i=1
2
Monte Carlo: Muchos experimentos, cada uno con n fijo. La varianza viene dada por la dispersin del estimador entorno al valor medio
Desigualdad RCF
Rao-Cramr-Frechet: Para un estimador arbitrario se verifica que:
b 2 ) V[ ] 2 log L E[ ] 2 (1 +
Decimos que un estimador es eficiente (y sin sesgo) cuando se verifica la igualdad estricta. Este es el caso, a menudo con estimadores MV (a veces en el lmite asinttico). Otras veces se utiliza la igualdad como una aproximacin. En estos casos:
Alrededor de logL es mxima y por tanto la primera derivada se cancela. Utilizando RCF (asumiendo que el estimador es eficiente y sin sesgo)