Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Documento 13 Muestreo y Estimacion
Documento 13 Muestreo y Estimacion
MUESTREO Y ESTIMACIN
MUESTREO
Muestra Aleatoria de tamao n es una coleccin de n variables aleatorias, todas con
la misma distribucin y todas independientes. La coleccin de donde extraemos la
muestra aleatoria, se denomina Poblacin. Nuestra intencin al tomar una muestra, es
la de hacer Inferencia. Este trmino lo usamos en estadstica para denotar al
procedimiento con el que hacemos afirmaciones acerca de valores generales de la
poblacin mediante los nmeros que observamos en la muestra.
A un valor calculado con los datos de una muestra es el Estadstico. Al valor del
parmetro en la poblacin es el Estimador. Y es Estimador Puntual cuando se
estima el parmetro poblacional a partir de un valor nico).
Caractersticas probabilsticas de un estimador. Cuando se tiene una frmula para
estimar y se aplica a una muestra aleatoria, el resultado es aleatorio, es decir los
estimadores son variables aleatorias. Por ejemplo si se recibe un embarque de objetos
que pueden estar listos para usarse defectuosos. Podemos seleccionar, al azar,
algunos de ellos para darnos una idea de la proporcin de defectuosos en el
embarque. El parmetro de inters es la proporcin de defectuosos en toda la
poblacin, pero lo que observamos es la proporcin de defectuosos en la muestra.
Valor esperado de un estimador y sesgo. El valor esperado de un estimador nos da
un valor alrededor del cual es muy probable que se encuentre el valor del estimador.
Para poner un ejemplo, si supiramos que el valor esperado de un estadstico es 4,
esto significara que al tomar una muestra: No creemos que el valor de la estadstica
vaya a ser 4, pero tampoco creemos que el valor de la estadstica vaya a estar lejos de
4.
Ya que es muy probable que el valor del estimador est cerca de su valor esperado,
una propiedad muy deseable es que ese valor esperado del estimador coincida con el
del parmetro que se pretende estimar. Al menos, quisiramos que el valor esperado
no difiera mucho del parmetro estimado. Por esa razn es importante la cantidad
que, tcnicamente llamamos sesgo.
Convencin, para efectos del estudio de ahora en adelante se presentan la siguiente
convencin,
fundadas e inalterables que permitan determinar el error de una medida en todos los
casos imaginables.
Muchas veces es tan importante consignar cmo se ha obtenido un error como su
propio valor. Sin embargo, la aplicacin de algunos mtodos estadsticos permite
objetivar en gran medida la estimacin de errores aleatorios. La estadstica permite
obtener los parmetros de una poblacin (en este caso el conjunto de todas las
medidas que es posible tomar de una magnitud), a partir de una muestra (el nmero
limitado de medidas que podemos tomar).
Mejor valor de un conjunto de medidas. Supongamos que medimos una magnitud
un nmero n de veces. Debido a la existencia de errores aleatorios, las n medidas
x 1, x 2 ,..., x n sern en general diferentes. El mtodo ms razonable para determinar
el mejor valor de estas medidas es tomar el valor medio. En efecto, si los errores son
debidos al azar, tan probable es que ocurran por defecto como por exceso, y al hacer
la media se compensarn, por lo menos parcialmente, y este es el valor que deber
darse como resultado de las medidas.
x
1
n
x
i 1 i
n
n 1 2
n
En donde, s 2 sea una estimacin sin sesgo, sin embargo, s es una estimacin
s2
E(S 2 ) 2
representa por Ho. La afirmacin que se espera sea aceptada despus de aplicar una
prueba estadstica es llamada la hiptesis alterna y se representa por Ha.
Una prueba estadstica es una frmula, basada en la distribucin del estimador del
parmetro que aparece en la hiptesis y que va a permitir tomar una decisin acerca
de aceptar o rechazar una hiptesis nula.
Al igual que una prueba de laboratorio para detectar cierta enfermedad, una prueba
estadstica no es ciento por ciento segura y puede llevar a una conclusin errnea.
Hay dos tipos de errores que pueden ocurrir. El error tipo I, que se comete cuando se
rechaza una hiptesis nula que realmente es cierta y el error tipo II que se comete
cuando se acepta una hiptesis nula que realmente es falsa.
El nivel de significacin, representada por , es la probabilidad de cometer error tipo
I, y por lo general se asume que tiene un valor de 0.05 0.01.Tambin puede ser
interpretado como el rea de la regin que contiene todos los valores posibles donde
la hiptesis nula es rechazada.
La probabilidad de cometer error tipo II, se representa por y al valor 1- se le llama
la potencia de la prueba. Una buena prueba estadstica es aquella que tiene una
potencia alta. En este captulo, primero se discutir el clculo de intervalos de
confianza y pruebas de hiptesis para la media poblacional, para una proporcin y
finalmente para la varianza de una poblacin. Luego se tratar los intervalos de
confianza y prueba de hiptesis para la razn de dos varianzas poblacionales, para la
diferencia de dos medias poblacionales y por ltimo para la diferencia de dos
proporciones.
Estimaciones de Intervalos de Confianza para parmetros de poblacin. Sean
s y s la media y la desviacin tpica (error tpico) de la distribucin de muestreo
de un estadstico S. Entonces, si la distribucin de muestreo de s es aproximadamente
normal (que como hemos visto es cierto para muchos estadsticos si el tamao de la
muestra es N , entonces, podemos esperar hallar un estadstico muestral real S
que est en el intervalo s s , s , s 2 s , 2 s , s 3 s , 3 s
en un 68.27%, 95.45% y 99.70 %, respectivamente.
En la tabla siguiente, se muestran los niveles de confianza usados en la prctica. Para
niveles de confianza que no aparecen en la tabla, los valores Z c se pueden encontrar
gracias a las tablas de reas bajo la curva Normal.
Nivel de
confianza
%
96.00
95.45
95.00
90.00
Zc
3.00
1.00
2.58 2.33
0.6745
2.05
2.00
1.96 1.645
1.28
Ejemplo. Halar los lmites de confianza de 98% y 90%. Lo anterior tiene la solucin,
sea Z =Z tal que, al rea bajo la curva Normal a la derecha sea 1%, entonces, por
simetra el rea del lado izquierdo de Z=-Z . como el rea total bajo la curva es 1,
Z=0.49 por tanto, Z=2.33, luego el limite de confianza para el 98% es, 2.33
n
1 n / n
Comprobamos que no se cumple, pues en este caso 10.000 < 3.706 (3.706 - 1);
10.000 < 13.730.730, por tanto, usamos
n 3.706 /(1 (3.706 / 10.000)) 2.704
N Z 2 / 2 P (1 P)
( N 1) e 2 Z 2 / 2 P (1 P)
por otro lado, el estudio sobre una muestra podra ser realizada con menos
personal pero ms capacitado.
Para calcular el tamao de una muestra hay que tomar en cuenta tres factores:
- El porcentaje de confianza con el cual se quiere generalizar los datos desde la
muestra hacia la poblacin total.
- El porcentaje de error que se pretende aceptar al momento de hacer la
generalizacin.
- El nivel de variabilidad que se calcula para comprobar la hiptesis.
La confianza o el porcentaje de confianza es el porcentaje de seguridad que existe
para generalizar los resultados obtenidos. Esto quiere decir que un porcentaje del
100% equivale a decir que no existe ninguna duda para generalizar tales resultados,
pero tambin implica estudiar a la totalidad de los casos de la poblacin. Para evitar
un costo muy alto para el estudio o debido a que en ocasiones llega a ser
prcticamente imposible el estudio de todos los casos, entonces se busca un
porcentaje de confianza menor. Comnmente en las investigaciones sociales se busca
un 95%.
El error o porcentaje de error equivale a elegir una probabilidad de aceptar una
hiptesis que sea falsa como si fuera verdadera, o la inversa: rechazar a hiptesis
verdadera por considerarla falsa. Al igual que en el caso de la confianza, si se quiere
eliminar el riesgo del error y considerarlo como 0%, entonces la muestra es del
mismo tamao que la poblacin, por lo que conviene correr un cierto riesgo de
equivocarse. Comnmente se aceptan entre el 4% y el 6% como error, tomando en
cuenta de que no son complementarios la confianza y el error.
La variabilidad es la probabilidad (o porcentaje) con el que se acept y se rechaz la
hiptesis que se quiere investigar en alguna investigacin anterior o en un ensayo
previo a la investigacin actual. El porcentaje con que se acept tal hiptesis se
denomina variabilidad positiva y se denota por p, y el porcentaje con el que se
rechaz se la hiptesis es la variabilidad negativa, denotada por q. Hay que
considerar que p y q son complementarios, es decir, que su suma es igual a la unidad:
p+q=1. Adems, cuando se habla de la mxima variabilidad, en el caso de no existir
antecedentes sobre la investigacin (no hay otras o no se pudo aplicar una prueba
previa), entonces los valores de variabilidad es p=q=0.5.
Una vez que se han determinado estos tres factores, entonces se puede calcular el
tamao de la muestra como a continuacin se expone. Hablando de una poblacin de
alrededor de 10,000 casos, o mnimamente esa cantidad, podemos pensar en la
manera de calcular el tamao de la muestra a travs de las siguientes frmulas. Hay
que mencionar que estas frmulas se pueden aplicar de manera aceptable pensando en
z 2 pqN
Ne 2 z 2 pq
10
Las tcnicas de muestreo probabilstica son aquellas en las que se determina al azar
los individuos que constituirn la muestra. Estas tcnicas nos sirven cuando se desean
generalizar los resultados que se obtienen a partir de la muestra hacia toda la
poblacin. Lo anterior se dice dado que se supone que el proceso aleatorio permitir
la obtencin de una muestra representativa de la poblacin.
Los muestreos probabilsticas pueden ser con o sin reemplazo. Los muestreos con
reemplazo son aquellos en los que una vez que ha sido seleccionado un individuo (y
estudiado) se le toma en cuenta nuevamente al elegir el siguiente individuo a ser
estudiado. En este caso cada una de las observaciones permanece independiente de
las dems, pero con poblaciones pequeas tal procedimiento debe ser considerado
ante la posibilidad de repetir observaciones. En el caso de poblaciones grandes no
importa tal proceder, pues no afecta sustancialmente una repeticin a las frecuencias
relativas.
Los muestreos sin reemplazo son los que una vez que se ha tomado en cuenta un
individuo para formar parte de la muestra, no se le vuelve a tomar en cuenta
nuevamente. En este caso, y hablando especficamente para el caso de poblaciones
pequeas, las observaciones son dependientes entre s, pues al no tomar en cuenta
nuevamente el individuo se altera la probabilidad para la seleccin de otro individuo
de la poblacin. Para el caso de las poblaciones grandes (por ejemplo la poblacin de
un pas) dicha probabilidad para la seleccin de un individuo se mantiene
prcticamente igual, por lo que se puede decir que existe independencia en las
observaciones.
Las tcnicas de muestreo probabilstica que mencionaremos sern bsicamente tres:
el aleatorio simple, el aleatorio estratificado y el sistemtico.
- Muestreo aleatorio simple. Podemos aqu mencionar que para el caso de que se
estuviese estudiando un propocin dentro de la poblacin (una eleccin de
candidato, la aceptacin o rechazo de una propuesta en una comunidad, la
presencia o ausencia de una caracterstica hereditaria), y el en caso de un muestreo
aleatorio simple, la estimacin que se puede hacer de la proporcin buscada a
partir de la proporcin hallada en la muestra se obtiene mediante la construccin
de un intervalo de confianza:
= P tolerancia de la muestra
Donde es la proporcin buscada en la poblacin y P es la proporcin presente en la
muestra. Por otro lado, la tolerancia de la muestra est relacionada directamente con
el nivel de confianza y se obtiene a partir de la distribucin normal al igual que como
se obtuvo para el clculo del tamao de las muestras. La representaremos con z para
obtener,
11
Pz
pq
n
12
13
reposicin. Las poblaciones son finitas o infinitas. Si por ejemplo, sacamos 10 bolas
sucesivamente, sin reposicin, de una urna que contiene 100 bolas, estamos tomando
muestra de poblacin finita; mientras que si lanzamos 50 veces una moneda contamos
el nmero de caras, estamos ante una muestra poblacin infinita. Una poblacin finita
en la que se efecta muestra con reposicin, puede considerarse infinita tericamente,
ya que puede tomar cualquier nmero de muestras sin agotarla. Para muchos efectos
prcticos, una poblacin muy grande se puede considerar como si fuera infinita.
PEQUEAS MUESTRAS
En este captulo se presentan tres nuevos modelos estadsticos: el llamado t-Student,
el modelo de la Chi-cuadrado 2 y el modelo F-Fisher. Los tres no requieren ya ms
del supuesto de un tamao muestral grande. Ahora con dos o ms mediciones se
puede trabajar; por eso se usa la expresin Teora de pequeas muestras para este
tema. El empleo de cualquiera de ellos es enteramente similar al visto en el captulo
anterior. Cambia la manera de calcular el estadgrafo de comparacin y su respectiva
tabla de valores crticos de la distribucin muestral.
Mientras que el modelo de la t se aplica a medias y proporciones, los dos ltimos se
usan para el estudio de las desviaciones o dispersiones. Tambin se la llama
Teora Exacta del Muestreo, pues ahora no hay que efectuar la aproximacin
ya que el valor muestral viene en la frmula de clculo del estadgrafo de
comparacin, en lugar del poblacional. Eso hace que no sea necesario efectuar
una estimacin y se tiene una mayor exactitud que con la gaussiana. Es
importante destacar que los tres modelos son vlidos tanto para pequeas como
para grandes muestras. Esto ampla el campo de aplicacin del modelo de Gauss.
Adems, al no tener que hacer tantas pruebas disminuye el costo y se gana en
tiempo. Todas estas ventajas tienen una contrapartida: se pierde un poco de
precisin pues, como se ver, el intervalo de confianza se hace ms grande para
un mismo caso.
El propsito de un estudio estadstico suele ser, como hemos venido citando, extraer
conclusiones acerca de la naturaleza de una poblacin. Al ser la poblacin grande y
no poder ser estudiada en su integridad en la mayora de los casos, las conclusiones
obtenidas deben basarse en el examen de solamente una parte de sta, lo que nos
lleva, en primer lugar a la justificacin, necesidad y definicin de las diferentes
tcnicas de muestreo.
Los primeros trminos obligados a los que debemos hacer referencia, definidos en el
primer captulo, sern los de estadstico y estimador.
Dentro de este contexto, ser necesario asumir un estadstico o estimador como una
variable aleatoria con una determinada distribucin, y que ser la pieza clave en las
14
15
1 1
1
( N n )!
1
N N 1 N ( n 1)
N!
VN , n
( N n )!
1
N!
C N ,n
16
e1 x 1 f ( x 1 )
e x f (x / x )
2 2 2 1
e n x n f (x n / x1 ,..., x n1 )
17
k
10
100.000
El proceso se repite tomando los siguientes nmeros de la tabla de nmeros
aleatorios, hasta obtener la muestra de 10 individuos. Las cantidades u=t/(10k) pueden
ser consideradas como observaciones de una variable aleatoria U, que sigue una
distribucin uniforme en el intervalo [0,1]
Mtodo de Montecarlo. El mtodo de Montecarlo es una tcnica para obtener
muestras aleatorias simples de una variable aleatoria X, de la que conocemos
su ley de probabilidad (a partir de su funcin de distribucin F). Con este
mtodo, el modo de elegir aleatoriamente un valor de X siguiendo usando su
ley de probabilidad es:
1. Usando una tabla de nmeros aleatorios se toma un valor u de una variable
aleatoria.
2. Si X es continua tomar como observacin de X, la cantidad x=F-1(u). En el caso en
que X sea discreta se toma x como el percentil 100-u de X, es decir el valor ms
pequeo que verifica que F(x)u
Este proceso se debe repetir n veces para obtener una muestra de tamao n.
Ejemplo, Si queremos extraer n=10 muestras de una distribucin N(0,1) podemos
recurrir a una tabla de nmeros aleatorios de k=5cifras, en las que observamos
las cantidades, por ejemplo, 76.293, 31.776, 50.803, 71.153, 20.271, 33.717,
17.979, 52.125, 41.330, 95.141
A partir de ellas podemos obtener una muestra de X~N(0,1) usando una tabla de la
distribucin normal:
Nmeros aleatorios Muestra U(0,1) Muestra N(0,1)
ti
ui=ti/105
xi = F-1(ui)
76.293
0.76
0.71
31.776
0.32 (=1-0'68)
-0.47
50.803
0.51
0.03
71.153
0.71
0.55
20.271
0.20(=1-0'80)
-0.84
18
33.717
17.979
52.125
41.330
95.141
0.34(=1-0'66)
0.18(=1-0'82)
0.52
0.41(=1-0'59)
0.95
-0.41
-0.92
0.05
-0.23
1.65
19
20
Sea X la variable aleatoria que representa el carcter que intentamos estudiar. Sobre
cada estrato puede definirse entonces la variable aleatoria X i como el valor medio
de X obtenida en una muestra de tamao ni en el estrato Ei. Sea V( X i ) la varianza
de dicha variable aleatoria; Entonces
k
V( X )
i
i 1
ni n
se minimiza cuando
N i s i
1 Ni
2
s i
x ij x i
donde
N 1 j1
N js j
k
j i
21
barrios dentro de la ciudad, para despus elegir calles y edificios. Una vez
elegido el edificio, se entrevista a todos los vecinos.
Propiedades deseables de un estimador. Sea X una variable aleatoria cuya funcin
de probabilidad (o densidad de probabilidad si es continua) depende de unos
parmetros 1 ,..., k desconocidos. f ( x , 1 ,..., k ) . Representamos mediante
X1,,Xn una muestra aleatoria simple de la variable. Denotamos mediante fc a la
funcin de densidad conjunta de la muestra, que por estar formada por
observaciones independientes, puede factorizarse del siguiente modo:
f c ( x 1 ,..., x n , 1 ,..., k ) f ( x 1 , 1 ,..., k ) * f ( x 2 , 1 ,..., k ) * * f ( x n , 1 ,..., k )
que se
Se denomina estimador de un parmetro i, a cualquier variable aleatoria
i
exprese en funcin de la muestra aleatoria y que tenga por objetivo aproximar el valor
de qi, i ( X 1 ,..., X n )
22
(X1 X 2 X 3 )
N ,
3
3
de un parmetro es insesgado si
Carencia de sesgo. Se dice que un estimador
. La carencia de sesgo puede interpretarse del siguiente modo:
E ()
Supongamos que se tiene un nmero indefinido de muestras de una poblacin,
todas ellas del mismo tamao n. Sobre cada muestra el estimador nos ofrece
una estimacin concreta del parmetro que buscamos. Pues bien, el estimador
es insesgado, si sobre dicha cantidad indefinida de estimaciones, el valor medio
obtenido en las estimaciones es (el valor que se desea conocer).
0, lim P 0 o 0, lim P 1
n
es ms eficiente que
si V ( ) V( )
que
1
2
1
2
23
Para calcular el error tipo II o se debe especificar la hiptesis alternativa como una
hiptesis simple. Sin embargo, en la mayora de los casos, esta hiptesis se plantea
como compuesta. Al plantearse la hiptesis alternativa como compuesta, no se puede
calcular el error tipo II asociado con la prueba. Sin embargo, para obviar esta
dificultad lo que se hace es asignarle varios valores a la hiptesis alternativa, calcular
el error tipo II y realizar una curva con estos valores. Esta curva recibe el nombre de
"Curva Caracterstica Operativa o Curva OC", y es muy empleada principalmente en
estudios de control de calidad.
Considrese la hiptesis alternativa de la siguiente manera:
Ho: = 0 = 10
H1: > 0
n = 9, = 0.05
La regin crtica de esta prueba est en c = 10.548, es decir, se rechaza H0 = 10 si la
media de la muestra es mayor de 10.548. Para construir la curva OC se presentan en
la tabla siguiente diferentes valores de la hiptesis alternativa con sus respectivas
probabilidades de aceptacin.
9.6
9.8
10.0 10.2 10.4 10.6 10.8 11.0
11.2
11.4
11.6
0.998 0.988 0.950 0.852 0.672 0.438 0.225 0.088 0.025 0.005 0.001
24
> 10.45
Para calcular () es necesario darle valores a , y de ah calcular la potencia 1().P() = P( >c/ = 1) = 1-()
Las tablas siguientes presentan los valores de los errores tipo II y de la potencia para
las pruebas planteadas.
10.0 10.2
ESTIMACIN CONFIDENCIAL
La estimacin confidencial consiste en determinar un posible rango de valores o
intervalo, en los que pueda precisarse --con una determinada probabilidad-- que el
valor de un parmetro se encuentra dentro de esos lmites. Este parmetro ser
habitualmente una proporcin en el caso de variables dicotmicas, y la media o la
varianza para distribuciones gaussianas.
25
26
Intervalos de Confianza
Pruebas de Hiptesis Sobre Parmetros
Sobre Distribuciones
En este captulo trataremos el problema de la estimacin (mediante un solo valor) de
los parmetros de una distribucin, y en el captulo siguiente la estimacin de
parmetros mediante un intervalo, denominado intervalo de confianza.
Estimacin. En el problema de estimacin se trata de elegir el valor de un parmetro
de la poblacin, segn una estrategia de la naturaleza.
Estimacin puntual. La estimacin puntual consiste en utilizar el valor de una
estadstica o un valor estadstico para calcular el parmetro de una poblacin. Por
ejemplo, cuando usamos la media muestral x para estimar la media de una
poblacin (), o la proporcin de una muestra P para estimar el parmetro de una
distribucin binomial .
27
28
X
n
1
1
X
E (X) n por lo tanto es insesgado
n
n
n
E( P)
Ejemplo. Sea X1, X2,..., Xn una muestra aleatoria con E(Xi)=. Demostrar que si
N
i 1
i
n i 1
n 1 2
demostrar que E (V 2 )
n
Ejemplo. Si V 2
Ejemplo. Sea W 2
2
1 n
X i , ser un estimador insesgado de si es un
i 1
n
parmetro conocido?.
Ejemplo. Ser S 2
2
1
n
X i X , un estimador insesgado de la varianza
i 1
n 1
29
Se desea estimar el parmetro con base en una muestra aleatoria X1, X2, ..., Xn de
tiempos de reaccin. Como es el tiempo mximo de reaccin, para toda la
poblacin, se cumple que (X1, X2, ..., Xn), por lo cual podemos considerar como
un primer estimador el siguiente estadstico:
T1 = Mximo(X1, X2, ..., Xn).
= X3 = 15.7.
Por ejemplo, si n = 5, y X = (12.4, 13.2, 15,7, 6.4, 10.7)
Es T1 un estimador insesgado de ?. S puede demostrar que
E (T1 )
n 1
n 1
Max (X 1 , , X n ) . Es T2 un
. Considere T2
n 1
n
T2
n 1
n
Los estadsticos de orden son variables aleatorias, y como tales tienen una funcin de
densidad, y se pueden usar para estimar los parmetros de las distribuciones.
Estimadores con mnima varianza. Si T1 y T2 son dos estimadores insesgados con
varianzas V(T1)y V(T2), respectivamente, y V(T1) < V(T2), se dice que T1 es ms
eficiente que T2.
Sea X1, X2, ..., Xn una muestra aleatoria de tamao n. Sabemos que tanto X como X1
son estimadores insesgados de . Sin embargo es ms eficiente que X1 para estimar
ya que V( X ) = /n < V(X1) = .
Eficiencia Relativa. Los estimadores insesgados suelen compararse en trminos de
sus respectivas varianzas. Si T1 y T2 son dos estimadores insesgados de un parmetro
y la varianza de T1 es menor que la varianza de T2, se dice que T1 es ms eficiente
que T2. Tambin se puede usar la siguiente relacin V(T1)/V(T2) para medir la
eficiencia relativa de T2 con respecto a T1.
30
Ejemplo. Al calcular la media de una poblacin normal sobre la base de una muestra
de tamao 2n+1, cul es la eficiencia de la mediana con relacin a la media?
Se sabe que la varianza de la media X est dada por /(2n+1). Para una muestra
aleatoria de tamao 2n+1 de una poblacin normal se sabe que el valor esperado y la
varianza de la mediana estn dados por:
~
~
E(X)
2
~
V(X)
4n
V (T )
ln f ( x , )
nE
31
32
33
es un estimador consistente de .
34
1
X1 X 3 X 5 X 29
T2
1
X1 X 2 X 3 X 30
g( t )
g( t )
donde la expresin final del numerador se sigue de la condicin de suficiencia.
Utilidad. Si un estimador insesgado T de un parmetro es una funcin de un
estadstico suficiente, entonces tendr la varianza ms pequea entre todos los
estimadores insesgados de . Adems, si existe el estimador ms eficiente de , ste
ser un estadstico suficiente.
Teorema de factorizacin de Neyman. Sea X1, X2, ..., Xn una muestra aleatoria de
una distribucin con funcin de densidad f(x,). Se dice que el estadstico T = t(X1,
X2, ..., Xn) es un estadstico suficiente para si y solo si la funcin de verosimilitud se
puede factorizar de la siguiente manera:
L(X,) = h(t, ) g(x1, x2, ..., xn)
para cualquier valor t(x1, x2, ..., xn) de T y donde g(x1, x2, ..., xn) no contiene el
parmetro .
Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una distribucin
gama, cuya funcin de densidad est dada por,
f ( t ) e t
(t ) k 1
,
( k )
t0
35
i 1
i 1
nk e t i t i
(k )
Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una distribucin de
Poisson con parmetro cuya funcin de densidad est dada por,
f (t)
x e
x!
, donde
Esta funcin que depende de n+1 cantidades podemos considerarla de dos maneras:
- Fijando es una funcin de las n cantidades xi. Esto es la funcin de probabilidad
o densidad.
- Fijados los xi como consecuencia de los resultados de elegir una muestra mediante
un experimento aleatorio, es nicamente funcin de . A esta funcin de la
denominamos Funcin de Verosimilitud.
En este punto podemos plantearnos el que dado una muestra sobre la que se ha
observado los valores xi, una posible estimacin del parmetro es aquella que
maximiza la funcin de verosimilitud (cuidado no confundir V() con la varianza. En
algunos textos aparece la funcin de verosimilitud como L())
x1,,xn fijados Verosimilitud: V()=f(x1,..,xn;)
36
parmetro buscado,
mv es aquel que maximiza su funcin de verosimilitud, V().
Como es lo mismo maximizar una funcin que su logaritmo (al ser este una funcin
estrictamente creciente), este mximo puede calcularse derivando con respecto a la
funcin de verosimilitud (bien su logaritmo) y tomando como estimador mximo
verosmil al que haga la derivada nula:
log V
( mv ) 0
g
(
)
estimador mximo verosmil de y
es una funcin biunvoca de ,
37
1
( X1 X n ) verifica:
n
V( X ) 2 n
es X
E(X )
V(, 2 )
2
n
e x1
i 1
n
x i
/ 2 2
1
2
e x 2
/ 2 2
**
1
2
e x n
/ 22
2
2 i 1
38
0
( mv , 2 ) 2 x i mv 2 x i n mv
i 1
i 1
39
n
1 n
2
log V(x, ) log(2) log 2 x i x
2
2 i1
2
log V
n
1 1
(, 2mv ) 2 2
2
2 mv 2 mv
x
i 1
40
1 n
1 n
1 n 2
2
2
(
X
X
)
E
X
E (X i2 ) E ( X 2 )
i
i
n i 1
n i 1
n i 1
E (s 2 ) E
V(X i ) E (X i2 ) E (X i ) 2 E (X i2 ) 2 2
V( X ) E( X i2 ) E ( X i ) 2 E ( X i2 )
2
2
n
Luego
E (s 2 )
1 n
n 1 2
2
2
n i 1
n
n
n 1
n 1 i 1
Es inmediato comprobar que realmente este estimador es insesgado
n 2
n n 1 2
s
2
n
1
n
1
n
E (s 2 ) E
Esa esperanza puede ser calculada de un modo ms directo, ya que la distribucin del
estimador 2 es conocida usando el teorema de Cochran:
n
Xi X
ns 2
i 1
2n 1
luego
ns 2
2
n 1 E(s 2 )
n 1 2
ns 2
2
2( n 1) V (s 2 )
2( n 1) 4
n2
41
Teorema: Sean X1, X2 y X3 variables aleatorias que tienen una distribucin conjunta
absolutamente continua, tambin la tiene un pare de ellas X 1,X3 y una funcin de
densidad de conjunta para estas dos puede escribirse,
f X 1,X 3 ( x 1 , x 3 )
f X 1X 2 X 3 ( x1, x 2 , x 3 )dx 2
Teorema: Sean X1,...,X3 variables aleatorias que tienen una distribucin conjunta
absolutamente continua, la condicin suficiente y necesaria qpara que sean
independientes es que la densidad conjunta de ellas sea,
f X 1,...,X n ( x 1,..., x n )
j 1
fXj (x j )
f X / Y ( t / y)dt
42
Y sea que el determinante del Jacobiano no sea nulo para (u1,..., u n ) , siendo
{(u1,. .u n ) a i x i (u1 ,. ., u n ) bi , 1 i n}
x 1
u 1
x 2
( x 1 ,.., x n )
u
1
(u 1 ...u n )
...
x n
u 1
x 1
u 2
x 2
u 2
...
x n
u 2
x 1
u n
x 2
...
u n
... ...
x n
...
u n
...
sen
(r , )
rsen
=r,
r cos
x
x
y
y
cos , rsen, sen y r cos
r
a1
b2
a2
H ( x , y)dxdy
43
( x 1 ,..., x n )
( u 1 ,..., u n )
Teorema: Sean X1,...,Xn variables aleatorias independientes, cada una de ellas con
una distribucin absolutamente continua, y sean r 1,...,rk, k enteros positivos, tales que,
r1+...+rk=n. Entonces, la k variables aleatorias
son independientes.
ESTIMACIN PUNTUAL
Sea un conjunto fundamental de probabilidades asociado con una sigma - algebra
de sucesos w y probabilidad P, y se tendr en X una variable aleatoria definida sobre
.
( n) est constituido por todos los posibles (w1,...,wn) para todas las elecciones
posibles w1,...,w2 en . Se trabajar con w(n) al elemento de ( n)
El sigma - anillo de sucesos compuestos por los sucesos elementales de este
conjunto fundamental de probabilidad ( n) , entonces para toda A 1 ,.., A n , se
define,
A 1 A n { w ( n) ( n) w 1 A 1,..., w n A n }
Este suceso es el suceso compuesto que sigue: A1 ocurre en la primera prueba, A2 en
la segunda, y as sucesivamente. A un suceso compuesto as, es lo llamado suceso
rectangular, y es necesario que la sigma algebra contenga todos estos sucesos.
Sea ( n ) el conjunto de todos los sucesos rectangulares y sea ( n ) el mnimo sigma
anillo de subconjuntos de ( n ) que contienen a ( n ) , esto significa que ( n ) son
la interseccin de todos los sigma anillos de subconjuntos de ( n ) que contienen a
( n ) . Por lo anterior solo hay que demostrar,
- La interseccin de cualquier sigma anillo de ( n ) es un sigma - anillo
- El conjunto de sigma anillos que contienen a ( n ) no es vaco
Lema: Sea { , } el conjunto no vaco de sigma anillos de subconjuntos de
es un sigma anillo.
( n) , entonces,
44
P ( n ) (A 1 A n ) P(A i )
i 1
(n)
(n)
entonces, P( n ) A i ,i P(A i ) . Esto es, P (A 1 A n ) P(A i )
i 1
. En otras palabras,
P U n 0, para n ,
con
0,
45
Teorema: Sea una poblacin y X una variable aleatoria observada definida sobre
la misma poblacin, la cual tiene distribucin discreta o absolutamente continua y
donde existe el segundo momento de orden finito. Si X1,..,Xn son n observaciones
independientes de X y s X=(X1+...+Xn)/n, entonces, Xn es una estimacin imparcial y
consistente de E[X]
Teorema: Tanto n2 como s n2 son estimaciones consistentes de Var[X]. Demostrar
que s n2 es una estimacin imparcial de Var[X], pero no n2 , siendo Var[X[ una
estimacin imparcial.
Teorema: Sea Un una variable aleatoria definida sobre ( n) , y supongamos que ella
es una estimacin imparcial de y adems que E[Un2 ] . Si V1,V2,... es una
sucesin de observaciones independientes de Un, y sea Zn=(V1+...Vn)/n para todo n,
entonces la sucesin {Zn} es una sucesin consistente de
Sea una poblacin y sean ligadas a ella una serie de constantes 1,..., k que estn
por conocerse, y no se pueden medir directamente, entonces, sea X una variable
aleatoria definida sobre la poblacin de tamao n, y {X n} es una sucesin de
observaciones independientes de X, y sobre la cual conocemos la distribucin
FX ( x / i ) . El problema consiste en hallar las estimaciones.
El gran problema reside, y para ello trabajemos con dos variables desconocidas 1, 2
4
, en que se debe suponer que E[ X ] y que se conocen los dos primeros
momentos m1 y m2 y que son funciones de 1 y 2 . Adems hay que suponer que
X n P m1 y Vn
1 n 2 P
X m2
k 1 k
n
(X , V ) y (X , V )
1
n n
n n
son
Teorema: Sea f(x,y) una funcin y sean {X n} y {Yn} unas sucesiones de las variables
aleatorias tales que
46
f X n , Yn P f (a , b)
Sea X una variable aleatoria definida sobre la poblacin y sean X1,...,Xn sus n
observaciones independientes, y supongamos que la funcin de distribucin de X es
absolutamente continua (lo cual es vlido para el caso discreto), entonces la funcin
fX(x) es la densidad de X que es de una variable desconocida , f(x/ ).
Para trabajar con un ejemplo, sea X N(0,1) , entonces la funcin de densidad puede
ser, f ( x / )
( x ) 2
, x
exp 1
2
2
...
f ( x i / ) dx 1 ...dx n
expresiones
y
i 1
( x ,..., x )
...
n f ( x i dx 1 ...dx n
1
i 1
Logf ( X )
para todo A
47
( X ,..., X ) 1 E Logf ( X )
Var
1
n
n
A
teniendo en cuanta que el signo igual solo es vlido cuando exista una constante k,
que depende de y n, tal que la probabilidad
1 Logf ( X )
k 1 Logf (X k ) n E
Principio de Mxima Probabilidad. Sea X una variable aleatoria definida sobre una
poblacin con una distribucin discreta o absolutamente continua. Sea f(x/ ) la
densidad dependiente de x y de desconocido. El problema es estimar . Sean
X1,...,Xn observaciones de X con una densidad conjunta f(x1,...,xn/ )
Se debe procurar siempre encontrar una estimacin (X1,...,Xn) de para la cual
f(X1,...,Xn/ ) sea mximo. En la prctica es hallar como una funcin de x1,...,xn
( X ,..., X ) para qua la funcin f(x1,...,xn/ ) resulte maximizada y entonces se
1
n
sustituyen las observaciones.
Teorema: Supuestas las condiciones impuestas en al numeral anterior, relativo ala
( X ,..., X ) es una estimacin imparcial de con
estimacin de la varianza, si
1
n
varianza mnima en el sentido dela desigualdad de Cramer Rao, entonces,
( X ,..., X ) es una estimacin de
( X ,..., X ) con mxima probabilidad.
1
n
1
n
Sea X una variable aleatoria discreta o continua cuya funcin de probabilidad f(x)
depende de un parmetro . Se efecta n veces un experimento y se obtiene x 1,...,xn
resultados independientes
La probabilidad de que la muestra conste de n elementos es f ( x 1 ) f ( x n ) y en el
caso continuo de que la muestra conste de pequeos valores
x 1 x x 1 x, x 2 x x 2 x,... es f ( x 1 )xf ( x 2 ) x ( x ) n
S estn dados y son fijos los x1,x2,... entonces es una funcin de y es la funcin
de verosimilitud
Se trata de escoger la aproximacin para , para que sea tan pequeo como sea
0, ,
0
1
r
48
confianza Conf {x k x k}
, quedando el nivel de
E[ Z] ( x y)p XY ( x , y)
x
Teorema:
Y g ( X1 ,..., X n ) a i X i ,
Si
entonces,
i 1
a
X
a i E[X i ]
i i
i 1
i 1
E[Y] E
2
y V[Y] a i V[X i ] 2 a i a j Cov[X i , Y j ]
i 1
i 1 j i 1
49
dg ( x )
V[Y] = V[g(X)] V[X ]
dx
mx
dg ( x )
dx
mx
x que es la
1 y a
fx
, tenemos entonces,
b
b
f y ( y)
1 ya
1
fx
dg ( x )
b b
dx
dg ( x )
dx
y g(m x ) m x
fx
mx
dg ( x )
dx
mx
mx
50
B nE
Lnf ( X; )
51