Documentos de Académico
Documentos de Profesional
Documentos de Cultura
MUESTREO Y ESTIMACIN
MUESTREO
Muestra Aleatoria de tamao n es una coleccin de n variables aleatorias, todas con
la misma distribucin y todas independientes. La coleccin de donde extraemos la
muestra aleatoria, se denomina Poblacin. Nuestra intencin al tomar una muestra, es
la de hacer Inferencia. Este trmino lo usamos en estadstica para denotar al
procedimiento con el que hacemos afirmaciones acerca de valores generales de la
poblacin mediante los nmeros que observamos en la muestra.
A un valor calculado con los datos de una muestra es el Estadstico. Al valor del
parmetro en la poblacin es el Estimador. Y es Estimador Puntual cuando se
estima el parmetro poblacional a partir de un valor nico).
Caractersticas probabilsticas de un estimador. Cuando se tiene una frmula para
estimar y se aplica a una muestra aleatoria, el resultado es aleatorio, es decir los
estimadores son variables aleatorias. Por ejemplo si se recibe un embarque de objetos
que pueden estar listos para usarse defectuosos. Podemos seleccionar, al azar,
algunos de ellos para darnos una idea de la proporcin de defectuosos en el
embarque. El parmetro de inters es la proporcin de defectuosos en toda la
poblacin, pero lo que observamos es la proporcin de defectuosos en la muestra.
Valor esperado de un estimador y sesgo. El valor esperado de un estimador nos da
un valor alrededor del cual es muy probable que se encuentre el valor del estimador.
Para poner un ejemplo, si supiramos que el valor esperado de un estadstico es 4,
esto significara que al tomar una muestra: No creemos que el valor de la estadstica
vaya a ser 4, pero tampoco creemos que el valor de la estadstica vaya a estar lejos de
4.
Ya que es muy probable que el valor del estimador est cerca de su valor esperado,
una propiedad muy deseable es que ese valor esperado del estimador coincida con el
del parmetro que se pretende estimar. Al menos, quisiramos que el valor esperado
no difiera mucho del parmetro estimado. Por esa razn es importante la cantidad
que, tcnicamente llamamos sesgo.
Convencin, para efectos del estudio de ahora en adelante se presentan la siguiente
convencin,
y
representan, el parmetro que estamos midiendo y el valor
obtenido en la medida o muestreado, respectivamente
1
El sesgo es la diferencia entre el valor esperado del estimador y el parmetro que
estima.
( ) x E
,
) ( E Sesgo
Si el sesgo 0, se dice que el estimador es insesgado y sta es una caracterstica buena
para un estimador. Un estimador que es insesgado tiene una alta probabilidad de
tomar un valor cercano al valor del parmetro.
Varianza de un estimador. Otra propiedad importante de un estimador es su
varianza. La importancia de la desviacin estndar es que nos permite darle un
sentido numrico a la cercana del valor del estimador a su valor esperado. Entre
menor sea la desviacin estndar de un estimador, ser ms probable que su valor en
una muestra especfica se encuentre mas cerca del valor esperado.
Para aclarar esto, considere dos estimadores T
1
y T
2
, suponga que ambos son
insesgados y suponga que la varianza de T
1
es menor que la de T
2
, lo cual quiere decir
que los valores de T
1
son ms probables que los de T
2
. O sea que vamos a encontrar a
T
1
ms cerca del valor del parmetro que a T
2
. Esto hace que nuestras preferencias
estn con T
1
.
Cuando un estimador tiene una varianza menor que otro decimos que el estimador es
ms eficiente.
La distribucin de probabilidad de un estadstico. Quiz el resultado ms
importante para la estadstica es el Teorema del Lmite Central. Este resultado nos
indica que, para el estadstico promedio de la muestra
- el valor esperado es la media de la poblacin.
- la varianza es igual a la de la poblacin dividida por el nmero de elementos de la
muestra.
- la distribucin de probabilidad es la normal.
Este teorema es muy importante porque permite calcular probabilidades acerca de
dnde se encuentra el valor promedio muestra. Es slo cuestin de usar la tabla
normal teniendo cuidado al estandarizar de usar la desviacin estndar adecuada que
es la de la poblacin dividida por la raz cuadrada del nmero de elementos de la
muestra.
Estimacin del error de una medida directa. La estimacin del error de una
medida tiene siempre una componente subjetiva. En efecto, nadie mejor que un
observador experimentado para saber con buena aproximacin cul es el grado de
confianza que le merece la medida que acaba de tomar. No existe un conjunto de
2
reglas bien fundadas e inalterables que permitan determinar el error de una medida en
todos los casos imaginables.
Muchas veces es tan importante consignar cmo se ha obtenido un error como su
propio valor. Sin embargo, la aplicacin de algunos mtodos estadsticos permite
objetivar en gran medida la estimacin de errores aleatorios. La estadstica permite
obtener los parmetros de una poblacin (en este caso el conjunto de todas las
medidas que es posible tomar de una magnitud), a partir de una muestra (el nmero
limitado de medidas que podemos tomar).
Mejor valor de un conjunto de medidas. Supongamos que medimos una magnitud
un nmero n de veces. Debido a la existencia de errores aleatorios, las n medidas
( )
n 2 1
x ,..., x , x sern en general diferentes. El mtodo ms razonable para
determinar el mejor valor de estas medidas es tomar el valor medio. En efecto, si los
errores son debidos al azar, tan probable es que ocurran por defecto como por exceso,
y al hacer la media se compensarn, por lo menos parcialmente, y este es el valor que
deber darse como resultado de las medidas.
n
1 i
i
x
n
1
x
Tipos de estimacin estadstica. Un problema importante de la inferencia estadstica
es la estimacin de parmetros de la poblacin, brevemente parmetros (tales como la
media y la variacin de la poblacin), de los correspondientes estadsticos mustrales,
o simplemente estadsticos (tales como la media y la variacin de la muestra).
Estimaciones sin sesgo. Si la media de las dispersiones de muestreo con un
estadstico es igual que la del correspondiente parmetro de la poblacin, el
estadstico se llamara estimador sin sesgo o insesgado del parmetro; si no, si no se
llama estimador sesgado. Los correspondientes valores de tal estadstico se llaman
estimacin sin sesgo, y estimacin con sesgo respectivamente.
Ejemplo, la media de las distribuciones de muestreo de medias
x
o
, media de
la poblacin. Por lo tanto, la media muestral es una estimacin sin sesgo de la media
de la poblacin.
Ejemplo, las medias de las distribuciones de muestreo de las variables son
2
s
n
1 n
2
En donde,
2
s sea una estimacin sin sesgo, sin embargo, s es una estimacin
sesgada, pues, en trminos del valor esperado es insesgado
2 2
) S ( E ) X ( E
3
Estimacin Eficiente. Si las distribuciones de muestreo de dos estadsticos tienen la
misma media (o esperanza), el de menor varianza se llama un estimador eficiente de
la media, mientras que el otro se llama un estimador ineficiente, respectivamente. Si
consideramos todos los posibles estadsticos cuyas distribuciones de muestreo tiene la
misma media, aquel de varianza mnima se llama a veces, el estimador de mxima
eficiencia, sea el mejor estimador.
Ejemplo, Las distribuciones de muestreo de media y mediana tienen ambas la misma
media, a saber, la media de la poblacin. Sin embargo, la varianza de la distribucin
de muestreo de medias es menor que la varianza de la distribucin de muestreo de
medianas. Por tanto, la media muestral da una estimacin eficiente de la media de la
poblacin, mientras la mediana de la muestra da una estimacin ineficiente de ella.
De todos los estadsticos que estiman la media de la poblacin, la media muestral
proporciona la mejor (la ms eficiente) estimacin. En la prctica, estimaciones
ineficientes se usan con frecuencia a causa de la relativa sencillez con que se obtienen
algunas de ellas. Estimaciones de punto y estimaciones de intervalo, su fiabilidad,
una estimacin de un parmetro de la poblacin dada por un solo nmero se llama
una estimacin de punto del parmetro. Una estimacin de un parmetro de la
poblacin dada por dos puntos, entre los cuales se pueden considerar encajado al
parmetro, se llama una estimacin del intervalo del parmetro. Las estimaciones de
intervalo que indican la precisin de una estimacin y son por tanto preferibles a las
estimaciones de punto
La Inferencia Estadstica comprende los mtodos que son usados para sacar
conclusiones de la poblacin en base a una muestra tomada de ella. Incluye los
mtodos de estimacin de parmetros y las pruebas de hiptesis.
La Estimacin de parmetros comprende a su vez la Estimacin Puntual, en donde
se estudian los diversos mtodos de encontrar estimadores y las propiedades ptimas
que deben tener stos, y la Estimacin por Intervalos de Confianza, en donde se
estima un parmetro usando un intervalo centrado en un estimado del parmetro y de
longitud igual a dos veces el error de estimacin. El Error de estimacin depende del
nivel de confianza deseado, usualmente, 90, 95 99 por ciento.
En este texto solamente se tratar el clculo de intervalos de confianza. Los diversos
mtodos de encontrar estimadores y, las propiedades de estimadores ptimos son
discutidos en un curso de Estadstica Matemtica.
Una Hiptesis Estadstica es una afirmacin que se hace acerca de un parmetro
poblacional. La afirmacin que est establecida y que se espera sea rechazada
despus de aplicar una prueba estadstica es llamada la hiptesis nula y se
4
representa por H
o
. La afirmacin que se espera sea aceptada despus de aplicar una
prueba estadstica es llamada la hiptesis alterna y se representa por H
a
.
Una prueba estadstica es una frmula, basada en la distribucin del estimador del
parmetro que aparece en la hiptesis y que va a permitir tomar una decisin acerca
de aceptar o rechazar una hiptesis nula.
Al igual que una prueba de laboratorio para detectar cierta enfermedad, una prueba
estadstica no es ciento por ciento segura y puede llevar a una conclusin errnea.
Hay dos tipos de errores que pueden ocurrir. El error tipo I, que se comete cuando se
rechaza una hiptesis nula que realmente es cierta y el error tipo II que se comete
cuando se acepta una hiptesis nula que realmente es falsa.
El nivel de significacin, representada por , es la probabilidad de cometer error tipo
I, y por lo general se asume que tiene un valor de 0.05 0.01.Tambin puede ser
interpretado como el rea de la regin que contiene todos los valores posibles donde
la hiptesis nula es rechazada.
La probabilidad de cometer error tipo II, se representa por y al valor 1- se le llama
la potencia de la prueba. Una buena prueba estadstica es aquella que tiene una
potencia alta. En este captulo, primero se discutir el clculo de intervalos de
confianza y pruebas de hiptesis para la media poblacional, para una proporcin y
finalmente para la varianza de una poblacin. Luego se tratar los intervalos de
confianza y prueba de hiptesis para la razn de dos varianzas poblacionales, para la
diferencia de dos medias poblacionales y por ltimo para la diferencia de dos
proporciones.
Estimaciones de Intervalos de Confianza para parmetros de poblacin. Sean
s y s
la media y la desviacin tpica (error tpico) de la distribucin de muestreo
de un estadstico S. Entonces, si la distribucin de muestreo de s es aproximadamente
normal (que como hemos visto es cierto para muchos estadsticos si el tamao de la
muestra es N 30), entonces, podemos esperar hallar un estadstico muestral real S
que est en el intervalo
( )
s s s
, +
,
( )
s s s
2 , 2 +
,
( )
s s s
3 , 3 +
en un 68.27%, 95.45% y 99.70 %, respectivamente.
En la tabla siguiente, se muestran los niveles de confianza usados en la prctica. Para
niveles de confianza que no aparecen en la tabla, los valores Z
c
se pueden encontrar
gracias a las tablas de reas bajo la curva Normal.
Nivel de
confianza
%
99.70 99.00 98.00 96.00 95.45 95.00 90.00
80.00 68.27 50.00
5
Z
c
3.00 2.58 2.33 2.05 2.00 1.96 1.645 1.28
1.00 0.6745
Intervalos de confianza para la media. Si el estadstico es de la media de X de la
muestra, entonces los limites de confianza
x x
58 . 2 y 9 . 1 t t ,
respectivamente. Si el muestreo de la poblacin es infinita por lo tanto viene dado por
N
Z X
t
Ejemplo. Halar los lmites de confianza de 98% y 90%. Lo anterior tiene la solucin,
sea Z =Z
tal que, al rea bajo la curva Normal a la derecha sea 1%, entonces, por
simetra el rea del lado izquierdo de Z=-Z
o aplicar
( ) n / n 1
n
n
706 . 3 1 . 0 / 648 . 9 96 . 1 n
2 2
Comprobamos que no se cumple, pues en este caso 10.000 < 3.706 (3.706 - 1);
10.000 < 13.730.730, por tanto, usamos
704 . 2 )) 000 . 10 / 706 . 3 ( 1 /( 706 . 3 n +
Donde,
2 /
Z
lo que corresponde en el sentido de la definicin de probabilidad de Laplace a un caso
posible entre las V
N,n
posibles n-uplas de N elementos de la poblacin. Si el orden no
interviene, la probabilidad de que una muestra M=(e
1
,,e
n
) sea elegida es la suma de
las probabilidades de elegir una cualquiera de sus n-uplas, tantas veces como
permutaciones en el orden de sus elementos sea posible, es decir
P(M)=P(e
1
,,e
n
)=n!*P(e
1
,...,e
n
)
n , N
C
1
! N
)! n N (
! n ) M ( P
'
) x ,..., x / x ( f x e
) x / x ( f x e
) x ( f x e
aleatorios erimentos exp n E
1 n 1 n n n
1 2 2 2
1 1 1
,
_
+
,
_
+
000 . 100
600 * t
1
10
600 * t
1
k
El proceso se repite tomando los siguientes nmeros de la tabla de nmeros
aleatorios, hasta obtener la muestra de 10 individuos. Las cantidades u=t/(10
k
) pueden
ser consideradas como observaciones de una variable aleatoria U, que sigue una
distribucin uniforme en el intervalo [0,1]
Mtodo de Montecarlo. El mtodo de Montecarlo es una tcnica para obtener
muestras aleatorias simples de una variable aleatoria X, de la que conocemos
su ley de probabilidad (a partir de su funcin de distribucin F). Con este
mtodo, el modo de elegir aleatoriamente un valor de X siguiendo usando su
ley de probabilidad es:
1. Usando una tabla de nmeros aleatorios se toma un valor u de una variable
aleatoria.
2. Si X es continua tomar como observacin de X, la cantidad x=F
-1
(u). En el caso en
que X sea discreta se toma x como el percentil 100-u de X, es decir el valor ms
pequeo que verifica que F(x)u
Este proceso se debe repetir n veces para obtener una muestra de tamao n.
Ejemplo, Si queremos extraer n=10 muestras de una distribucin N(0,1) podemos
recurrir a una tabla de nmeros aleatorios de k=5cifras, en las que observamos
las cantidades, por ejemplo, 76.293, 31.776, 50.803, 71.153, 20.271, 33.717,
17.979, 52.125, 41.330, 95.141
A partir de ellas podemos obtener una muestra de X~N(0,1) usando una tabla de la
distribucin normal:
Nmeros aleatorios Muestra U(0,1) Muestra N(0,1)
t
i
u
i
=t
i
/10
5
x
i
= F
-1
(u
i
)
76.293 0.76 0.71
31.776 0.32
(=1-0'68)
-0.47
50.803 0.51 0.03
71.153 0.71 0.55
20.271 0.20
(=1-0'80)
-0.84
18
33.717 0.34
(=1-0'66)
-0.41
17.979 0.18
(=1-0'82)
-0.92
52.125 0.52 0.05
41.330 0.41
(=1-0'59)
-0.23
95.141 0.95 1.65
Obsrvese que como era de esperar, las observaciones x
i
tienden a agruparse
alrededor de la esperanza matemtica de X
i
~N(0,1). Por otra parte, esto no implica
que el valor medio de la muestra sea necesariamente cero. Sin embargo como
sabemos por el teorema de Fisher que
10
1 i
i
) 1 . 0 , 0 ( N
N
X
X
su dispersin con respecto al valor central es pequea, lo que implica que
probablemente el valor medio estar muy prximo a 0, cuyo valor es 0.012
Obsrvese que si el problema fuese el inverso, donde nicamente conocisemos las
observaciones x
i
y que el mecanismo que gener esos datos hubiese sido una
distribucin normal de parmetros desconocidos, con la media obtenida hubisemos
tenido una buena aproximacin del parmetro m desconocido.
Muestreo aleatorio estratificado. Un muestreo aleatorio estratificado es aquel en el
que se divide la poblacin de N individuos, en k subpoblaciones o estratos,
atendiendo a criterios que puedan ser importantes en el estudio, de tamaos
respectivos N
1
, ..., N
k
, tal que N= N
1
+ ...+N
k
y realizando en cada una de estas subpoblaciones muestreos aleatorios simples de
tamao n
i
, de donde i=1,,k.
Ejemplo, Supongamos que realizamos un estudio sobre la poblacin de estudiantes
de una Universidad, en el que a travs de una muestra de 10 de ellos queremos
obtener informacin sobre el uso de barras de labios. En primera
aproximacin lo que procede es hacer un muestreo aleatorio simple, pero en
su lugar podemos reflexionar sobre el hecho de que el comportamiento de la
poblacin con respecto a este carcter no es homogneo, y atendiendo a l,
podemos dividir a la poblacin en dos estratos:
- Estudiantes masculinos (60% del total);
- Estudiantes femeninos (40% restante).
de modo que se repartan proporcionalmente ambos grupos el nmero total de
muestras, en funcin de sus respectivos tamaos (6 varones y 4 mujeres). Esto es
lo que se denomina asignacin proporcional.
19
Si observamos con ms atencin, nos encontramos (salvo sorpresas de probabilidad
reducida) que el comportamiento de los varones con respecto al carcter que se
estudia es muy homogneo y diferenciado del grupo de las mujeres. Por otra parte,
con toda seguridad la precisin sobre el carcter que estudiamos, ser muy alta en el
grupo de los varones aunque en la muestra haya muy pocos (pequea varianza),
mientras que en el grupo de las mujeres habr mayor dispersin. Cuando las
varianzas poblacionales son pequeas, con pocos elementos de una muestra se
obtiene una informacin ms precisa del total de la poblacin que cuando la varianza
es grande. Por tanto, si nuestros medios slo nos permiten tomar una muestra de 10
alumnos, ser ms conveniente dividir la muestra en dos estratos, y tomar mediante
muestreo aleatorio simple cierto nmero de individuos de cada estrato, de modo que
se elegirn ms individuos en los grupos de mayor variabilidad. As probablemente
obtendramos mejores resultados estudiando una muestra de 1 varn y 9 hembras.
Esto es lo que se denomina asignacin ptima.
Asignacin proporcional. Sea n el nmero de individuos de la poblacin total que
forman parte de alguna muestra: n=n
1
++n
k.
Cuando la asignacin es
proporcional el tamao de la muestra de cada estrato es proporcional al
tamao del estrato correspondiente con respecto a la poblacin total:
n
i
=n*N
i
/N
Asignacin ptima. Cuando se realiza un muestreo estratificado, los tamaos
muestrales en cada uno de los estratos, n
i
, los elige quien hace el muestreo, y
para ello puede basarse en alguno de los siguientes criterios:
- Elegir los n
i
de tal modo que se minimice la varianza del estimador, para un coste
especificado, o bien,
- habiendo fijado la varianza que podemos admitir para el estimador, minimizar el
coste en la obtencin de las muestras.
As en un estrato dado, se tiende a tomar una muestra ms grande cuando:
- El estrato es ms grande;
- El estrato posee mayor variabilidad interna (varianza);
- El muestreo es ms barato en ese estrato.
Para ajustar el tamao de los estratos cuando conocemos la dispersin interna de cada
uno de los mismos, tenemos el siguiente resultado:
Teorema de Neyman. Sea E una poblacin con N elementos, dividida en k estratos,
con N
i
elementos cada uno de ellos, i=1,,k
k 2 1 k 2 1
N N N N E E E E + + +
Sea n el nmero total de elementos al realizar el muestreo, y que se dividen en cada
estrato como n=n
1
++n
k
20
Sea X la variable aleatoria que representa el carcter que intentamos estudiar. Sobre
cada estrato puede definirse entonces la variable aleatoria
i
X como el valor medio
de X obtenida en una muestra de tamao n
i
en el estrato E
i
. Sea ) X ( V
i
la varianza
de dicha variable aleatoria; Entonces
k
1 i
i
) X ( V
se minimiza cuando
k
i j
j j
i i
i
s N
s N
n n
donde
( )
i
N
1 j
2
i ij i
x x
1 N
1
s
es la cuasi-varianza del estrato E
i
.
Muestreo sistemtico. Cuando los elementos de la poblacin estn ordenados en
fichas o en una lista, una manera de muestrear consiste en,
- Sea k=N/n;
- Elegir aleatoriamente un nmero m, entre 1 y k;
- Tomar como muestra los elementos de la lista: (e
m
,e
m+k
,e
m+2k
,,e
m+(n-1)k
)
Esto es lo que se denomina muestreo sistemtico. Cuando el criterio de ordenacin
de los elementos en la lista es tal que los elementos ms parecidos tienden a estar ms
cercanos, el muestreo sistemtico suele ser ms preciso que el aleatorio simple, ya
que recorre la poblacin de un modo ms uniforme. Por otro lado, es a menudo ms
fcil no cometer errores con un muestreo sistemtico que con este ltimo.
El mtodo tal como se ha definido anteriormente es sesgado si N/n no es entero, ya
que los ltimos elementos de la lista nunca pueden ser escogidos. Un modo de evitar
este problema consiste en considerar la lista como si fuese circular (el elemento N+1
coincide con el primero) y:
- Sea k el entero ms cercano a N/n;
- Se selecciona un nmero al azar m, entre 1 y N;
- Se toma como muestra los elementos de la lista que consisten en ir saltando de k
elementos en k, a partir de m, teniendo en cuenta que la lista es circular.
Se puede comprobar que con este mtodo todos los elementos de la lista tienen la
misma probabilidad de seleccin.
Muestreo por conglomerados. Si intentamos hacer un estudio sobre los habitantes
de una ciudad, el muestreo aleatorio simple puede resultar muy costoso, ya que
estudiar una muestra de tamao n implica enviar a los encuestadores a n puntos
distintos de la misma, de modo que en cada uno de ellos slo se realiza una
entrevista. En esta situacin es ms econmico realizar el denominado
muestreo por conglomerados, que consiste en elegir aleatoriamente ciertos
21
barrios dentro de la ciudad, para despus elegir calles y edificios. Una vez
elegido el edificio, se entrevista a todos los vecinos.
Propiedades deseables de un estimador. Sea X una variable aleatoria cuya funcin
de probabilidad (o densidad de probabilidad si es continua) depende de unos
parmetros
k 1
,..., desconocidos. ) ,..., , x ( f
k 1
. Representamos
mediante X
1
,,X
n
una muestra aleatoria simple de la variable. Denotamos
mediante f
c
a la funcin de densidad conjunta de la muestra, que por estar
formada por observaciones independientes, puede factorizarse del siguiente
modo:
) ,..., , x ( f * * ) ,..., , x ( f * ) ,..., , x ( f ) ,..., , x ,..., x ( f
k 1 n k 1 2 k 1 1 k 1 n 1 c
Se denomina estimador de un parmetro
i
, a cualquier variable aleatoria
i
que
se exprese en funcin de la muestra aleatoria y que tenga por objetivo aproximar el
valor de q
i
, ) X ,..., X (
n 1 i
,
_
+ +
3
, N
3
) X X X (
X ) X , X , X (
3 2 1
3 2 1 1
Carencia de sesgo. Se dice que un estimador
de un parmetro es insesgado si
)
P lim , 0 o 0
P lim , 0
n n
< > > >
Teorema. Como consecuencia de de la desigualdad de Chebyshev se puede
demostrar el siguiente resultado y condiciones,
0 )
( V lim y )
( E lim
n n
entonces
es consistente.
Eficiencia. Dados dos estimadores
2 1
de un mismo parmetro
, diremos
que
1
es ms eficiente que
2
si )
( V )
( V
2 1
<
Suficiencia. Diremos que ) X ,.., X (
n 1
es un estimador suficiente del parmetro
si ) x X ,..., x X ( P
n n 1 1
no dependa de para todo posible valor de
.
Teorema de Fisher-Neyman. Sea ) , x ,..., x ( f
n 1
la distribucin conjunta para las
muestras de tamao n, X
1
,,X
n
. Entonces ) X ,.., X (
n 1
es un estimador
suficiente si y solo si se cumple,
( ) ), X ,..., X (
r * ) x ,..., x ( h ) , x ,..., x ( f
n 1 n 1 n 1
, siendo h una funcin
no negativa que no depende de y r una funcin que slo depende del
parmetro y de la muestra a travs del estimador.
CURVA CARACTERSTICA Y FUNCIN DE POTENCIA
23
Para calcular el error tipo II o se debe especificar la hiptesis alternativa como una
hiptesis simple. Sin embargo, en la mayora de los casos, esta hiptesis se plantea
como compuesta. Al plantearse la hiptesis alternativa como compuesta, no se puede
calcular el error tipo II asociado con la prueba. Sin embargo, para obviar esta
dificultad lo que se hace es asignarle varios valores a la hiptesis alternativa, calcular
el error tipo II y realizar una curva con estos valores. Esta curva recibe el nombre de
"Curva Caracterstica Operativa o Curva OC", y es muy empleada principalmente en
estudios de control de calidad.
Considrese la hiptesis alternativa de la siguiente manera:
Ho: =
0
= 10 H
1
: >
0
n = 9, = 0.05
La regin crtica de esta prueba est en c = 10.548, es decir, se rechaza H
0
= 10 si la
media de la muestra es mayor de 10.548. Para construir la curva OC se presentan en
la tabla siguiente diferentes valores de la hiptesis alternativa con sus respectivas
probabilidades de aceptacin.
9.6 9.8 10.0 10.2 10.4 10.6 10.8 11.0 11.2 11.4 11.6
0.99
8
0.98
8
0.95
0
0.85
2
0.67
2
0.43
8
0.22
5
0.08
8
0.02
5
0.00
5
0.001
La siguiente es la Curva Caracterstica Operativa ( vs ) de la prueba de hiptesis
planteada.
Si se tiene la hiptesis nula H
o
: =
0
contra la hiptesis alternativa H
1
: =
1
el valor
del error tipo II se obtiene como una funcin de los valores alternativos de bajo H
1
,
es decir, para cada valor de
1
se calcula , valor que a veces denotamos por (). La
grfica vs () recibe, como ya se dijo, el nombre de Curva Caracterstica
Operativa, Curva OC, o curva CO.
24
Recordemos que () es la probabilidad de aceptar la hiptesis nula H0 cuando la
verdadera es la hiptesis alternativa H
1
. Por lo tanto, 1-() representa la probabilidad
de rechazar la hiptesis nula cuando la verdadera es la hiptesis alternativa, es decir,
representa la probabilidad de rechazar hiptesis falsas. Sin embargo, en la mayora de
estudios diferentes a los de control de calidad, en vez de la curva caracterstica
operativa se emplea la grfica denominada "Funcin de Potencia", donde se grafica
vs 1-( ).
Funcin de Potencia de una prueba. La funcin P() = 1-() recibe el nombre de
funcin de potencia, y representa la probabilidad de rechazar la hiptesis nula cuando
sta es falsa, es decir, mide la probabilidad de rechazar hiptesis falsas.
El valor de la potencia es 1- y puede interpretarse como la probabilidad de rechazar
de manera correcta una hiptesis falsa. La potencia es una medida muy descriptiva y
concisa de la sensibilidad de una prueba estadstica, donde por sensibilidad se
entiende la capacidad de una prueba para detectar diferencia. Considere la siguiente
prueba de hiptesis:
H
o
: =
0
= 10 H
1
: >
0
n = 9, = 0.05, = 1.
Considere tambin las siguientes regiones crticas:
A: Rechazar H
o
si > 10.65 B: Rechazar H
o
si > 10.45
Para calcular () es necesario darle valores a , y de ah calcular la potencia 1-
().P() = P( >c/ =
1
) = 1-()
Las tablas siguientes presentan los valores de los errores tipo II y de la potencia para
las pruebas planteadas.
Potencia de la prueba P()
10.0 10.2 10.4 10.6 10.8 11.0 11.2 11.4 11.6 11.8
Prueba
A
0.026 0.089 0.227 0.440 0.674 0.853 0.951 0.988 0.998 1.000
Prueba B 0.089 0.227 0.440 0.674 0.853 0.951 0.988 0.998 1.000 1.000
Error tipo II ()
10.0 10.2 10.4 10.6 10.8 11.0 11.2 11.4 11.6 11.8
Prueba
A
0.974 0.911 0.773 0.560 0.326 0.147 0.049 0.012 0.002 0.000
Prueba B 0.911 0.773 0.560 0.326 0.147 0.049 0.012 0.002 0.000 0.000
ESTIMACIN CONFIDENCIAL
25
La estimacin confidencial consiste en determinar un posible rango de valores o
intervalo, en los que pueda precisarse --con una determinada probabilidad-- que el
valor de un parmetro se encuentra dentro de esos lmites. Este parmetro ser
habitualmente una proporcin en el caso de variables dicotmicas, y la media o la
varianza para distribuciones gaussianas.
La tcnica de la estimacin confidencial consiste en asociar a cada muestra un
intervalo que se sospecha que debe contener al parmetro. A ste se le denomina
intervalo de confianza. Evidentemente esta tcnica no tiene porqu dar siempre un
resultado correcto. A la probabilidad de que hayamos acertado al decir que el
parmetro estaba contenido en dicho intervalo se la denomina nivel de confianza.
Tambin se denomina nivel de significacin a la probabilidad de equivocarnos.
Estimacin Puntual. La inferencia estadstica est relacionada con los mtodos para
obtener conclusiones o generalizaciones acerca de una poblacin. Estas conclusiones
sobre la poblacin pueden estar relacionadas con la forma de la distribucin de una
variable aleatoria, con los valores de uno o varios parmetros de la misma.
El campo de la inferencia estadstica se divide en dos: Por un lado tenemos el
problema de la estimacin de los parmetros de una distribucin, y por el otro, las
pruebas de hiptesis. En el problema de estimacin se trata de elegir el valor de un
parmetro de la poblacin, mientras que en las pruebas de hiptesis se trata de decidir
entre aceptar o rechazar un valor especificado (por ejemplo, si la marca A es superior
a la marca B).
A su vez el problema de la estimacin se puede dividir en dos reas: La estimacin
puntual, y la estimacin por intervalos de confianza. En forma similar, en el campo de
26
las pruebas de hiptesis se pueden considerar dos reas: Pruebas de hiptesis sobre
parmetros, para determinar si un parmetro de una distribucin toma o no un
determinado valor, y Pruebas de Bondad de Ajuste, para definir si un conjunto de
datos se puede modelar mediante una determinada distribucin.
Inferencia Estadstica Estimacin Puntual
Intervalos de Confianza
Pruebas de Hiptesis Sobre Parmetros
Sobre Distribuciones
En este captulo trataremos el problema de la estimacin (mediante un solo valor) de
los parmetros de una distribucin, y en el captulo siguiente la estimacin de
parmetros mediante un intervalo, denominado intervalo de confianza.
Estimacin. En el problema de estimacin se trata de elegir el valor de un parmetro
de la poblacin, segn una estrategia de la naturaleza.
Estimacin puntual. La estimacin puntual consiste en utilizar el valor de una
estadstica o un valor estadstico para calcular el parmetro de una poblacin. Por
ejemplo, cuando usamos la media muestral x para estimar la media de una
poblacin (), o la proporcin de una muestra P para estimar el parmetro de una
distribucin binomial .
Una estimacin puntual de algn parmetro de una poblacin es un solo valor
. Es decir,
= T = t(X
1
,X
2
,...,X
n
)
Los estimadores son variables aleatorias, y por lo tanto tienen una funcin de
densidad, correspondiente a las distribuciones mustrales. Por lo tanto, no hay ningn
estimador perfecto, ya que siempre habr algn error en el proceso de estimacin.
Segn lo anterior, deben estudiarse distintas propiedades estadsticas de los
estimadores para decidir cual es el ms apropiado. Algunas de las propiedades a
estudiar corresponden al sesgo, mnima varianza, consistencia, eficiencia relativa y
suficiencia.
Para tratar de responder intuitivamente qu es un buen estimador, considere tres
productos A, B y C para los cuales se hacen proyecciones de demanda. Suponga que
27
al analizar la informacin histrica de cada producto, se calcula la diferencia entre el
pronstico y el valor real para cada producto, y sus distribuciones resultantes son las
siguientes:
A: El mtodo usado para pronosticar la demanda de A es el que mejor hace su
trabajo, ya que queda ms cerca del valor real y tiene una menor varianza.
B: Su pronstico es aproximadamente igual al valor real, pero tiene una mayor
varianza.
C: Peor proyeccin ya que sobrestima la demanda.
En conclusin, si se desea estimar una parmetro , entonces el estimador debe estar
distribuido alrededor de , y tener mnima varianza. Sea X
1
,X
2
,...,X
n
una muestra
aleatoria proveniente de una poblacin cuya funcin de densidad es f(x, ). Sea T =
t(X
1
,X
2
,...,X
n
) un estadstico usado para estimar el parmetro . Nuestro problema
consiste en encontrar la "funcin t" que proporcione la mejor estimacin del
parmetro .
PROPIEDADES DE LOS ESTIMADORES
Estimadores insesgados. Como no hay ningn estimador perfecto que de siempre la
respuesta correcta, debera hacerlo por lo menos en promedio. El valor esperado del
estimador debera ser igual al parmetro que trata de estimar. En caso de que lo sea,
se dice que el estimador es insesgado, en caso contrario se dira que es sesgado.
Definicin. Un estadstico T es un estimador insesgado del parmetro si y solo si
E(T)= para todo . En caso contrario decimos que es un estimador sesgado.
28
Sesgo. Si T es un estimador sesgado, la diferencia E(T) - recibe el nombre de sesgo.
Ejemplo. La media muestral es un estimador insesgado de la media poblacional
ya que E( )=.
Ejemplo. T=X
1
es un estimador insesgado de ya que E(X
1
)=
Ejemplo. Si X es Binomial (n,), demostrar que X/n es un estimador insesgado del
parmetro .
Solucin. Sea
,
_
n
n
1
) X ( E
n
1
n
X
) P ( E
n
X
P
por lo tanto es insesgado
Ejemplo. Sea X
1
, X
2
,..., X
n
una muestra aleatoria con E(X
i
)=. Demostrar que si
N
1 i
i
1 a entonces T = a
1
X
1
+ a
2
X
2
+...+a
n
X
n
es un estimador insesgado de .
Ejemplo: Si S es la varianza de una muestra tomada al azar de una poblacin infinita,
entonces S es un estimador insesgado de . Previamente habamos demostrado que
E(S) = .
Ejemplo. Si
( )
2
n
1 i
i
2
X X
n
1
V
, ser un estimador insesgado de ?. Se puede
demostrar que
2 2
n
1 n
) V ( E
Ejemplo. Sea
( )
2
n
1 i
i
2
X
n
1
W
, ser un estimador insesgado de si es un
parmetro conocido?.
Ejemplo. Ser
( )
2
n
1 i
i
2
X X
1 n
1
S
= X
3
= 15.7.
Es T
1
un estimador insesgado de ?. S puede demostrar que
1 n
n
) T ( E
1
El sesgo b est dado por
1 n +
. Considere
) X , , X ( Max
n
1 n
T
n 1 2
+
. Es T
2
un
estimador insesgado de ? Si se tienen varios estimadores insesgados de un parmetro
por lo general se escoge el que tenga la menor varianza.
Estadsticos de orden. Sea X
1
, X
2
, ..., X
n
una muestra aleatoria de tamao n. Los
valores se presentan de acuerdo al orden en que son tomados. Suponga que la muestra
se ordena de menor a mayor. Sea X(1) el menor valor de la muestra, sea X(2) es
segundo valor, X(i) el valor que ocupa el puesto i al ordenar la muestra de menor a
mayor, y finalmente sea X(n) el mayor valor de la muestra. Esta muestra ordenada,
X(1), X(2),..., X(i),..., X(n) recibe el nombre de "estadsticos de orden". De acuerdo
con lo anterior, los estadsticos T
1
y T
2
formulados en el prrafo anterior se pueden
reformular como:
T
1
= X(n)
n
1 n
T
2
+
Los estadsticos de orden son variables aleatorias, y como tales tienen una funcin de
densidad, y se pueden usar para estimar los parmetros de las distribuciones.
Estimadores con mnima varianza. Si T
1
y T
2
son dos estimadores insesgados con
varianzas V(T
1
)y V(T
2
), respectivamente, y V(T
1
) < V(T
2
), se dice que T
1
es ms
eficiente que T
2
.
Sea X
1
, X
2
, ..., X
n
una muestra aleatoria de tamao n. Sabemos que tanto Xcomo X1
son estimadores insesgados de . Sin embargo es ms eficiente que X
1
para estimar
ya que V( X) = /n < V(X1) = .
Eficiencia Relativa. Los estimadores insesgados suelen compararse en trminos de
sus respectivas varianzas. Si T
1
y T
2
son dos estimadores insesgados de un parmetro
y la varianza de T
1
es menor que la varianza de T
2
, se dice que T
1
es ms eficiente
que T
2
. Tambin se puede usar la siguiente relacin V(T
1
)/V(T
2
) para medir la
eficiencia relativa de T
2
con respecto a T
1
.
30
Ejemplo. Al calcular la media de una poblacin normal sobre la base de una muestra
de tamao 2n+1, cul es la eficiencia de la mediana con relacin a la media?
Se sabe que la varianza de la media X est dada por /(2n+1). Para una muestra
aleatoria de tamao 2n+1 de una poblacin normal se sabe que el valor esperado y la
varianza de la mediana estn dados por:
n 4
) X
~
( V
~
) X
~
( E
2
La eficiencia relativa est dada por:
La eficiencia asinttica de la mediana con respecto a la media est dada por:
la media muestral es un estimador ms eficiente de la media poblacional que la
mediana muestral.
La media requiere slo el 64% de las observaciones que requiere la mediana para
estimar la media poblacional con la misma confiabilidad. Estimador insesgado de
mnima varianza. Para saber si un estimador insesgado es de mnima varianza o con
sesgo mnimo, se usa la desigualdad de Crmer-Rao, dada en el siguiente teorema.
Teorema. Si T es un estimador insesgado de y
2
) , x ( f ln
nE
1
) T ( V
,
_
2
. Como la varianza del estimador no tiende a cero, entonces no es consistente, lo
cual se puede verificar al aplicar la desigualdad de Chebyshev, que expresa lo
siguiente:
la cual no tiende a cero cuando n , es decir, que X
1
no tiende a cuando n es
grande.
Problema. Demostrar que la proporcin muestral P = X/n es un estimador consistente
de la proporcin poblacional .
Ejemplo. Demostrar que S es un estimador consistente de cuando se toman
muestras de una poblacin normal.
Solucin: Sabemos que:
E(S) =
Se observa que V(S) 0 cuando n .
Ejemplo. Demuestre que es un estimador consistente de .
Estimadores suficientes. Se dice que un estimador T es suficiente si utiliza toda la
informacin relevante de la muestra para estimar el parmetro de la poblacin. Es
34
decir, un estimador T es suficiente si todo el conocimiento que se obtiene acerca del
parmetro es mediante la especificacin real de todos los valores de la muestra.
Ejemplo. Se tiene una muestra aleatoria (X
1
, X
2
, ..., X
n
) de tamao 30 tomada de una
poblacin exponencial f(x, ), donde es un parmetro desconocido. Considere las
dos estadsticos siguientes:
30 3 2 1
2
29 5 3 1
1
X X X X
1
T
X X X X
1
T
+ + + +
+ + + +
El estadstico T
1
no es un estimador suficiente del parmetro mientras que T
2
s lo
es.
Definicin. Se dice que un estadstico T = t(X
1
, X
2
, ..., X
n
) es suficiente para un
parmetro si la distribucin conjunta de X
1
, X
2
, ..., X
n
dado T se encuentra libre de
, es decir, si se afirma T, entonces X
1
, X
2
, ..., X
n
no tienen nada ms que decir acerca
de .
Formalmente esto puede expresarse en trminos de la distribucin condicional de los
valores de la muestra, dado que = T. Esta cantidad est dada por,
) t ( g
) x ,.., x ( f
) t ( g
) t , x ,.., x ( f
) t / n X ,..., X ( f
n 1 n 1
N 1
donde la expresin final del numerador se sigue de la condicin de suficiencia.
Utilidad. Si un estimador insesgado T de un parmetro es una funcin de un
estadstico suficiente, entonces tendr la varianza ms pequea entre todos los
estimadores insesgados de . Adems, si existe el estimador ms eficiente de , ste
ser un estadstico suficiente.
Teorema de factorizacin de Neyman. Sea X
1
, X
2
, ..., X
n
una muestra aleatoria de
una distribucin con funcin de densidad f(x,). Se dice que el estadstico T = t(X
1
,
X
2
, ..., X
n
) es un estadstico suficiente para si y solo si la funcin de verosimilitud se
puede factorizar de la siguiente manera:
L(X,) = h(t, ) g(x
1
, x
2
, ..., x
n
)
para cualquier valor t(x
1
, x
2
, ..., x
n
) de T y donde g(x
1
, x
2
, ..., x
n
) no contiene el
parmetro .
Ejemplo. Sea X
1
, X
2
, ..., X
n
una muestra aleatoria de tamao n de una distribucin
gama, cuya funcin de densidad est dada por,
) k (
) t (
e ) t ( f
1 k
t
, t0
35
La funcin de verosimilitud est dada por:
) k (
t t e
) , X ( L
n
1 i
n
1 i
i i
nk
Ejemplo. Sea X
1
, X
2
, ..., X
n
una muestra aleatoria de tamao n de una distribucin de
Poisson con parmetro cuya funcin de densidad est dada por,
! x
e
) t ( f
x
n 1
mv
. Los estimadores de mxima verosimilitud
tienen ciertas propiedades en general que a continuacin enunciamos:
1. Son consistentes;
2. Son invariantes frente a transformaciones biunvocas, es decir, si
mv
es el
estimador mximo verosmil de y )
( g
mv
es
funcin de la muestra a travs de
;
4. Son asintticamente normales;
5. Son asintticamente eficientes, es decir, entre todos los estimadores consistentes
de un parmetro , los de mxima verosimilitud son los de varianza mnima.
6. No siempre son insesgados.
Algunos estimadores fundamentales. Vamos a estudiar las propiedades de ciertos
estimadores que por su importancia en las aplicaciones resultan fundamentales:
37
estimadores de la esperanza matemtica y varianza de una distribucin de
probabilidad.
Estimador de la esperanza matemtica. Consideremos las muestras de tamao n,
X
1
,,X
n
, de un carcter sobre una poblacin que viene expresado a travs de
una variable aleatoria X que posee momentos de primer y segundo orden, es
decir, existen E(X) y V(X):
E(X
i
)= V(X
i
)=
2
El estimador media muestral que denotaremos normalmente como X (en lugar de
es
) X X (
n
1
X
n 1
+ +
verifica:
n ) X ( V ) X ( E
2
Por tanto es un estimador insesgado. Si adems sabemos que X se distribuye segn
una ley gaussiana, es sencillo comprobar que coincide con el estimador de mxima
verosimilitud,
Proposicin. ( ) n / , N X ) , ( N X
mv i
La demostracin es, La funcin de densidad de una observacin cualquiera de la
muestra es: Xi~N(,) para todo x que pertenezca al conjunto de los reales.
Por tanto la distribucin conjunta de la muestra es
) , , x ( f ) , , x ( f ) , , x ( ) , ; x ,.., x ( f
2
n
2
2
2
1
2
n 1 c
Para unos valores x
1
,,x
n
fijados, la funcin de verosimilitud es
( ) ( ) ( )
2
i
n
1 i
2 2
n
2 2
2
2 2
1
x
2
1 n
2 / x 2 / x 2 / x 2
2
n
2
2
2
1
2
e
2
1
e
2
1
* * e
2
1
* e
2
1
) , ( V
) , , x ( f ) , , x ( f ) , , x ( ) , ( V
,
_
,
_
,
_
38
El mximo de la funcin de verosimilitud se alcanza donde lo hace su logaritmo
(monotona), por tanto derivando con respecto a
,
_
n
1 i
n
1 i
mv i
2
mv i
2
2
mv
n x
1
x
n
) , (
V log
0
Es decir, el estimador mximo verosmil de la media poblacional, , coincide con la
media muestral
n
1 i
i mv
x
n
1
como queramos demostrar
El estimador de mxima verosimilitud de para una variable gaussiana es la media
muestral.
La distribucin del estimador muestral X del parmetro poblacional , tiene por
valor esperado al mismo (insesgado), y su dispersin disminuye a medida que
aumenta el nmero de observaciones
39
Estimador de la varianza. A la hora de elegir un estimador de
2
=V(X), podemos
comenzar con el estimador ms natural:
( )
n
1 i
2
i
2
X x
n
1
s
Podemos comprobar que cuando el carcter que se estudia sobre la poblacin es
gaussiano, en realidad este es el estimador mximo verosmil para la varianza. Sin
embargo se comprueba tambin su falta de sesgo, lo que hace mas adecuado que se
utilice como estimador de la varianza al siguiente concepto: cuasivarianza muestral
Proposicin. Xi~N(,), entonces,
2
mv
2
s
Demostracin: Recuperamos el logaritmo de la funcin de verosimilitud, donde en
esta ocasin el primer parmetro ya fue obtenido por el mtodo de mxima
verosimilitud (y vimos que era la media muestral) y tratamos de maximizarla con
respecto al segundo parmetro:
( ) ( )
2
n
1 i
i
2
2 2
x x
2
1
log ) 2 log(
2
n
) , x ( V log
+
Derivando con respecto a
2
e igualando a cero se obtiene el estimador mximo
verosmil:
( )
,
_
n
1 i
2
i
2
2
mv
2
mv
2
mv
2
x x
1
2
1
2
n
) , (
V log
0
Despejando de esta ecuacin se obtiene que el estimador mximo verosmil coincida
con la varianza muestral,
n
1 i
2
i
2
mv
) x x (
2
1
n
1 i
2
i
2
) X X (
n
1
s
no es
2
, y por tanto el estimador mximo verosmil para la varianza no es insesgado.
Ms an, E(
2
)=(n-1)
2
/n
Demostracin. Comenzamos escribiendo los valores esperados
40
,
_
,
_
n
1 i
2 2
i
n
1 i
2 2
i
n
1 i
2
i
2
) X ( E ) X ( E
n
1
X X
n
1
E ) X X (
n
1
E ) s ( E
2
2
2
i
2
i
2
i
2 2 2
i
2
i
2
i i
n
) X ( E ) X ( E ) X ( E ) X ( V
) X ( E ) X ( E ) X ( E ) X ( V
+
+
Luego
,
_
+
n
1 i
2 2
2
2 2 2
n
1 n
n
) (
n
1
) s ( E
Cuasivarianza muestral. Para tener un estimador insesgado de la varianza
introducimos la cuasivarianza muestral
2
s que se define como
n
1 i
2
i
2 2
) X X (
1 n
1
s
1 n
n
s
Es inmediato comprobar que realmente este estimador es insesgado
2 2 2 2
n
1 n
1 n
n
s
1 n
n
E ) s ( E
,
_
Esa esperanza puede ser calculada de un modo ms directo, ya que la distribucin del
estimador
2
es conocida usando el teorema de Cochran:
,
_
n
1 i
2
1 n
2
i
2
2
X X ns
luego
4
2
2
2
2
2 2
2
2
n
) 1 n ( 2
) s ( V ) 1 n ( 2
ns
V
n
1 n
) s ( E 1 n
ns
E
,
_
,
_
Teorema: Sean X
1
,...,X
3
variables aleatorias que tienen una distribucin conjunta
absolutamente continua, la condicin suficiente y necesaria qpara que sean
independientes es que la densidad conjunta de ellas sea,
f x x f x
X X n
j
n
X j
n j 1
1
1
,...,
( ,..., ) ( )
x
Y / X Y / X
dt ) y / t ( f ) y / x ( F
Teorema: Si X y Y son variables aleatorias que tiene una distribucin conjunta
absolutamente continua, entonces, en todo punto (x,y) en el que f
X,Y
(x,y) sea continua
y, adems, sea f
Y
(y)>0 continua, existe una densidad condicionada de X dada Y,
) y ( f
) y , x ( f
) y / x ( f
Y
Y , X
Y / X
Densidades de funciones de variables aleatorias. Sean las variables aleatorias X
1
,...X
n
que tienen distribucin conjunta absolutamente continua, y es necesario calcular la
densidad de una variable aleatoria Y que es funcin de X
1
,...,X
n
, siendo ella suma de
stas. Sea
S E
n
( )
un conjunto incluido en el espacio Euclideo E de dimensin n, el
cual se define como
42
} a ) x ,... x ( u ,..., a ) x ,..., x ( u ) x ,..., x {( S
n n 1 n 1 n 1 1 n 1
con a
i
constantes. Las probabilidades
S
n 1 n 1 x ,..., X n 1
dx ... dx ) x ,..., x ( f ... ] S ) X ,..., X [( P
n 1
Y sea que el determinante del Jacobiano no sea nulo para (u ,..., )
1
u
n
, siendo
} n i 1 , b ) u ,..., u ( x a ) u ,... u {(
i n 1 i i n 1
n
n
2
n
1
n
n
2
2
2
1
2
n
1
2
1
1
1
n 1
n 1
u
x
...
u
x
u
x
... ... ... ...
u
x
...
u
x
u
x
u
x
...
u
x
u
x
) u ... u (
) x ,.., x (
cos r sen
rsen cos
) , r (
) y , x (
=r,
para n=2, u
1
=r, u
2
= , x
1
=X=rcos , x
2
=y=rsen , y por consiguiente,
cos r
y
y sen
r
y
, rsen
x
, cos
r
x
y por tanto se tendr
1
1
2
2
b
a
R
b
a
rdrd ) rsen , cos r ( H dxdy ) y , x ( H
de donde
{ }
2 2 1 1
b rsen a , b cos r a ) , r ( R
Teorema: Sean X
1
,...,X
n
variables aleatorias que tienen una distribucin conjunta
absolutamente continua, y sean u
1
(x
1
,...,x
n
),...,u
n
(x
1
,...,x
n
) una aplicacin en el espacio
E
(n)
en s mismo que satisface a las condiciones exigidas en el teorema anterior con
cambio de variables en las integrales mltiples. Sea U
i
=u
i
(X
1
,..,X
n
), Entonces,
U
1
,...,U
n
tiene distribucin conjunta absolutamente continua y densidad,
43
( )
) u ,..., u (
) x ,..., x (
) u ,.., u ( x ),..., u ,.., u ( x f ) u ,.., u ( f
n 1
n 1
n 1 n n 1 1 X ,.., X n 1 U ,..., U
n 1 n 1
Teorema: Sean X
1
,...,X
n
variables aleatorias independientes, cada una de ellas con
una distribucin absolutamente continua, y sean r
1
,...,r
k
, k enteros positivos, tales que,
r
1
+...+r
k
=n. Entonces, la k variables aleatorias
n 1 r n r r 1 r r 1
X ... X ,..., X ... X , X ... X
k 2 1 1 1
+ + + + +
+ + +
son independientes.
ESTIMACIN PUNTUAL
Sea un conjunto fundamental de probabilidades asociado con una sigma - algebra
de sucesos w y probabilidad P, y se tendr en X una variable aleatoria definida sobre
.
( ) n
est constituido por todos los posibles (w
1
,...,w
n
) para todas las elecciones
posibles w
1
,...,w
2
en . Se trabajar con w
(n)
al elemento de
( ) n
El sigma - anillo
( ) n
, entonces para toda A A
n 1
,.., , se
define,
A A w w A w A
n
n n
n n 1 1 1
{ ,..., }
( ) ( )
que contienen a
) n (
, esto significa que
) n (
son
la interseccin de todos los sigma anillos de subconjuntos de
) n (
que contienen a
) n (
. Por lo anterior solo hay que demostrar,
- La interseccin de cualquier sigma anillo de
) n (
es un sigma - anillo
- El conjunto de sigma anillos que contienen a
) n (
no es vaco
Lema: Sea {
( ) n
, entonces,
es un sigma anillo.
44
Otro problema importante, es definir la probabilidad P
(n)
sobre
( ) n
, y para cada
suceso rectangular en
( ) n
, A A
n 1
lo que se define como
n
1 i
i n 1
) n (
) A ( P ) A A ( P
Al tomar una muestra con restitucin, permite manejar elementos independientes,
entonces,
( ) ) A ( P A P
i
) n (
i , i ) n (
. Esto es,
n
1 i
i n 1
) n (
) A ( P ) A A ( P
Teorema: Las funciones X
1
,..,X
n
definidas sobre
( ) n
como se ha explicado
anteriormente, son variables aleatorias independientes entre s y cada una con la
misma funcin que X
Las variables aleatorias X
1
,..,X
n
independientes e idnticamente distribuidas, indica
que en n observaciones de la variable X no guardan relacin entre s.
Si tomamos la muestra sin restitucin de elementos de , cada n-upla w
(n)
vendra
constituida por n elementos procedentes de la poblacin , entonces
( ) n
sera el
conjunto de estas n-uplas.
Sea la sucesin infinita X
1
,..,X
n
de variables aleatorias, como observaciones
independientes,
) (
n 1
) (
,...) w ,.., w ( w
y se define
( ) ) w ( X w X
n n
) (
n
( ) n
.
Una variable aleatoria U es una estimacin Imparcial de , sui la esperanza de U
existe y es E[U]= , cualquiera sea el valor de este parmetro: E[U/ ]=
Una sucesin {U
n
} es Consistente de estimaciones de la constante , si U
n
P
,
cualquiera sea . En otras palabras,
[ ] n para , 0 U P
n
, con
> 0,
45
Teorema: Sea una poblacin y X una variable aleatoria observada definida sobre
la misma poblacin, la cual tiene distribucin discreta o absolutamente continua y
donde existe el segundo momento de orden finito. Si X
1
,..,X
n
son n observaciones
independientes de X y s X=(X
1
+...+X
n
)/n, entonces, X
n
es una estimacin imparcial y
consistente de E[X]
Teorema: Tanto
n
2
como s
n
2
son estimaciones consistentes de Var[X]. Demostrar
que s
n
2
es una estimacin imparcial de Var[X], pero no
n
2
, siendo Var[X[ una
estimacin imparcial.
Teorema: Sea U
n
una variable aleatoria definida sobre
( ) n
, y supongamos que ella
es una estimacin imparcial de y adems que EU
n
[ ]
2
< . Si V
1
,V
2
,... es una
sucesin de observaciones independientes de U
n
, y sea Z
n
=(V
1
+...V
n
)/n para todo n,
entonces la sucesin {Z
n
} es una sucesin consistente de
Sea una poblacin y sean ligadas a ella una serie de constantes
1
,...,
k
que estn
por conocerse, y no se pueden medir directamente, entonces, sea X una variable
aleatoria definida sobre la poblacin de tamao n, y {X
n
} es una sucesin de
observaciones independientes de X, y sobre la cual conocemos la distribucin
) / x ( F
i X
. El problema consiste en hallar las estimaciones.
El gran problema reside, y para ello trabajemos con dos variables desconocidas
1 2
,
, en que se debe suponer que
< ] X [ E
4
y que se conocen los dos primeros
momentos m
1
y m
2
y que son funciones de
1 2
y . Adems hay que suponer que
n
1 k
2
P 2
k n 1
P
n
m X
n
1
V y m X
y por ltimo, que las funciones
1 2
( , ) ( , ) x y y x y son tales que
) m , m ( ) V , X ( y ) m , m ( ) V , X (
2 1 2
P
n n 2 2 1 1
P
n n 1
,
con lo cual finalmente se demuestra que,
{ } { } ) V , X ( y ) V , X (
n n 2 n n 1
son
sucesiones consistentes de estimaciones de
1 2
y , respectivamente.
Teorema: Sea f(x,y) una funcin y sean {X
n
} y {Y
n
} unas sucesiones de las variables
aleatorias tales que
b yY a X
P
n
P
n
, siendo a y b constantes, entonces, f es continua
en (a,b) y si f(X
n
,Y
n
) es variable aleatoria para cualquier n, entonces,
46
( ) ) b , a ( f Y , X f
P
n n
Estimacin de Varianza Mnima. Trabajando con la distribucin de Poisson como
ejemplo. Sea X una variable aleatoria definida sobre una poblacin , con
distribucin de Poisson
... 1 , 0 x , ! x / e ] x X [ P
x
,
siendo > 0 la constante desconocida, entonces al realizar n pruebas independientes
de X, sean X
1
,...,X
n
y a partir de ellas hacer la estimacin de esta variable.
Se calcula E[X] y E[X
2
] y se tienen unos valores de y
2
+ , de donde la varianza
resulta ser , y por tanto, X
n
como s
n
2
son estimadores consistentes e imparciales
de
Sea X una variable aleatoria definida sobre la poblacin y sean X
1
,...,X
n
sus n
observaciones independientes, y supongamos que la funcin de distribucin de X es
absolutamente continua (lo cual es vlido para el caso discreto), entonces la funcin
f
X
(x) es la densidad de X que es de una variable desconocida , f(x/ ).
Para trabajar con un ejemplo, sea
X N ( , ) 01
, entonces la funcin de densidad puede
ser, < <
,
_
x ,
2
) x (
1 exp
2
1
) / x ( f
2
Sea
(X
1
,...,X
n
) una estimacin imparcial de . Y adems, para mnima varianza
de lo anterior se debe cumplir: El conjunto A de todos los valores posible de mes
un intervalo abierto, acotado o no;
f x ( / )
debe existir para todo < < x ; las
expresiones
,
_
n 1
n
1 i
i
dx ... dx ) / x ( f ...
y
,
_
n 1
n
1 i
i n 1
dx ... dx x ( f ) x ,..., x (
...
puedan derivarse bajo el signo integral con respecto a ; y finalmente,
<
,
_
2
) X ( Logf
E
para todo A
Teorema. (Desigualdad de Cramer Rao): Con las hiptesis mencionadas
anteriormente, demostrar,
47
( )
2
n 1
A
) X ( Logf
E
n
1
) X ,..., X (
Var
,
_
,
teniendo en cuanta que el signo igual solo es vlido cuando exista una constante k,
que depende de y n, tal que la probabilidad
2
n
1 k
k
) X ( Logf
E
n
1
) X ( Logf
,
_
Principio de Mxima Probabilidad. Sea X una variable aleatoria definida sobre una
poblacin con una distribucin discreta o absolutamente continua. Sea f(x/ ) la
densidad dependiente de x y de desconocido. El problema es estimar . Sean
X
1
,...,X
n
observaciones de X con una densidad conjunta f(x
1
,...,x
n
/ )
Se debe procurar siempre encontrar una estimacin (X
1
,...,X
n
) de para la cual
f(X
1
,...,X
n
/ ) sea mximo. En la prctica es hallar como una funcin de x
1
,...,x
n
) X ,..., X (
n 1
para qua la funcin f(x
1
,...,x
n
/ ) resulte maximizada y entonces se
sustituyen las observaciones.
Teorema: Supuestas las condiciones impuestas en al numeral anterior, relativo ala
estimacin de la varianza, si ) X ,..., X (
n 1
es una estimacin imparcial de con
varianza mnima en el sentido dela desigualdad de Cramer Rao, entonces,
) X ,..., X (
n 1
es una estimacin de ) X ,..., X (
n 1
con mxima probabilidad.
Sea X una variable aleatoria discreta o continua cuya funcin de probabilidad f(x)
depende de un parmetro . Se efecta n veces un experimento y se obtiene x
1
,...,x
n
resultados independientes
La probabilidad de que la muestra conste de n elementos es ) x ( f ) x ( f
n 1
y en
el caso continuo de que la muestra conste de pequeos valores
,... x x x x , x x x x
2 2 1 1
+ + es
n
2 1
) x ( x ) x ( xf ) x ( f
S estn dados y son fijos los x
1
,x
2
,... entonces es una funcin de y es la funcin
de verosimilitud
Se trata de escoger la aproximacin para , para que sea tan pequeo como sea
posible (el cual debe ser derivable),
0
48
Intervalo de Confianza: Es la estimacin por intervalos teniendo en cuenta el error
mximo, intervalo en le cual est el valor exacto. Se escoge una probabilidad
) ( P
2 1
y este es el intervalo de confianza } { Conf
2 1
que son los limites de confianza
Ejemplo, para el valor medio de la distribucin normal con varianza conocida y un
nivel de confianza del 95%, tenemos,
96 , 1 c , 95 , 0 con
y calculamos el valor
medio de la muestra x
1
,...,x
n
de tamao n, y luego,
n
c
k
, quedando el nivel de
confianza
} k x k x { Conf +
Si
Teorema: Si
n
1 i
i i n 1
X a ) X ,..., X ( g Y
, entonces,
1
]
1
n
1 i
i i
n
1 i
i i
] X [ E a X a E ] Y [ E
y
+
+
n
1 i
n
1 i j
j i j i
n
1 i
i
2
i
] Y , X [ Cov a a 2 ] X [ V a ] Y [ V
49
Teorema: Sea Z=aX+bY, entonces se cumple que,
] Y , X [ abCov 2 ] Y [ V b ] X [ V a ] Z [ V
2 2
+ +
Teorema: Si Z=XY, entonces,
] Y [ E ] X [ E ] Y , X [ Cov ] Z [ E +
,
y s X y Y estn correlacionadas, entonces, E[Z]=E[X]E[Y].
Y si X y Y son independientes, entonces,
2
y
2
x
2
x
2
y
2
y
2
x
m m ] XY [ E + +
La esperanza condicional es til para la prediccin. La medida es la prediccin de Y
que tiene un error cuadrtico esperado mnimo
] ) m Y [( E
2
y
1
]
1
que es la
derivada de g(x) con respecto a x calculada en m
x
.
Si el coeficiente de variacin es menos que el 10%, es claro que el error de esta
aproximacin es menor que el 1%. Si el valor de V
x
es pequeo, X es probablemente
muy cercano a m
x
, entonces, es aplicable la serie de Taylor,
+
+ +
2
2 2
x
m x x
dx
) x ( g d
2
) m X (
dx
) x ( dg
) m X ( ) m ( g ) X ( g
x
para encontrar la distribucin aproximada de Y, al menos en la regin media.
Desarrollando Taylor de Y=g(X) dejando los dos primeros trminos lineales de X:
X
dx
) x ( dg
dx
) x ( dg
m ) m ( g Y
x x
m m x x
1
]
1
+
1
]
1
que es de la forma Y=a+bX y sabiendo que
f y
b
f
y a
b
y x
( )
_
,
1
, tenemos
entonces,
'
1
]
1
+
,
_
x
x
x
m
m x x
x
m
x y
dx
) x ( dg
dx
) x ( dg
m ) m ( g y
f
dx
) x ( dg
1
b
a y
f
b
1
) y ( f
Un estimador de mxima verosimilitud de una muestra aleatoria X
1
,...,X
n
es el
valor de que maximiza a L(X
1
,...,X
n
; ) con L(X
1
,...,X
n
; )=f(X
1
; )f(X
2
;
50
)...f(X
n
; ) siendo f(x; ) la funcin de distribucin de probabilidad de X calculada
en x, como para P[X=x] si X es discreta
Sea X
1
,..,X
n
la muestra aleatoria de la variable aleatoria X y x
1
,...,x
n
sus valores
mustrales, la funcin de probabilidad L, L(X
1
,...,X
n
; )=f(X
1
; )...f(X
n
; )
Si X es discreta L(x
1
,...,x
n
; ) representa P[X
1
=x
1
,X
2
=x
2
,...,X
n
=x
n
]
Si X es continua L(x
1
,...,x
n
; ) representa la funcin de distribucin de probabilidad
conjunta de (X
1
,X
2
,...,X
n
)
Propiedades: El estimador puede ser sesgado, el cual se puede evitar multiplicacin
por una constante apropiada. En condiciones generales son convergentes, esto es, si n
es muy grande, el estimador tiende al valor del parmetro.
Si
,
f es la funcin de probabilidad puntual o funcin de distribucin de probabilidad de X
dependiendo de s X es discreta o continua y se supone que es un nmero real.
51