Está en la página 1de 48

Captulo 6

DISTRIBUCIONES
MUESTRALES
6.1. Distribuciones muestrales
Denicion 6.1 Una poblacion esta formada por la totalidad de
las observaciones en las cuales se tiene interes
Una muestra es un conjunto de observaciones seleccionadas de
una poblacion.
Denicion 6.2 (Muestra aleatoria) Sean X
1
, X
2
, X
3
, , X
n
una muestra de tama no n que cumple las condiciones
a. Las X
i
son variables aleatorias independientes, para cada
i = 1, 2, 3, , n
b. Cada observacion X
i
tiene la misma distribucion de probabi-
lidad
Denicion 6.3 (Estadstica) . Una estadstica es cualquier fun-
cion de las observaciones de la muestra aleatoria y de parametros
que pueden ser estimados, pero no depende de estos parametros, es
decir
f (x) = (x
1
, x
2
, x
3
, , x
n
,
1
,
2
,
m
) = f (X, ) ,
y se cumplen las siguientes condiciones
217
218 Probabilidad y Estadstica
a. La variable X es una variable muestral
b. El parametro es identicable, es decir, si
1
=
2
entonces
f (x,
1
) = f (x,
2
) .
Ademas se dice que la estadstica es suciente si y solo si la
distribucion condicional entre la muestra y la estadstica no
es funcion del parametro.
Ejemplo 6.1 Ejemplos de estadsticas son:

X =

n
i=1
X
i
n

2
=

n
i=1
(X
i
)
2
n
S
2
=

n
i=1
_
X
i


X
_
2
n 1
Como la estadstica es una variable aleatoria a su distribucion se
le llama distribucion muestral o de muestreo.
6.2. Combinaciones lineales de variables
aleatorias
Denicion 6.4 Sean X
1
, X
2
, X
3
, , X
n
una muestra aleatoria de
tama no n y c
1
, c
2
, c
3
, , c
n
constantes, entonces:
Si
X =
n

i=1
c
i
X
i
entonces
E (X) =
n

i=1
E (X
i
) y V (X) =
n

i=1
c
2
i
V (X
i
)
219 Probabilidad y Estadstica
Ejemplo 6.2 Se toma una muestra aleatoria de tama no n con me-
dia y varianza
2
para cada X
i
, de la muestra distribuida nor-
malmente, entonces
E
_
n
i=1
X
i
n
_
=
V
_
n
i=1
X
i
n
_
=

2
n
.
Donde

X tiene una distribucion aproximadamente normal
Teorema 6.1 (Desigualdad de chebychev) . Si una distribu-
cion de probabilidades tiene una media y la desviacion tipo ,
la probabilidad de obtener un valor que se desvie de la media una
cantidad k veces la desviacion tipo es menor que
1
k
2
.
Simbolicamente sera
P (|x | > k) <
1
k
2

1
2
( )
{
n
5
m m
<
2

2 +
2k
1
2
2k
1
2
P (|x | > k) <
1
k
2
Demostracion. Para probar este teorema, cosideremos una
distribucion cualquiera denida por una funcion de probabilidad
f(x)con media y varianza
2
es decir,
220 Probabilidad y Estadstica

2
=

todax
(x )
2
f(x) =

xR
1
(x )
2
f(x)
+

xR
2
(x )
2
f(x) +

xR
3
(x )
2
f(x)
si
R
1
= {x : x < k},
R
3
= {x : x > +k},
R
2
= {x : k x +k}.
Entonces

xR
1
(x )
2
f(x) +

xR
3
(x )
2
f(x)
ya que (x)
2
> 0, f(x) > 0 y ademas tenemos que |x| > k
2

2
por tanto

2
>

R
1
k
2

2
f(x) +

R
3
k
2

2
f(x) =
1
k
2
>

R
1
f(x) +

R
3
f(x)
y como x esta en R
1
R
3
, esto implica que
1
k
2
> P(|x | > k).
Para el caso en que X sea una variable continua, la demostracion
se le deja al lector.
Este teorema se puede expresar tambien de la siguiente forma
P(k |x |) > 1
1
k
2
En el captulo 2 se establecio que las
medidas de dispersion indican la variabilidad de las observaciones
alrededor de una medida de tendencia central, es decir si una vari-
able aleatoria tiene una varianza ( que es una medida de variabiliad)
221 Probabilidad y Estadstica
0
0.02
0.04
0.06
0.08
30 40 50 60 70 80
u
2
1
1
k

2
2 +
Figura 6.1: P(k |x |) > 1
1
k
2
peque na se espera que la mayoria de los datos esten concentrados
alrededor de la media. De esta manera la probabi nidad de que una
variable tome un valor dentro de cierto intervalo alrededor de la me-
dia es mayor que para una variable que tenga una varianza mayor
en el mismo intervalo. como podemos observarlo en las guras
para 4 X 4 tenemos que el area bajo la curva de N (0, 0,5)
es mayor que la de N (0, 3). El teorema de Chebysshev nos dice que
para que las probabilidades sean aproximadamente iguales debe
darse que k = 8, es dedcir para N (0, 3) el intervalo es 24 X
24
Ademas de lo anterior este teorema nos proporciona una estimacion
de la probabilidad que una variable aleatoria asume dentro de un
intervalo determinado por k desviaciones de la media sin importar
222 Probabilidad y Estadstica
la forma como esta distribuida la variable aleatoria . Ahora en el
caso que la distribucion de la variable tenga la forma de la Normal
existe una regla emprica para determinar el porcentaje de elemen-
tos que deben estar dentro de cierto intervalo determinado por k
desviaciones de la media. Y es la siguiente
Aproximadamente el 68 % de los elementos estan a menos de
una desviacion estandar de la media
Aproximadamente 95 % de los elementos estan a menos de
dos desviaciones estandar de la media
Casi todos los elementos estan a menos de tres desviaciones
estandar de la media
Teorema 6.2 (Ley de los grandes n umeros) . Sea un experimento
de donde A es un suceso asociado a el y consideramos n repeti-
ciones independientes del experimento, sea n
A
el n umero de veces
que ocurre A en las n repeticiones y sea
f
A
=
n
A
n
, P (A) = p, entonces
> 0, p
1 p
n
2
P (|f
A
p| ) .
Ejemplo 6.3 La tabla 1 muestra los costos por litro, en centavos
223 Probabilidad y Estadstica
de dolar, de la gasolina de alto octanaje en 19 ciudades del mundo
Ciudad costo por litro
Amsterdam 57
Bruselas 53
Buenos Aires 38
Hong Kong 57
Johannesburgo 48
Londres 56
Madrid 59
Manila 46
Mexico 25
Montreal 47
Nairobi 57
New York 40
Oslo 65
Pars 58
Ro de Janeiro 42
Roma 76
Sigapur 59
Sidney 43
Tokio 79
a. Determine el intervalo especicado por el teotrema de Chebichev
que contendra al menos el 75 % de los datos.
b. Que porcentaje de las medidas dista realmente menos dos
desviaciones estandar de la media?
1. a) Tenemos ue la media es 52.89 centavos y la varianza es
167.32 centavos
2
por tanto de acuerdo con teorema de
Chebichev, al menos 1-
1
4
de la muestra dista 2s de la
media, entonces

X 2s = 27,01

X + 2s = 78,77.
Por tanto el interalo es (27,01, 78,77)
224 Probabilidad y Estadstica
b) En la tabla se observa que 17 de los 19 datos se en-
cuentran en el intervalo especicado en (a) es decir el
89.14 % este resultado no es una contradiccion ya que el
teorema de Chebichev determina una cota inferior para
el porcentaje de datos que distan mas o menos 2 desvia-
ciaciones de la media.
Ejemplo 6.4 Suponga que el asistente promedio a un partido de
beisbol de ligas mayores para juegos locales es de 35,000 personas,
con una desviacion estandar de 4,200 . Use el teorema de Chebicev
para determinar
Un intervalo que contenga al menos el 80 % de las aistencias a
los juegos locales .
Ejemplo 6.5 La proporcion mnima de los juegos locales que tienen
una asistencia de 25,000 a 46,000 personas
Solucion 6.5.1 Establecemos 1-
1
k
2
= 0,8 por tanto k =2.24, en-
tonces
(26, 092, 44, 908)Como los intervalos que determina chebichev son
simetricos a la media entonces el ancho del intervalo es
r =

X +ks
_

X ks
_
= 2ks,
entonces
r = 21, 000
k = 2,5
entonces
1
1
(2,5)
2
= 0,84
Ejemplo 6.6 El proceso de taladrar agujeros en tarjetas de cir-
cuitos impresos, produce diametros con una desviacion estandar de
0.01 milmetros Cuantos diametros es necesario medir para que la
probabilidad sea al menos
8
9
de que el promedio de los diametros
medidos se encuentre a no mas de 0.005 milmetros del diametro
promedio del proceso?.Suponga que la muestra es aleatoria e igual-
mente distribuida.
225 Probabilidad y Estadstica
Solucion 6.6.1 Del ejemplo ?? se tiene que E
_

X
_
= y
V
_

X
_
= 0,01
2
/n, entonces al aplicar el teorema de Chebichev se
tiene
1
k
2
P
_

k
_
0,01
2
/n
_
1/2
_
,
1
9
P
_

3
_
0,01
2
/n
_
1/2
_
,
8
9
P
_

< 3
_
0,01
2
/n
_
1/2
_
=
0,05 = 3
_
0,01
2
/n
_
1/2
=
n = 36.
Ejemplo 6.7 Un proceso de manofactura funciona de manera que
hay una probabilidad p de que cada artculo producido es defec-
tuoso, y p se desconoce. Una muestra aleatoria de n artculos se
seleccionara para estimar p. El estimador que se usara es p =
Y
n
,
donde
X
j
=
_
0, si el artculo j-esimo esta bueno
1, si el artculo j-esimo esta defectuoso
y
Y = X
1
+X
2
+X
3
+ +X
n
se desea que la probabilidad sea al menos 0.95 y que el error | p p| ,
no exceda de 0.01
Solucion 6.7.1 Para determinar el valor de n tomamos = 0,01
y = 0,05 al aplicar la ley de los grandes n umeros tenemos que
n
p (1 p)

As como p no se conoce suponemos que toma el peor caso posible,


es decir cuando p (1 p) es maximo por en este caso la varianza es
maxima . Y ese valor es p =
1
2
, entonces nos queda
n
(0,5) (0,5)
(0,01)
2
(0,05)
= 50000
Lo cual nos indica que la muestra es muy grande
226 Probabilidad y Estadstica
6.3. Teorema central del lmite
Teorema 6.3 Si una variable Y =

n
i=1
X
i
, donde
X
1
, X
2
, X
3
, , X
n
, es ua secuencia de n variables independientes
con E(X) =
i
y V(X
i
) =
2
, ambas nitas, entonces
Z
n
=
Y

n
i=1

i
_

n
i=1

2
i
,
Tiene una distribucion N(0, 1) aproximadamente cuando n.
Ahora si F
n
es la distribucion de Z
n
entonces,
lm
n
F
n
(z)
(z)
= 1
El echo de que Y N(, ) y que las x
i
pueden tener distribu-
ciones diferentes es un echo importante. A pesar de que el teorema
tiene una gran importancia teorica nos quedara el problema de cual
debe ser el valor de n para que la aproximaci on sea satisfactoria.
Por lo que debemos considerar lo siguiente
1. Buencomportamiento.Si la distribucion tiene buen com-
portamiento, es decir la distribucion de las x
i
no se desv`a en forma
radical de la distribucion normal, en este caso n 4.
2. Comportamiento moderado. Las distribuciones de las
x
i
no tienen un modo prominente y se parece mucho a la densi-
dad uniforme, en este caso n 12.
3. Comportamiento nocivo.La distribici`on tiene la mayor
parte de su medida en los extremos, en este caso, n 100
En las gracas se observa que cuando se aumenta el valor de n el
area determinado por histograma es cada vez mas proxima al area
de la distibucion normal. En las tres ultimas gracas observamos
lo mismo en el caso de que el histograma no sea simetrico. Aunque
las variables X
i
las podemos considerar discretas ya que tomamos
n valores de cada una de las n variables, para analizar mejor este
caso consideraremos que las podemos agrupar en k clases y como
k =

n entonces si aumentamos el valor de n aumenta el valor de
k entonces analicemos gracamente cada caso
227 Probabilidad y Estadstica
z
k = 6
z
k = 12
z
k = 28
u
k = 9
u
k = 19
u
k = 35
Como observamos a medida que aumenta k se aproxima a la dis-
tribucion Normal y cuando aumenta k aumenta n.
228 Probabilidad y Estadstica
Ejemplo 6.8 Un estudio de transito revela que el n umero de ocu-
pantes de un coche es 1.75 y la desviacion estandar 0.65. En una
muestra de 50 coches, encuentre la probabilidad de que un n umero
promedio de ocupantes sea mayor que 2
Solucion 6.8.1 Como = 1,75 y = 0,65 entonces
X
= 1,75 y

X
= 0,092 por tanto
z =
2 1,75
0,092
= 2,72,
as
P
_

X > 2
_
= P
_

Z > 2,72
_
= 0,0033
Ejemplo 6.9 El gerente de una agencia de credito ha calculado
que el monto promedio del dinero solicitado por los clientes para
un coche nuevo es de 4,685.54 dolares, y la desviacion estandar de
748.72 dolares. S i durante el mes siguiente 40 personas reciben
prestamos para automovil, Cual es la probabilidad de que el monto
promedio solicitado este entre 4,500 y 4,800 dolares?
Solucion 6.9.1 Entonces
X
=$4685.54 y
X
= $118,38, entonces
z =
4500 4685,54
118,38
= 1,57
z =
4800 4685 54
118,38
= 0,97
por lo que
P (4500 < X < 4800) = P (1,57 < Z < 0,97)
= 0,7758
6.4. Aproximacion a una distribucion nor-
mal estandar
Teorema 6.4 (Demoivre-Laplace.) Supongase que Y tiene una
distribucion binomial con n pruebas y con probabilidad de tener
229 Probabilidad y Estadstica
exito en cualquier prueba denotada por p. Por lo que podemos con-
siderar a Y, como el n umero de exitos en n pruebas, como una suma
de una muestra formada por ceros y unos. Entonces

X =
Y
n
tendra aproximadamente una distribucion normal con
E (X
i
) = p
V (X
i
) =
p (1 p)
n
Ahora indicaremos como obtener una buena aproximaci on.
Si p se acerca a 0.5 y n > 10 la aproximacion es muy buena.
En general si np > 5 para0.5 p o cuando nq > 5 si p > 0,5
Si p se acerca al 0 o al 1 la aproximacion no es buena
n = 100 p = 0,15
230 Probabilidad y Estadstica
n = 100 p = 0,5
Ejemplo 6.10 Durante una epidemia de gripa, se enfermaron el
30 % de la poblacion. En un caserio de 2000 personas, Cual es
la probabilidad de que al menos 40 padezcan de la enfermedad?,
calcular la probabilidad de que 60 personas padezcan con gripa.
Solucion 6.10.1 Tenemos que la variable aleatoria que representa
las personas con gripa es binomial
X B(n = 200, p = 0,3)
= np = 60

2
= npq = 42
X X
N
N(60, 42)
P (40 X) = P
_
40 60

42

X 60

42
_
= 0,999
P (X = 60) =
_
200
60
_
p
60
q
140

2
e

(60)
2

2
= 0,063
Otra forma de realizarlo es
P (X = 60) P (60,5 X
N
59,5) = 0,0638
6.5. Distribucion ji- cuadrado
Teorema 6.5 Sean Z
1
, Z
2
, Z
3
, , Z
k
variables aleatorias distribui-
das normalmente e independientes con media cero y varianza uno,
231 Probabilidad y Estadstica
entonces la variable aleatoria
X
2
=
k

i=1
Z
2
i
tiene una dsitribucion e probabilidad llamada JI-CUADRADO con
k grados de libertad.
Donde = k y
2
= 2k, si
k =
2
N
_
,
2
_
Y su funcion de densidad es :
f

,k
_
0 si x (, 0]
1
2
k
2

_
k
2
_
x
k
2
1
e

x
2
si x (0, )
Si k X
2
N(,
2
) como indica la gura.
0
0.05
0.1
0.15
0.2
5 10 15 20 25
u
0
0.2
0.4
0.6
0.8
1
5 10 15 20 25
x
Denicion 6.5 Denamos X
2
,k
como el punto porcentual o valor
de la variable aleatoria ji-cuadrada con k grados de libertad tal que
la probabilidad de que X
2
k
exceda a este valor es . Esto es .
P{X
2
k
X
2
,k
} =
_

X
2
,k
f
X
2(u), du =
Esta probabilidad se muestra como el area sombreada en la g,
P (X
2
) = 1 P (X
2
) =
232 Probabilidad y Estadstica
Teorema 6.6 (Aditividad de la Ji cuadrado) Si
X
2
1
, X
2
2
, X
2
3
, , X
2
p
, son variables aleatorias ji-cuadradas indepen-
dientes con
k
1
, k
2
, k
3
, , k
p
grados de libertad respectivamente, entonces la can-
tidad
Y = X
2
1
+X
2
2
+X
2
3
+ +X
2
p
sigue una distribucion ji-cuadrada con grado de libertad k =

p
i=1
k
i
Ejemplo 6.11 Un ejemplo de una estadstica ji-cuadrada es:
supongase que X
1
, X
2
, X
3
, , X
n
es una muestra aleatoria de una
poblacion normal. con media y varianza
2
la funcion de varianza
muestral :
(n 1)S
2

2
se distribuye como X
2
n1
Ejemplo 6.12 Encuentre el valor
2
0,10,13
el valor es 19.812
Ejemplo 6.13 Determine la probabilidad P(38,582
2
6,844)
6.6. Distribucion t o Student
Teorema 6.7 Sea Z N(0,1) y V una variable ji-cuadrada con k
grados de libertad ,si Z y V son independientes, entonces la variable
233 Probabilidad y Estadstica
aleatoria .
T =
Z
_
V
k
Se dice que tiene una distribucion t con k grados de libertad y se
abrevia t
k
La media y la varianza de la distribucion t son = 0
2
=
k
k2
para k > 2.
y tiene una distribucion
f (t) =

_
n+1
2
_
(n)
_
n
2
_
_
1 +
t
2
n
_

n+1
2
si < t <
La apariencia general de la distribucion t es similar a la de una
distribucion normal estandar, ya que ambas son simetricas, uni-
modales y el valor de la ordenada es maxima cuando = 0. Sin
embargo, la distribucion t tiene mas masa probabilstica en las co-
las .
Cuando el n umero de grados de libertad k t N(0, 1)
Funcion de densidad
Student
Funci on de
distribucion Student
Denicion 6.6 Sea t
,k
el punto porcentual o valor de la variable
t con k grados de libertad tal que
P{t t
,k
} =
_

t
,k
f(t), dt =
Observe que como t es simetrica con respecto al cero, la siguiente
relacion se cumple.
t
1,k
= t
,k
234 Probabilidad y Estadstica
P (X t) = P (t X t) = P (|X| t) =
Por ejemplo si queremos encontrar los valores t
,k
para los cuales
0,05 tenemos :
P{t t
0,05,10
} = P{t 1,813} = 0,05
del mismo modo para la cola inferior t
0,95,10
y t
0,05,10
es -1.813.
Ejemplo 6.14 Supongase que X
1
, X
2
, X
3
, , X
n
, es una muestra
aleatoria de una distribucion normal con media y varianza
2
, y
sean X y S
2
la media y la varianza de la muestra . considerese la
estadstica .
X
S

n
t
n1
tiene una distribucion t con n-1 grados de libertad.
Ejemplo 6.15 Suponga que de una poblacion con una media de
14 se toma una muestra de tama no 11, si la media muestral es 18
y la desviacion muetral es de 14.3 determine la probabilidad de que
la media muestral sea mayor que la poblacional.
Ejemplo 6.16 Suponga que de una poblacion n0rmal con media
= 20 se toma una muestra de tama no 16. Si la desviacion estandar
S = 4, encuentre P
_

X < 21, 753


_
235 Probabilidad y Estadstica
Solucion 6.16.1 Encontramos un valor t para 21,753. Como
t =
21, 753 20
4/4
= 1, 753
As
P
_

X < 1, 753
_
= 1 P
_

X 1
_
buscando en la tabla obtenemos
P
_

X < 1, 753
_
= 1 0,05

gl 0.01 0.05 0.025 0.010


12 1.356 1.782 2.179 2.681
13 1.350 1.771 2.160 2.650
14 1.345 1.761 2.145 2.624
15 1.341 1.753 2.131 2.602
16 1.337 1.746 2.120 2.583
Por tanto P(

X > 1.753) =.05


6.7. Distribucion F
Teorema 6.8 Sean W y Y variables aleatorias JI-cuadrado inde-
pendientes con u y v grados de libertad respectivamente . EL co-
ciente
F =
W
u
_
V
v
se dice que tiene una distribucion f co u grados de libertad en el
numerador y v grados de libertad en el denominador y se denota:
F
u,v
La media y la varianza son:
=
v
v 2
para v > 2
y

2
=
2v
2
u(u +v + 2)
u(v 2)
2
(v 4)
si v > 4.
236 Probabilidad y Estadstica
y su funcion de distribucion es
h(f) =
_
_
_
0 si 0 f

(
u+v
2
)(
u
v
)
u
2
f
u
2
1

(
u
2
)

(
v
2
)[(
u
v
)
f +1
]
u+v
2
si f > 0
La variable aleatoria F es no negativa y la distribucion es asimetrica
a la derecha, como podemos observar F se asemeja a la ji-cuadrado,
pero F esta centrada alrededor de 1 y los parametros u y v lo cual le
proporcionan mayor exibilidad en cuanto a la forma de su graca
.
Funcion de
densidad F
Funci on de
distribucon F
Denicion 6.7 Sea F
,u,v
el punto porcentual de probabilidad de la
distribucion F, con u y v grados de libertad, tal que la probabilidad
de que f exceda este valor es:
P(F F
,u,v
) =
_

F
,u,v
h(f), df =
Los puntos porcentuales de la cola inferior pueden encontrase as :
F
1,u,v
=
1
F
,v,u
P (X u) = P (u X) = 1
237 Probabilidad y Estadstica
Ejemplo 6.17 Si tenemos dos poblaciones normales con varian-
zas
2
1
y
2
2
y si tomamos dos muestras aleatorias independientes
de tama no n
1
y n
2
de las poblaciones 1 y 2 respectivamentes y que
S
2
1
y S
2
2
son las varianzas muestrales entonces:
S
2
1

2
1
_
S
2
2

2
2
Tiene una distribucion F con n
1
1 y n
2
1 grados de libertad en
el numerador y en el denominador respectivamente.
Los puntos porcentuales de la cola inferior F
1,u,v
=
1
F
,v,u
Ejemplo 6.18 En una prueba sobre la efectividad de dos pldoras
para dormir, A y B se utilizaron dos grupos independientes de per-
sonas con insomnio, a un grupo de tama no 40 se le administraro la
pldora A y al otro grupo B de tama no 60 se la admisnistro la pldo-
ra B, registrandose el n umero de horas de sue no de quienes usan
cada tipo de pldora Si se supone que las distribuciones da cada
una de las muestras es normal y que
2
1
=
2
2
calcule el valor del
estadstico F y determine P
_
S
2
1
S
2
2
> 1,8
_
Ejemplo 6.19 Si S
2
1
y S
2
1
representan las varianzas de variables
aleatorias independientes de tama no n
1
= 8 y n
2
= 12, tomadas de
poblaciones normales con iguales varianzas, encuentre la
P
_
S
2
1
S
2
2
< 4,89
_
Ejemplo 6.20 Determine f
0,95
con v =19 y u = 24
Captulo 7
Estimacion de parametros
7.1. Estimadores puntuales
7.1.1. Deniciones
Denicion 7.1 (Inferencia estadstica) Es el proceso mediante
el cual se utiliza la informacion de los datos de una muestra para
establecer un modelo probabilstico de la poblacion de la cual se
extrajo la muestra, y luego determinar conclusiones mediante dos
procesos llamados:
Estimacion de parametros, en la estadstica parametrica.
prueba de hipotesis.
Denicion 7.2 Un estimador es una regla que establece como cal-
cular una estimacion basada en las mediciones hechas en una mues-
tra.
Denicion 7.3 Un estimador puntual de una muestra es un para-
metro de la poblacion que toma un solo valor numerico de una es-
tadstica, correspondiente a ese parametro.
Es decir si x es una variable aleatoria con distribucion de probabil-
idad f(x) que contiene un parametro desconocido y si
X
1
, X
2
, X
3
, . . . , X
n
es una muestra aleatoria, entonces la estadsti-
ca

= h(x
1
, x
2
, x
3
, . . . , x
n
) correspondiente a , se llama estimador
de .
238
239 Probabilidad y Estadstica
7.1.2. Propiedeades de los estimadores
Una propiedad que quisieramos que tuviera un estimador puntu-
al es que su valor este muy proximo al valor verdadero del parametro
desconocido.
sesgo de
1

2 sesgo de

1
pdf de
pdf de
2
pdf de
estimadores sesgados
Podemos decir al analizar la gura que

1
es mejor que

2
Denicion 7.4 Si

es un estimador de se dice que

es un
estimador insesgado o neutral si y solo si E(

) = .
Denicion 7.5 Si un estimador cumple que E(

) = + B se le
llama sesgado de con sesgo B .
Ejemplo 7.1 Supongase que X es una variable aleatoria con media
y varianza
2
, sea X
1
, X
2
, X
3
, . . . , X
n
una muestra aleatoria de
X, de tama no n. demuestre que la media muestral

X y la varianza
muestral S
2
son estimadores insesgados de y
2
, respectivamente.
240 Probabilidad y Estadstica
Solucion 7.1.1 Sea
E
_

X
_
= E
_
n
i=1
X
i
n
_
=
1
n
E
_
n

i=1
X
i
_
=
1
n
n

i=1
E (X
i
)
=
1
n
n

i=1
=
Ya que E(X
i
) = para toda i=1,2,3, , n. Por lo tanto, la me-
dia muestral es un estimador insesgado de la media poblacional
Consideremos ahora la varianza S
2
,
E
_
S
2
_
= E
_

n
i=1
_
X
i


X
_
2
n 1
_
=
1
n 1
n

i=1
E[
_
X
i


X
_
2
]
=
1
n 1
n

i=1
E[X
2
i
2X
i

X + (

X)
2
]
=
1
n 1
_
n

i=1
E(X
2
i
) 2E
_
n

i=1
X
i

X
_
+nE[(

X)
2
]
_
=
1
n 1
_
n

i=1
E(X
2
i
) 2E
_
n

X

X
_
+nE[(

X)
2
]
_
=
1
n 1
_
n

i=1
E (X
i
)
2
nE[
_

X
_
2
]
_
1
n 1
_
n
2
+n
2
n
2

2
_
=
2
Ya que E(X
2
i
) =
2
+
2
y E[
_

X
_
2
] =
2
+

2
n
.
241 Probabilidad y Estadstica
Sin embargo S es un estimador sesgado de , pero si el tama no de
la muestra es grande el sesgo es despreciable
!/1/0
!/1/0
Mejor estimador insesgado
En la graca se observa la funcion de distribucion de dos esti-
madores insesgados de donde

1
es mejor que

2
por tener menos
varianza. Lo cual analizaremos a continuacion
Denicion 7.6 El error cuadratico medio de un estimador

se
dene como:
ECM(

) = E(

)
2
Se opuede demostrar que:
ECM(

) = V (

) +B
2
Donde B es el sesgo.
!/1/0
!/1/0
Estimador sesgado de mnima varianza
242 Probabilidad y Estadstica
Si tenemos dos estimadores insesgados es mejor el que tiene ECM
_

_
menor , esto se ve claramente al observarla ??, que

1
,es mejor es-
timador que

2
Denicion 7.7 Sean

1
y

2
dos estimadores del parametro , en-
tonces la eciencia relativa entre los dos estimadores es:
EF
_

1
,

2
_
=
ECM(

1
)
ECM(

2
)
En algunos casos un estimador sesgado es mejor que uno insesgado.
Como se indica en la ??
Ejemplo 7.2 Sean

1
,

2
dos estimadores de tal que
E
_

1
_
= , V
_

1
_
= 4
E
_

2
_
= + 0,3, V
_

2
_
= 0,02
Cual estimador es mejor
Solucion 7.2.1 Determinemos la eciencia entre los dos estimadores
EF
_

1
,

2
_
=
4
0,02 + 0,09
= 36,36
Por tanto

2
,es mejor estimador que

1
Ejemplo 7.3 Tenemos una muestra aleatoria de n observaciones
y deseamos comparar dos posibles estimadores de la muestra, es
decir, X
i
por tanto
ECM
_

X
_
ECM (X
i
)
=
1
n
Ya que
1
n
< 1 concluiremos que la media de la muestra es un mejor
estimador de que la media de un solo observador
243 Probabilidad y Estadstica
Denicion 7.8 El estimador

n
es un estimador consistente de
si para cualquier positivo, se tiene:
lm
n
P(|

n
| ) = 1
o en forma eqivalente:
lm
n
P(|

n
| > ) = 0
A veces aplicar la denicion del estimador consistente, es muy
dcil por lo que se usa para estimadores insesgados, lo siguiente:
El estimador insesgado

n
para es un estimador consistente de
si lm
n
V (

n
) = 0 . La demostracion es una consecuencia inmediata
del teorema de Chebyshev. Haciendo k =

V (

n)
.
Si (

n
) es un estimador consistente de entonces se dice que (

n
)
converge en probabilidad a .
Teorema 7.1 Sea Z una estadstica basada en la muestra aleatoria
X
1
, X
2
, X
3
, . . . , X
n
entonces Z es una estadstica suciente para

si y solo si existen dos funciones, no negativas, g y h tal que


f(x, ) = g(z, )h(x)
Donde f(x, ) se dene como la probabilidad de la muestra
x
1
, x
2
, x
3
, . . . , x
n
si Z es discreta y si es continua, f es la densidad
conjunta evaluada en x
1
, x
2
, x
3
, . . . , x
n
.
7.2. Metodo de la maxima verosimili-
tud
Denicion 7.9 Sea X
1
, X
2
, X
3
, . . . , X
n
una muestra aleatoria y
f(X, ) una funcion de la muestra y del parametro . Se llama
funcion de verosimilitud a:
L() = f(x, ) para un x jo, donde x = (x
1
, x
2
, x
3
, . . . , x
n
). y se
busca un valor estimado

=

(x) para tal que :
L(

) = max

L()
244 Probabilidad y Estadstica
si tal valor

existe se llama valor estimado seg un el metodo de
la maxi ma verosimilitud o ML-estimacion de .
Si tenemos una funcion q() la ML-estimacion de ella es q(

) .
nota1. Si tenemos una muestra aleatoria X tal que f(x, ) = 0 para
qualquier , entonces cada es una ML-estimacion

para ,
.ahora si tenemos una muestra aleatoria donde no ocurre esto
la funcion L() sera derivable y por lo tanto sera mas facil
buscar el maximo de ln L en lugar del maximo de L, es decir
se obtiene

como solucion de las ecuaciones :
ln L()

k
= 0 parak = 1, 2, 3 . . . , K
Para obtener una ML-estimacion

de unica, tenemos que
vericar que la matriz de las componentes

2
ln L()

k
l, k = 1, 2, 3, . . . , K se dena negativa.
nota2. El ML-estimacion consiste en buscar un valor

que hace que
la ocurrencia de la observaci on X se encuentre en una region
mas densa, en el caso continuo y mas probable en el caso
discreto.
Ejercicios 1 1. Para cada j = 1, 2, 3, . . . , J se supone el modelo
:
Y
j,k
=
j
+e
j,k
: e
j,k
N(0,
2
j
) :
k = 1, 2, 3, . . . , K.independientes
Demuestre que los ML-estimaciones para la J-esima muestra
:
Y
j,1j
, . . . , Y
j,k
son :

j
= Y
j,
,
2
j
=
K

k=1
(Y
j,k
Y
j,
)
2
/K
245 Probabilidad y Estadstica
2. Para variables muestrales Y
i
P() : i = 1, 2, 3, . . . , n en-
cuentre la ML-estimacion

de .
3. Para variables muestrales Y
i
U[0, ]; i = 1, 2, 3, . . . , n En-
cuentre la ML-estimacon

de .
4. Para variables muestrales Y
i
exp(); i = 1, 2, 3, . . . , n En-
cuentre la ML-estimacon

de .
5. Sea X
1
, X
2
, X
3
, . . . , X
n
una muetra aleatoria de la funcion de
densidad de probabilidad:
f(x) =
_
e
(x)
si x 0
0 en otro caso
6. Demuestre que X
(1)
= mn(X
1
, X
2
, X
3
, . . . , X
n
) es suciente
para
7. Sean X
1
, X
2
, X
3
, . . . , X
n
independientes y distribuidos identi-
camente, tales que
P(X
i
= 1) = p y P(X
i
= 0) = 1p paratodo i = 1, 2, 3, . . . , n
Demuestre que
n

i=1
X
i
es suciente para p.
8. Sea X
1
, X
2
, X
3
, . . . , X
n
una muesta aleatoria de una distribu-
cion de poisson con parametro . demuestre que
n

i=1
X
i
es
suciente para .
7.3. Metodo de los mnimos cuadrados
Denicion 7.10 A pesar de que este metodo presenta algunas li-
mitaciones, tiene la gran ventaja, que para aplicarlo nacesita de
pocos supuestos .
1. las variables muestrales X
i
: i = 1, 2, 3, . . . , n son independientes
y tendran la forma :
Y
i
=
i
() + e
i
246 Probabilidad y Estadstica
con E(e
i
) = 0 y V (e
i
) =
2
donde
2
no depende de ni de i .
2. No se necesita alg un conocimiento sobre la distribucion f(y, )
de la muestra .
Denicion 7.11 Se observan los datos y
1
, y
2
, y
3
, . . . , y
n
,, haciendo
los errores e
i
= y
i

i
() i = 1, 2, 3, . . . , n . Se nesecita el esti-
mador

de tal que el error total cuadratico sea mnimo esto es:
Si W() =
n

i=1
e
2
i
=
n

i=1
(y
i

i
())
2
W(

) = mn

W()
si tal valor

existe se llama valor estimado de seg un el metodo
de los mnimos cuadrados o LS-estimacion
Generalmente la funcion W es n-derivable, en cuyo caso se ob-
tiene

como una solucion de las ecuaciones.
W()

k
= 0
para k = 1, 2, 3, . . . , K, = (
1
,
2
, . . . ,
K
)
Hay que vericar que

es un posible valor de y que realmente sea
el mnimo. Si k 2 es suciente probar que la matriz de todas las
segundas derivadas :

2
W()

l

k
l, k = 1, 2, 3, . . . , K es denida positiva.
Ejercicios 2 1. Determinar las LS-estimaciones delos paramet-
ros de la tarea. 1, del 1 al 5
2. Para obtener una idea de que efecto tienen dos somnferos 1
y 2, se hizo el siguiente experimento, se escogieron k = 10
personas ; se aplicaron a todas las personas los dos somnfer-
os con debidos intervalos de tiempo y se midieron para cada
persona k las horas y
jk
que dorman mas con el somnfero j
comparado con el tiempo que dorman sin ning un somnfero .
Los datos del experimento fueron:
y
1k
1.9 0.8 1.1 0.1 -0.1 4.4 5.5 1.6 4.6 3.4
y
2k
0.7 -1.6 -0.2 -1.2 -0.1 3.4 3.7 0.8 0.0 2.0
247 Probabilidad y Estadstica
determinar las LS- estimaciones

y

suponiendo que el mod-
elo es:
Y
2k
= +Y
1k
+e
k
;
k = 1, 2, 3, . . . , K,
E(e
k
) = 0, V (e
k
) =
2
Captulo 8
Intervalos de conanza
En las secciones anteriores se trato los metodos para estimar
un parametro puntual, usando una estadstica adecuada

(x) cuyo
valor

se toma como el valor estimado del valor desconocido , pero


en muchas situaciones este metodo no nos proporciona suciente
informacion acerca del parametro de interes, ya que solo el n umero
puede no tener mucho signicado, entonces hay que hacer lo si-
guiente:
Denicion 8.1 Teniendo una muestra aleatoria X
1
, X
2
, X
3
, . . . , X
n
que tiene una distribucion f(x, ), la cual es conocida para cada
parametro dado un dato x = (x
1
, x
2
, x
3
, . . . , x
n
), se procede a bus-
car dos estadsticas L(x) y U(x) que cumplan
L(X) U(x) para cada posible dato x tal que :
P(L(X) < < U(x)) 1
0
pra cierto
0
(0, 1) jo lo mas
cercano posible a 1
0
.
A I(x) = (L(x), U(x)) se le llama intervalo de conanza para a
un nivel de conanza 1
0
.
En la practica se usan niveles
0
= 5 %, 1 %, 0, 1 % ya que la
idea es encontrar un intervalo de conanza tal que la probabilidad
de que el parametro de interes se encuentre dentro sea alto.
Por esta razon nos interesa un intervalo con lmites muy proximos
y con un nivel de conanza elevado.
248
249 Probabilidad y Estadstica
0
1
L(X) U(X)

Una interpretacion correcta de la conanza1


0
tiene que
ver con el concepto de probabilidad estocastica, es decir que si un
experimento A se realiza una y otra vez de frecuencia relativa se
acerca mas al valor de la probabilidad cuantas mas veces se realice.
O sea lo que obtenemos es la probabilidad de que el 100 (1
0
) %
de los intervalos posibles con amplitud U (X) L(X) contienen al
parametro .
valor verdadero de
En la graca estamos suponiendo que solo podemos construir 10
intervalos de longitud U (X) L(X). (En realidad se pueden con-
struir innitos) Observamos en la graca que solo un intervalo no
contiene el parametro , es decir, que el nivel de conanza es del
90 %.
250 Probabilidad y Estadstica
8.1. Intervalo de conanza como esti-
macion
En muchas aplicaciones se usa una estimacion

= q(

), de
= q() para tomar L(x) =

D, U(x) =

+D con D = D(x)
una estadstica escogida tal que cumpla la denicion de intervalo
de conanza, es decir:
I(x) = (

D,

+D)
Entre mas peque no sea D(x) o la longitud del intervalo mas precisa
sera la estimacion
Nota: D puede depender o no de x.
Ejemplo 8.1 Se tiene una variable de interes con esperanza de-
sconocida y varianza
2
conocida, entonces se toma como parametro
= .
Hay que suponer que las variables muestrales X
i
N(,
2
) for-
man una muestra X de tama no n para la variable de interes, por
tanto
= X es una estimacion puntual razonable para por lo cual
se buscara un intervalo de conanza donde se debe derterminar la
estadstica D tal que:
P(X D < < X +D) = 1
0
dado
0
y para ello se hace lo siguiente :
X D < < X +D
D < X < D

Dn
1/2

<
n
1/2
(X )

<
Dn
1/2

Ahora si hacemos Z =
n
1/2
(X)

N(0, 1) y z =
n
1/2
D

entonces
P(X D < < X +D) = (z) (z) = 2(z) 1 = 1
0
jando
0
se obtiene el valor de z y luego D =
z
n
1/2
251 Probabilidad y Estadstica
0
1
0
/2

0
/2

0
/2

0
/2

NOTA : Si aumentamos el tama no de la muestra se puede obten-
er un intervalo de conanza de una longitud tan peque na como se
quiera.
Ejemplo 8.2 Consideremos ahora que no se conoce, entonces en
este caso = (, ) con = q() = , que es lo que se va a estimar
.
En este caso Z =
n
1/2
(X)
S
T(n1) o sea que
2
es reemplazada
por su estimacion insesgada .
Como T
n1
es simetrica entonces
P(Z z) =
0
/2 obteniendo as la estadstica D =
Sz
n
1/2
, que
ahora si depende de la muestra
NOTA: Para una muestra ja de tama no n y una desviacion
estandar , cuanto mas alto es la nivel de conanza 100(1
0
) %,
es mayor la longitud del intervalo de conanza resultante.
Como la longitud del intervalo de conanza mide la presicion de la
estimacion, observamos que la presicion se relaciona inversamente
con el nivel de conanza resultante.
8.2. Eleccion del tama no de la muestra
La presicion del del intervalo de conanza en el ejercicio 9 es
z
n
1/2
, es decir el error e que se determina al usar X para estimar
debe ser e = |X | < D, con un nivel de conanza 100(1
0
) %
lo que implica, que si el tama no de la muestra se puede controlar,
252 Probabilidad y Estadstica
podemos escoger en n tal que el error especico e sea mayor que el
error al estimar para un nivel de conanza 100(1
0
).
De lo que se deduce
z

n
e (
z
e
)
2
n
8.3. Intervalos de conanza sobre la difer-
encia de medias
Ejemplo 8.3 Considerese dos variables aleatorias X
1j
y X
2k
con
medias
1
y
2
, respectivamente, conocidas y con varianzas
2
1
y
2
2
,
respectivamente, conocidas. Encontrar un intervalo de conanza del
100(1
0
) % para la diferencia de las medias
1
y
2
.
Sea X
11
, X
12
, X
13
, . . . , X
1n
1
, una muestra aleatoria de tama no n
1
y
X
21
, X
22
, X
23
, . . . , X
2n
2
, una muestra aleatoria de tama no n
2
Si X
1
y X
2
son las medias de las muestras, la estadstica:
Z =
X
1
X
2
(
1

2
)
_

2
1
n
1
+

2
2
n
2
N(0, 1)
Si X
1j
y X
2k
son normales o aproximadamente normales de acuerdo
con el teorema central del lmite, entonces:
P
_
X
1
X
2
D <
1

2
< X
1
X
2
+D
_
= 1
0
De lo que se deduce que:
P
_
_
D
_

2
1
n
1
+

2
2
n
2
< Z <
D
_

2
1
n
1
+

2
2
n
2
_
_
= 2(z) 1
Y como (z) = 1
0
/2 si jamos
0
tenemos que z =
D

2
1
n
1
+

2
2
n
2
,
entonces D = z
_

2
1
n
1
+

2
2
n
2
y si n
1
= n
2
tenemos que; el tama no de
la muestra se acota :
(
z
e
)
2
(
2
1
+
2
2
) n
253 Probabilidad y Estadstica
Ejemplo 8.4 Sean dos variables aleatorias independientes X
1j
y
X
2k
con medias
1
y
2
, respectivamente, conocidas, y con varian-
zas
2
1
y
2
2
, respectivamente ,desconocidas. Encontrar un intervalo
de conanza del 100(1
0
) % para la diferencia de las medias
1
y
2
.
Sea X
11
, X
12
, X
13
, . . . , X
1n
1
, una muestra aleatoria de tama no n
1
y
X
21
, X
22
, X
23
, . . . , X
2n
2
, una muestra aleatoria de tama no n
2
Si X
1
y X
2
son las medias de las muestras y S
2
1
y S
2
2
las var-
ianzas muestrales, entonces S
2
1
y S
2
2
son estimadores de
2
1
y
2
2
respectivamente, por lo que hay que considerar dos casos :
si
2
1
=
2
2
= , entonces podemos encontrar un estimador
ponderado de es decir :
S
2
=
(n
1
1)S
2
1
+ (n
2
1)S
2
2
n
1
+n
2
2
De lo que podemos deducir :
(n
1
+n
2
2)S
2

2
=
(n
1
1)S
2
1

2
+
(n
2
1)S
2
2

2
que es la suma de dos ji-cuadradas con n
1
1 y n
2
1 grados
de libertad .
Ahora podemos determinar el intervalo de conanza
P{X
1
X
2
D <
1

2
< X
1
X
2
+D} = 1
0
despues de ciertas operaciones llegamos a que podemos trans-
formar la expresion en una que depende de:
X
1
X
2
(
1

2
)
S
_
1
n
1
+
1
n
2
t
n
1
+n
2
2
si jamos
0
obtenemos la estadstica D = t

0
/2
S
_
1
n
1
+
1
n
2
NOTA : en los ejemplos 10 y 12 tenemos que si n
1
y n
2
son
mayores que 30, la distribucion t se aproxima a N(0, 1) por
lo que el intervalo obtenido en el ejemplo 9 es equivalente al
de estos dos casos .
254 Probabilidad y Estadstica
Si las varianzas poblacionales son diferentes obtenemos una
estadstica :
t =
X
1
X
2
(
1

2
)
_
S
2
1
n
1
+
S
2
2
n
2
t
v
donde:
v =
(
S
2
1
n
1
+
S
2
2
n
2
)
2
(
S
2
1
n
1
)
2
n
1
+1
+
(
S
2
2
n
2
)
2
n
2
+1
2
de lo que se deduce que :
D = t
/2,v

S
2
1
n
1
+
S
2
2
n
2
8.4. Intervalo de conanza sobre la var-
ianza de una distribucion normal
Ejemplo 8.5 Se tiene una variable de interes que se distribuye
normalmente con esperanza desconocida y varianza
2
descono-
cida, entonces se toma como parametro =
2
.
Hay que suponer que las variables muestrales X
i
N(,
2
) forman
una muestra X de tama no n para la variable de interes, por tanto
si S
2
es la varianza muestral. determine el intervalo de conanza
100(1
0
) % respecto a
2
Tenemos que determinar P(h(z)
2
g(z)) = 1
0
donde g(z)
y h(z) son funciones positivas .
Como
(n1)S
2

2

2
n1
si jamos
0
encontramos que :
h(z) =
(n 1)S
2

0
/2,n1
y g(z) =
(n 1)S
2

2
1
0
/2,n1
255 Probabilidad y Estadstica
8.5. Intervalo de conanza sobre la razon
de varianzas de dos distribuciones
normales
Ejemplo 8.6 Sean dos variables aleatorias independientes X
1j
y
X
2k
con medias
1
y
2
, respectivamente,desconocidas, y con vari-
anzas
2
1
y
2
2
, respectivamente ,desconocidas. Encontrar un inter-
valo de conanza del 100(1
0
) % respecto al cociente
2
1
/
2
2
Sea X
11
, X
12
, X
13
, . . . , X
1n
1
, una muestra aleatoria de tama no n
1
y
X
21
, X
22
, X
23
, . . . , X
2n
2
, una muestra aleatoria de tama no n
2
nota-
mos que la distribucion de muestreo
F =
S
2
2

2
2
S
2
1

2
1
F
n
2
1,n
1
1
por lo que se puede demostrar que el intervalo de conanza es :
S
2
1
S
2
2
F
1
0
/2,n
2
1,n
1
1


2
1

2
2

S
2
1
S
2
2
F

0
/2,n
2
1,n
1
1
8.6. Intervalo de conanza sobre una
proporcion
Ejemplo 8.7 Teniendo una muestra aleatoria X
1
, X
2
, X
3
, . . . , X
n
que cada una de las variables aleatorias tienen una distribucion bi-
nomial,y que p = X es el estimador puntual de p . Determine el
intervalo de conanza del 100(1
0
) % para p
Si p no esta demasiada cerca de 0 o 1, y si n es relativamente grande
tenemos que
Z =
p p
_
p(1p)
n
N(0, 1)
Por lo que podemos demostrar que el intervalo de conanza para p
es :
256 Probabilidad y Estadstica
p Z

0
/2
_
p(1 p)
n
p p +Z

0
/2
_
p(1 p)
n
El tama no de la muestra para que el error e = |p p| al estimar p
sea menor que Z

0
/2
_
p(1p)
n
es:
n = (
Z

0
/2
e
)
2
p(1 p)
8.7. Intervalo de conanza sobre la difer-
encia en dos proporciones
Ejemplo 8.8 Sean dos variables aleatorias independientes X
1j
y
X
2k
tal que cada una de las variables aleatorias esta distribuida bi-
nomialmente y p
1
= X
1
y p
2
= X
2
son estimadores de p
1
y p
2
respectivamente. Determinar el intervalo de conanza a un nivel
de 100(1 ) %
Tenemos que la variable:
Z =
p
1
p
2
(p
1
p
2
)
_
p
1
(1p
1
)
n
1
+
p
2
(1p
2
)
n
2
N(0, 1)
Entonces el intervalo de conanza para p
1
p
2
es:
p
1
p
2
D (p
1
p
2
) p
1
p
2
+D
Donde :
D = Z

p
1
(1 p
1
)
n
1
+
p
2
(1 p
2
)
n
2
Captulo 9
Prueba de hipotesis
Generalmente al estadista le toca plantear una hipotesis sobre
un parametro de interes y desea saber si esa hipotesis es correcta o
no, por lo que tiene que hacer una prueba de hipotesis. Asunto que
abodaremos en este captulo.
Una preocupacion inicial es saber que hipotesis debemos plantear
y para ello debemos tener en cuenta las siguientes sugerencias .
La hipotesis puede reejar una experiencia anterior.
Una relacion teorica con el problema estudiado.
Un valor crtico razonable con las caractersticas del proble-
ma.
Denicion 9.1 Para realizar una prueba de hipotesis debemos seguir
los siguientes pasos
1. Se parte de un modelo probabilstico asociado al problema,
donde la variable de interes tiene una distibucion que depende
del parametro ,seg un el problema se escoje una hipotesis H
0
,
llamada hipotesis nula, para compararla con otra hipotesis H
1
,
llamada alternativa.
257
258 Probabilidad y Estadstica
2. Se establece un modelo estadstico correspondiente a una mues-
tra X = (X
1
, X
2
, X
3
, , X
n
) de tama no n, cuya distribu-
cion para cada debe ser conocida y ademas calculable por lo
menos para un de una observacion dada. x = (x
1
, x
2
, x
3
, , x
n
)
3. Se escoge una estadstica T(X, ) de tal manera que tenga sen-
tido rechazar H
0
con base en el dato x si y solo si T(x) c,
donde c es determinado de acuerdo a los criterios que este-
bleceremos en la seccion siguiente.
A T(X) se le llama estadstica de prueba, a c valor crtico y
al conjunto {x
n
|T(x) c} de todos los datos x para los
cuales se rechaza la hipotesis H
0
region crtica de la prueba.
Para determinar el valor crtico existen tres crterios ,
Crterio del error de tipo I
Crterio del p-valor
Crterio de los errores de tipo I y II
9.1. Error de tipo I
Se escoge un valor crtico c tal que, para cierto
0
(0, 1) jo
se cumpla
P(T c|H
0
) = sup

P( c|)
0
y que esta probabilidad tienda a
0
.
Cometer un error de tipo I. Signica que podemos rechazar H
0
a pesar de que H
0
fuera correcta, entonces escogiendo c como se
indica se controla la probabilidad del error de tipo I por medio de

0
. Por lo que a veces se dice que se rechaza la hipotesis nula a un
nivel de
0
.
9.2. Criterio del p-valor
El valor p es la probabilidad de obtener una estadstica de prue-
ba igual o mas exacta que el resultado obtenido a partir de los datos
259 Probabilidad y Estadstica
de la muestra, dado que la hipotesis, H
0
es realmente verdadera.
Por lo que este crterio se conoce como el nivel de signicacion ob-
servado.
El procedimiento en este caso es calcular un
= P(T t|H
0
) para un t = T(x) que resulta de los datos x .
Al valor = (T(x)) se le llama el p-valor correspondiente a la
hipotesis H
0
y a la observaci on x.
En concordancia con el error de tipo I, a menor p-valor, mayor
fuerza toma la decision de rechazar H
0
9.2.1. Desviacion del p-valor
Si se encuentra en,
5 % > 1 % Se dice que el p-valor tiene una desviacion
casi signicativa de H
0
1 % > 0, 1 % Se dice que el p-valor tiene una desviacion
signicativa de H
0
0, 1 % Se dice que el p-valor tiene una desviacion muy
signicativa de H
0
> 5 % Se acepta la hipotesis H
0
en el sentido que no se
pudo encontrar una desviacion adecuada para rechazar H
0
NOTA: p(T t|H
0
) y P( c|) no son probabilidades condi-
cionales.
NOTA: Coeciente de conanza. Es la probabilidad de que la hipotesis
nula sea rechazada cuando es verdadera y debera ser aceptada. Se
representa por 1
0
.
Los criterios anteriores controlan el error de rechazar H
0
a pesar
de ser cierta, pero no se ha dicho nada del error que se pueda come-
ter al aceptar H
0
a pesar de que H
1
sea correcta
260 Probabilidad y Estadstica
9.3. Criterios de los errores de tipo I y
II
Se escoje un valor Crtico c tal que P(T c|H
0
)
0
se cumpla
y ademas que para cierto
0
(0, 1) jo se tenga que,
P(T < c|H
1
) = sup

P(T < c|) 1


0
,
donde esta probabilidad debe tender a 1
0
.
Si
0
, el riesgo, esta cerca de 1 podriamos asegurar que la probabil-
idad de tipo II esta cerca de cero, pero generalmente no es posible
controlar las probabilidades de los dos errores a la vez .
por lo que se debe dise nar la prueba de tal forma que el error de tipo
II no sea tan grande, escogiendo adecuadamente H
0
y H
1
o tambien
podemos aumentar el tama no de la muestra hasta que se cumplan
las condiciones para el error de tipo I y tipo II simultaneamente.
El siguiente diagrama visualiza las posibilidades de la decision
de un estadistico al hacer una prueba de hipotesis.
H
0
es falsa H
0
es correcta
Rechazar H
0
Decision correcta Decision erronea de tipo I
con probabilidad controlada
Decision erronea de tipoII
No rechazar H
0
cuya probabilidad no se controla Decision correcta
Prueba de una cola Prueba de dos colas Prueba de una cola
La decision de aceptar H
0
es una decision dudosa si no se conoce
la probabilidad de una posible decision erronea.
Potencia de una prueba
Es la probabilidad de rechazar la hipotesis nula cuando esta es
falsa y debera ser rechazada, la potencia es representada por 1
0
261 Probabilidad y Estadstica
Funcion potencia
para una prueba de hipotesis seg un la denicion 15, a veces nos
ayuda analizar la funcion
() = P(T c|)
Llamada funcion potencia y a su graca curva caracterstica de ope-
racion.
Entonces () denota la probabilidad del error de tipo II corre-
spondiente a y se eval ua encontrando la probabiliadad de que la
estadstica de prueba caiga en la region de aceptacion dado un valor
particular de . A partir de esta curva, vemos que la probabilidad
del error de tipoII del grado al cual H
0
es falsa, por lo que podemos
considerar a la probabilidad del error de tipo II como una medida
de la capacidad de un procedimiento de prueba para detectar una
desviacion particular respecto a la hipotesis nula. Otro aspecto que
podemos evidencir con la funcion potencia es que el error de tipoII
para un valor dado de la probabilidad
0
del error de tipo I y un
valor dado de la probabilidad del error de tipo II disminuye con-
forme aumenta el tama no n de la muestra.
Debido a que la probabiliadad del error de tipo II es una fun-
cion tanto del tama no de la muestra como del grado al que es falsa
la hipotesis nula, es com un considerar a la decision de aceptar H
0
como una conclusion debil, a menos que sepamos que es acept-
ablemente peque na. Es por eso que en vez de decir aceptamos
H
0
debemos decir no se rechaza H
0
, porque el no rechazar la
hipotesis nula implica que nose encontro evindencia suciente para
rechazarla y por lo tanto se nesecitan mas datos para que sea una
conclusion fuerte .
9.4. Hipotesis unilaterales y bilaterales
Debido a que rechazar H
0
siempre es una conclusion fuerte en
cambio no rechazar generalmente es una conclusion debil, a menos
que sepamos que es peque na, debemos en la mayor parte de los
casos construir hipotesis tal que el enunciado en el cual se desea
una conclusion fuerte, este en la hipotesis alternativa, es decir la
262 Probabilidad y Estadstica
hipotesis nula debe ser siempre de la forma H
0
: =
0
, mientras
que la alternativa debe ser de una de las siguientes formas,
H
1
: =
0
H
1
:
0
H
1
:
0
9.4.1. Tama no de la muestra basandose en y

En muchos casos como hemos visto el estadsta tiene que de-


terminar el tama no de la muestra para un valor determinado del
nivel conanza o para una probabilidad jada, como en el caso de
la ley de los grandes n umeros, determinando el error de muestreo
de antemano . Sin embargo, en el proceso de tomas de decisiones,
si suponemos que tenemos una prueba de un solo extremo, pode-
mos determinar el tama no de la muestra necesario para un nivel de
conanza especicado y una potencia 1 deseada; usando la
formula,
n =

2
(z

)
(
0

1
)
y en el caso de una prueba bilateral podemos tambien obtener el
tama no de la muestra para una potencia 1- deseado con la formula,
n =

2
_
Z

2
+Z

_
2
(
0

1
)
2
donde =
_
Z

(
0

1
)

_
.
Ahora si tenemos dos polblaciones de inter as distintas las cuales
tienen medias desconocidas y varianzas conocidas, con tama nos de
las muestras n
1
y n
2
respectivamentes, entonces el interes es probar
la siguiente hipotesis, las dos medias poblacionales son iguales.
Por lo tanto podemos seleccionar directamente la probabilidad
del error de tipo I, sin embargo, la probabilidad del error de
tipo II depende del tama no de las muestra, entonces si suponemos
263 Probabilidad y Estadstica
que la hipotesis nula es falsa es decir
0
=
1
tendriamos que H
1
es
verdadera.
Tomando entonces la estadstica de prueba,
Z
0
N
_
_

0

1
_

2
1
n
1
+

2
1
n
2
, 1
_
_
nos queda que
= 2
_
Z

(
0

1
)

n
_
(
2
1
+
2
2
)
_
()
Por lo que hay que considerar dos casos
1. Si n = n
1
= n
2
, entonces nos queda
n =
_
Z

2
+Z

_
2
(
2
1
+
2
2
)
(
0

1
)
2
esta aproximaci on es valida si

_
Z

(
0

1
)

n
_
(
2
1
+
2
2
)
_
es peque na comparada con .
Y en el caso que la alternativa tenga una sola cola se tiene
que,
n =
(Z

+Z

)
2
(
2
1
+
2
2
)
(
0

1
)
2
2. Pero si n
1
= n
2
entonces se obtiene
n =
(
2
1
+
2
2
)

2
1
n
1
+

2
1
n
2
y luego jamos n
1
y n
2
hasta obtener un valor n que al susti-
tuirlo en obtengamos el deseado
264 Probabilidad y Estadstica
9.4.2. Para proporciones
El error para la alternativa H
0
: p = p
0
es
=
_
_
p
0
p +
_
p
0
p+Z
/2

p
0
(1+p
0
)/n

p
0
(1+p
0
)/n
_

p
0
(1+p
0
)/n
_
_

_
p
0
p Z
/2

p
0
(1+p
0
)/n

p
0
(1+p
0
)/n
_
por tanto el tama no de la se puede determinar
n =
_
Z
/2
_
p (1 +p) +Z

_
p (1 +p)
_
2
(p
0
p
1
)
2
Y para la alternativa de un lado tenemos
n =
_
Z

_
p (1 +p) + Z

_
p (1 +p)
_
2
(p
0
p
1
)
2

También podría gustarte