Está en la página 1de 11

UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO

FACULTAD DE CIENCIAS
ESTADÍSTICA PARAMÉTRICA Segundo Parcial

PRUEBAS DE HIPÓTESIS
Primero veamos algunos ejemplos donde podemos ocupar pruebas de hipótesis.

Ejemplos:
1. Cuando un ingeniero tiene que decidir con base en datos muestrales si el verdadero pro-
medio de vida de cierta clase de neumático es por lo menos 5,000 kilómetros.
θ ≥ 5, 000, donde θ es el parámetro de una distribución exponencial.
2. Cuando un agrónomo tiene que decidir con base en experimentos si una clase de fertilizantes
produce un rendimiento más alto que otro.
µ1 > µ2 , donde µ1 y µ2 son las medias de dos poblaciones normales.
3. Cuando un fabricante de productos farmacéuticos tiene que decidir con base en muestras
si 90 % de todos los pacientes que reciben un nuevo medicamento se recuperarán de cierta
enfermedad.
θ = 0.90, donde θ es el parámetro de una población binomial.
Estos problemas se pueden traducir al lenguaje de las pruebas estadı́sticas de hipótesis. En
cada caso, la distribución debe proporcionar el modelo estadı́stico correcto.

Definición: Una hipótesis estadı́stica es una afirmación o conjetura acerca de la distri-


bución de una o más variables aleatorias. Si una hipótesis estadı́stica especı́fica completamente
la distribución, se conoce como hipótesis simple, si no, se conoce como hipótesis compueta.

Ejemplos: En una población normal N (µ, σ 2 ) tenemos


µ = 50, σ = 20; µ > 0, σ = 20; µ = 50, σ < 20; µ = 25, σ = 20 µ 6= 0, σ > 20
Para poder construir un criterio apropiado para probar hipóteis estadı́sticas, es necesario que
también formulemos hipótesis alternativas.
H0 : θ = 0.90 H0 : µ = 50, σ > 20 H0 : µ1 = µ2
H1 : θ = 0.60 H1 : µ 6= 50, σ < 20 H1 : µ1 6= µ2
H0 se llama la hipótesis nula (“no hay diferencia”) y H1 se llama la hipótesis alternativa. Fre-
cuentemente, los estadı́sticos formulan como sus hipótesis nulas exactamente lo contrario de lo
que quieren demostrar.

La prueba de una hipótesis estadı́stica es la aplicación de un conjunto explı́cito de reglas


para decidir si aceptamos la hipótesis nula o la rechazamos en favor de la hipótesis alternativa.

Por ejemplo, un estadı́stico desea probar H0 : θ = θ0 vs H1 : θ = θ1 ; para tomar una decisión,


generará datos muestrales por medio de un experimento y después calculará el valor de una es-
tadı́stica de prueba, que le dirá que acción tomar para cada resultado posible del espacio muestral.

El procedimiento de prueba, divide los valores posibles de la estadı́stica de prueba en dos


subconjuntos: una región de aceptación para H0 y una región de rechazo para H0 .

El procedimiento puede llevar a dos clases de errores

1
Aceptar H0 Rechazar H0
H0 cierta Error tipo I
H0 falsa Error tipo II
Definición:

α = P(Rechazar H0 | H0 es cierta) = Probabilidad de cometer error tipo I

β = P(Aceptar H0 | H0 es falsa) = Probabilidad de cometer error tipo II

Nos referimos a la región de rechazo para H0 como la región crı́tica de la prueba y α es el


tamaño de la región crı́tica, también llamado nivel de significancia de la prueba.

Ejemplos:
1. Supongamos que un fabricante de un nuevo medicamento quiere probar H0 : θ = 0.80 vs
H1 : θ = 0.50. Si el estadı́stico de prueba es X, el número de éxitos observados en 20 intentos,
y aceptará la hipótesis nula si x > 15, de otra manera la rechazará. Encontrar α y β.
S olución:
α = P(Rechazar H0 | H0 es cierta)
= P (X ≤ 15 | θ = 0.80)
   
20 0 20 20
= (0.80) (0.20) + · · · + (0.80)15 (0.20)5
0 15
= 0.370

β = P(Aceptar H0 | H0 es falsa)
= P (X > 15 | θ = 0.50)
   
20 16 4 20
= (0.50) (0.50) + · · · + (0.50)20 (0.50)0
16 20
= 0.006
2. Supongamos que queremos probar la hipótesis nula de que la media de una población normal
con σ 2 = 4 es µ0 contra la hipótesis alternativa de que es µ1 , donde µ1 > µ0 .
a) Encuentra el valor de k tal que x > k provea una región crı́tica de tamaño α = 0.01 para una
muestra aleatoria de tamaño n.
b) Determinar el tamaño mı́nimo de la muestra necesaria para probar la hipótesis nula µ0 = 10
contra la hipótesis alternativa µ1 = 11 con β ≤ 0.05.
Solución:
a) Primero observemos que
   
x − µ0 k − µ0 k − µ0
α = P (x > k | H0 es cierta) = P (x > k | µ = µ0 ) = P √ > √ =P Z> √ = 0.01
2/ n 2/ n 2/ n
k−µ
√0 4.64
Ası́ buscando el tabla normal tenemos que 2/ n
= 2.32, por lo que k = µ0 + √ .
n

b) Partimos de la definición de β y del valor k que obtuvimos en el inciso a).


 
4.64
β = P(Aceptar H0 | H0 es falsa) = P (x ≤ k | µ = 11) = P x ≤ µ0 + √ | µ = 11
n
 
√ 
 
10 + 4.64

n
− 11 
n
⇒β=P Z≤  √  = P Z ≤ 2.32 − = 0.05
2/ n 2

2
Ası́, de la tabla normal obtenemos que
√ √
n n √
2.32 − = −1.65 ⇒ = 3.97 ⇒ n = 7.97 ⇒ n = 63.04
2 2
Por lo tanto, el tamaño mı́nimo es n = 64.

Ejercicios:
1. Un investigador médico desea comparar la efectividad de dos medicamentos. Las hipótesis
nula y alternativa son:
H0 : Los dos medicamentos tienen la misma eficacia.
H1 : Los dos medicamentos no tienen la misma eficacia.
Describir quien serı́a α y β.
2. Una sola observación de una variable aleatoria que tiene una distribución hipergeométrica con
N = 7 y n = 2 se usa para probar la hipótesis nula M = 2 contra la hipótesis alternativa M = 4.
Si H0 se rechaza si y sólo si el valor de la variable aleatoria es 2, encontrar las probabilidades
de errores tipo I y de tipo II.
M N −M
 
x n−x
f (x) = N
 x = 0, . . . , n; x ≤ M; n − x ≤ N − M.
n

3. Una observación única de una variable aleatoria que tiene una densidad uniforme con α = 0
se usa para probar la hipótesis nula β = β0 contra la hipótesis alternativa β = β0 + 2. Si la
hipótesis nula se rechaza si y sólo si el valor de la variable aleatoria asume un valor mayor que
β0 + 1, encuentra las probabilidades de errores de tipo I y de tipo II.

Definición: Una prueba de hipótesis es la sucesión ordenada

({X1 , . . . , Xn }; H0 , H1 ; G})

donde {X1 , . . . , Xn } es la muestra; H0 y H1 son las hipótesis concernientes a la distribución de


probabilidad de la población y G es la región crı́tica (o de rechazo).

Si el resultado de {X1 , . . . , Xn } está en G se decide aceptar H1 (rechazar H0 ), de otro modo


aceptamos H0 .

De la definición anterior, si H0 es simple, entonces el nivel de significancia de la prueba


({X1 , . . . , Xn }; H0 , H1 ; G}) se define como
Z
α = P ((x1 , . . . , xn ) ∈ G|H0 es cierta) = P (ex ∈ G|H0 es cierta) = fx1 ,...,xn (e
x | H0 es cierta)de
x

3
Z
β = P ((x1 , . . . , xn ) ∈ Gc |H0 es falsa) = P (e
x ∈ Gc | H0 es falsa) = x | H0 es falsa)de
fx1 ,...,xn (e x

Definición: A la expresión 1 − β se le llama la potencia de la prueba. Una región crı́tica


se dice que es mejor o más potente, si la potencia de la prueba está en un máximo.

En general, la probabilidad γ de equivocarnos o de tomar la decisión incorrecta es

γ = P (Aceptar H0 y H0 es falsa + P (Rechazar H0 y H0 es cierta)


= P (Aceptar H0 | H0 es falsa)P (H0 es falsa) + P (Rechazar H0 | H0 es cierta)P (H0 es cierta)
= βP (H0 es falsa) + αP (H0 es cierta)
≤ max{α, β} pues P (H0 es cierta) + P (H0 es falsa) = 1

El proceso de decisión que estamos construyendo debe ser tal que γ sea muy pequeña. Sin embar-
go, no es posible minimizar simultáneamente α y β, por lo que fijaremos el nivel de significancia
α y trataremos de hallar una región crı́tica G tal que minimice a β o que maximice la potencia
de prueba.

Notación: Supongamos que se esta considerando la siguiente prueba de hipotesis ({x1 , . . . , xn }; H0 , H1 , G)


donde H0 : θ = θ0 y H1 : θ = θ1 entonces
n
Y n
Y
L0 = f (xi ; θ0 ) y L1 = f (xi ; θ1 ).
i=1 i=1

Con esta notación, α y β los podemos escribir como


Z
α = P ((x1 , . . . , xn ) ∈ G | H0 es cierta) = Lo (e
x)de
x
G
Z
c
1 − β = 1 − P ((x1 , . . . , xn ) ∈ G | H0 es falsa) = L1 (e
x)de
x
G
Ası́ el siguiente teorema nos ayuda a construir la región crı́tica que buscamos.

Teorema. (Neyman-Pearson) Supongamos que se constrastan las hipótesis H0 : θ = θ0


contra H1 : θ = θ1 . Sea G la región crı́tica definida por
 
n L0 (ex)
G= x e∈R | ≤δ
L1 (e
x)
donde δ es una constante y sea α el tamaño de la región G. De entre todas las regiones crı́ticas
de tamaño α, G es la que genera la máxima potencia para la prueba.

Demostración: R R
Sea F otra región crı́tica de tamaño α. Por demostrar que G L1 (e
x)de
x > F L1 (e
x)de
x.

Como F y G tienen el mismo tamaño α entonces


Z Z
L0 (e
x)de
x= L0 (e
x)de
x
F G

y tenemos que F = (F ∩ G) ∪ (F ∩ Gc ) y G = (G ∩ F ) ∪ (G ∩ F c ) por lo que


Z Z Z Z
L0 (e
x)de
x+ L0 (e
x)de
x= L0 (e
x)de
x+ L0 (e
x)de
x
F ∩G F ∩Gc G∩F G∩F c

4
Simplificando obtenemos que
Z Z
L0 (e
x)de
x= L0 (e
x)de
x (1)
F ∩Gc G∩F c

x) ≤ δL1 (e
Por otro lado, observemos que dentro del conjunto G se tiene que L0 (e x) y fuera de G
se tiene que L0 (e
x) > δL1 (e
x). Ası́
Z Z Z Z
L0 (e x) ≤ δ
x) d(e L1 (e
x) d(e
x) y L0 (e
x) d(e
x) > δ L1 (e
x) d(e
x)
G∩F c G∩F c Gc ∩F Gc ∩F

Entonces usando la ecuación (1), podemos obtener


Z Z Z Z
δ L1 (e
x) d(e
x) < δ L1 (e x) ⇒
x) d(e L1 (e
x) d(e
x) < L1 (e
x) d(e
x)
Gc ∩F G∩F c Gc ∩F G∩F c

Finalmente
Z Z Z
L1 (e
x) d(e
x) = L1 (e
x) d(e
x) + L1 (e
x) d(e
x)
G c
ZG∩F ZG∩F
> L1 (e
x) d(e
x) + L1 (e
x) d(e
x)
ZG∩F Gc ∩F

= L1 (e
x) d(e
x)
F

Por lo tanto, G genera la máxima potencia para la prueba.

Ejemplo: Una muestra aleatoria de tamaño n de una población normal con σ 2 = 1 se va


a usar para probar H0 : µ = µ0 contra H1 : µ = µ1 , donde µ0 < µ1 . Usando el teorema de
Neyman-Pearson encontrar la región crı́tica más potente de tamaño α.

Solución:
Sea X1 , . . . , Xn ∼ N (µ, σ 2 = 1). Primero encontraremos las funciones de verosimilitud.
n
1
(xi −µ0 )2
Y P
L0 = f (xi ; µ0 , , 1) = (2π)−n/2 e− 2
i=1

n
1
(xi −µ1 )2
Y P
L1 = f (xi ; µ1 , , 1) = (2π)−n/2 e− 2
i=1

Ahora tenemos que


1 P 2 1 P 2
L0 (e
x) L0 (2π)−n/2 e− 2 (xi −µ0 ) e− 2 (xi −µ0 ) 1 P 2 1
P 2
= = 1 P 2
= 1 P 2
= e− 2 (xi −µ0 ) + 2 (xi −µ1 )
L1 (e
x) L1 (2π)−n/2 e− 2 (xi −µ1 ) e− 2 (xi −µ1 )

Ası́ debemos encontrar una constante δ y una región G del espacio muestral tal que
1
(xi −µ0 )2 + 12 (xi −µ1 )2
P P
e− 2 ≤δ

5
Por lo que trabajaremos sobre esta desigualdad y despejaremos los valores de la muestra.
1X 1X
⇒ − (xi − µ0 )2 + (xi − µ1 )2 ≤ ln(δ)
2 X 2X
⇒ − (xi − µ0 )2 + (xi − µ1 )2 ≤2 ln(δ)
X X
⇒ − (x2i − 2µ0 xi + µ20 ) + (x2i − 2µ1 xi + µ21 ) ≤2 ln(δ)
X X X X
⇒ − x2i + 2µ0 xi − nµ20 + x2i − 2µ1 xi + nµ21 ≤2 ln(δ)
X
⇒ xi (2µ0 − 2µ1 ) + n(µ21 − µ20 ) ≤2 ln(δ)
⇒ nx(2µ0 − 2µ1 ) + n(µ21 − µ20 ) ≤2 ln(δ)
2 ln(δ)
⇒ x(2µ0 − 2µ1 ) + (µ21 − µ20 ) ≤
n
2 ln(δ) − (µ21 − µ20 )
⇒ x(2µ0 − 2µ1 ) ≤
n
2 ln(δ) − (µ21 − µ20 )
⇒ x≥
n(2µ0 − 2µ1 )
0
Ası́ tenemos que x ≥δ

x ∈ Rn | x ≥ δ 0 }.
Por lo tanto la región crı́tica es G = {e

Ahora necesitamos que G sea de tamaño α, para ello

α =P (x ∈ G | H0 es cierta)
=P (x ≥ δ 0 | H0 es cierta)
=P (x ≥ δ 0 | µ = µ0 )
δ 0 − µ0
=P (Z ≥ √ )
1/ n
Entonces tenemos que
δ 0 − µ0 zα
zα = √ ⇒ δ 0 = µ0 + √
1/ n n
Por lo tanto, la región más potente de tamaño α para la prueba de hipótesis es

x ∈ R n | x ≥ µ0 + √ }
G = {e
n

Ejercicio: Una muestra aleatoria de tamaño n de una población exponencial se usa para
probar H0 : θ = θ0 vs H1 : θ = θ1 con θ1 > θ0 . Usar el teorema de Neyman-Pearson para
encontrar la región crı́tica más potente de tamaño α.

6
Anteriormente sólo hemos probado hipótesis simples, pero en la práctica real, esto es relati-
vamente raro. Usualmente se prueban hipótesis simple contra compuesta o hipótesis compuesta
contra compuesta.

Para trabajar con hipótesis compuestas tenemos que considerar las probabilidades α(θ) de
cometer un error de tipo I para todos los valores de θ dentro del dominio especificado bajo
la hipótesis nula H0 y las probabilidades β(θ) de cometer un error de tipo II dentro de θ del
dominio especificado bajo la hipótesis alternativa H1 .

Definición: La función de potencia de una prueba de una hipótesis estadı́stica H0 contra


una hipótesis alternativa H1 está dada por

α(θ) para los valores de θ asumidos bajo H0
π(θ) =
1 − β(θ) para los valores de θ asumidos bajo H1

Ejemplo Supongamos que un fabricante de un nuevo medicamento quiere probar H0 : θ ≥ 0.80


vs H1 : θ < 0.80. Si el estadı́stico de prueba es X, el número de éxitos observados en 20 intentos, y
aceptará la hipótesis nula si x > 15, de otra manera la rechazará. Estudiar la función de potencia.

Solución:
Para estudiarla observemos la siguiente tabla que se obtuvo de la tabla de la distribución bino-
mial:
θ α(θ) β(θ) π(θ)
0.95 0.003 0.003
0.9 0.043 0.043
0.8 0.370 0.370
0.7 0.238 0.762
0.6 0.051 0.949
0.5 0.006 0.994

PRUEBAS DE RAZÓN DE VEROSIMILITUD.

Supongamos que X1 , . . . , Xn constituyen una muestra aleatoria de tamaño n de una pobla-


ción cuya función de probabilidad es f (x; θ), con θ ∈ Ω, donde Ω es el conjunto de valores que
el parámetro θ puede asumir y es conocido como el espacio de parámetro para θ.

7
Consideremos ahora hipótesis del tipo

H0 : θ ∈ ω0 H 1 : θ ∈ ω1 donde ω0 ∪ ω1 = Ω y ω0 ∩ ω1 = ∅

Definción: La razón de verosimilitud para hipótesis compuestas está dada por

máx Lθ (e
x)
θ∈ω0
Λ(e
x) =
máx Lθ (e
x)
θ∈ω1

La razón de verosimilitud Λ(e


x) tiene como dominio el conjunto

x ∈ Rn | máx Lθ (e
DΛ = {e x) 6= 0}.
θ∈ω1

Para δ > 0 se define la región crı́tica de la prueba de razón de verosimilitud G para el contraste
de hipótesis compuestas
H0 : θ ∈ ω0 H1 : θ ∈ ω1
como
G = {e
x ∈ DΛ | Λ(e
x) ≤ δ}
Ejemplo: Consideremos una muestra X1 , . . . , Xn de una población con distribución N (µ, σ 2 )
con la varianza σ 2 conocida. Encontrar la región crı́tica de la prueba de razón de verosimilitud
para probar las hipótesis
H0 : µ = µ0 H1 : µ 6= µ0 .
Solución:
Primero observemos que Ω = R, ω0 = {µ0 } y ω1 = R \ {µ0 }.
Ahora necesitamos encontrar los máximos de las verosimilitudes, esto se obtiene con el estimador
de máxima verosimilitud para el parámetro µ y habı́amos visto que µ̂M V = x. Entonces
1
(xi −µ0 )2
P
x) = (2πσ 2 )−n/2 e− 2σ2
máx Lθ (e
θ∈ω0

y
1
(xi −x)2
P
x) = (2πσ 2 )−n/2 e− 2σ2
máx Lθ (e
θ∈ω1

Ası́
1 1
(xi −µ0 )2 (xi −µ0 )2
P P
(2πσ 2 )−n/2 e− 2σ2 e− 2σ2 1 P
(xi −x)2 − 1 P
(xi −µ0 )2
Λ(e
x) = = = e 2σ2 2σ 2
− 12 −x)2 − 12 −x)2
P P
(xi (xi
(2πσ 2 )−n/2 e 2σ e 2σ

x) ≤ δ, por lo que trabajamos con esta


Para encontrar la región crı́tica G necesitamos que Λ(e
desigualdad.

8
1 1
(xi −x)2 − (xi −µ0 )2
P P
⇒ e 2σ2 2σ 2 ≤δ
n n
1 X 2 1 X
⇒ (x i − x) − (xi − µ0 )2 ≤ ln δ
2σ 2 2σ 2
i=1 i=1
n n
!
1 X
2
X
2
⇒ (xi − x) − (xi − µ0 ) ≤ ln δ
2σ 2
i=1 i=1
n n
!
1 X
2
X
2
⇒ (xi − x) − (xi − µ0 ) ≤ ln δ
2σ 2
i=1 i=1
n n n n
!
1 X X X X
⇒ x2i − 2x xi + nx2 − x2i + 2µ0 xi − nµ20 ≤ ln δ
2σ 2
i=1 i=1 i=1 i=1
1
−2xnx + nx2 + 2µ0 nx − nµ20 ≤ ln δ

⇒ 2

1 2 2

⇒ −2nx + nx + 2nµ 0 x − nµ 0 ≤ ln δ
2σ 2
1
−nx2 + 2nµ0 x − nµ20 ≤ ln δ

⇒ 2

−n 2
x − 2µ0 x + µ20 ≤ ln δ

⇒ 2

−n
⇒ (x − µ0 )2 ≤ ln δ
2σ 2
 2
n 2 n 1
⇒ (x − µ0 ) ≥ −2 ln δ Notemos que = √
σ2 σ2 σ/ n
x − µ0 2
 
⇒ √ ≥ δ0
σ/ n
Por lo tanto, la regı́ón crı́tica es
( ) 
x − µ0 2
  
0
x − µ0
G= x e∈R | n
√ ≥δ = x e ∈ Rn | √ ≥ δ 00
σ/ n σ/ n

Ahora si suponemos que el tamaño de la región es α entonces


 
x − µ0 00
x ∈ G) = P √ ≥ δ
α = P (e = P (|Z| ≥ δ 00 ) = P (|Z| ≥ zα/2 )
σ/ n

Por lo tanto, la región crı́tica de tamaño α para la prueba de razón de verosimilitud es


 
n x − µ0

G= x e ∈ R | √ ≥ zα/2
σ/ n

9
Ejemplo: Consideremos una muestra X1 , . . . , Xn de una población con distribución N (µ, σ 2 )
con la varianza σ 2 desconocida. Encontrar la región crı́tica de la prueba de razón de verosimilitud
para probar las hipótesis
H0 : µ = µ0 H1 : µ 6= µ0 .
Solución:
Primero observemos que Ω = R, ω0 = {µ0 } y ω1 = R \ {µ0 }.
Ahora necesitamos encontrar los máximos de las verosimilitudes, esto se obtiene con el estimador
de máxima verosimilitud para el parámetro µ y habı́amos visto que µ̂M V = x. Dado que la
varianza es desconocida, entonces tambı́en debe calcularse el estimador de máxima verosimilitud,
2
σ̂M 2
V = s Entonces
1
(xi −µ0 )2
P
x) = (2πs2 )−n/2 e− 2s2
máx Lθ (e
θ∈ω0
y
1
(xi −x)2
P
x) = (2πs2 )−n/2 e− 2s2
máx Lθ (e
θ∈ω1
Ası́ 1
(xi −µ0 )2
P
e− 2s2 1
(xi −x)2 − (xi −µ0 )2 )
= e 2s2 (
P P
Λ(e
x) = 1 P 2
e− 2s2 (xi −x)
x) ≤ δ, por lo que trabajamos con esta
Para encontrar la región crı́tica G necesitamos que Λ(e
desigualdad.

n n
!
1 X X
2
⇒ (xi − x) − (xi − µ0 )2 ≤ ln δ
2s2
i=1 i=1
n n n n
!
1 X X X X
⇒ x2i − 2x xi + nx2 − x2i + 2µ0 xi − nµ20 ≤ ln δ
2s2
i=1 i=1 i=1 i=1
1
−2xnx + nx2 + 2µ0 nx − nµ20 ≤ ln δ

⇒ 2
2s
1 2 2

⇒ −2nx + nx + 2nµ 0 x − nµ 0 ≤ ln δ
2s2
1
−nx2 + 2nµ0 x − nµ20 ≤ ln δ

⇒ 2
2s
−n 2
x − 2µ0 x + µ20 ≤ ln δ

⇒ 2
2s
−n
⇒ (x − µ0 )2 ≤ ln δ
2s2
 2
n 2 n 1
⇒ (x − µ0 ) ≥ −2 ln δ Notemos que = √
s2 s2 s/ n
x − µ0 2
 
⇒ √ ≥ δ0
s/ n
Por lo tanto, la regı́ón crı́tica es
( ) 
x − µ0 2
  
0
x − µ0
G= x e∈R | n
√ ≥δ = x e ∈ Rn | √ ≥ δ 00
s/ n s/ n

x − µ0
Ahora si suponemos que el tamaño de la región es α y recordando que √ ∼ tn−1 tenemos
s/ n
que  
x − µ0 00
x ∈ G) = P √ ≥ δ
α = P (e = P (|T | ≥ δ 00 ) = P (|T | ≥ tα/2 )
s/ n

10
Por lo tanto, la región crı́tica de tamaño α para la prueba de razón de verosimilitud es
 
n x − µ0

G= x e∈R | √ ≥ tα/2
s/ n
Ejemplo: Consideremos una muestra X1 , . . . , Xn de una población con distribución N (µ, σ 2 )
con la varianza σ 2 desconocida. Encontrar la región crı́tica de la prueba de razón de verosimilitud
para probar las hipótesis
H0 : µ = µ0 H1 : µ > µ0 .
Solución:
Por el ejemplo anterior tenemos que
1
(xi −x)2 − (xi −µ0 )2 )
x) = e 2s2 (
P P
Λ(e

Y siguiendo las mismas ideas del ejemplo anterior se tiene que

x − µ0 2
 
⇒ √ ≥ δ0
s/ n
x − µ0 √ 0
⇒ √ ≥ δ dado que µ > µ0
s/ n
x − µ0
Ahora si suponemos que el tamaño de la región es α y recordando que √ ∼ tn−1 tenemos
s/ n
que  
x − µ0 00
x ∈ G) = P
α = P (e √ ≥δ = P (T ≥ δ 00 ) = P (T ≥ tα )
s/ n

Por lo tanto, la región crı́tica de tamaño α para la prueba de razón de verosimilitud es


 
n x − µ0
G= x e ∈ R | √ ≥ tα
s/ n

11

También podría gustarte