Está en la página 1de 26

CONTRASTE DE HIPÓTESIS ESTADÍSTICAS. TEMA 5.

INTRODUCCIÓN AL CONTRASTE DE HIPÓTESIS.


Planteamiento del problema.
Contrastar una hipótesis estadística es juzgar si cierta propiedad supuesta para una población es
compatible con lo observado en una muestra de ella.

Ejemplo.
Producimos un componente electrónico cuya resistencia X sigue una distribución
N(=20, =0’5). Por razones imprevisibles el proceso se desajusta a veces produciendo un
aumento o disminución de la resistencia media de los componentes sin variar la desviación típica.
Para contrastar si en cierto momento el proceso se ha desajustado, se toma una muestra de tamaño
n=5 componentes. Se mide la resistencia de los componentes obteniendo los siguientes datos:
x1=22’2; x2=21; x3=18’8; x4=21’5; x5=20’5.
¿Podemos decir que el proceso se ha desajustado?

 Si el proceso no se ha desajustado, al ser XN(20,0’5) entonces


0'5
x  N (20, )  N (20,0'224) .
5

22'2  21  18'8  215


'  20'5
Calculando x   20,8 20 20,22
5
Como podemos ver en el gráfico de la derecha, el valor 20’8 ocupa un lugar muy alejado del
centro. Para verlo formalmente vamos a tipificar la variable.
20'8  20
 358
' Es decir, se aleja mas de 3½ veces la desviación típica. Por todo ello
0'224
podemos pensar que el proceso se ha desajustado ya que de ser correcto, la probabilidad de que una
muestra de tamaño 5 tome como media 20’8 es muy pequeña. Esta probabilidad es:
p=Prob(Obt.Muestra20’8) = Prob(Obt.Muestra3’58).
Como 3’291<3’58<3’891 y la Prob(x>3,291)=0,001 y Prob(x>3,891)=0,0001 entonces
0’001> Prob(Obt.Muestra3’58)>0,0001. ¡¡ Menos del 0’1%!!

Estos son los elementos esenciales en el contraste así como su relación con los intervalos de
confianza.

Ejemplo.
Al 95% de confianza (20’4, 31’2)

TIPOS DE HIPÓTESIS.
Llamaremos hipótesis estadística a una suposición que determina parcial o totalmente la
distribución de probabilidad de una v.a.
Las clasificamos en 2 grandes grupos:
1º Determinan el valor de un parámetro, o conjunto de valores.
Ejemplo =20
2º Determinar el tipo de distribución de la población o alguna propiedad de la misma.
Ejemplo v.a. X sigue una Normal.

Aunque la metodología de resolución es análoga para ambas conviene distinguir entre ellos ya
que para el primer caso los contrastes se basan en intervalos de confianza y para el segundo se usan
otras metodologías que pertenecen a la fase de diagnóstico y validación del modelo.
El primer tipo a su vez se puede clasificar en:
Hipótesis simples que proponen un único valor del parámetro.
Hipótesis compuestas que proponen varios valores para el parámetro.

1
Se llama hipótesis nula (y se nota por H0) a la hipótesis que se contrasta. El nombre de nula o
neutra se refiere a que es la hipótesis que mantendremos hasta que los datos demuestren su falsedad.
H0 nunca puede ser demostrada ya que exigiría el conocimiento de toda la población, pero si
puede ser rechazada por los datos.

Ejemplo.
A={a1, a2, ……}; B={b1, b2, ……}
H0=”ai = bi para todo i”
H0 sólo puede ser demostrada si se conocen todos los valores de A y B, pero puede ser rechazada
obteniendo tan solo una par ai, bi tal que sean distintos.

Metodología.
El primer método de contraste de hipótesis son los contrastes de significación propuestos por
Fisher hacia 1920. Sus etapas son:
1ª Definir la hipótesis, H0, a contrastar que suponemos del tipo H0=0
2ª Definimos una medida de discrepancia entre H0 y lo observado en la muestra, d( 0 ,  ) .

 es un estimador de . Debe cumplirse que “d” tenga una distribución conocida.

3ª Se toma una muestra, se calcula ̂ y d ( ,  ˆ ) . Si la discrepancia es muy grande


0
(entendiendo por ello que hay poca probabilidad de encontrar dicho valor cuando H0 es cierta)
rechazaremos H0. En caso contrario aceptaremos H0.

Definir un contraste de significación requiere, por tanto, una medida de discrepancia d, y una
regla para juzgar que discrepancias son demasiado grandes.
En cuanto a la medida de discrepancia, una elección natural parece ser definir d de la forma
2
    
d 0 MV 
con lo que d es adimensional y para muestras grandes se verifica que d sigue una
  
  MV 
 12 .
Como ya sabemos los estimadores M.V. conducen a buenos intervalos de confianza por lo que es
de esperar que conduzcan también a buenos contrastes de hipótesis.

La 1ª solución, y más simple, para decidir que discrepancias son demasiado grandes, es fijar
Nivel de significación que representa un nivel de probabilidad tal que sucesos con probabilidad de
ocurrir menor o igual que  pueden considerarse como despreciables. Normalmente fijaremos = 0’05
o = 0’01, etc.
El valor de  determina en valor crítico, dc, en la distribución de d tal que la probabilidad de
obtener un valor de d mayor o igual que dc, suponiendo que H0 es cierta, es : P(d>dc / H0) = 
Por lo tanto discrepancias mayores que d c tienen una probabilidad de ocurrir menor que  si H0 es
cierta, por lo que podremos definir la REGIÓN DE RECHAZO de la forma d>dc, mientras que su
complementaria, ddc será la región de aceptación o no rechazo de H0.
Gráficamente se puede ver así:
Región de Región de
Aceptación de H0 rechazo de H0

Críticas a la selección del nivel de aceptación


1. El resultado de un test puede depender del  elegido, así podremos aceptar H0 para = 0,04
y rechazarlo para  = 0,05
2. Dar el resultado de un test en términos de aceptar o rechazar H0 no permite diferenciar el
grado de evidencia a favor o en contra de H0.
3. Si H0 especifica el valor de un parámetro y el test conduce a rechazarlo, conviene indicar cual
es la estimación por intervalos más plausible para dicho parámetro.

2
Un procedimiento diseñado para hacer frente a las críticas 1 y 2 es definir el Nivel Crítico p, o p-
valor. Se define como la probabilidad de observar una discrepancia mayor o igual que la obtenida en la
muestra cuando H0 es cierta: p  P(d  d̂ / H 0 )
Gráficamente lo podemos ver así:

De este modo podemos ver los distintos grados de p
evidencia entre la aceptación y el rechazo de la hipótesis.

Al contrario que , p no se fija a priori, si no que es


consecuencia del análisis de la muestra.
Cuanto más pequeña sea p, menor será la dc d̂
credibilidad de la hipótesis H0. Valores superiores a 0,2 de
p, pueden invitar a aceptar H0, valores de p comprendidos
entre 0,2 y 0,01, indicarán que debe hacerse una análisis de errores, y valores de p menores que 0,01
puede indicar que debe rechazarse H0.

La aceptación de H0, depende de 3 componentes:


 La opinión que a priori tengamos sobre su validez.
 Las consecuencias de equivocarnos.
 La evidencia aportada por la muestra.
Fijar el nivel de significación  engloba las 2 primeras componentes, mientras que el cálculo de p
está en conexión con la última.

Ejemplo.
¿De que tipo son las hipótesis?
a) H0:0=1; b) H0:0; c) H0: XNormal; d) H0:(5,6 ).
Las hipótesis b) y c) son paramétricas compuestas, la a) es paramétrica simple y la c) es no
paramétrica asociada a una propiedad de X.

Ejemplo.
Si la distribución de una discrepancia es una 12, construir
la región de rechazo correspondiente al nivel de significación 

= 0,01.
Consultando la tabla de la 2 tenemos que dc= 6,635
Por tanto, la región de rechazo es d > 6,635.
d c= 6,635

Ejemplo.
La distribución de cierta medida de discrepancia es una 12, y el valor observado en la muestra
es 5. Calcular el nivel crítico p.
p  P (d  d̂  5 / H 0 ) como P(d>3,841) = 0,050 y P(d>5,024) = 0,025, interpolando
0,050 5,024  3,841  0,025  0,050
5,024  5,000  0,025  p
p
 0,025  0,024
0,025 0,025  p   0,0008  p  0,0258
3,841 5,024 1,183

Ejemplo.
Proponer una medida de discrepancia para contrastar que la media de una distribución de
Poisson es 5 y construir un test con = 0,05 para una muestra de tamaño 200.
   x
Sí XP ()  x n  N ,  , por tanto d   N (0,1) .
 n /n
x 5
Para  = 0,05  1,960 . Por lo tanto rechazaremos H0 sí
5 / 200
x  5  1,960. 5 / 200  0,34

3
Enfoque de Neyman y Pearson.
Hacia los años 30 estos autores sugieren una metodología de contrastes consistente en un
problema de decisión entre dos hipótesis:
 H0 hipótesis nula (como en el caso anterior)
 H1 hipótesis alternativa.
Ya que rechazar H0, supone conlleva implícitamente aceptar una alternativa distinta.
Hay contrastes en los que H1 supone la negación de H0, pero es interesante extender la teoría a
situaciones en las que H1 es más general.

Errores implicados en un test.


En todo contraste de hipótesis están en juego dos errores que definiremos sobre el contraste
H0:=0 contra H1:=1.
Error tipo I: es el que se comete cuando se rechaza H0 siendo cierta.
Error tipo II: es el que se comete cuando se acepta H0 siendo falsa.

Definido el nivel de significación  tendremos que la probabilidad de cometer un error del tipo I
es . Y la probabilidad de cometer un error del tipo II es .
Este valor de  es único cuando H1especifica un
sólo valor para el parámetro. Si H1 es compuesta, por
ejemplo H1:,  es distinto para cada valor del Aceptar Rechazar
parámetro. H0 H0

 

0 d 1
 y  mantienen entre sí una relación inversa, de manera que al aumentar c,  disminuye y
viceversa. La única posibilidad de disminuir ambos valores a la vez consiste en aumentar el tamaño
muestral.

Ahora nos surge la siguiente pregunta: ¿Cómo fijar  = el nivel de significación de un test?.

Respuesta: en función del grado de peligrosidad de cada uno de los errores del tipo I o del tipo II.
Si ambos son igualmente peligrosos, fijaremos  = 0’05. Si Nivel de significación de un test
el error  resulta más peligroso lo fijaremos  = 0’001 o 0’0005,
 más peligroso  más peligroso
etc. Si  resulta ser el más peligroso fijaremos  =0’10 ó 0’15
pero no más por razones que veremos más adelante. 0’000 0’001 0’001 0’05 0’10 0’15
5 5

No obstante si procede realizar un análisis previo para decidir el nivel de significación .

Ejemplo.
Sea X una variable que mide la presión ocular producida por cierto medicamento. Se plantea el
contraste: H0: =15 (no peligroso)
H1: =18 (si peligroso).
Supongamos que X sigue la distribución N(, =1).
Si tomamos muestras aleatorias de tamaño n=25 enfermos, y fijamos =0’05, tendremos que:
1
X  N ( ,    0,2) . Necesitamos encontrar la d crítica.
25
Primero vamos a las tablas de la N(0,1) y buscamos el valor que deja a su derecha una
probabilidad de 0,05, este valor es 1,645. Ahora, si suponemos que H0 es cierta, entonces =15,
tipificando:
x   dc   d  15
0,05=P(x>d c / H0 es cierta)= P(  /   15)  P( z  c / z es N(0,1))
0,2 0,2 0,2
Por tanto:

4
Aceptar Rechazar
H0 H0

0,005 =0,0
 5

d c  15 15 dc
 1,645  d c  0,2 * 1,645  15  15,329 18
0,2
Si de la muestra obtenemos que x  15,329 rechazaremos H0.
Por el contrario si obtenemos que x  15,329 aceptaremos H0.
Vamos a calcular cuanto vale .
x  18 15,329  18
  P( x  15,329/ x  N (18,0'2))  P(   13,355/ x  N(18,0'2) 
0,2 0,2
P( z  13,355 / z  N(0,1))  0,005.
 es muy pequeño frente a , podríamos fijar un nivel de  menor.

Tenemos que   P(Rechazar H0 / H0 es cierta )No vender medicamentos.


  P(Aceptar H0 / H0 es falsa)  Seguir vendiendo medicamentos.

Potencia de un test.
Sea el contraste H0:=0, H1:. El contraste se realiza eligiendo una medida de discrepancia y
un nivel de significación , con estos elementos el problema queda totalmente establecido.
Llamaremos potencia de un contraste a la función:
Potencia ()=()=P(Rechazar H0 / ).
Caven dos situaciones:
a) =0  ()=P(Rechazar H0 / =0) = .
b)  0 ()=P(Rechazar H0 /  0) = 1- P(Aceptar H0 /  0) = 1-().

Al desconocerse el verdadero valor de , la potencia de un test (excepto en el caso de que ambas


hipótesis sean simples) no puede calcularse exactamente, pero si podemos representar esta
función para los distintos y posibles valores del parámetro .

Ejemplo. Representación de la potencia de un test.


Sea X una variable aleatoria que sigue una N(,=2).
Planteamos el contraste H0:=5
H1:>5.
Se trata de un contraste unilateral.
Sí  = 5, como =0  =5  () =  = 0,05  =1- = 0,95.
() = 0,05.


Aceptar Rechazar
H0 H0
Sí  = 6.
( = 6) =1- 0,26 = 0’74

5 dc 6 5
Sí  = 7
( = 7)  0,99 etc.…
Del mismo modo se puede trabajar para  = 4, ( = 4) = 0,0002.

Gráficamente la función () para contrastes unilaterales tiene la forma:

Si el contraste es del tipo H0: = 0

/2 /2

H1:  0.

La función () tiene la siguiente forma:

Cuando el contraste es bilateral.

6
Ahora podemos clasificar la potencia de un test así:
Menos potente Ideal Más potente
Bilaterales

  
0 0 0

Unilaterales




0 0 0

7
Tests más potentes y uniformemente más potentes.
El teorema de Neyman y Pearson encuentra tests de máxima potencia a los que llamaremos tests
más potentes o tests uniformemente de máxima potencia (TUMP) para determinados contrastes.

Sea X1,…, Xn una m.a.s. de tamaño n de una población de función de densidad f(x,).
Consideramos el test: H0:  = 0
H1:  = 1 1>0.
Es un contraste de hipótesis simple vs a hipótesis simple.
Fijado , el máximo error de tipo 1 que estamos dispuestos a aceptar, entonces la mejor prueba
será la que tenga menor error  o de tipo , o lo que es lo mismo, mayor potencia de entre todas las
pruebas cuyo error del tipo 1 es menor o igual que .

Se puede determinar las regiones críticas para estas pruebas mediante el siguiente método.

Teorema de Neyman y Pearson.


Si existe una región crítica C de tamaño  y una constante positiva K tal que
L 0 ( x,  0 ) L 0 ( x,  0 )
 K en el interior de C y  K en el exterior de C.
L 1 ( x , 1 ) L 1 ( x, 1 )
Entonces C es la mayor región crítica de tamaño  para este test.
Demostración.
En efecto, impongamos que C* es otra región crítica de tamaño  y supongamos que:
L 0 ( x ,  0 ) es la función de verosimilitud de la muestra cuando H0 es cierta, así como
L 1 ( x , 1 ) es la función de verosimilitud de la muestra cuando H1 es cierta.

Por ser C y C* regiones críticas de tamaño   L 0 ( x ,  0 ) dx  L 0 ( x ,  0 ) dx (1*)


C C*
Si existe una parte común en estas regiones, se podrá suprimir y obtendremos dos regiones,

C1 y C1* disjuntas y L 0 ( x ,  0 ) dx  L 0 ( x ,  0 ) dx (2*).


C1 C1*
Calculemos los errores de tipo 2 en C y C *.
B  1   L 1 ( x ,  1 )dx
C

L
*
B  1 1 ( x ,  1 ) dx
C*
Restando miembro a miembro las dos igualdades y suprimiendo en las integrales la parte común
B*  B   L 1 ( x ,  1 )dx   L 1 ( x , 1 )dx
*
(3*)
C1 C1

Como C1 está dentro de C que es la región crítica, se verifica que L 1 ( x , 1 )  K. L 0 ( x,  0 )

por lo tanto L 1 ( x ,  1 ) dx  KL 0 ( x ,  0 ) dx .


C1 C1

Por otra parte, como C1* pertenece a C* que es exterior a la región crítica 

L 1 ( x , 1 )  K. L 0 ( x,  0 ) entonces L 1 ( x ,  1 ) dx  KL 0 ( x ,  0 ) dx por lo que (3*) se


C1 C1
transforma en
B*  B  K  L 0 ( x ,  0 ) dx KL 0 ( x ,  0 ) dx
pero el 2º miembro, por (2*) es igual a
C1 C*1

0
B*- B=0  B*- B 0  B* B.

Como B* es el tamaño del error tipo 2, para cualquier región crítica de tamaño , distinta de C, se
deduce que C es la región crítica óptima de tamaño , entendiéndose como tal, la de error B mínimo o
de mayor potencia..

Ejemplo.
8
Sea X1,…,X n una m.a.s. de una distribución N( , ) con 2 conocida, y se pide determinar la
mejor región crítica para el contraste H0: = 0 vs H1: = 1 con 1 0.
Bajo el supuesto de que H0 es cierta la función de verosimilitud de la muestra es:
n n
 1   1 2  ( xi   0 ) 2
L 0 ( x,  0 )    e 2  i 1 .
 2  
Bajo el supuesto de que H1 es cierta:
n 1 n
 1   2  ( x i  1 ) 2
L 1 ( x ,  1 )    e 2  i 1 .
 2  

Entonces, de acuerdo con el teorema de Neyman - Pearson, la mejor región crítica será aquella
L 0 ( x,  0 )
para la cual  K en el interior de la región crítica, es decir:
L 1 ( x , 1 )

1 n n 
2   ( x i  1 )   ( x i   0 ) 
2 2
2   i 1
.
e i 1  . K
Tomando logaritmos neperianos, se tiene que:

n n
 (xi  1 ) 2   (x i   0 ) 2  2 2 . Ln K
i 1 i 1
n n n n
 x 2i  2 1  x i  n 12   x 2i  2 0  x i  n 20  2 2 . Ln K
i 1 i 1 i 1 i 1
n
0 )  2(  1   0 )  x i  2  . Ln K
n(  12   2 2

i 1

n n
n(  12   2 2
0 )  2  . Ln
 2(  1   0 )  x i  2 2 . Ln K  n(  2
2
obtenido
1 vez 0 ) el  xi 
     i 1 Una valor
i 1
podemos calcular la K, pero 2( 1   0 )
0 no sirve para nada.

n(  12   2 2
0 )  2  . Ln K
 x  xc
2 n(  1   0 )
La mejor región crítica para este contraste es entonces el extremo
derecho de la distribución de medidas muestrales que, puesto que

X  N (  ,  )  X  N ( , ) , que, bajo la hipótesis el supuesto de
n

H0 cierta es X  N ( 0 , n
)
xc
0

Fijado  el nivel de significación, la regla de decisión será :


Rechazar H0 sí x  x c tal que P( x  x c /    0 )   .
xc   0
Como sabemos, x c se obtiene de la tipificación  z   N (0,1) , es decir:
/ n

xc   0  z que es el extremo derecho de un intervalo para la media de una
n
distribución normal de varianza conocida de nivel de confianza 1- .

Como la forma de la región crítica es independiente de 1, siempre que 1 > 0 se concluye que
esta región crítica es también valida para el contraste: H0:  = 0
H1:  > 0.
Es decir, HIPÓTESIS SIMPLE FRENTE A COMPUESTA UNILATERAL. En este caso la prueba recibe el
nombre de TEST UNIFORMEMENTE MÁS POTENTE (TUMP).
9
No siempre existen contrastes más potentes o uniformemente más potentes.

Los casos o situaciones posibles son:


1) Hipótesis simple frente a simple.
H 0:  0
H 1:    1
Siempre existe un test más potente o de máxima potencia.
2) Hipótesis simple frente a alternativa compuesta unilateral.
H 0 :   0
H 1:    0 (o bien   0 )
Existe un test uniformemente más potente se X es continua y no existe si X es
discreta, salvo que se recurra a tests aleatorizados.
3) Hipótesis simple frente a alternativa compuesta.
H 0:  0
H 1:    0
No tenemos garantía de que exista TUMP’s salvo para determinados tipos de
funciones de densidad.

Ejemplo
Sea X  N ( ,   1) . Tomamos una m.a.s. de tamaño n =100.
Fijamos  = 0,05.

H 0 :  0  5
Planteamos el contraste:

H 1: 1  55,
Si x  xc  Re chazar H 0
Regla de Decisión:

Si x  xc  Aceptar H 0
Como X  N (  ,   1) y la m.a.s. tienen tamaño n =100, X  N (  ,    0,1)
1
100
Si suponemos cierta H0 :

̂ ̂
x  0 xc   0
  1,645 por tanto;
/ n / n Estadístico
de
x  0 contraste

Si  1,645 rechazo H0. Sustituyendo valores


/ n
1
Si x  5  1,645  5,1645 rechazo H0.
100
Además como:
n(12   22 )  2 2 Ln K
x  xc  5,1645 , podríamos calcular k pero es irrelevante.
2 n(  1   2 )

10
Aplicación del lema de Neyman y Pearson al caso discreto.
Sea x1,…,xn una m.a.s. de tamaño n, de una distribución de Poisson de parámetro , debemos
determinar la región crítica de tamaño  para el contraste:
H0:  = 0
H0:  = 1 con 1>0.
n
 xi
e  n 0  01
La función de verosimilitud es, para el supuesto de H0 cierta: L 0 ( x,  0 )  n
.
 ( x i !)
i 1
n
 xi
e  n1  11
y para H1 cierta: L 1 ( x,  1 )  n .
 ( x i !)
i 1
Entonces la mejor región crítica según el lema de Neyman - Pearson es aquella para la cual:
n
 xi
L 0 ( x,  0 )  
 K  e n ( 1   0 )  0 
1
K
L 1 ( x,  1 )  1 
tomando logaritmos neperianos:
 n  0
  x i  Ln  Ln K  n(  1   0 )
 1  1
Ln K  n(  1   0 )
  0,1  Ln 0  0   x i
0  n
Como 0 < 1   
1 1 1 Ln (  0 /  1 )
n
Como sabemos que xi  P ()   xi  P (n) por lo que, la mejor región crítica tiene por
1
limite:
n
Sí  xi  y una cantidad yc tal que P(y>yc / =0) = .
1
Pero y es un valor discreto, por tanto, con una gran probabilidad no se podrá encontrar el valor 
prefijado, por lo que sí generalizamos el lema de Neyman y Pearson al caso discreto, introduciremos el
concepto de tests aleatorizados para encontrar para contrastar H0: = 0 vs H0: = 1.

Definiendo la función (x1,…,xn) a la que llamaremos función crítica del test de la forma:
 L 1 ( x,  1 )
1 si K
 L 0 ( x,  0 )
 L ( x,  )
 1 1
(x1 ,...., x n )   si K
 L 0 ( x ,  0 )
 L ( x,  ) P (0 = 5)
0 si 1 1  K
 L 0 (x,  0 ) 0,068
2
0,031
8

1 2 3
4 5
6 7
8 9
10 11
12 13
14

11
(x1,…,xn) es la probabilidad de rechazar H0, con [0,1].

Para el Ejemplo anterior, si deseamos que  = 0,05 y suponemos que 0=5, si consultamos la tabla de
la Poisson tenemos que la región crítica [10, + ] tiene probabilidad 0,0318 < 0,05 y la [9, +] tiene
probabilidad 0,0682 > 0,05.

El test aleatorizado propone como resultado


Si el valor observado es  10  rechazamos H0.
Si el valor observado es  8  aceptamos H0.
Si el valor observado es = 9  aleatorizamos.

005,  00318
,  00182
,  00182 ,
     0501
,
P(r  9)  0363
,  0363 ,
Si el valor observado es  10  rechazamos H0.
Si el valor observado es  8  aceptamos H0.
Si el valor observado es = 9  aleatorizamos con probabilidad ½ de aceptar H0.

Contraste la razón de verosimilitudes.


El teorema de Neyman y Pearson conduce a esta tercera metodología llamada de razón de
verosimilitudes que presenta las siguientes ventajas:
 Ofrece un procedimiento para diseñar nuevos contrastes.
 Pone de manifiesto el papel central de la función de verosimilitud en cualquier proceso de
inferencia.
 Proporciona contrastes asintóticos que pueden aplicarse en una amplia gama de situaciones en
las que es difícil disponer de contrastes exactos.
 Permite construir contrastes para vectores de parámetros.

Contraste de hipótesis simple vs simple.


Sea el contraste: H0: = 0
H1: = 1
Si L ( x ,  ) es la función de verosimilitud de una muestra de una muestra dada tendremos:
Si L 1 ( x ,  1 )  L 0 ( x,  0 )  los datos apoyan más a H1 que a H0, podría, entonces
L 1 ( x ,1 )
rechazarse H0 si  L 0 ( x , 0 )
es suficientemente grande. Entonces un procedimiento

para construir un contraste es tomar como medida de discrepancia  y si bajo el supuesto


de que H0 es cierta,  tiene una distribución conocida podemos definir como región crítica:
   c con  c un valor tal que P(   c / H 0 cierta )  
A veces, dada la complejidad de L ( x , ) , resulta conveniente operar con diferencias de
soportes, es decir: Ln  = L(1) - L(0).

Ejemplo.
En cierto proceso de producción se desea contrastar la hipótesis:
H0:0 = 0,02 (El 2% de los artículos cumplen una determinada propiedad)
H0:1 = 0,05 (El 5% de los artículos cumplen una determinada propiedad)
Diseñar un contraste de razón de verosimilitud con  = 0,05 y n = 100.
La razón de verosimilitud es, para este caso dado que la distribución es Binomial:

12
n n
 xi n   xi n n
 xi n   xi r n r
p1 .q1  5  95   5   95 
1 1
1 1
       2   98 

n
 xi
n
n   xi
 2  98  n
r   xi
p 01 . q 0 1
1

El contraste  > c equivale a rechazar H0 sí r > k con P( r  k / H 0 )    0,05


Como n =100, n es grande, podremos hacer una aproximación a la normal:
r N ( np 0 , np 0 q 0 ) Suponiendo cierta H0.
En el Ejemplo r N( 2, 1'4)

̂ ̂ ̂
r 2 k2
  1,645
1,4 1,4
r  2  1,4  1,645  Re chazar H 0
k  4,606
Como r es entero no es posible encontrar un tamaño  = 0,05 salvo que aleatoricemos el test
como antes:
4,606
Si r 5 rechazamos H0
Si r 3 aceptamos H0
4 5
Sí r = 4 aleatorizamos.

Contraste de la razón de verosimilitudes para hipótesis compuestas.


Cuando una o más hipótesis son compuestas el procedimiento anterior no puede aplicarse
directamente ya que la función de verosimilitud de una hipótesis compuesta queda indeterminada.
a) Hipótesis simple vs compuesta.
Para el contraste H0: = 0
H1:  0
La función de verosimilitud L 0 ( x ,  0 ) , está bien definida como sabemos, pero
L 1 ( x ,    0 ) , no lo está por lo que tomaremos su máximo, que como sabemos se encuentra
en    MV . Plantemos entonces el contraste de la forma:
max L 1 ( x ,    0 ) L 1 ( x ,  MV )
  1.
L 0 ( x,  0 ) L 0 ( x,  0 )
Definimos la región crítica de la forma >c con P(>c / H0) =  con  = nivel de
significación o tamaño del test.
Frecuentemente la función f( / H0) no es directamente conocida pero si Ln  como veremos
en los Ejemplos que nos indica que frecuentemente operaremos con diferencia de soportes en
vez de cociente de verosimilitudes.

En todo caso el contraste planteado está midiendo la discrepancia entre el estimador  MV y
0.
b) Compuesta vs Compuesta.
Si el contraste tiene la forma H0:0
H0: - 0.
Tomaremos el máximo de las correspondientes funciones de verosimilitudes. Es decir:
max L 1 ( x,      0 )

max L 0 ( x,    0 )
Sustituyendo los correspondientes estimadores máximoverosimiles:
)
L 1 ( x,   

L ( x,   )
0 0
Si el tamaño muestral es suficientemente grande, bajo el supuesto de H0 cierta, la función:

13
2Ln   2[ L(  )  L(  ) tiende asintóticamente a una distribución 2 de grados de
0
libertad la diferencia entre las dimensiones de los espacios definidos por H0 y H1, y si H0
especifica k valores concretos de otros tantos parámetros, los grados de libertad son k-1.

Ejemplo.
Realizar el contraste de razón de verosimilitudes para XN(,) con 2 conocida.
H0:  = 0
H1:   0
La función de verosimilitud depende sólo de  y vale
n( x0 )2

22 El cociente de las funciones de verosimilitudes
L 0 ( x,  0 )  ke y L 1 ( x,  MV  x)  k
n( x   0 )2
es:  . La distribución de  no es inmediata pero:
e 2 2
2
n x 
2 Ln   2 ( x   0 )    0  2

 12g.l.
  
 n  H 0 cierta
Por lo que la regla de decisión podría ser rechazar H0 si :
2
x 
 0
  2c con 1 g. l.
  
 n 

c

o, tomando raíces cuadradas, rechazar H0 si:


x  0
 z2  
 z2
n
Como podemos ver el contraste de razón de verosimilitudes nos ha llevado al mismo resultado
que el lema de Neyman y Pearson.

Si para este mismo Ejemplo la varianza es desconocida: H0:  = 0, 2 >0 desconocida
H1:   0, 2 >0 desconocida.
La función de verosimilitud depende de 2 parámetros,  y  es:
1 n
n
 1   2  2  ( xi   ) 2
L ( x,  ,  )    e 1
 2 
por lo que
n
n 1
L( x ,  )   Ln 2  2 
2
2 2 2
 ( x i  ) 2
1
Para obtener su máximo, en el supuesto de H0, sustituiremos 0, derivaremos e igualaremos a 0.
n

L( 0 ,  2 ) n 1 1 n  (xi   0 ) 2
 2

2 2
 4

 (x i   0 ) 2  0   20  1
n
1

 )   n Ln 2 2  n
L'( 0 0
2 2
Análogamente para los parámetros especificados por H1:
 )  n Ln 2 s2  n
L( 
2 2
 20
2 Ln   nLn 2 que sigue una  2 con 1 g. l.
s
Puede verse que si n es grande, este contraste coincide con el obtenido por el lema de Neyman -
Pearson. En efecto, como:
14
n n

 20
 ( x i   0 ) 2  ( x i  x ) 2  n( x   ) 2 2
1 1  x  
   1  
s2
ns 2 ns 2  s 
2
2  x  
Como la varianza de x es  n el cociente   cuando H0 es cierta será pequeño
 s 
incluso para tamaños muestrales no muy grandes.
Entonces, como para x pequeño, Ln (1+x)  x.
  x   2   x   2
Concluimos que 2 Ln   nLn 1   2     2  que, en este caso, como la varianza
  s    s 
 2 es un estimador
es desconocida, sigue una distribución t-student, además si n es muy grande, como s
consistente para  , entonces:
2

x x
t  que sigue una distribución N(0,1).
s / n / n
Otro Ejemplo.
Deducir un contraste de razón de verosimilitudes en el problema: H0:1 = 2 = …= n
H1: en otro caso.
La función soporte será:
1 1
L( x,  1 ,  2 ,...,  k ,  2 )    n i Ln 2 2  2 
( x ij   i ) 2 donde x ij es el
2 2 i j
dato j-esimo de la muestra i-esima.

 )   n Ln 2 2  n donde   ( x ij   i ) 2
Si n   n i  L( i j y
0
2
0
2  20 
n
  x ij
i j mientras
x
n
  ( x ij  x i ) 2
n n i j
L()   Ln 2  2i  donde  2i 
2 2 n
 20
Por tanto 2 Ln   nLn   2 con k-1 grados de libertad, k+1 es la dimensión de 0 y 2 es la
 2i
dimensión de .

Cuando tenemos una población y deseamos obtener la , p (“Proporción”), 2,  de una Poisson
que se aproxime a ella, utilizamos los estimadores x , p  .
 , s 2 ,  i
Para ello utilizamos:
 Contrastes para la media
 Contrastes para la varianza
 Contrastes para la proporción
 Contrastes para la  de Poisson.
Si lo que pretendemos es comparar 2 poblaciones, N1 y N2, con parámetros i, pi, i2, i para i=1,2
extraemos una muestra y obtendremos x i , p  para i=1,2 y realizamos
 i , s i2 ,  i

15
con  2 conocida Poblaciones independientes
Test para 2 medias   
2
con  desconocida Poblaciones pareadas 
Muestras independientes
Test para 2 proporciones 
Muestras pareadas
Test para 2 var ianzas
Test para 2 parametros  de Poisson

16
ETAPAS DE UN TEST O CONTRASTE DE HIPÓTESIS.
Todo contraste de hipótesis debe contemplar el desarrollo de los siguientes pasos:
1. Planteamiento del problema en el que se decide que contraste o test procede para resolver el
problema planteado.
2. Se definen las hipótesis a contrastar
3. Se fija el nivel  de significación, o máximo error tipo I dispuestos a admitir. Queda entonces
decidido el nivel de confianza 1- . Como sabemos  se fija en función del grado de
peligrosidad de cada uno de los errores de tipo I y II. Normalmente elegiremos  = 0,05 si
consideramos que ambos errores tienen el mismo nivel de peligrosidad.
4. Regla de Validez. Analizar las llamadas condiciones de validez. Son requisitos relativos al
tipo de distribución, conocimiento o no de parámetros, tamaño muestral mínimo, etc., tales
que de cumplirse nos permitirán hacer un test más potente que aquel al que habría que
recurrir en caso de no cumplimiento.
5. Se calcula el estadístico de contraste o cantidad que depende de los datos del problema, y
permitirá en la distribución teórica correspondiente llegar a la regla de decisión.
6. Regla de decisión. Decidiremos cual es el valor crítico que limita la zona de aceptación y de
rechazo de la hipótesis H0.
7. Comparación de los datos experimentales con el valor crítico.

Tras la última etapa nos permitirá decidir si aceptamos H0 o la rechazamos.


Es preciso además aclarar en una conclusión final, que supone esta regla respecto del problema
planteado.
De llegarse a un test significativo (los que rechazan H0), procede dar un intervalo de confianza
para el parámetro un estudio.

17
TEST PARA LA MEDIA DE UNA POBLACIÓN NORMAL.
Sea X una v.a. que sigue una distribución N(,) con 2 conocida.
Si tomamos una m.a.s. x1,…,x n, sabemos que el estadístico x proporciona la mejor región
 x
crítica para este contraste. Como x sigue una N ( , ) , el estadístico sigue una
n / n
N(0,1).
Entonces, fijado  el nivel de significación, para el contraste bilateral H0:  = 0
H1:   0
rechazaremos H0

 si x  (  z  / 2 ) N(0,1)
n
/2 /2

Situación que nos lleva a rechazar H0

x
 o bien si  ( z  /2 , z  /2 )
/ n
x -zexp -z/2 z/2 zexp
 o bien si z exp   z/2 0

/ n
Además podemos calcular el nivel crítico p que informa si la decisión tomada es más o menos
consistente. Una p muy pequeña indica que el rechazo es consistente, sin embargo si |p-| es pequeño
aceptaremos o rechazaremos H0 según sea p- > 0 o p- < 0 pero con dudas, esto de reflejará en la
conclusión indicando que debe ampliarse el tamaño de la muestra.

Puede además calcularse el tamaño de la muestra necesario para garantizar un  y un  dados y


con mínima diferencia a poner de manifiesto entre el parámetro 0 y x .

Para un contraste unilateral, H0:  = 0


H1:  > 0 (o bien  < 0).
La regla de decisión es la misma, salvo que ahora compararemos N(0,1)
con z en vez de con z/2.

0 zexp z

Situación que nos lleva a aceptar H0


x
z exp   z
/ n

Ejemplo.
Sea x la nota de un cierto colectivo que sigue una distribución N(, = 0,15). Se elige al azar
una muestra de tamaño 36 alumnos cuyas notas arrojan una media de 6,95. ¿Contradicen estos datos
que la media del colectivo es 7,05?.
Se trata de un contraste para la media de una población Normal con varianza conocida.
Planteamos el contraste H0: = 7,05
H1:  7,05.
La naturaleza del problema y la pregunta imponen que el contraste sea bilateral.
Fijamos  = 0,05, porque la importancia del error de tipo I y de tipo II es equivalente.
La condición de validez para poder aplicar el test para la media de una población Normal es que
la variable que se estudia siga una distribución Normal, como es el caso. Además el problema nos da el
dato de que la varianza es conocida. Ahora ya estamos preparados para construir el estadístico de
contraste.
x  0 6,95  7,05
z exp    4 4
/ n 0,15 / 36

18
Regla de decisión.

-1,960 1,96 4
0

rechazamos H0
Vamos a la tabla de la Normal y consultamos el valor que deja detrás de el una probabilidad de
0,025. Debemos acudir con 0,025 en lugar de con 0,05 porque el contraste es bilateral y debemos
repartir esa probabilidad, 0,05, entre las dos colas de la distribución. Si la tabla presenta ya el dato0,02
0,02
repartido en las colas deberemos acudir con la cantidad inicial 0,05, pero si la5tabla no presenta la 5
probabilidad repartida en las colas, deberemos acudir con la mitad, es decir 0,025. En cualquiera de los
casos el valor obtenido debe ser el mismo, para este problema es z / 2  1,960
Como 1,960 <<< 4  Rechazamos H0.
Conclusión.
Con la muestra analizada y al 95% de confianza no podemos aceptar que la nota media del
colectivo sea 7,05.
Un intervalo del 95% de confianza para la media de la población, según los datos de que se
dispone es:

    0,15 
   x  z/2    6,95  1,960      6'9,7
 n  36 

p  2. P(z  4)  2(1  099997


, )  00006
,
P/2

Para calcular el p - valor p = 2P(z  4) con z N(0,1)  En la 0


4

Tabla
¿Que tamaño tendría que tener una muestra para que este test con errores máximos aceptables
de tipo I y tipo II,  = 0,05 y  = 0,10 y no aceptar diferencias superiores a 0,1 puntos entre la
verdadera nota media y la estimada?.
2 2 2

n  z   z 2  2
 (1,96  1,282 ) 2 0,15
0,12
 23,65  n = 24 notas.

Supongamos que el test hubiese sido unilateral: H0: = 7,05


H0: < 7,05.
El trabajo se realiza igual, salvo que ahora debemos acudir con el valor 0,1 a las tablas que tienen
la probabilidad repartida en las dos colas, y con 0,5 a las que no la tienen repartidas. En ambos casos
obtendremos z = 1,645.

Supongamos ahora que no conocemos la varianza, entonces tendríamos que calcular a partir de
los datos del problema tanto x como s  . El estadístico de contraste es:
x  0
z exp  que sigue la distribución de una t-student de n-1 grados de libertad. En
s / n
nuestro problema:
x  0 6,95  7,05
z exp    5 . Acudimos a la tabla de la t-student de 36-1=35
s / n 0,12 / 36
grados de libertad y =0,05. El resultado es z/2 = 2,030. Este test es menos potente que el anterior, hay
menos valores que hacen rechazar la hipótesis H0.
En nuestro caso 5 = zexp > z/2 = 2,030  rechazamos la hipótesis H0.

Recordemos que el carácter de test bilateral y unilateral lo impone el problema y la presentación


de sus datos.
19
TEST PARA COMPARAR 2 MEDIAS.
Vamos a establecer la siguiente clasificación:

 Varianzas conocidas
 
Muestras independientes  Varianzasiguales
 Varianzas desconocidas 
  Varianzasdistintas 1
N1
2
N2

Muestras apareadas
12 22

̂ ̂
n1 n2


Muestras independientes.
Varianzas conocidas

n1 , x1 , s12
Los datos son:

n2 , x2 , s22
x1  x 2
t exp 
Si conocemos  12 y  22 , el estadístico de contraste es:  12  22 que sigue una N(0,1).

n1 n1
La regla de decisión será:
Rechazar H0 si texp>z/2 en test bilaterales o si t exp>z en test unilaterales.

Varianzas desconocidas e iguales.


x1  x 2
t exp 
El estadístico de contraste es 1 1 que sigue una t-student de n 1+n 2 - 2 con
s 
n 1 n1
( n 1  1) s12  ( n 2  1) s 22
s 
n1  n 2  2
Varianzas desconocidas y distintas. Test de Wech.
x1  x 2
El estadístico de contraste es t exp  que sigue una t-student con f grados de libertad.
AB

f
 A  B 2 yA
s12 s 2
, B 2
Con A2 B2 n1 n2

n1  1 n 2  1

Muestras apareadas.

20
Los datos ahora son pares de la forma   x11 , x12  ,  x 21 , x 22  ,....,  x n1 , x n2   . Este interés es
que de ser posible realizarlo, evitaremos que la variabilidad propia de los individuos enmascare la
diferencia de efectos que queremos poner de manifiesto.
La variable de interés es d i  x i1  x i 2 y si X1 sigue una N(1,1) y X2 sigue una N(2,2),
entonces E d i    1   2 y Var d i    12   22  2 1 2
con   Coeficiente de correlación entre las variables X1 y X2.
Varianzas iguales.
Var d i   2 2  2 2  2 2 (1  ) .
Si las 2 muestras que comparamos son análogas  será positiva y próxima a 1 y la variabilidad de
las variables así calculadas serán mucho menor que con muestras independientes.
Para realizar el contraste:
H 0 :1   2 H 0:1   2 H 0:1   2
o o
H 0 :1   2 H 0 :1   2 H 0 :1   2

Tras calcular d  
di
n
y ŝ d2 
1
 di  d
n 1 i
  2 , el estadístico t exp 
d
ŝ d / n
i
sigue una t-student de n-1 grados de libertad.
La regla de decisión será:
Rechazar H0 si texp> t/2, (n-1) en test bilaterales o si t exp>t, (n-1) en test unilaterales.

Ejemplo.
Para calcular la velocidad de cálculo de dos ordenadores A y B, se realizan en ambos 5
operaciones. Los tiempos utilizados, en milisegundos fueron:
A 110 12 14 113 18
5 1 2
B 10 12 13 114 17
2 0 5 5
Analizar si hay diferencias:
a) Teniendo en cuenta que los datos están apareados.
b) Si son muestras independientes.

a) Vamos a considerar que las muestras son apareadas. En este caso se trata de comparar dos
medias para muestras apareadas con varianzas desconocidas.
Test: H0:A=B
H0:AB.
Fijamos  = 0,05
2
Calculamos di = {8,5,6,-1,7}  d  5 y s d  3,53 .
Condiciones de validez
XA debe seguir una Normal
XB debe seguir una Normal
En nuestro caso vamos a suponer que ambas condiciones son ciertas, aunque el problema no lo
diga expresamente.
d 5
t exp    3,167
s d / n 3.53 / 5
t/2, (5-1=4) = 2,776. Hemos acudido a una tabla de la t-student que reparte la probabilidad en las
colas y hemos llevado  = 0,05, devolviéndonos t/2.
Como 3,167 = texp > 2,776 = t/2, (5-1=4)  rechazamos H0. Como conclusión tenemos que B es más
rápido que A. En realidad la conclusión es que A y B no son igualmente rápidos, pero el que la media
de las diferencias, d , sea positiva nos dice que la máquina A parece haber tardado más que la B,
hipótesis que hemos comprobado ya.
Este test lo hemos hecho bilateral, sin embargo, a la vista del resultado obtenido con los cálculos
de d , podríamos plantear el contraste de la forma:
H0:A=B
H0:AB.

21
Este test es unilateral, que es un poco más potente que el anterior, los cálculos son los mismos
que antes, salvo que ahora vamos a la tabla de la t-student con  = 0,1 y obtenemos que t/2, (5-1=4) =
2,132.
Podemos comprobar que 2,132 < 2,776 lo que nos indica que hay más valores que nos hacen
rechazar H0, por tanto el segundo test es más potente que el primero. En nuestro caso la conclusión es
la misma.

b) Consideremos ahora que se trata de muestras independientes, los datos serán ahora:
n 1  5; x1  134,2; s1  29,37
n 2  5; x 2  129,2; s 2  27,3
x1  x 2 134,2  129,2
t exp    0,279
1 1 1 1
s  28,35 
n1 n 2 5 5
t  0,05 ( n1  n2  28)  2,306
Esta vez texp< t  Aceptamos H0.

TEST PARA UNA PROPORCIÓN.


Deseamos contrastar la proporción de individuos de una población que tienen una determinada
característica que se distribuye según una Binomial, basándonos en los datos que arroje una muestra
aleatoria simple de tamaño n.

Test exacto.
La regla de validez es que el tamaño de la población sea como mucho 10, n10.
El test se realiza calculando el nivel crítico p sobre la propia distribución Binomial B(n,p).
Ejemplo.
El problema del té.
Una dama inglesa propone que es mejor el té cuando se pone la leche sobre el té que cuando se
pone el té sobre la leche. Para comprobarlo decide preparar 10 tazas de té, 5 siguiendo el primer
método y 5 siguiendo el segundo método. Las da a probar a sus invitados y obtiene que 8 de las 10
respuestas de sus invitadas confirman su hipótesis. ¿Podemos decir que la dama inglesa tiene razón?.
El problema es medir una característica que se evalúa a cierto o falso, por tanto es una binomial,
además en principio parece ser que da lo mismo poner primero la leche y luego el té, que al revés, por
tanto se trata de una Binomial B(n =10, p=1/2).
El contraste que planteamos es: H0:p=1/2 ( Da lo mismo un orden que
el otro)
H1:p1/2 ( No da lo mismo).
El valor de la texp es el numero de aciertos, en nuestro problema t exp= 8.
Ahora acudimos a la tabla de la B(10,1/2) y B(n=10,p=1/2)
tenemos que: 0,
3 0,24 0,62
61 31
0,37
0,20 0,20 7
51 51 0,11
72
0,05
0,11 0,11 47
72 72 0,01
08
0,00
0,04 0,04 10
39 39
0,00 0,00 0,00 0,00
10 98 98 10
0 1 2 3 4 5 6 7 8 9
10
texp

p = p(t=0  t=1  t=2  t=8  t=9  t=10) =


2p(t=8  t=9  t=10) = 2(0,001+0,0098+0,0439) =
2.0,0542 = 0,1084 > 0,05.
La probabilidad de obtener el valor de t exp=0,1084>0,05 por tanto aceptamos la hipótesis H0.
Conclusión:
En vista a los datos y con un 95% de confianza da lo mismo servir la leche antes que el té o el té
antes que la leche.

Aproximación de la Binomial a la Normal.


Podemos aproximar una Binomial B(n,p) por una Normal N (  np,   np(1  p) ,
siempre que se cumpla:
22
 p>0,05;
 1-p>0,05;
 np>5 y
 n(1-p)>5.
x  np 0  0,5
El estadístico de contraste es z exp  que se distribuye como una N(0,1).
np 0 (1  p 0 )

Ejemplo.
Basándose en los datos de la clase de 4º de Computación tarde, se puede afirmar que el 30% de
los alumnos de 4º de Computación fuma.
Se trata de un test para proporciones.
Los datos son:
 Se realiza la encuesta sobre 84 individuos de la clase de 4º de Computación tarde.
 18 de estos individuos fuman.
Planteamos el test: H0:p0 = 0,3
H0:p0  0,3
Fijamos  = 0,01.
Comprobamos la regla de validez:
 p0 = 0,3>0,05 
 (1-p0) = 0,7>0,05 
 n p0 = 25,2>5 
 n (1-p0) = 58,8 >5 
x  np 0  0,5 18  25,2  0,5
Podemos aproximar a la normal, z exp    1,595
np 0 (1  p 0 ) 17,64
z/2 = 2,576
Como zexp=1,592< 2,576 = z/2, aceptamos H0.
Conclusión.
Con los datos examinados y a un 99% de confianza podemos aceptar que el 30% de los alumnos
de 4º de Computación fuma.

TEST PARA COMPARAR DOS PROPORCIONES DE MUESTRAS APAREADAS.


Planteamos el contraste: H0:p1= p2
H0:p1 p2.
Fijado un nivel de confianza  y extraída una muestra de n individuos con datos de respuesta del
tipo SI/NO a 2 variables cualitativas A y B, pueden organizarse los datos en una tabla con esta forma:
Car. B McNemar propone el estadístico de contraste:
SI NO
t exp 

n12  n 21  0,5 
que sigue una N(0,1) siempre
SI n 11 n 12
Car. A

NO n21 n 22 n12  n 21
que n 12+n 2110.

Siendo n 11 el número de individuos que da una respuesta afirmativa a ambas características, n 12 el


número de individuos que responde afirmativamente a la primera característica y negativamente a la
segunda, n 21 el número de individuos que responde negativamente a la primera característica y
afirmativamente a la segunda y, por último, n 22 el número de individuos que responde negativamente a
ambas características.
Por tanto rechazaremos H0 si texp > z/2 de una N(0,1) para este contraste bilateral o si t exp > z de
una N(0,1) si el contraste es unilateral.

Ejemplo.
Verificar al 95% de confianza si la proporción de fumadores que prefieren tabaco rubio o negro
es la misma.
Como el nivel de confianza que se exige es del 95%, esto nos impone que  = 1-0,95= 0,05.
Planteamos el contraste: H0:pR = pN
H0:pR  pN,
siendo pR la proporción de fumadores que prefieren el tabaco rubio y p N la proporción de
fumadores que prefieren tabaco negro.

23
Regla de validez: n 12+n 2110  0+13 10 .

t exp 
n 12  n 21  0,5

 
13  0  0,5
 3,4669

n 12  n 21 0  13
z/2 = 1,960.
Negro
SI NO
SI 3 13
Rubio

NO 0 37

Como texp=3,4669 > 1,960 = z/2  rechazamos H0.


Conclusión.
Con la muestra analizada y al 95% de confianza concluimos que no son iguales las proporciones
de fumadores que prefieren tabaco rubio que la de fumadores que prefieren tabaco negro.
Se puede verificar que el nivel crítico p < 0,05
p = 2p(z > 3,4669)
3,4669  2,576

 Pr ob.    p  2 p( z  3,4669)  2.0,01  0,02  0,05
p( z  3,4669  0,01 
Si se tiene que n 12+ n 21<10, bajo el supuesto de que H0 fuera cierta, el test inicial: H0:p1= p2
H0:p1 p2
es equivalente al test: H0:p1= ½
H1:p1 ½.
Como n 12+ n 21<10, Fisher propone realizar el test sobre la Binomial B(n= n 12+ n 21, p=½)
Por Ejemplo, supongamos que la tabla de datos es la siguiente:
B(n=8, p=½)
0, 0,27
3 34
0,21 0,21
88 88

0,10 0,10
94 94

0,03 0,03
0,00 12 12 0,00
39 39

0 1 2 3 4 5 6 7 8
texp

Negro
SI NO
Rubio

SI 7
NO 1

P(b = 0 en una B(8,½)=0,0039.


P(b = 1 en una B(8,½)=0,0312.
Nivel crítico p = 2 P(b = 0 o 1 en una B(8,½) =
2.(0,039+0,312) = 0,702 > 0,05
Por tanto aceptamos la hipótesis H0.

TEST PARA UNA BINOMIAL CON APROXIMACIÓN A UNA POISSON.


Si consideramos el test sobre una binomial B(n, p) con n  20 y p<0,05 existe una buena
aproximación entre la binomial B(n, p) y la Poisson P () por lo que si se dan estas condiciones para
un contraste del tipo: H0:p=p0
H1:pp0.
El test para esta proporción se resuelve mediante el nuevo test: H0: = 0
H0:  0 con 0 = np 0.
Si 0 > 10 existe una aproximación a la normal mientras que si 0  10 el contraste se realiza
sobre la propia distribución de Poisson.
Ejemplo.

24
Se sabe que el nacimiento de gemelos se da en el 1% de los casos. En cierta maternidad se
produjeron 4 nacimientos de este tipo en un total de 150 nacimientos, ¿Contradicen estos datos el
porcentaje supuesto anteriormente?.
Vamos a analizar el suceso nacer gemelos o no, es decir vamos a contrastar una proporción en
una binomial.
Planteamos el contraste: H0:p0 = 0,01 (el 1% de los nacimientos es de gemelos)
H1:p0  0,01 (no son el 1% de nacimientos, gemelos).
Fijamos  = 0,05.
Regla de validez.
n =150 20 
p = 0.01< 0,05 
Como además
1
n 0 p 0  150  1,5   0  10 , vamos a
100 0,55 0,33
P ( =1,5)
realizar el contraste sobre la propia Poisson, 0,
78 47

3 0,22
planteamos el contraste: H0:0 = 1,5 31
0,22
0,25
10
31
0,06
56 0,01
0,12 85 0,00
55 44 0,00
09
0,00
0,04 01 0,00
71 0,01
0,00 0,00 0,00 0,00 00
41 35 08 01 00
0 1 2 3 4 5 6 7 8 9
texp

H0:0  1,5.
Como
p( z  4)  0,0656 y p( z  5)  0,0185
0,0656  0,025  0,0185
 
z4 z5
0,2231  0,025  0,5578
 
z0 z 1
Por tanto la probabilidad de obtener una muestra de tamaño mayor que 0 y menor o igual que 4
p=P(0<z4)=P(z4)-P(z0)=1-P(z>4)- P(z0)=1-0,656-0,2231=0,1209 0,05, por tanto
aceptamos la hipótesis H0.

TEST PARA 2 VARIANZAS.


Este test tiene una doble finalidad, por un lado se utiliza para comparar la precisión o exactitud
de dos aparatos de medida, y por otra es un test previo al de comparación de dos medias de
distribuciones normales.
Si X1 sigue una N(1, 1) y X2 sigue una N(2, 2), tomadas sendas m.a.s. de tamaños n 1 y n2 y
fijado  el nivel de significación, sabemos que el estadístico:
 n1  1 ŝ12 sigue una  (2n1 1) y
 n 2  1 ŝ 22 sigue una  (2n 2 1)
12  22
Entonces para el contraste: H0:12 =22
H1:12 22
El cociente

 n1  1ŝ12
12 H 0 cierta

 n1  1ŝ12 
ŝ12
se distribuye como una F( n1 1,n 2 1) de Snedecor
 n 2  1ŝ 22  n 2  1ŝ 22 ŝ 22
 22
Regla de decisión.

25
ŝ12
Rechazar H0 si Fexp   F , ( n1 1, n 2 1) .
ŝ 22
¡Ojo!. Necesitamos que ŝ12  ŝ 22 . Si no es así podemos cambiar el nombre de las muestras.

Para el contraste: H0:2 = 02


H1:2  12
para una población N(, ) según una m.a.s. de tamaño n, y fijado , sabemos por Fisher que el
estadístico:
ns 2

 n  1 ŝ 2 se distribuye como una 2(n-1), por lo que la regla de decisión será
2 2
 
2 ( n  1)ŝ 2
rechazar H0 sí  exp    2 , ( n 1) 
 02
Ejemplo. n-1)
Para los datos:
203, 229, 215, 220, 223, 233, 208, 228, 209.
Se quiere realizar el contraste: H0:02 = 7,752
H0:02  7,752
Fijado = 0,05. 
n=9, ŝ  10,52 .
2 ( n  1)ŝ 2 8.10,52 2 15,5
 exp    14,75 07
14,
 02 7,75 2 75

 2 0'05, 8  15,507
Conclusión.
No podemos rechazar H0, pero dado que la 2exp queda muy cerca de la 2, recomendamos
aumentar el tamaño de la muestra, por encontrarnos cerca de significación.

DUALIDAD ENTRE CONTRASTE DE HIPÓTESIS Y ESTIMACIÓN POR INTERVALOS.


Los contrastes paramétricos hasta ahora analizados, permiten poner de manifiesto, la íntima
relación existente entre las 2 ramas de la estadística matemática:
 Teoría de la estimación y Teoría de contraste de hipótesis, en sus apartados de estimación por
intervalos y contrastes paramétricos respectivamente. Así, por Ejemplo, si  v.a. sigue una
N(, ) con  conocida, la teoría de la estimación concluye que fijado un nivel de confianza
(1-), el análisis de una m.a.s. de tamaño n se asegura que:
 
x  z / 2    x  z / 2 a ese nivel de confianza.
n n
El contraste de hipótesis, para la misma muestra y fijado el mismo , nivel de significación, el
contraste: H0:=0
H1:0
lo resuelve aceptando H0 si se cumple que:
  x 
  z / 2  x    z / 2 o lo que es lo mismo si  z  / 2 en una
n n / n
x 
N(0,1) en un contraste bilateral, o  z  en una N(0,1) en un contraste unilateral.
/ n

26

También podría gustarte