Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Prueba de hipótesis
Hasta el momento hemos estudiado dentro del marco de lo que se conoce como “Es-
tadı́stica Paramétrica”. Esta rama de la Estadı́stica supone que las observaciones son resul-
tado de un proceso generador de información que puede representarse adecuadamente con
algún modelo probabilı́stico conocido que tiene un número fijo de parámetros desconocidos,
donde el reto central consiste en descifrar cuáles son esos parámetros en aras de comprender
las regularidades que subyacen a las observaciones y eventualmente hacer buenas predic-
ciones. Vale la pena mencionar que existe también la rama de la Estadı́stica No Paramétrica
que no supone esto, sin embargo, no es parte del temario de este curso.
Enfoque de Neyman-Pearson
Definición. Una hipótesis (estadı́stica) es una conjetura que se hace acerca de la dis-
tribución de una o más variables aleatorias. En general, estas conjeturas afirman algo sobre
el valor de los parámetros de la distribución.
Definición. Se dice que una hipótesis es simple si especifica por completo la distribución
en cuestión. Formalmente, esto ocurre cuando la hipótesis hace referencia a un conjunto no-
vacı́o de valores posibles para el o los parámetros de interés y tal conjunto tiene cardinalidad
uno.
Ejemplos:
1. Si X ⇠ P oisson( ) & se afirma que “ = 3”, entonces la hipótesis será simple, pues tal
afirmación alude al conjunto {3} que tiene cardinalidad uno. Dicho de otro modo, se
asume un valor puntual para el parámetro y al sustituir el parámetro por su valor en
x
la función de masa fX (x) = e x! , queda completamente especificada la distribución
Poisson.
1
Estadı́stica Hrayr Der Hagopian Tlapanco
En general, al hacer una prueba de hipótesis, se contrastan dos hipótesis: una conocida
como la “hipótesis nula” y otra conocida como la “hipótesis alternativa” (a veces llamada
alterna).
Puesto que previamente se mencionó que una hipótesis puede ser simple o compuesta, al
contrastar hipótesis se pueden dar cuatro casos:
Problema central: Emplear alguna regla bien justificada para decidir si se acepta H0 o
se rechaza en favor de H1 . Dicha regla involucrará información que provenga de la muestra
(aleatoria).
Observaciones:
1. Al aceptar una hipótesis se afirma que la regla de decisión que se empleó es consistente
con los datos de la muestra. Es de suma importancia evitar interpretar que la decisión
que se haya tomado implica el carácter de verdadero de la hipótesis en cuestión, por
ejemplo, si se rechaza H0 en favor de H1 , esto no implica necesariamente que H1 sea
verdadero y esto se debe a un problema del razonamiento inductivo: si se parte de
lo particular y se busca sacar una o varias conclusiones universales, no existe método
alguno (que se conozca hasta el momento) para garantizar que las conclusiones sean
verdaderas
2. Ası́ pues la única manera de aseverar con toda probabilidad que “la hipótesis aceptada
es verdadera” es conociendo el modelo que subyace a las observaciones. Nótese que esto
es semejante a decir “uno tendrı́a que ser Dios para saber la verdad”. Sin embargo,
una forma interesante de “jugar a ser Dios” es por medio de simulaciones: en paquetes
estadı́sticos como R es posible generar números aleatorios que provengan de alguna
distribución conocida donde uno modifica a su antojo el valor de los parámetros. En
tal caso, uno conoce exactamente cuál es el modelo que subyace a las observaciones y
puede posteriormente ver si es posible inferir correctamente el valor de los parámetros
contando únicamente con las observaciones
2
Estadı́stica Hrayr Der Hagopian Tlapanco
3. Dicho de otro modo, la única forma de cerciorarnos que estamos sacando conclusiones
verdaderas sobre la población es conociendo a la población completa en lugar de una
muestra, sin embargo, en tal caso serı́a irrelevante todo lo que hemos visto pues es-
tarı́amos evitando razonar inductivamente, que es precisamente lo que hace la Es-
tadı́stica Inferencial
H0 verdadera H0 falsa
Rechazar Error Tipo I Decisión correcta
No rechazar Decisión correcta Error Tipo II
3
Estadı́stica Hrayr Der Hagopian Tlapanco
Observaciones:
Definición. Dada una región de rechazo C, la función potencia de una prueba de hipótesis
sobre ✓ es la siguiente función:
En otras palabras, la función potencia es una función que va del espacio parametral
al intervalo cerrado [0, 1] donde, cada elemento del espacio parametral es asociado con la
probabilidad de rechazar H0 condicionado al evento de que el parámetro tome ese valor
particular. Para poder hacerlo, nótese que de antemano debemos conocer cuál es la región
crı́tica C.
Ejemplo. Se adjuntará un video que ilustre la función potencia con un ejemplo, ası́
como el link para descargar un software libre llamado “G*Power” que permite calcular el
poder estadı́stico de ciertas pruebas conocidas (entre otras funcionalidades).
Lema de Neyman-Pearson. Este lema nos dice cómo encontrar una región óptima
de rechazo cuando se contrastan dos hipótesis simples y se tiene un cierto tamaño ↵ 1 . Una
interpretación informal de este lema es que la prueba de razón de verosimilitud es la prueba
más potente cuando se contrastan dos hipótesis simples. Quien haya elegido para su trabajo
final demostrar este lema e ilustrar con un ejemplo complementará estas notas con el video
educativo
1
Al decir óptima, nos referimos a que minimiza la probabilidad de cometer el Error Tipo II, i.e. minimiza
4
Estadı́stica Hrayr Der Hagopian Tlapanco
Enfoque de Fisher
6. 8
El p-value es la siguiente probabilidad:
<P(T (X) T (x)| “H0 es verdadera” ) = p
> si es prueba de cola derecha
P(T (X) T (x)| “H0 es verdadera” ) = p si es prueba de cola izquierda
>
:
2P(T (X) |T (x)|| “H0 es verdadera” ) = p si es prueba de dos colas
Es decir, la probabilidad de que el estadı́stico T (X) sea al menos tan extremo como
el estadı́stico calculado T (x) con base en la muestra observada, suponiendo que H0 es
verdadera
7. De antemano se fija un nivel de significancia ↵ que es arbitrario y que sirve para decir si
el resultado es significativo o no. Es importante señalar que el hecho de que el resultado
sea significativo o no, no implica la toma de decisión alguna bajo este enfoque, aunque
en la práctica se tenga que rechazar o no H0 . Esto ha sido fuente de gran confusión
aunado al hecho de que los valores elegidos para la significancia suelen coincidir con los
valores elegidos para el tamaño de la región crı́tica en el enfoque de Neyman-Pearson,
es decir, se suele fijar ↵ en 0.05 o 0.01
5
Estadı́stica Hrayr Der Hagopian Tlapanco
10. Si H0 resulta ser no significativa, la interpretación correcta es que una de dos cosas
es verdadera: o bien H0 es verdadera y los resultados observados son muy inusuales
(una especie de cisne negro), o H0 no explica lo observado. De nueva cuenta, sólo
conociendo el modelo subyacente o “siendo Dios” será que uno puede saber cuál de
estas dos posibilidades es la verdadera, pero si conociéramos el modelo subyacente serı́a
irrelevante hacer Inferencia Estadı́stica o razonamiento inductivo
11. El enfoque de Fisher es una especie de reducción al absurdo, la cual es una forma
de razonamiento donde una conjetura se llega a aceptar como válida si su negación
produce una contradicción. Aquı́ se vuelve “una hipótesis se llega a aceptar como
válida si su negación es improbable”. El detalle fino está en qué tan exigentes seamos
para decir que algo es improbable, esto en general dependerá del contexto, pero hay
que ser cautelosos
12. Como desventaja, alguna de las hipótesis, por ser negación de la otra, suele ser demasi-
ado abarcativa (i.e. alguna de las hipótesis suele ser una hipótesis compuesta), por lo
que este enfoque se suele usar si no sabemos mucho de un fenómeno en cuestión, es
algo que apenas se está estudiando, etc.
En las Figuras 1-3 se ilustran los puntos 8 y 9, es decir comparar el p-value con el nivel
de significancia ↵ o equivalentemente, comparar el estadı́stico de tablas con el estadı́stico
calculado para determinar si H0 es significativa o no. Las Figuras 1-3 consideran pruebas de
dos colas o una cola, donde ésta última puede ser de cola izquierda o derecha.
6
Estadı́stica Hrayr Der Hagopian Tlapanco
7
Estadı́stica Hrayr Der Hagopian Tlapanco
Se adjuntará un artı́culo que establece con mayor claridad las diferencias entre el enfoque
de Fisher y el de Neyman-Pearson, además de mencionar una fusión que suele hacerse en-
tre ambos enfoques en la práctica, conocida como “Null Hypothesis Significance Testing”
(NHST). Se sugiere leer este artı́culo, ası́ como el capı́tulo 14 del libro de Aris Spanos que se
compartió al inicio del curso como bibliografı́a básica. Una observación importante es que en
ninguno de estos enfoques se cuestiona si el investigador eligió bien sus hipótesis, pregunta
que sı́ puede y trata de responder la Estadı́stica Bayesiana.
Ejemplos:
1. Prueba para media con varianza conocida. Sea X1 , ..., Xn una muestra aleatoria
donde cada variable aleatoria se distribuye N (µ, 2 ) donde µ es desconocida, pero 2
es conocida. De notas previas sabemos que la media muestral X̄ tiene la siguiente
2
distribución: X̄ ⇠ N (µ, n ), puesto que toda distribución Normal se puede estandarizar
como ya lo hemos mencionado en notas y ejercicios previos, ) X̄/pµn ⇠ N (0, 1). Nótese
que no es necesario que la muestra aleatoria se distribuya como una Normal, sólo
requerimos que siga una distribución con media y varianza finitas y que el tamaño
de la muestra sea lo suficientemente grande como para aplicar el Teorema Central del
Lı́mite.
8
Estadı́stica Hrayr Der Hagopian Tlapanco
9
Estadı́stica Hrayr Der Hagopian Tlapanco
2. Prueba para media con varianza desconocida. Cómo se vio en las notas sobre
X̄ pµ
estimación por intervalos, en tal caso el estadı́stico t0 = s/ n
⇠ t(n 1). No entraremos
en detalles, pero se tienen los siguientes resultados:
10
Estadı́stica Hrayr Der Hagopian Tlapanco
x̄ pµ
– La región crı́tica es C = {(x1 , ..., xn ) : s/ n
t↵ (n 1)}
– El poder se determina de forma aproximada con 1 , donde ⇡ F (t↵ (n
1) + µs/0 pµn1 ), y donde F (x) es la función de distribución acumulada de la
t de Student con n 1 grados de libertad evaluada en el punto x
– La regla de decisión es análoga al caso anterior y se deben tomar en cuenta
las mismas consideraciones a la hora de interpretar
• En el enfoque de Fisher se tiene que:
– H0 : µ = µ0 vs. H1 : µ < µ0
– Se usa también el estadı́stico t0
– Se sigue una regla análoga (con p-value y nivel de significancia) y consid-
eraciones análogas
(c) Prueba de cola derecha.
• En el enfoque Neyman-Pearson se tiene que:
– H0 : µ = µ0 vs. H1 : µ > µ0
x̄ pµ
– La región crı́tica es C = {(x1 , ..., xn ) : s/ n
t↵ (n 1)}
– El poder se determina de forma aproximada con 1 , donde ⇡
1 F ( t↵ (n 1) + µs/0 pµn1 ), y donde F (x) es la función de distribución
acumulada de la t de Student con n 1 grados de libertad evaluada en
el punto x
– La regla de decisión es análoga al caso anterior y se deben tomar en cuenta
las mismas consideraciones a la hora de interpretar
• En el enfoque de Fisher se tiene que:
– H0 : µ = µ0 vs. H1 : µ > µ0
– Se usa también el estadı́stico t0
– Se sigue una regla análoga (con p-value y nivel de significancia) y consid-
eraciones análogas
3. Aplicado. Un asilo dice que la edad media de sus miebros es de 72 años. La edad
promedio de 400 miembros elegidos al azar fue de 71.5 años y se sabe que la desviación
estándar es de 6 años. Determina si se debe rechazar o no esta afirmación usando
↵ = 0.01
[Sol.]
En este caso emplearemos la prueba para media con varianza conocida. Es una prueba
de dos colas ya que H0 : µ = 72 vs. H1 : µ 6= 72
Bajo la hipótesis nula, el estadı́stico Z0 = X̄/pµn ⇠ N (0, 1)
Calculamos z0 con los datos que tenemos:
1/2
z0 = 71.5p 72 = 0.5 =
6/ 400 6/20 6/20
= 20 12
= 53 = 1.6̄
Usando primero el enfoque de Fisher que es más sencillo, buscamos el p-value, el cual
es dos veces el área que se concentra a la derecha de 1.6̄ para la distribución Normal
Estándar (porque es una prueba de dos colas). Usando tablas estadı́sticas para la
Normal Estándar podemos verificar que p ⇡ 2(0.0485) = 0.097, dado que p > ↵, no se
debe rechazar H0 . A veces se dice que el resultado no fue significativo.
11
Estadı́stica Hrayr Der Hagopian Tlapanco
Por otra parte, bajo el enfoque de Neyman-Pearson, si usamos tablas estadı́sticas para
la Normal Estándar, se tiene que z0.005 = 2.58. Dado que 1.6̄ = zcalc < z0.005 = 2.58,
no cae dentro de la región de rechazo.
Sin embargo, antes de decidir “no rechazar” H0 , debemos buscar el poder estadı́stico de
la prueba. Nótese que en el ejemplo 1.(a) se dijo que = (z ↵2 + µ0/pµn1 ) ( z ↵2 + µ0/pµn1 ),
nótese que no definimos µ1 . La razón de que aparezca este término es que en el
contraste de hipótesis, H1 es una hipótesis compuesta y bajo una hipótesis compuesta,
desconoceremos cuál es la distribución del estadı́stico Z0 , por ello, debemos modificar
H1 para que sea H1 : µ = µ1 para algún µ1 2 R \ {72}. Si propusiéramos, por
ejemplo, contrastar las hipótesis H0 : µ = 72 vs. H1 : µ = 71 para el enfoque
Neyman-Pearson, se puede obtener el poder de la prueba usando tablas estadı́sticas
o un programa como G*Power. Este programa solicita como input tres cosas para
determinar el poder estadı́stico de esta prueba: i) Tamaño de la región de rechazo
(↵ = 0.01) ii) Tamaño de la muestra (n = 400) iii) Tamaño del efecto. Éste último
se obtiene con el cociente d = µ0 µ1 , que en este caso es 72 6 71 = 0.16̄. Con esta
información, determinamos que 1 ⇡ 0.77, i.e. la probabilidad de no cometer el
Error Tipo II es de aproximadamente 0.77. Queda a juicio del investigador determinar
si el poder de la prueba es lo suficientemente grande o no. Si lo es, entonces se debe
rechazar H0 , pero si no lo es, no se deben sacar conclusiones.
Nótese también que es irrelevante si la desviación estándar en este caso es muestral
o poblacional ya que si fuese muestral usarı́amos la prueba para media con varianza
desconocida, donde t0 tiene n 1 grados de libertad, en tal caso se tendrı́an 400 1 = 399
grados de libertad, que es prácticamente una distribución Normal Estándar, por lo que
los estadı́sticos de tablas, los calculados y el p-value serı́an prácticamente igual, ası́
como el poder de la prueba.
12