Está en la página 1de 12

Estadı́stica Hrayr Der Hagopian Tlapanco

Nota #9. Estadı́stica Inferencial

Prueba de hipótesis

Hasta el momento hemos estudiado dentro del marco de lo que se conoce como “Es-
tadı́stica Paramétrica”. Esta rama de la Estadı́stica supone que las observaciones son resul-
tado de un proceso generador de información que puede representarse adecuadamente con
algún modelo probabilı́stico conocido que tiene un número fijo de parámetros desconocidos,
donde el reto central consiste en descifrar cuáles son esos parámetros en aras de comprender
las regularidades que subyacen a las observaciones y eventualmente hacer buenas predic-
ciones. Vale la pena mencionar que existe también la rama de la Estadı́stica No Paramétrica
que no supone esto, sin embargo, no es parte del temario de este curso.

Ası́, haremos un esbozo de la Prueba de Hipótesis bajo el contexto de la Estadı́stica


Paramétrica, sin embargo, es más abarcativa de lo que aquı́ se expondrá. Adicionalmente,
distinguiremos entre dos maneras de hacer pruebas de hipótesis: el enfoque de Neyman-
Pearson y el enfoque de Fisher.

Enfoque de Neyman-Pearson

Definición. Una hipótesis (estadı́stica) es una conjetura que se hace acerca de la dis-
tribución de una o más variables aleatorias. En general, estas conjeturas afirman algo sobre
el valor de los parámetros de la distribución.

Definición. Se dice que una hipótesis es simple si especifica por completo la distribución
en cuestión. Formalmente, esto ocurre cuando la hipótesis hace referencia a un conjunto no-
vacı́o de valores posibles para el o los parámetros de interés y tal conjunto tiene cardinalidad
uno.

Definición. Se dice que una hipótesis es compuesta si no es simple. Formalmente, esto


ocurre cuando la hipótesis hace referencia a un conjunto no-vacı́o de valores admisibles para
el o los parámetros de interés y dicho conjunto tiene cardinalidad mayor a uno.

Ejemplos:

1. Si X ⇠ P oisson( ) & se afirma que “ = 3”, entonces la hipótesis será simple, pues tal
afirmación alude al conjunto {3} que tiene cardinalidad uno. Dicho de otro modo, se
asume un valor puntual para el parámetro y al sustituir el parámetro por su valor en
x
la función de masa fX (x) = e x! , queda completamente especificada la distribución
Poisson.

2. Si X ⇠ N (µ, 1) & se afirma que µ 6= 0, entonces la hipótesis es compuesta, pues


alude al conjunto R \ {0} que tiene cardinalidad mayor a uno. Dicho de otro modo,
no está bien especificada la distribución Normal, pues al no saber el valor puntual de
µ, desconocemos dónde estará el máximo de la distribución, sólo sabemos que éste no
ocurre en x = 0, siempre y cuando sea verdadera la afirmación µ 6= 0

1
Estadı́stica Hrayr Der Hagopian Tlapanco

En general, al hacer una prueba de hipótesis, se contrastan dos hipótesis: una conocida
como la “hipótesis nula” y otra conocida como la “hipótesis alternativa” (a veces llamada
alterna).

Notación: Se denota a la hipótesis nula como H0 y a la hipótesis alternativa como H1

Puesto que previamente se mencionó que una hipótesis puede ser simple o compuesta, al
contrastar hipótesis se pueden dar cuatro casos:

1. H0 simple vs. H1 simple

2. H0 simple vs. H1 compuesta

3. H0 compuesta vs. H1 simple

4. H0 compuesta vs. H1 compuesta

En general, en el enfoque de Neyman-Pearson, se hace el primer tipo de contraste de


hipótesis: H0 simple vs. H1 simple, de hecho es a este tipo de contraste de hipótesis para el
cual aplica el Lema Neyman-Pearson.

Problema central: Emplear alguna regla bien justificada para decidir si se acepta H0 o
se rechaza en favor de H1 . Dicha regla involucrará información que provenga de la muestra
(aleatoria).

Observaciones:

1. Al aceptar una hipótesis se afirma que la regla de decisión que se empleó es consistente
con los datos de la muestra. Es de suma importancia evitar interpretar que la decisión
que se haya tomado implica el carácter de verdadero de la hipótesis en cuestión, por
ejemplo, si se rechaza H0 en favor de H1 , esto no implica necesariamente que H1 sea
verdadero y esto se debe a un problema del razonamiento inductivo: si se parte de
lo particular y se busca sacar una o varias conclusiones universales, no existe método
alguno (que se conozca hasta el momento) para garantizar que las conclusiones sean
verdaderas

2. Ası́ pues la única manera de aseverar con toda probabilidad que “la hipótesis aceptada
es verdadera” es conociendo el modelo que subyace a las observaciones. Nótese que esto
es semejante a decir “uno tendrı́a que ser Dios para saber la verdad”. Sin embargo,
una forma interesante de “jugar a ser Dios” es por medio de simulaciones: en paquetes
estadı́sticos como R es posible generar números aleatorios que provengan de alguna
distribución conocida donde uno modifica a su antojo el valor de los parámetros. En
tal caso, uno conoce exactamente cuál es el modelo que subyace a las observaciones y
puede posteriormente ver si es posible inferir correctamente el valor de los parámetros
contando únicamente con las observaciones

2
Estadı́stica Hrayr Der Hagopian Tlapanco

3. Dicho de otro modo, la única forma de cerciorarnos que estamos sacando conclusiones
verdaderas sobre la población es conociendo a la población completa en lugar de una
muestra, sin embargo, en tal caso serı́a irrelevante todo lo que hemos visto pues es-
tarı́amos evitando razonar inductivamente, que es precisamente lo que hace la Es-
tadı́stica Inferencial

4. Debemos advertir entonces que si cambia la información de la muestra y/o la regla de


decisión empleada, es probable que cambie la decisión de rechazar o no rechazar H0

La regla de decisión que se emplea para rechazar o no a H0 en el enfoque Neyman-


Pearson es una sencilla: se construye un conjunto conocido como “región crı́tica” o “región
de rechazo” y posteriormente se verifica si la muestra se corresponde con esta región o no, si
es el caso que la muestra cumple con la condición de ser compatible con la región de rechazo,
como su nombre lo sugiere, se rechaza H0 . De forma análoga, si la muestra no se corresponde
con esta región, entonces no se rechaza H0

Definición. Una región crı́tica o región de rechazo, denotada como C, es un subconjunto


de valores de una muestra aleatoria para los cuales se rechaza H0

Problema: Construir de manera justificada el conjunto C. Este es un reto nada trivial.

Con esto, se da lugar a las siguientes posibilidades:

H0 verdadera H0 falsa
Rechazar Error Tipo I Decisión correcta
No rechazar Decisión correcta Error Tipo II

Table 1: Posibilidades entre rechazo/no rechazo de H0 y si es verdadera o no

Definición. Se conoce como Error Tipo I la decisión incorrecta de rechazar H0 cuando


ésta es verdadera. Se comete con la siguiente probabilidad:

↵ = P(“Rechazar H0 ”|“H0 es verdadera”)

A ↵ se le refiere como tamaño de la región crı́tica o región de rechazo en el enfoque de


Neyman-Pearson. En libros de texto se le refiere indistintamente como “nivel de significan-
cia”, pero veremos más adelante que eso tiene sentido en el enfoque de Fisher.

Definición. Se conoce como Error Tipo II la decisión incorrecta de no rechazar H0


cuando ésta es falsa. Se comete con la siguiente probabilidad:

= P(“No rechazar H0 ”|“H0 es falsa”)

A1 se le refiere como potencia o poder estadı́stico en el enfoque de Neyman-Pearson.


Es la probabilidad de no cometer un Error Tipo II.

3
Estadı́stica Hrayr Der Hagopian Tlapanco

Observaciones:

1. En general, ↵ + 6= 1 * cada uno se condiciona a un evento distinto

2. En el mundo ideal, ↵ = = 0, sin embargo, en la práctica esto es imposible

3. Por ello se ha adoptado la convención de primero fijar un valor para ↵ y posteriormente


preocuparnos de . Al hacer esto, de forma implı́cita se le da prioridad a H0 , lo cual
habrá que tomar en cuenta a la hora de especificar cuál es la hipótesis nula y cuál la
alternativa

Definición. Dada una región de rechazo C, la función potencia de una prueba de hipótesis
sobre ✓ es la siguiente función:

⇡ : ⇥ ! [0, 1] tal que ✓ 7! ⇡(✓), donde ⇡(✓) = P(“Rechazar H0 ”|✓)

En otras palabras, la función potencia es una función que va del espacio parametral
al intervalo cerrado [0, 1] donde, cada elemento del espacio parametral es asociado con la
probabilidad de rechazar H0 condicionado al evento de que el parámetro tome ese valor
particular. Para poder hacerlo, nótese que de antemano debemos conocer cuál es la región
crı́tica C.

Como se anticipó, en el enfoque Neyman-Pearson, en muchas ocasiones se contrastan


hipótesis simples y si éste es el caso, hay un resultado que vale la pena mencionar: Si
H0 : ✓ = ✓0 & H1 : ✓ = ✓1 , entonces ⇡(✓0 ) = ↵ & 1 ⇡(✓1 ) =

Ejemplo. Se adjuntará un video que ilustre la función potencia con un ejemplo, ası́
como el link para descargar un software libre llamado “G*Power” que permite calcular el
poder estadı́stico de ciertas pruebas conocidas (entre otras funcionalidades).

Lema de Neyman-Pearson. Este lema nos dice cómo encontrar una región óptima
de rechazo cuando se contrastan dos hipótesis simples y se tiene un cierto tamaño ↵ 1 . Una
interpretación informal de este lema es que la prueba de razón de verosimilitud es la prueba
más potente cuando se contrastan dos hipótesis simples. Quien haya elegido para su trabajo
final demostrar este lema e ilustrar con un ejemplo complementará estas notas con el video
educativo

1
Al decir óptima, nos referimos a que minimiza la probabilidad de cometer el Error Tipo II, i.e. minimiza

4
Estadı́stica Hrayr Der Hagopian Tlapanco

Enfoque de Fisher

Bajo el enfoque de Fisher se tienen las siguientes consideraciones:

1. Se usa la misma definición de hipótesis y la misma clasificación de hipótesis en simples


y compuestas

2. En el enfoque de Fisher es más común contrastar hipótesis simples vs compuestas, com-


puestas vs simples y compuestas vs compuestas, a diferencia del enfoque de Neyman-
Pearson en donde es más usual contrastar simple vs simple

3. En el enfoque de Fisher la hipótesis de interés para el investigador es la alternativa y


su negación es la hipótesis nula, i.e. H1 = ¬H0 o bien H0 = ¬H1

4. Bajo el enfoque de Fisher, el tema central no es la toma de una decisión, sino la


significancia o evidencia a favor de H0 , por ello se vuelve irrelevante hablar de Errores
Tipo I y II

5. Se emplean cantidades pivotales como en el caso de la estimación por intervalos, que


tienen una distribución conocida cuando H0 es verdadera. Con estos estadı́sticos
obtenidos de las cantidades pivotales y de suponer que H0 es verdadera (denotados
T (X)) se obtiene el llamado “p-value”

6. 8
El p-value es la siguiente probabilidad:
<P(T (X) T (x)| “H0 es verdadera” ) = p
> si es prueba de cola derecha
P(T (X)  T (x)| “H0 es verdadera” ) = p si es prueba de cola izquierda
>
:
2P(T (X) |T (x)|| “H0 es verdadera” ) = p si es prueba de dos colas
Es decir, la probabilidad de que el estadı́stico T (X) sea al menos tan extremo como
el estadı́stico calculado T (x) con base en la muestra observada, suponiendo que H0 es
verdadera

7. De antemano se fija un nivel de significancia ↵ que es arbitrario y que sirve para decir si
el resultado es significativo o no. Es importante señalar que el hecho de que el resultado
sea significativo o no, no implica la toma de decisión alguna bajo este enfoque, aunque
en la práctica se tenga que rechazar o no H0 . Esto ha sido fuente de gran confusión
aunado al hecho de que los valores elegidos para la significancia suelen coincidir con los
valores elegidos para el tamaño de la región crı́tica en el enfoque de Neyman-Pearson,
es decir, se suele fijar ↵ en 0.05 o 0.01

8. Si el p-value es menor que el nivel de significancia, entonces se dice que H0 no es


significativa, lo que equivale a decir que H1 es significativa. Esto no implica el rechazo
o no rechazo de H0 en teorı́a, aunque en la práctica se haga

9. Comparar el p-value con la significancia es equivalente a comparar el estadı́stico cal-


culado con el estadı́stico de tablas o “crı́tico”. Se debe tener cuidado al hacer pruebas
de dos colas o una cola

5
Estadı́stica Hrayr Der Hagopian Tlapanco

10. Si H0 resulta ser no significativa, la interpretación correcta es que una de dos cosas
es verdadera: o bien H0 es verdadera y los resultados observados son muy inusuales
(una especie de cisne negro), o H0 no explica lo observado. De nueva cuenta, sólo
conociendo el modelo subyacente o “siendo Dios” será que uno puede saber cuál de
estas dos posibilidades es la verdadera, pero si conociéramos el modelo subyacente serı́a
irrelevante hacer Inferencia Estadı́stica o razonamiento inductivo

11. El enfoque de Fisher es una especie de reducción al absurdo, la cual es una forma
de razonamiento donde una conjetura se llega a aceptar como válida si su negación
produce una contradicción. Aquı́ se vuelve “una hipótesis se llega a aceptar como
válida si su negación es improbable”. El detalle fino está en qué tan exigentes seamos
para decir que algo es improbable, esto en general dependerá del contexto, pero hay
que ser cautelosos

12. Como desventaja, alguna de las hipótesis, por ser negación de la otra, suele ser demasi-
ado abarcativa (i.e. alguna de las hipótesis suele ser una hipótesis compuesta), por lo
que este enfoque se suele usar si no sabemos mucho de un fenómeno en cuestión, es
algo que apenas se está estudiando, etc.

En las Figuras 1-3 se ilustran los puntos 8 y 9, es decir comparar el p-value con el nivel
de significancia ↵ o equivalentemente, comparar el estadı́stico de tablas con el estadı́stico
calculado para determinar si H0 es significativa o no. Las Figuras 1-3 consideran pruebas de
dos colas o una cola, donde ésta última puede ser de cola izquierda o derecha.

Figure 1: Prueba de dos colas donde T (X) ⇠ N (0, 1) bajo H0

6
Estadı́stica Hrayr Der Hagopian Tlapanco

Figure 2: Prueba cola izquierda donde T (X) ⇠ N (0, 1) bajo H0

Figure 3: Prueba de cola derecha donde T (X) ⇠ N (0, 1) bajo H0

7
Estadı́stica Hrayr Der Hagopian Tlapanco

Se adjuntará un artı́culo que establece con mayor claridad las diferencias entre el enfoque
de Fisher y el de Neyman-Pearson, además de mencionar una fusión que suele hacerse en-
tre ambos enfoques en la práctica, conocida como “Null Hypothesis Significance Testing”
(NHST). Se sugiere leer este artı́culo, ası́ como el capı́tulo 14 del libro de Aris Spanos que se
compartió al inicio del curso como bibliografı́a básica. Una observación importante es que en
ninguno de estos enfoques se cuestiona si el investigador eligió bien sus hipótesis, pregunta
que sı́ puede y trata de responder la Estadı́stica Bayesiana.

Ejemplos:

1. Prueba para media con varianza conocida. Sea X1 , ..., Xn una muestra aleatoria
donde cada variable aleatoria se distribuye N (µ, 2 ) donde µ es desconocida, pero 2
es conocida. De notas previas sabemos que la media muestral X̄ tiene la siguiente
2
distribución: X̄ ⇠ N (µ, n ), puesto que toda distribución Normal se puede estandarizar
como ya lo hemos mencionado en notas y ejercicios previos, ) X̄/pµn ⇠ N (0, 1). Nótese
que no es necesario que la muestra aleatoria se distribuya como una Normal, sólo
requerimos que siga una distribución con media y varianza finitas y que el tamaño
de la muestra sea lo suficientemente grande como para aplicar el Teorema Central del
Lı́mite.

(a) Prueba de dos colas. Tanto en el enfoque Neyman-Pearson como el de Fisher,


se contrastan las hipótesis H0 : µ = µ0 vs. H1 : µ 6= µ0 (véase la Figura 1)
• En el enfoque Neyman-Pearson se usa como región de rechazo el siguiente
conjunto:
C = {(x1 , ..., xn ) : | x̄/pµn0 | c}, es decir, aquellas muestras aleatorias tales
que el valor absoluto del estadı́stico calculado Z0 = X̄/pµn0 sea mayor o igual a
una constante. Para determinar cuál es la constante c, notamos que bajo la
hipótesis nula, el estadı́stico X̄/pµn0 se distribuye como una Normal Estándar,
por lo que c dependerá del tamaño de la región crı́tica (↵) que elijamos.
Puesto que es una prueba de dos colas, se tiene que la constante de interés
c = z ↵2 2 La regla de decisión será: “Se debe rechazar H0 si y sólo si |z0 | z ↵2 ”
Recordemos que en el enfoque de Neyman-Pearson es importante el poder o
la potencia de la prueba, la cual está dada por 1 . No es cuestión trivial
mostrar que en este caso:
= (z ↵2 + µ0/pµn1 ) ( z ↵2 + µ0/pµn1 ), donde (x) es la función de distribución
acumulada de la Normal Estándar evaluada en el punto x, es decir, (x) =
P(X  x) para el caso de la Normal Estándar. Se establece como convención
que, si se rechaza H0 , entonces H1 explica mejor los datos, aunque no quiere
decir que sea verdadera. Si H0 no se rechaza, debemos de considerar el poder
2
Esto es por la naturaleza de la hipótesis alternativa, la cual es “sin dirección” (i.e. 6=). En general, una
hipótesis sin dirección (6=) implicará que la prueba es de dos colas y una hipótesis con dirección (< o >)
como los siguientes incisos implicará que la prueba es de una cola, aunque lo converso no necesariamente se
sigue, es decir, hay pruebas de una cola donde la hipótesis alternativa no es sin dirección (< o >). Para más
detalles, consultar el artı́culo que se adjunta

8
Estadı́stica Hrayr Der Hagopian Tlapanco

estadı́stico de la prueba, si éste es bajo no debemos sacar conclusión alguna,


si el poder es alto, podemos decir que H0 explica mejor los datos, aunque no
quiere decir que sea verdadera
• En el enfoque de Fisher usamos el mismo estadı́stico Z0 y calculamos su p-
value. No es necesario que el nivel de significancia se elija de antemano, pues
el hecho de que se cambie por un valor u otro después de haber calculado el
p-value no afecta el valor de éste, sólo afecta que se interpreten los resultados
como significativos o no. La regla que se emplea en la práctica es “Se debe
rechazar H0 si y sólo si p-value < ↵”. Recordemos que bajo el enfoque de
Fisher la interpretación correcta es que una de dos cosas ocurrió: o bien H0
es verdadera y ocurrió algo improbable o bien H1 es falsa, sin embargo, no
podemos saber cuál de estas dos posibilidades se trata
(b) Prueba de cola izquierda. Tanto en el enfoque Neyman-Pearson como el de
Fisher se contrastan las hipótesis H0 : µ = µ0 vs. H1 : µ < µ0 (véase la Figura 2)
• En el enfoque Neyman-Pearson se usa como región de rechazo el siguiente
conjunto:
C = {(x1 , ..., xn ) : x̄/pµn0  z↵ }, es decir, aquellas muestras aleatorias tales
que el estadı́stico calculado Z0 = X̄/pµn0 sea menor o igual a z↵ . La regla de
decisión será: “Se debe rechazar H0 si y sólo si z0  z↵ ”
No es cuestión trivial mostrar que en este caso:
=1 ( z↵ + µ0/pµn1 ), donde (x) es la función de distribución acumulada
de la Normal Estándar evaluada en el punto x. Se establece como convención
que, si se rechaza H0 , entonces H1 explica mejor los datos, aunque no quiere
decir que sea verdadera. Si H0 no se rechaza, debemos de considerar el poder
estadı́stico de la prueba, si éste es bajo no debemos sacar conclusión alguna,
si el poder es alto, podemos decir que H0 explica mejor los datos, aunque no
quiere decir que sea verdadera
• En el enfoque de Fisher usamos el mismo estadı́stico Z0 y calculamos su p-
value. No es necesario que el nivel de significancia se elija de antemano, pues
el hecho de que se cambie por un valor u otro después de haber calculado el
p-value no afecta el valor de éste, sólo afecta que se interpreten los resultados
como significativos o no. La regla que se emplea en la práctica es “Se debe
rechazar H0 si y sólo si p-value < ↵”. Recordemos que bajo el enfoque de
Fisher la interpretación correcta es que una de dos cosas ocurrió: o bien H0
es verdadera y ocurrió algo improbable o bien H1 es falsa, sin embargo, no
podemos saber cuál de estas dos posibilidades se trata
(c) Prueba de cola derecha. Tanto en el enfoque Neyman-Pearson como el de
Fisher se contrastan las hipótesis H0 : µ = µ0 vs. H1 : µ > µ0 (véase la Figura 3)
• En el enfoque Neyman-Pearson se usa como región de rechazo el siguiente
conjunto:
C = {(x1 , ..., xn ) : x̄/pµn0 z↵ }, es decir, aquellas muestras aleatorias tales
X̄ pµ0
que el estadı́stico calculado Z0 = / n
sea mayor o igual a z↵ . La regla de

9
Estadı́stica Hrayr Der Hagopian Tlapanco

decisión será: “Se debe rechazar H0 si y sólo si z0 z↵ ”


No es cuestión trivial mostrar que en este caso:
= (z↵ + µ0/pµn1 ), donde (x) es la función de distribución acumulada de
la Normal Estándar evaluada en el punto x. Se establece como convención
que, si se rechaza H0 , entonces H1 explica mejor los datos, aunque no quiere
decir que sea verdadera. Si H0 no se rechaza, debemos de considerar el poder
estadı́stico de la prueba, si éste es bajo no debemos sacar conclusión alguna,
si el poder es alto, podemos decir que H0 explica mejor los datos, aunque no
quiere decir que sea verdadera
• En el enfoque de Fisher usamos el mismo estadı́stico Z0 y calculamos su p-
value. No es necesario que el nivel de significancia se elija de antemano, pues
el hecho de que se cambie por un valor u otro después de haber calculado el
p-value no afecta el valor de éste, sólo afecta que se interpreten los resultados
como significativos o no. La regla que se emplea en la práctica es “Se debe
rechazar H0 si y sólo si p-value < ↵”. Recordemos que bajo el enfoque de
Fisher la interpretación correcta es que una de dos cosas ocurrió: o bien H0
es verdadera y ocurrió algo improbable o bien H1 es falsa, sin embargo, no
podemos saber cuál de estas dos posibilidades se trata

2. Prueba para media con varianza desconocida. Cómo se vio en las notas sobre
X̄ pµ
estimación por intervalos, en tal caso el estadı́stico t0 = s/ n
⇠ t(n 1). No entraremos
en detalles, pero se tienen los siguientes resultados:

(a) Prueba de dos colas.


• En el enfoque Neyman-Pearson se tiene que:
– H0 : µ = µ0 vs. H1 : µ 6= µ0
x̄ pµ
– La región crı́tica es C = {(x1 , ..., xn ) : | s/ n
| t ↵2 (n 1)}
– El poder se determina de forma aproximada con 1 , donde ⇡
µ0 pµ1 µ0 pµ1
F (t 2 (n 1) + s/ n ) F ( t 2 (n 1) + s/ n ), y donde F (x) es la función
↵ ↵

de distribución acumulada de la t de Student con n 1 grados de libertad


evaluada en el punto x, es decir F (x) = P(X  x) para la t de Student
con n 1 grados de libertad
– La regla de decisión es análoga al caso anterior y se deben tomar en cuenta
las mismas consideraciones a la hora de interpretar
• En el enfoque de Fisher se tiene que:
– H0 : µ = µ0 vs. H1 : µ 6= µ0
– Se usa también el estadı́stico t0
– Se sigue una regla análoga (con p-value y nivel de significancia) y consid-
eraciones análogas
(b) Prueba de cola izquierda.
• En el enfoque Neyman-Pearson se tiene que:
– H0 : µ = µ0 vs. H1 : µ < µ0

10
Estadı́stica Hrayr Der Hagopian Tlapanco

x̄ pµ
– La región crı́tica es C = {(x1 , ..., xn ) : s/ n
 t↵ (n 1)}
– El poder se determina de forma aproximada con 1 , donde ⇡ F (t↵ (n
1) + µs/0 pµn1 ), y donde F (x) es la función de distribución acumulada de la
t de Student con n 1 grados de libertad evaluada en el punto x
– La regla de decisión es análoga al caso anterior y se deben tomar en cuenta
las mismas consideraciones a la hora de interpretar
• En el enfoque de Fisher se tiene que:
– H0 : µ = µ0 vs. H1 : µ < µ0
– Se usa también el estadı́stico t0
– Se sigue una regla análoga (con p-value y nivel de significancia) y consid-
eraciones análogas
(c) Prueba de cola derecha.
• En el enfoque Neyman-Pearson se tiene que:
– H0 : µ = µ0 vs. H1 : µ > µ0
x̄ pµ
– La región crı́tica es C = {(x1 , ..., xn ) : s/ n
t↵ (n 1)}
– El poder se determina de forma aproximada con 1 , donde ⇡
1 F ( t↵ (n 1) + µs/0 pµn1 ), y donde F (x) es la función de distribución
acumulada de la t de Student con n 1 grados de libertad evaluada en
el punto x
– La regla de decisión es análoga al caso anterior y se deben tomar en cuenta
las mismas consideraciones a la hora de interpretar
• En el enfoque de Fisher se tiene que:
– H0 : µ = µ0 vs. H1 : µ > µ0
– Se usa también el estadı́stico t0
– Se sigue una regla análoga (con p-value y nivel de significancia) y consid-
eraciones análogas
3. Aplicado. Un asilo dice que la edad media de sus miebros es de 72 años. La edad
promedio de 400 miembros elegidos al azar fue de 71.5 años y se sabe que la desviación
estándar es de 6 años. Determina si se debe rechazar o no esta afirmación usando
↵ = 0.01
[Sol.]
En este caso emplearemos la prueba para media con varianza conocida. Es una prueba
de dos colas ya que H0 : µ = 72 vs. H1 : µ 6= 72
Bajo la hipótesis nula, el estadı́stico Z0 = X̄/pµn ⇠ N (0, 1)
Calculamos z0 con los datos que tenemos:
1/2
z0 = 71.5p 72 = 0.5 =
6/ 400 6/20 6/20
= 20 12
= 53 = 1.6̄
Usando primero el enfoque de Fisher que es más sencillo, buscamos el p-value, el cual
es dos veces el área que se concentra a la derecha de 1.6̄ para la distribución Normal
Estándar (porque es una prueba de dos colas). Usando tablas estadı́sticas para la
Normal Estándar podemos verificar que p ⇡ 2(0.0485) = 0.097, dado que p > ↵, no se
debe rechazar H0 . A veces se dice que el resultado no fue significativo.

11
Estadı́stica Hrayr Der Hagopian Tlapanco

Por otra parte, bajo el enfoque de Neyman-Pearson, si usamos tablas estadı́sticas para
la Normal Estándar, se tiene que z0.005 = 2.58. Dado que 1.6̄ = zcalc < z0.005 = 2.58,
no cae dentro de la región de rechazo.
Sin embargo, antes de decidir “no rechazar” H0 , debemos buscar el poder estadı́stico de
la prueba. Nótese que en el ejemplo 1.(a) se dijo que = (z ↵2 + µ0/pµn1 ) ( z ↵2 + µ0/pµn1 ),
nótese que no definimos µ1 . La razón de que aparezca este término es que en el
contraste de hipótesis, H1 es una hipótesis compuesta y bajo una hipótesis compuesta,
desconoceremos cuál es la distribución del estadı́stico Z0 , por ello, debemos modificar
H1 para que sea H1 : µ = µ1 para algún µ1 2 R \ {72}. Si propusiéramos, por
ejemplo, contrastar las hipótesis H0 : µ = 72 vs. H1 : µ = 71 para el enfoque
Neyman-Pearson, se puede obtener el poder de la prueba usando tablas estadı́sticas
o un programa como G*Power. Este programa solicita como input tres cosas para
determinar el poder estadı́stico de esta prueba: i) Tamaño de la región de rechazo
(↵ = 0.01) ii) Tamaño de la muestra (n = 400) iii) Tamaño del efecto. Éste último
se obtiene con el cociente d = µ0 µ1 , que en este caso es 72 6 71 = 0.16̄. Con esta
información, determinamos que 1 ⇡ 0.77, i.e. la probabilidad de no cometer el
Error Tipo II es de aproximadamente 0.77. Queda a juicio del investigador determinar
si el poder de la prueba es lo suficientemente grande o no. Si lo es, entonces se debe
rechazar H0 , pero si no lo es, no se deben sacar conclusiones.
Nótese también que es irrelevante si la desviación estándar en este caso es muestral
o poblacional ya que si fuese muestral usarı́amos la prueba para media con varianza
desconocida, donde t0 tiene n 1 grados de libertad, en tal caso se tendrı́an 400 1 = 399
grados de libertad, que es prácticamente una distribución Normal Estándar, por lo que
los estadı́sticos de tablas, los calculados y el p-value serı́an prácticamente igual, ası́
como el poder de la prueba.

12

También podría gustarte