Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estimación y Pruebas de Hipótesis - Estadística PDF
Estimación y Pruebas de Hipótesis - Estadística PDF
Índice
1. Introducción 2
3. Estimadores 3
3.1. Método de máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4. Distribuciones muestrales 6
4.1. Distribución muestral de la media de una población normal
o aproximadamente normal con varianza conocida . . . . . . . . . . . . . . . . . . . . . . 6
4.2. Distribución muestral de la media de una población normal
con varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.3. Distribuciones muestrales de la cuasivarianza y de la varianza
de una población normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.4. Distribución muestral del cociente de cuasivarianzas . . . . . . . . . . . . . . . . . . . . . 9
5. Intervalos de confianza 10
5.1. Intervalos de confianza para la media de una población normal
o aproximadamente normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.2. Intervalos de confianza para la diferencia de medias de poblaciones
independientes, normales o aproximadamente normales . . . . . . . . . . . . . . . . . . . . 12
5.3. Intervalo de confianza para la diferencia de medias de poblaciones
dependientes, normales o aproximadamente normales . . . . . . . . . . . . . . . . . . . . . 13
5.4. Intervalo de confianza para la varianza de una población normal . . . . . . . . . . . . . . 13
5.5. Intervalo de confianza para el cociente de varianzas
de poblaciones normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.6. Intervalo de confianza para la proporción de una población binomial . . . . . . . . . . . . 14
5.7. Intervalo de confianza para la diferencia de proporciones
de poblaciones binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6. Pruebas de hipótesis 15
6.1. Metodologı́a de una prueba de hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.2. Pruebas unilaterales y bilaterales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.3. Errores de tipo I y II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.4. Valor P de un contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.5. Pruebas de hipótesis sobre la media de una población normal o aproximadamente normal
con varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1
Tema 4. Estimación y pruebas de hipótesis 2
1. Introducción
Definición 1.1 Una población es el conjunto formado por la totalidad de los individuos en los que
estamos interesados para efectuar en ellos observaciones o medidas.
Supongamos que disponemos de una población sobre cuyos individuos queremos estudiar un determinado
carácter o variable, efectuando observaciones o medidas del mismo. Si tomamos al azar un indivi-
duo, podemos considerar esta elección como un experimento aleatorio cuyo espacio muestral es toda la
población. Desde este punto de vista, la variable en cuyo estudio nos interesamos, es una variable aleatoria
definida en el espacio muestral constituido por la población.
Como todas las variables aleatorias, tendrá una distribución de probabilidad, de modo que si ésta es
normal, binomial o de otro tipo, es costumbre decir que la población es normal, binomial, o del tipo que
se trate. Más aún, si θ es un parámetro asociado a la distribución de probabilidad de la variable aleatoria,
como la media o la varianza en una distribución normal, o los parámetros n y p en una binomial, es
costumbre referirnos a ellos, como el parámetro θ de la población o la media o la varianza de la población.
Seguimos ası́ un hábito muy común en los textos de Estadı́stica, de aplicar a la población adjetivos y
atributos propios de la variable que estamos estudiando.
Excepto en poblaciones pequeñas en las que es factible el estudio de la variable sobre todos los individuos
(haciendo por lo tanto innecesario el uso de la Estadı́stica), en la práctica, tal estudio es desaconsejable
por distintas razones:
La población es muy numerosa y el estudio resulta costoso.
La población es infinita.
La población está constituida por acontecimientos que se suceden a lo largo del tiempo, por lo que
serı́a necesario un tiempo infinito para abarcarla toda.
El estudio de la variable en un individuo implica la destrucción del mismo (por ejemplo, los ensayos
de resistencia de materiales).
También se las llama variables independientes e idénticamente distribuidas, por ello a veces se
utiliza la abreviatura iid.
Las variables Xi constituyen la base del importante concepto que definimos a continuación.
Definición 2.2 Sea Xi , i = 1, 2, . . . , n una muestra aleatoria simple. Se llama estadı́stico a cualquier
función real de esas variables aleatorias que no contenga ningún parámetro de la población.
De entre la infinidad de estadı́sticos que podrı́an definirse, hay dos que tienen especial interés:
n n
1X 1X
2
media muestral : X = Xi , varianza muestral : S = (Xi − X)2 ,
n i=1 n i=1
3. Estimadores
Hemos visto en el capı́tulo dedicado al estudio de las variables aleatorias y sus distribuciones de proba-
bilidad, que las funciones de probabilidad, de densidad de probabilidad y de distribución, dependen de
ciertas constantes, que de alguna manera caracterizan a la distribución y que hemos llamado paráme-
tros. Vamos a ampliar este concepto, llamando parámetro de una población, a cualquier caracterı́stica
numérica de la misma. Un parámetro, por definición depende exclusivamente de la población, y no de
cualquier muestra que puede tomarse en la misma.
Como los parámetros están asociados a toda la población, no es posible conocerlos sin analizar todos y
cada uno de los individuos de la misma, pero dada la imposibilidad (o la inconveniencia) de hacerlo, la
Estadı́stica Inferencial, se limita a estimarlos. Por estimación entendemos el proceso mediante el cual
obtenemos, a partir de los datos de una muestra, información acerca de un parámetro, bien en forma
de un número que constituye un pronóstico acerca del valor del parámetro (estimación puntual), o
bien en forma de un intervalo que esperamos contenga al parámetro con un cierto grado de confianza
(estimación por intervalo).
Para ello, tomamos un estadı́stico conveniente, y usamos su valor numérico en una muestra como es-
timación puntual, o bien calculamos a partir de ese valor numérico, los extremos del intervalo para la
estimación por intervalo.
El empleo de un estadı́stico para estimar un parámetro plantea algunos interrogantes: Para un parámetro
dado, ¿cuál (o cuáles) es el estadı́stico que se considera conveniente? No se olvide que hay infinidad de
posibilidades de definir estadı́sticos. Además, ¿hasta qué punto podemos confiar en que el valor numérico
que proporciona el estadı́stico en una muestra, por muy conveniente que éste se considere, constituye una
estimación razonable del parámetro? En esta sección vamos a contestar a estas preguntas.
Un estadı́stico que se usa para estimar un parámetro, se llama estimador puntual del parámetro. Una
estimación puntual es un valor numérico del estimador, calculado en una muestra determinada.
Notación: Suele usarse el convenio de que si θ es el parámetro que se desea estimar, el estimador se
designe por la misma letra mayúscula (ya que es una variable aleatoria) con un acento circunflejo Θ, b ya
la estimación con minúsculas θ̂. Aunque no siempre se sigue esta costumbre, debe quedar claro en todo
caso la diferencia entre el parámetro θ y su estimación θ̂, de ahı́ el empleo del acento circunflejo.
Veamos algunas caracterı́sticas de los estimadores.
b un estimador del parámetro θ. Se llama
Definición 3.1 Sea Θ
¡ ¢
b y se designa ECM (Θ)
error cuadrático medio de Θ b a E (Θ
b − θ)2 ,
b a E(Θ)
sesgo de Θ b − θ.
Tema 4. Estimación y pruebas de hipótesis 4
El error cuadrático medio es, de acuerdo con su definición, la media de los cuadrados de las desviaciones
entre los valores del estimador y el parámetro. Serı́a deseable que el estimador que usáramos tuviera el
error cuadrático medio lo más pequeño posible. Para ver de qué forma podrı́a lograse esto, comprobemos
que el error cuadrático medio se puede escribir como suma de dos términos no negativos:
¡ 2 ¢ ¡ 2¢
b =E Θ
ECM (Θ) b − 2θΘ
b + θ2 = E Θ b − 2θE(Θ)
b + θ2 =
¡ ¢ ¡ ¢
= V ar(Θ) b 2 − 2θE(Θ)
b + E(Θ) b + θ2 = V ar(Θ) b − θ 2.
b + E(Θ)
El segundo de los sumandos en que se descompone el error cuadrático medio, es el cuadrado del sesgo,
cuyo valor mı́nimo, cero, se alcanzarı́a cuando la media del estadı́stico fuera igual al parámetro. Ello
sugiere la siguiente definición.
b es un estimador insesgado del parámetro θ si E(Θ)
Definición 3.2 Se dice que el estadı́stico Θ b = θ.
b = a1 X1 + a2 X2 + . . . + an Xn donde a1 + a2 + . . . + an = 1, es un estimador
Ejemplo 1: El estadı́stico Θ
insesgado de la media de X. En efecto,
b = E(a1 X1 + a2 X2 + . . . + an Xn ) =
E(Θ)
= a1 E(X1 ) + a2 E(X2 ) + . . . + an E(Xn ) = (a1 + a2 + . . . + an )E(X) = E(X) = µ.
Ejemplo 2: La varianza muestral no es un estimador insesgado del parámetro σ 2 , ya que puede de-
¡ ¢ n−1 2 ¡ ¢ σ2
mostrarse que E S 2 = σ y por lo tanto, el sesgo de la varianza muestral es E S 2 − σ 2 = − .
n n
Se puede construir un estimador insesgado de σ 2 a partir de la varianza muestral. En efecto, el estimador
n
n 1 X
Sc2 = S2 = (Xi − X)2 ,
n−1 n − 1 i=1
En cuanto al primero de los sumandos en que se descompone el error cuadrático medio, la varianza de Θ b
da cuenta de la variabilidad del estimador en torno a su propia media, y es por lo tanto intrı́nseco de él;
b fuera constante, lo que no parece muy conveniente,
únicamente podrı́a ser cero si la variable aleatoria Θ
ya que elegir como estimador a un estadı́stico que toma el mismo valor en todas las muestras, harı́a inútil
el muestreo (a no ser que ese valor fuera precisamente el del parámetro, en cuyo caso lo que serı́a inútil es
el empleo de la Estadı́stica). En todo caso podrı́a minimizarse esta varianza eligiendo de entre los posibles
estimadores de θ, aquel cuya varianza fuera la más pequeña. Ello da origen a la siguiente definición.
Definición 3.3 De todos los estimadores insesgados de un mismo parámetro, si existe uno cuya varianza
sea mı́nima, se llama estimador insesgado de varianza mı́nima.
Para terminar esta breve introducción a las propiedades de los estimadores, vamos a definir el concepto
de eficiencia.
Definición 3.4 Sean Θ b1 y Θ
b 2 estimadores del parámetro θ. Se llama eficiencia relativa de estos
estimadores al cociente
ECM (Θ b 1)
.
ECM (Θ b 2)
b 1 es más eficiente que Θ
Si la eficiencia relativa es menor que 1, se dice que Θ b 2 , y si es mayor que 1, que
b b
Θ2 es más eficiente que Θ1 .
Tema 4. Estimación y pruebas de hipótesis 5
Definición 3.5 Sea X una variable aleatoria con función de probabilidad (o función de densidad de
probabilidad) f (x; θ) donde θ es un parámetro desconocido. Sean x1 , x2 , . . . , xn los valores observados de
una muestra aleatoria de tamaño n de X. La función de verosimilitud de la muestra es:
n
Y
L(θ; x1 , . . . , xn ) = f (xi ; θ)
i=1
i=1 i=1
n
à n
! n
à n
!
d(ln(L(p; x1 , . . . , xn ))) 1X 1 X X X
=0⇔ xi = n− xi ⇔ (1−p) xi = p n − xi ⇔ p = X̄
dp p i=1 1−p i=1 i=1 i=1
Puede comprobarse, estudiando el crecimiento de la función ln(L(p; x1 , . . . , xn )), que en el valor encon-
trado anteriormente, la función ln(L(p; x1 , . . . , xn )) tiene un máximo absoluto. Por tanto, el estimador
de máxima verosimilitud de p es
n
1X
p̂ = xi
n i=1
Tema 4. Estimación y pruebas de hipótesis 6
4. Distribuciones muestrales
Los estadı́sticos, como todas las variables aleatorias tienen sus correspondientes distribuciones de proba-
bilidad. Para destacar el hecho de que los estadı́sticos son funciones de las muestras, sus distribuciones
de probabilidad reciben el nombre de distribuciones muestrales o distribuciones de muestreo.
Definición 4.1 La distribución de probabilidad de un estadı́stico se llama distribución muestral o
distribución de muestreo.
En esta sección vamos a estudiar las distribuciones muestrales de los estadı́sticos media muestral, va-
rianza muestral y cociente de varianzas muestrales, lo que nos llevará a introducir tres distribuciones de
probabilidad de amplio uso: las distribuciones ji−cuadrado, t de Student y F de Snedecor.
Y = a1 X1 + a2 X2 + . . . + an Xn , donde a1 , a2 , . . . , an ∈ R,
Ejemplos: 1.− Si X1 , X2 , . . . , Xn es ahora una muestra aleatoria simple de una población normal X de
1 X1 + X2 + . . . + Xn
media µ y varianza σ 2 , y tomamos a1 = a2 = . . . = an = , entonces Y = = X,
n n
con lo cual, tenemos
µ + µ + ... + µ σ2 + σ2 + . . . + σ2 σ2
E(X) = =µ y V ar(X) = = .
n n2 n
2.– Si tenemos sólo dos poblaciones normales X1 y X2 , la población diferencia X1 − X2 también ten-
drá distribución normal, ası́ como la diferencia de medias muestrales X 1 − X 2 , y por lo tanto:
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ σ2 σ2
E X 1 − X 2 = E X 1 − E X 2 = µ1 − µ2 y V ar X 1 − X 2 = V ar X 1 + V ar X 2 = 1 + 2 .
n1 n2
Es decir, una combinación lineal de variables aleatorias normales e independientes, también tiene distribu-
ción normal. En particular, la media muestral y la diferencia de medias muestrales tiene esa distribución.
Por su importancia, lo enunciamos en forma de teorema:
Teorema 4.1 a) Sea X1 , X2 , . . . , Xµ n una muestra
¶ aleatoria de tamaño n de una población X ∼ N (µ, σ).
σ
Entonces la media muestral X ∼ N µ, √ .
n
b) Sean X11 , X12 , . . . , X1n1 y X21 , X22 , . . . , X2n2 muestras aleatorias independientes de tamaños n1 y
n2 respectivamente de dos poblaciones X1 ∼ N (µ1 , σ1 ) ysX2 ∼ N (µ2 , σ1 ) independientes. Entonces la
à !
σ12 σ22
diferencia de medias muestrales X 1 − X 2 ∼ N µ1 − µ2 , + .
n1 n2
Tema 4. Estimación y pruebas de hipótesis 7
Este teorema se refiere al muestreo en poblaciones normales, pero ¿qué ocurre si no sabemos cuales son
las distribuciones de esas poblaciones?, ¿cuál es entonces la distribución muestral de X y de X 1 − X 2 ?
El siguiente teorema, de importancia fundamental dice que si las muestras son grandes, la distribución
muestral de la media y de la diferencia de medias muestrales es aproximadamente normal sean cuales
sean las distribuciones de las poblaciones.
El significado de este teorema es que para tamaños muestrales grandes, las variables aleatorias Z
de los apartados a) y b) son aproximadamente normales, de lo que se desprende que también son casi
normales los estadı́sticos X y X 1 − X 2 . Se admite que si n > 30, n1 > 30 y n2 > 30, las µ distribu-
¶
σ
ciones de dichos estadı́sticos pueden aproximarse satisfactoriamente por las distribuciones N µ, √ y
às ! n
2 2
σ1 σ
N µ1 − µ2 , + 2 respectivamente.
n1 n2
La aplicación del teorema central del lı́mite tropieza en la práctica con dos dificultades: que el tamaño de
las muestras sea menor de 30, y que las varianzas de las poblaciones sean desconocidas. En ambos casos,
la media y la diferencia de medias muestrales dejan de tener distribución normal. En la siguiente sección
se introduce una distribución muestral que supera ambas dificultades en el caso de que la población sea
normal. Pero antes introducimos un concepto que será útil más tarde.
Definición 4.2 Para una variable aleatoria normal estándar Z, se llama punto crı́tico a un nivel α,
y se designa zα a un número tal que P (Z > zα ) = α.
En 1908, en un célebre artı́culo1 , W. Gosset, con el seudónimo de ”Student”, estableció que para mues-
X −µ
tras extraidas de una población normal cuya varianza es desconocida, el estadı́stico T = √ tiene
Sc / n
una distribución de probabilidad que vamos a describir y que actualmente se conoce con el nombre de
distribución t de Student. Nótese que T se obtiene tipificando la media muestral pero usando la cuasi
desviación tı́pica Sc (muestral) en lugar de la desviación tı́pica σ (poblacional), dado que esta última no
se conoce.
1 The probable error of a mean. Biometrika 6, 1−25
Tema 4. Estimación y pruebas de hipótesis 8
Definición 4.3 Se dice que una variable aleatoria continua tiene distribución t de Student con k
grados de libertad, si su función de densidad de probabilidad es
µ ¶
k+1
Γ µ 2 ¶−(k+1)/2
2 x
f (x; k) = √ µ ¶ +1 − ∞ < x < ∞, k > 0.
k k
πk Γ
2
Nota 1: Obsérvese que independientemente del valor de k, la función f (x; k) es par, luego su gráfica es
simétrica con respecto al eje vertical. Ello permite, igual que ocurrı́a con la distribución normal, limitar
el cálculo de las tablas de valores crı́ticos a los positivos.
Nota 2: Puede demostrarse que conforme el número de grados de libertad aumenta, la distribución t se
aproxima a una distribución normal estándar, es decir, se verifica
Teorema 4.3 Sea X1 , X2 , . . . , Xn una muestra aleatoria de una población X ∼ N (µ, σ). Entonces el
X −µ
estadı́stico T = √ tiene distribución t de Student con n − 1 grados de libertad.
Sc / n
El interés de la distribución t de Student está en que nos proporciona la distribución muestral del es-
X −µ
tadı́stico T = √ , que no es más que (como hemos señalado antes), la media muestral tipificada
Sc / n
cuando la distribución de la población es normal. El empleo de T como estimador de tal media muestral,
tiene interés en situaciones en las que la varianza σ 2 es desconocida, que por cierto es lo usual. El siguiente
cuadro resume las situaciones estudiadas.
Población
Varianza
Normal Desconocida
X −µ X − µ
conocida √ ∼ N (0, 1) (para todo n ∈ Z+ ) √ ∼ N (0, 1) (n > 30) ? (n < 30)
σ/ n σ/ n
X −µ
desconocida √ ∼ N (0, 1) (n > 30)
Sc / n
X −µ
√ ∼ tn−1 (n < 30) ?
Sc / n
Definición 4.4 Para una variable aleatoria T con distribución t de Student con k grados de libertad, se
llama punto crı́tico a un nivel α y se designa tα,k , a un número tal que P (T > tα,k ) = α.
µ ¶
k
Nota 1: El factor Γ que aparece en el denominador de la anterior función de densidad de probabi-
2 Z ∞
lidad es la conocida función gamma: Γ(s) = ts−1 e−s ds.
0
Nota 2: Puede demostrarse que cuando el número de grados de libertad k tiende a infinito, la función
de densidad f (x; k) tiende a una normal.
Teorema 4.4 Sea σ 2 la varianza de una población normal. Entonces la variable aleatoria
n
X (Xi − X)2
(n − 1)Sc2
= .
σ2 i=1
σ2
Teorema 4.5 Sean σ12 y σ22 las varianzas de dos poblaciones normales, y Sc21 y Sc22 las cuasivarianzas
σ2 S 2
muestrales en muestras de tamaños n1 y n2 respectivamente. Entonces la variable aleatoria 22 c21 tiene
σ 1 S c2
distribución F de Snedecor con n1 − 1 y n2 − 1 grados de libertad.
Definición 4.8 Para una variable aleatoria F con distribución F de Snedecor con k1 y k2 grados de
libertad, se llama punto crı́tico a un nivel α y se designa fα,k1 ,k2 , a un número tal que P (F > fα,k1 ,k2 ) =
α.
La distribución F goza de una propiedad cuya importancia radica en que permite simplificar las tablas
de valores crı́ticos. Sea fα,k1 ,k2 el punto crı́tico que verifica P (F > fα,k1 ,k2 ) = α, entonces tenemos
1
f1−α,k2 ,k1 = .
fα,k1 ,k2
La última igualdad evita el cálculo de los valores crı́ticos para niveles 1 − α si ya los hemos calculado para
los niveles α, lo que reduce el tamaño de las tablas de valores crı́ticos. Sólo hay que tener la precaución
de intercambiar los valores de k1 y k2 como se indica en dicha igualdad.
Tema 4. Estimación y pruebas de hipótesis 10
5. Intervalos de confianza
Sea θ un parámetro de la población que deseamos estimar. Supongamos que disponemos de dos estadı́sticos
L y U tales que se verifica la siguiente igualdad: P (L 6 θ 6 U ) = 1 − α, donde α es un número pequeño
(por ejemplo α = 0, 01) que cumple 0 6 α 6 1. La interpretación de esa igualdad es la siguiente:
La probabilidad de que los estadı́sticos L y U , tomen valores menores y mayores respectivamente que
el parámetro θ es alta (ya que α es una probabilidad pequeña y por lo tanto 1 − α es una probabilidad
grande), es decir, que si tomamos muchas muestras, y calculamos en cada una los valores numéricos l y
u de los estadı́sticos L y U , en un alto porcentaje de ellas, se verificará l 6 θ 6 u. Concretamente, si
α = 0, 05, en el 100(1-0,05) %=95 % de esas muestras se verificará la citada doble desigualdad.
Ahora bien, es muy importante destacar que dada una muestra concreta y los correspondientes valores
numéricos l y u de los estadı́sticos, es imposible saber si en esa muestra se verifican las desigualdades
l 6 θ 6 u, ya que lo único que podemos afirmar es que en un alto porcentaje de ellas sı́ se verifican, pero
no hay manera de saber en cuáles. Por ello, debe evitarse el escribir l 6 θ 6 u para no dar ocasión a
falsas interpretaciones, a no ser que quede muy claro lo que se quiere expresar.
Pero aunque no podamos saber si el parámetro θ se encuentra en el intervalo [l, u] correspondiente a
una muestra determinada, podemos confiar (¡nunca afirmar!) en que ése sea uno de los intervalos que
efectivamente contienen a θ. Nuestra confianza se basa en que un alto porcentaje de dichos intervalos lo
contienen. Para expresar esta idea de una forma gráfica, decimos que [l, u] es un intervalo de confianza
del 100(1 − α) % para el parámetro θ.
En la práctica, no se toman muchas muestras, sino sólo una (el muestreo es caro). Si con los datos
muestrales y un nivel de confianza del, digamos 95 %, los valores l y u obtenidos son por ejemplo 3,25 y
4,09, diremos que [3, 25 , 4, 09] es un intervalo de confianza del 95 % para el parámetro. Pero a la pregunta
¿está el parámetro dentro del intervalo [3, 25 , 4, 09]?, la respuesta es que no podemos saberlo. No obstante
podemos apostar que sı́ (dándole a la palabra apostar el mismo sentido de riesgo que tiene en un juego
de azar cuando llevamos una buena mano, es decir, que creemos que podemos ganar aunque admitamos
una pequeña probabilidad de perder).
Definición 5.1 Un intervalo de confianza a un nivel 100(1 − α) % para un parámetro θ es un
intervalo de la forma [L, U ] tal que P (L 6 θ 6 U ) = 1 − α, donde L y U son dos variables aleatorias que
dependen de un estimador Θ b del parámetro.
Observación: Cuando tomamos una muestra de la población y calculamos los valores l y u de las variables
aleatorias L y U , esos valores dependerán de la estimación puntual θ̂ del estimador. Es costumbre llamar
también intervalo de confianza a [l, u].
En las secciones que siguen vamos a calcular intervalos de confianza para diversos parámetros, usando
para ello los estimadores explicados en la sección 4.
Varianza conocida.– Sea X una población con E(X) = µ y V ar(X) = σ 2 (suponemos conocida
esta última). Sea X1 , X2 , . . . , Xn una muestra aleatoria de
µ tamaño
¶ n de X, y sea X ∼ N (µ, σ) o bien
σ
n > 30, lo que implica según el teorema 4.2 que X ∼ N µ, √ , exacta o aproximadamente, es decir
n
X −µ
√ ∼ N (0, 1). Ahora tomamos un número α tal que 0 < α < 1, lo que nos permite buscar en la tabla
σ/ n
Tema 4. Estimación y pruebas de hipótesis 11
de áreas de la distribución normal estándar, los dos puntos crı́ticos ±zα/2 . Podemos entonces escribir:
µ ¶
X −µ
1 − α = P −zα/2 6 √ 6 zα/2 =⇒
σ/ n
µ ¶
σ σ
=⇒ 1 − α = P −zα/2 √ 6 X − µ 6 zα/2 √ =⇒
n n
µ ¶
σ σ
=⇒ 1 − α = P X − zα/2 √ 6 µ 6 X + zα/2 √ .
n n
σ σ
Si llamamos L = X − zα/2 √ y U = X + zα/2 √ , tenemos P (L 6 µ 6 U ) = 1 − α, y por lo tanto
n n
[L, U ] es un intervalo de confianza del 100(1 − α) % para la media µ, cuando σ es conocida:
· ¸
σ σ
X − zα/2 √ , X + zα/2 √
n n
Varianza desconocida.– Supongamos ahora, como antes, que X es una población con E(X) = µ y
V ar(X) = σ 2 , pero ahora con σ 2 desconocida. Sea X1 , X2 , . . . , Xn una muestra aleatoria de tamaño n
de X. Distinguiremos dos casos:
a) Tamaño muestral n > 30: En este caso, y en virtud del Teorema Central del Lı́mite, el intervalo
de confianza resulta ser idéntico al anterior, sólo que sustituyendo la desviación tı́pica σ por la cuasi
desviación tı́pica Sc :
· ¸
Sc Sc
X − zα/2 √ , X + zα/2 √
n n
X −µ
b) Tamaño muestral n 6 30 y X ∼ N (µ, σ): De acuerdo con el teorema 4.3, √ ∼ tn−1 , de modo
Sc / n
que si fijamos un valor para α (0 6 α 6 1), que nos permita buscar en la tabla de percentiles de la
distribución t de Student, los puntos crı́ticos ±tα/2,n−1 , podemos escribir:
µ ¶
X −µ
1 − α = P −tα/2,n−1 6 √ 6 tα/2,n−1 =⇒
Sc / n
µ ¶
Sc Sc
=⇒ 1 − α = P −tα/2,n−1 √ 6 X − µ 6 tα/2,n−1 √ =⇒
n n
µ ¶
Sc Sc
=⇒ 1 − α = P X − tα/2,n−1 √ 6 µ 6 X + tα/2,n−1 √ .
n n
Sc Sc
Si llamamos L = X − tα/2,n−1 √ y U = X + tα/2,n−1 √ , tenemos P (L 6 µ 6 U ) = 1 − α, y por
n n
lo tanto [L, U ] es un intervalo de confianza del 100(1 − α) % para la media µ de una población normal,
cuando σ es desconocida y el tamaño muestral es n 6 30:
· ¸
Sc Sc
X − tα/2,n−1 √ , X + tα/2,n−1 √
n n
Nótese que el caso de que la población no sea normal y el tamaño muestral sea n < 30, no lo tratamos,
pues exige el empleo de técnicas que quedan fuera del alcance de esta asignatura.
————————————–
Los procedimientos de obtención de los intervalos de confianza que siguen, son muy parecidos a los dos
ya expuestos, ası́ que en las siguientes secciones nos limitaremos a exponer las condiciones bajo las cuales
es válido cada uno de los intervalos de confianza, y la expresión de los mismos, omitiendo por brevedad,
salvo en tres casos, su desarrollo.
Tema 4. Estimación y pruebas de hipótesis 12
Varianzas desconocidas.– Si las varianzas σ12 y σ22 son desconocidas, pero los tamaños muestrales
son n1 > 30 y n2 > 30, el intervalo de confianza del 100(1 − α) % para µ1 − µ2 es igual al anterior, pero
sustituyendo las varianzas de las poblaciones por las cuasivarianzas muestrales:
s s
Sc21 Sc22 Sc21 Sc22
X 1 − X 2 − zα/2 + , X 1 − X 2 + zα/2 +
n1 n2 n1 n2
Con tamaños muestrales mayores o iguales que 30, no es necesario suponer que las poblaciones son
normales, ya que el Teorema Central del Lı́mite (teorema 4.2) garantiza la normalidad de la diferencia de
medias muestrales, pero si los tamaños muestrales son menores que 30, necesitamos suponer que ambas
poblaciones son normales y distinguir dos casos:
a) Varianzas iguales (σ12 = σ22 ).– El intervalo de confianza del 100(1 − α) % para µ1 − µ2 es:
· r r ¸
1 1 1 1
X 1 − X 2 − tα/2,n1 +n2 −2 Sp + , X 1 − X 2 + tα/2,n1 +n2 −2 Sp +
n1 n2 n1 n2
2 2
(n1 − 1)Sc1 + (n2 − 1)Sc2
donde Sp2 = .
n1 + n2 − 2
b) Varianzas distintas (σ12 6= σ22 ).– El intervalo de confianza del 100(1 − α) % para µ1 − µ2 es:
s s
Sc21 Sc22 Sc21 Sc22
X 1 − X 2 − tα/2,ν + , X 1 − X 2 + tα/2,ν +
n1 n2 n1 n2
¡ 2 ¢2
Sc1 /n1 + Sc22 /n2
donde el número de grados de libertad es ν = ¡ ¢2 1 ¡ ¢2 1 − 2 . Para buscar
Sc21 /n1 + Sc22 /n2
n1 − 1 n2 − 1
en las tablas de percentiles de la distribución t de Student, el valor crı́tico tα/2,ν debe redondearse ν al
entero más próximo.
Cabe preguntarse cómo es posible saber si las varianzas σ12 y σ22 son iguales o distintas, si son desconocidas.
Una de las posibles opciones para responder a esta cuestión consiste en calcular un intervalo de confianza
σ2
del 100(1 − α) % para el cociente de las varianzas 12 tal y como se detalla en la sección 5.5. Si este
σ2
intervalo contiene al número 1, entonces podemos concluir con una confianza del 100(1 − α) %, que las
varianzas se pueden considerar iguales. En caso contrario, consideraremos que las varianzas son diferentes.
Otra opción la veremos en la sección ...
Tema 4. Estimación y pruebas de hipótesis 13
2 D − µD
Varianza σD desconocida.– De acuerdo con el teorema 4.3, tenemos ahora √ ∼ tn−1 , luego
Sc / n
un intervalo de confianza del 100(1 − α) % para el parámetro µD tiene la misma forma que el obtenido
en la sección 5.1 cuando la varianza es desconocida (apartado b):
· ¸
Sc Sc
D − zα/2 √ , X + zα/2 √
n n
(n − 1)Sc2 (n − 1)Sc2
Como en los casos anteriores, si llamamos L = 2 y U = 2 , vemos que se cumple la
χα/2,n−1 χ1−α/2,n−1
igualdad P (L 6 µ 6 U ) = 1 − α, lo que implica que [L, U ] es un intervalo de confianza del 100(1 − α) %
para la varianza σ 2 de una población normal:
" #
(n − 1)Sc2 (n − 1)Sc2
,
χ2α/2,n−1 χ21−α/2,n−1
Tema 4. Estimación y pruebas de hipótesis 14
S2 1 S2 1
Ahora consideremos los dos estdı́sticos L = c12 · y U = c1
2 · f . Según
Sc2 fα/2,n1 −1,n2 −1 Sc2 1−α/2,n1 −1,n2 −1
µ 2
¶
σ
acabamos de ver, P L 6 12 6 U = 1 − α, de lo que se deduce que [L, U ] es un intervalo de confianza
σ2
σ2
del 100(1 − α) % para el cociente de varianzas 12 de dos poblaciones normales:
σ2
· 2 2
¸
Sc1 1 Sc1 1
2 · , 2 ·
Sc2 fα/2,n1 −1,n2 −1 Sc2 f1−α/2,n1 −1,n2 −1
Entonces, un intervalo de confianza aproximado del 100(1 − α) % para el parámetro diferencia de propor-
ciones p1 − p2 es:
s s
p̂1 − p̂2 − zα/2 p̂1 (1 − p̂1 ) p̂2 (1 − p̂2 ) p̂1 (1 − p̂1 ) p̂2 (1 − p̂2 )
+ , p̂1 − p̂2 + zα/2 +
n1 n2 n1 n2
6. Pruebas de hipótesis
Una forma de estimación, alternativa a la estimación puntual o por intervalos es la conocida como prueba
de hipótesis. A grandes rasgos, la idea consiste en proponer un valor θ0 (llamado valor de prueba) para
el parámetro θ que deseamos estimar, tomar a continuación una muestra de la población, calcular con ella
el valor de cierto estadı́stico y decidir si el valor obtenido avala la elección que hemos hecho del valor de
prueba. Cuando proponemos un valor de prueba para un parámetro, estamos formulando una hipótesis
acerca del mismo, ası́, definimos:
Definición 6.1 Una hipótesis estadı́stica es una proposición sobre la distribución de probabilidad de
una o más poblaciones, o sobre los parámetros de las mismas.
Tema 4. Estimación y pruebas de hipótesis 16
En este tema sólo consideraremos las hipótesis estadı́sticas bajo la segunda acepción, es decir, como
proposiciones acerca de parámetros de poblaciones. Una hipótesis estadı́stica se plantea con la intención
de rechazarla o no rechazarla, de acuerdo con la información proporcionada por una muestra extraı́da de
la población. La formulación de una hipótesis acerca de un parámetro tiene sentido cuando desconocemos
el valor del mismo y queremos estimarlo rechazando o no dicha hipótesis. El proceso, basado en el uso
de un estadı́stico apropiado, de rechazar o no la hipótesis, es decir, de alcanzar una decisión acerca de
la misma, se llama prueba, contraste o test, ası́ hablamos de probar o contrastar una hipótesis, y el
estadı́stico usado para ello se llama estadı́stico de prueba o estadı́stico de contraste.
Supongamos que en cierto proceso de fabricación3 el ingeniero a cargo del mismo cree, basándose en su
experiencia y en observaciones previas, que la fracción de artı́culos defectuosos es del 10 %. Admitiendo
que la población de artı́culos fabricados puede dividirse en dos categorı́as que se excluyen mutuamente,
los defectuosos y los no defectuosos, dicha población tiene distribución de Bernoulli con parámetro
p = probabilidad de que un artı́culo elegido al azar sea defectuoso.
La creencia del ingeniero le lleva a formular la siguiente hipótesis: p = 0, 1. Para corroborarla o desmentir-
la, decide tomar una muestra de tamaño 100, y encuentra 12 defectuosos, es decir una fracción muestral
p̂ = 0, 12. Tal fracción, parece estar conforme con la hipótesis, pero también lo estarı́a si la hipótesis
hubiera sido p = 0, 11 o p = 0, 13, por ello debemos ser cautelosos y tomar el resultado muestral obtenido
no como una confirmación estricta de la hipótesis, sino mas bien como un no rechazo de la misma. De
hecho, si la hipótesis del ingeniero fuera correcta, la probabilidad de obtener una fracción muestral de
defectuosos comprendida entre digamos, 0,05 y 0,15, es muy alta, concretamente:
X15 µ ¶
100
P (0, 05 6 p̂ 6 0, 15 | p = 0, 10) = (0, 10)x (1 − 0, 10)100−x = 0, 9024,
x=5
x
pero también son altas estas probabilidades si tomamos como hipótesis p = 0, 11 o p = 0, 13:
X15 µ ¶
100
P (0, 05 6 p̂ 6 0, 15 | p = 0, 11) = (0, 11)x (1 − 0, 11)100−x = 0, 8895,
x=5
x
X15 µ ¶
100
P (0, 05 6 p̂ 6 0, 15 | p = 0, 13) = (0, 13)x (1 − 0, 13)100−x = 0, 7690.
x=5
x
Sin embargo si en la muestra hubieran aparecido 20 artı́culos defectuosos deberı́amos rechazar la hipótesis
p = 0, 1, pues una fracción muestral mayor que 0,15 serı́a muy improbable si tal hipótesis fuera cierta.
En efecto:
X15 µ ¶
100
P (p̂ > 0, 15 | p = 0, 10) = 1 − (0, 10)x (1 − 0, 10)100−x = 0, 0399.
x=0
x
Por lo tanto, el rechazo casi excluye a la hipótesis, mientras que el no rechazo, aunque no la excluye,
tampoco excluye otras posibilidades, por eso, la decisión de rechazar es más fuerte que la de no rechazar,
y de ahı́, que en el argot de la Estadı́stica, a un resultado muestral que nos lleve a rechazar una hipótesis,
se le llama significativo, mientras que un resultado que no nos permita rechazarla, se dice que no es
significativo. Una prueba de hipótesis debe pues intentar plantearse al revés de lo que parece, es decir
de tal forma que sometamos a prueba la hipótesis contraria a la que creemos que es cierta, pues ası́, si
logramos rechazarla, afirmamos con más fuerza nuestra hipótesis.
estadı́stica para ingenieros de Walpole, R.E.; Myers, R.H. y Myers, S.L., editado por Prentice-Hall Hispanoamericana S.A.,
México 1999.
Tema 4. Estimación y pruebas de hipótesis 17
es en la que creemos, se llama hipótesis nula, y suele designarse con el sı́mbolo H0 . El rechazo de
la hipótesis nula se formula en forma de otra hipótesis a la que se denomina hipótesis alternativa
y que se designa con el sı́mbolo H1 (algunas veces Ha ). El rechazo de la hipótesis nula (lo que nos
lleva a la aceptación de la alternativa) se produce si el estadı́stico de contraste toma un valor en una
región en la que tiene muy pocas probabilidades de estar si la hipótesis nula es cierta. Tal región se
denomina región crı́tica o menos comúnmente región de rechazo. En la sección precedente, se ha
elegido arbitrariamente esa región como p̂ > 0, 15. Contrariamente, el no rechazo de la hipótesis nula se
produce cuando el estadı́stico de contraste toma un valor en una región en la que hay una probabilidad
alta de que lo tome si la hipótesis nula es cierta. De manera equı́voca, pues debe evitarse el término
aceptación al referirnos a la hipótesis nula, se suele llamar a ésta, región de aceptación.
La decisión de establecer el tamaño de la región crı́tica debe tomarse antes de la elección de la muestra,
y la forma de hacerlo es fijar a priori la probabilidad de que el estadı́stico de contraste tome un valor
dentro de esa región en el supuesto de que la hipótesis nula es cierta. A esa probabilidad se le llama
nivel de significación, se suele designar con la letra griega α, y se elige de modo que sea pequeña, pues
de acuerdo con la discusión anterior, no tendrı́a interés si fuera grande porque entonces no tendrı́amos
argumentos para rechazar H0 . Valores usuales de α consagrados por una larga tradición son 0,1, 0,05 y
0,01, aunque naturalmente pueden elegirse otros. El valor (o valores, como veremos después) del estadı́stico
de contraste que separa las regiones crı́ticas y de aceptación, se llama valor crı́tico o punto crı́tico, y
está determinado por el nivel de significación de la forma que más tarde se establecerá.
H0 : p = 0, 5,
H1 : p > 0, 5.
Obsérvese que hemos planteado la hipótesis alternativa como una desigualdad de la forma “el parámetro
es mayor que un cierto número”, ya que creemos que es ése el caso.
Imaginemos ahora otra situación: Se ha diseñado una dieta para rebajar peso, que en unas pruebas
preliminares indican que después de un mes de aplicación, el descenso medio de peso es de más de 5
kilogramos. Llamemos µa y µd a los parámetros peso medio antes y después de un mes de aplicación de la
dieta respectivamente. Para confirmar o desmentir el resultado de las pruebas preliminares, se formulan
las siguientes hipótesis:
H0 : µd − µa = 5,
H1 : µd − µa < 5.
Ahora la hipótesis alternativa se ha planteado como una desigualdad de la forma “el parámetro (en este
caso es una diferencia de parámetros) es menor que un cierto número”. No obstante es evidente que
se habrı́a podido plantear la hipótesis alternativa con la desigualdad en sentido contrario, sin más que
cambiar el orden de µa y µd .
Por último consideremos un proceso de fabricación de pistones de motores. El diámetro exterior de
los mismos debe cumplir estrictamente con las especificaciones de tolerancia establecidas en ±0,03 mm
Tema 4. Estimación y pruebas de hipótesis 18
alrededor del valor nominal del diámetro, ya que de no ser ası́ nos verı́amos obligados o bien a rectificar
los pistones con un diámetro excesivamente grandes antes de su venta, o a desechar los que tienen una
diámetro pequeño, con los consiguientes costes adicionales. En una inspección se detecta la aparición
tanto de unos como de otros con una frecuencia que parece ser alta, lo que nos hace sospechar que el
proceso tiene una variabilidad mayor que la deseada. Un parámetro usual que mide la variabilidad de una
población es la varianza. En los procesos de control de calidad, se considera admisible una variabilidad
de ±3σ alrededor de la media, de modo que para confirmar nuestra sospecha establecemos las siguientes
hipótesis
H0 : σ 2 = 0, 0001,
H1 : σ 2 > 0, 0001.
H0 verdadera H0 falsa
No rechazamos H0 Decisión correcta Error de tipo II
Rechazamos H0 Error de tipo I Decisión correcta
Llegados a esta situación, la práctica impuesta por el uso de la Estadı́stica ha sido introducir el concepto
de valor-p de una prueba.
Definición 6.3 Se llama valor-p de una prueba de hipótesis al menor valor del nivel de significación
que nos llevarı́a, con los datos disponibles, a rechazar la hipótesis nula.
En las páginas anteriores hemos hecho una descripción bastante detallada del proceso de obtención de
distintos intervalos de confianza. En cuanto a las pruebas de hipótesis, sólo vamos a describir por brevedad
la obtención de algunas de ellas: la relativa a la media de una población normal o aproximadamente normal
con varianza conocida. Para las restantes pruebas de hipótesis se procede de forma análoga.
Tema 4. Estimación y pruebas de hipótesis 19
Asimismo, como la probabilidad de que X tome un valor mayor que µ0 + c o menor que µ0 − c es α
(que suponemos que es un valor pequeño), si tal cosa ocurriera, estarı́amos inclinados a pensar que no
nos encontramos en la situación descrita en la figura 3, es decir, que H0 no es cierta y por lo tanto, la
rechazarı́amos. Por eso, las desigualdades X > µ0 +c y X < µ0 −c definen la región crı́tica (o de rechazo).
Obsérvese que los puntos del eje horizontal de abcisas µ0 − c y µ0 + c están unı́vocamente determinados
una vez que elegimos el valor del nivel de significación α.
Tema 4. Estimación y pruebas de hipótesis 20
Hay que advertir, no obstante, que aunque poco probable, no es imposible que siendo H0 cierta, X
tome un valor en la región crı́tica. Ello nos llevarı́a a rechazar H0 aun siendo cierta, es decir, estarı́amos
cometiendo un error de Tipo I. La probabilidad de que tal cosa ocurra es de α.
Para profundizar en la comprensión de la prueba de hipótesis, supongamos ahora que la hipótesis nula
no es cierta. Entonces, la distribución de X sigue siendo normal
µ con
¶ la misma varianza que antes, pero
σ
ahora su media no es µ0 , es decir, ahora tenemos X ∼ N µ, √ con µ 6= µ0 , situación descrita en
n
la figura 4. La región de aceptación es la misma que antes, ya que su tamaño sólo depende del nivel de
significación α, ası́ que ahora la probabilidad β de que X tome valores en dicha región, es el área rayada
bajo la curva de campana. Si el valor de prueba µ0 está muy alejado de la media µ de la población, esta
área será muy pequeña, es decir será poco probable que aceptemos H0 (lo cual es razonable), pero si µ0
estuviera cerca de µ, tal área serı́a grande y por tanto serı́a grande la probabilidad de aceptar H0 aun
siendo falsa. Si ocurre esto último, estaremos cometiendo un error Tipo II. La probabilidad de tal error
es β.
X − µ0
En la práctica no se utiliza como estadı́stico de contraste X sino Z = √ que tiene distribución
σ/ n
normal estándar si la hipótesis nula es cierta. De este modo tenemos:
µ ¶
−c c
P (µ0 − c 6 X 6 µ0 + c) = P √ 6Z6 √ = 1 − α.
σ/ n σ/ n
c
De la última igualdad se desprende que ± √ son los puntos crı́ticos ±zα/2 de la distribución normal
σ/ n
estándar, ası́ que resumiendo todo esto, tenemos nuestra prueba de hipótesis:
(
H0 : µ = µ0 X − µ0
Prueba: Estadı́stico de contraste: Z = √ ∼ N (0, 1)
H1 : µ 6= µ0 σ/ n
(
H0 : µ = µ0 X − µ0
Prueba: Estadı́stico de contraste: Z = √ ∼ N (0, 1)
H1 : µ > µ 0 σ/ n
(
H0 : µ = µ0 X − µ0
Prueba: Estadı́stico de contraste: Z = √ ∼ N (0, 1)
H1 : µ < µ 0 σ/ n